Vous êtes sur la page 1sur 285

Introducci on a los sistemas de ecuaciones lineales

Departamento de Matem aticas, CCIR/ITESM 19 de enero de 2011

Indice
1.1. Introducci on . . . . . . . . . . . . . . . . . 1.2. Ecuaci on lineal . . . . . . . . . . . . . . . 1.3. Sistema de ecuaciones lineales . . . . . . . 1.4. Representaci on matricial . . . . . . . . . . 1.5. Soluci on particular y general . . . . . . . 1.6. Clasicaci on de los sistemas de ecuaciones 1.7. M etodo de soluci on a un sistema lineal . . 1.8. Manipulaci on de ecuaciones . . . . . . . . 1.9. Operaciones elementales . . . . . . . . . . 1.10. Operaciones elementales de rengl on . . . . 1.11. Eliminaci on matricial contra algebraica . 1.12. Comentario nal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 3 4 7 8 8 9 11 16 17

1.1.

Introducci on

En esta secci on se introducen los conceptos b asicos referentes a los sistemas de ecuaciones lineales. Deniremos cu ando una ecuaci on es una ecuaci on lineal y cu ando se tiene un sistema de ecuaciones lineales. La matriz aumentada del sistema se utilizar a para representar convenientemente el total de la informaci on del sistema y se describir a c omo la manipulaci on de ella equivale a la manipulaci on del sistema de ecuaciones. Asimismo, se introducir a la idea de la estrategia de eliminaci on gaussiana para resolver un sistema de ecuaciones basado ciertas operaciones llamadas operaciones elementales.

1.2.

Ecuaci on lineal

Denici on 1.1 Una ecuaci on lineal con n variables x1 , x2 , . . . , xn es una igualdad matem atica que puede escribirse en la forma: a1 x1 + a2 x2 + + an xn = b (1)

on, y a b se le llama el t ermino constante. Las variables Los ai se conocen como los coecientes de la ecuaci o inc ognitas xi representan cantidades desconocidas que se desean determinar. Si el valor de b es cero, se dice que la ecuaci on es una ecuaci on homog enea. Dada la ecuaci on (1), a la nueva ecuaci on a1 x1 + a 2 x2 + + a n xn = 0 (2)

on homog enea asociada. Es com un convenir en un ordenamiento de las inc ognitas se le conoce como la ecuaci xi ; de acuerdo a ese orden, a la primera de ellas que no tenga coecente cero se le llamar a variable delantera, mientras que las restantes se les llamar an variables libres. Cuando una ecuaci on aparece descrita como en

(1) se dice que la ecuaci on est a en su forma can onica. Note que en la forma can onica todas las variables se encuentran en el primer miembro, mientras que los t erminos donde ellas no aparecen quedan en el segundo. Ejemplo 1.1 Indique cu ales opciones contienen ecuaciones lineales: 1. 2. 3. 4. 5. 6. 7. 8. x y = 4 2 x 3 y x + 2y = 2w + 4z 5 x y + 5 z = 1 + w 5 x + 5y + z = x 4 x 4 y = z 5x + y + 5z = 1 + 5y cos (x) + 2 y 3 z = 1 5 x+y+z =1

Soluci on S olamente las opciones 1, 2 y 6 contiene ecuaciones lineales. Los t erminos resaltados impiden que pueda llevarse a la forma can onica Ejemplo 1.2 Indique cu ales opciones contienen ecuaciones lineales y homog eneas: 1. 2. 3. 4. 5. 6. x + y + z = 1 4y x = w 2 y2 2 x 3 y = 5 4 x 9 y x+y =w+z 3 4 x = 3 3 x + 5 y x + xy + z = 0

Soluci on S olamente las opciones 4 y 5 contiene ecuaciones lineales homog eneas. 2 y 6 no son lineales. 1 y 3 son lineales pero no homog eneas

1.3.

Sistema de ecuaciones lineales

Denici on 1.2 Un sistema de ecuaciones simult aneas, o tambi en llamado un sistema lineal, es un conjunto de ecuaciones lineales. El problema de resolver tal sistema consiste en encontrar las soluciones que satisfacen simult aneamente todas las ecuaciones del sistema. Un sistema de ecuaciones lineales es un conjunto de ecuaciones que puede ser escrito en la forma: a1 1 x1 + a1 2 x2 + + a1 n xn = b1 a2 1 x1 + a2 2 x2 + + a2 n xn = b2 (3) . . . am 1 x1 + am 2 x2 + + am n xn = bm Los n umeros a1 1 , a1 2 , . . . , a1 n , a2 1 , a2 2 , . . . , a2 n ,. . . , am 1 , am 2 , . . . , am n , son los coecientes del sistema, mientras que b1 , b2 , . . . , bm son los t erminos constantes. Cuando todos los t erminos constantes son cero, se dice eneo. Un concepto que posteriormente cobrar a importancia es el de que el sistema es un sistema lineal homog sistema homog eneo asociado a un sistema lineal: es el sistema que se obtiene haciendo ceros todos los t erminos constantes del sistema.

1.4.

Representaci on matricial

Una forma de abreviar la escritura de un sistema lineal y que, c omo se ver a posteriormente, es muy conveniente en el proceso de soluci on es el de la matriz aumentada. Una matriz es un arreglo rectangular de n umeros. Las alineaciones horizontales se llamar an las de la matriz, mientras que las alineaciones verticales de llamar an columnas de la matriz. La dimensi on de una matriz ser a el producto indicado del n umero de renglones por el n umero de columnas de la matriz. As por ejemplo, se dir a que la dimensi on de una matriz es 4 3, lo cual indicar a que el arreglo rectangular tendr a 4 renglones y 3 columnas. La posici on de los renglones en una matriz ser a de arriba hacia abajo. Mientras que la posici on de las columnas ser a de izquierda a derecha. Cuando se reere al elemento (i, j ) de una matriz, se reere al elemento que est a en el rengl on i y en la columna j. Denici on 1.3 La matriz aumentada de un sistema lineal es una matriz que representa el total de la informaci on del sistema. Para formar la matriz aumentada, primeramente se conviene en un ordenamiento para las inc ognitas del sistema. Seguido de ello, cada ecuaci on es reescrita en la forma can onica de acuerdo a tal orden. Si el sistema tiene m ecuaciones y n inc ognitas la matriz aumentada tendr a dimensi on m (n + 1), donde cada rengl on de ella contendr a la informaci on de la ecuaci on correspondiente. Cada una de las primeras n columnas de la matriz estar an asociadas a una inc ognita y estar an dispuestas en el orden acordado: la primera columna relacionada con la primera inc ognita, la segunda columna con la segunda inc ognita, etc etera. La u ltima columna estar a asociada a los segundos miembros de cada ecuaci on. En t erminos precisos, si a es el coeciente en la ecuaci on i de la variable j , entonces el elemento (i, j ) en la matriz aumentada es a. Por otro lado, si b es el t ermino constante en la ecuaci on i, entonces la matriz aumentada del sistema tendr a b en la posici on (i, n + 1). Veamos un ejemplo que ilustra c omo se forma la matriz de un sistema de ecuaciones lineales. Ejemplo 1.3 Construya la matriz aumentada para el sistema lineal: 3 x 5 z = 1 y + 2x z = 0 2y 4z = 4 Soluci on Para formar la matriz aumentada del sistema debemos convenir en un orden para las inc ognitas, digamos que convenimos en el orden lexicogr aco o alfab etico: primero x, luego y y por u ltimo z . Luego debemos convenir en un orden para las ecuaciones; aqu tomaremos el orden en cual est an dadas. El sistema se puede reescribir como: 3 x +0 y 5 z = 1 2 x +1 y 1 z = 0 0 x +2 y 4 z = 4 As , la matriz aumentada es: o 3 0 5 1 2 1 1 0 0 2 4 4 3 0 5 : 1 3 0 5 1 2 1 1 : 0 o 0 2 1 1 0 2 4 : 4 0 2 4 4

En general, en la matriz aumentada se puede diferenciar la matriz de coecientes y el vector de t erminos constantes de un sistema lineal. Para el ejemplo anterior, la matriz de coecientes y el vector de t erminos 3

constantes son respectivamente: 3 0 5 1 2 1 1 y 0 0 2 4 4 Observe que la matriz aumentada del sistema tiene 3 renglones y 4 columnas (un rengl on por cada ecuaci on, una columna por cada inc ognita m as una columna por los t erminos constantes), por ello es que la matriz aumentada tiene dimensi on 3 4, mientras que la matriz de coecientes es 3 3

1.5.

Soluci on particular y general

Deniremos ahora lo que buscamos para sistemas de ecuaciones lineales: primero en el caso de una ecuaci on lineal y despu es en el caso de un sistema de ecuaciones. Denici on 1.4 Una soluci on a una ecuaci on es una asignaci on xi = ci a cada una de las inc ognitas que al realizarse hace que atica o simplemente identidad es una relaci on la ecuaci on se convierta en una identidad. Una identidad matem matem atica de igualdad que siempre es cierta sin importar qu e valor se asigne a las variables que contiene, por ejemplo son identidades: sin2 (x)+cos2 (x) = 1 y (x + y )2 = x2 +2 x y + y 2 . Contrariamente a una identidad, una ecuaci on s olo es v alida posiblemente para algunos valores. En general, distinguiremos dos tipos de soluciones. Cuando en cada asignaci on xi = ci las ci tengan s olo constantes diremos que se tiene una soluci on particular. Mientras que si en alguna de ellas aparecen par ametros libres se dir a que se tiene una soluci on. Por otro on general para una ecuaci on es una f ormula matem atica de donde pueden ser obtenidas todas lado, la soluci las soluciones a ella: usualmente estas f ormulas contienen variables o par ametros libres. El concepto soluci on general cuando contiene par ametros tiene dos implicaciones. Por un lado implica que no importa que valor se asigen a tales par ametros lo que se obtiene es una soluci on, y tambi en se implica que si se da una soluci on particular de la ecuaci on, debe ser posible encontrar valores espec cos a los par ametros para obtener dicha soluci on. El concepto de soluci on a un sistema de ecuaciones lineales es una extensi on directa al concepto de soluci on a una ecuaci on poniendo de maniesto la simultaneidad del problema: Denici on 1.5 Una asignaci on del tipo x1 = r1 , x2 = r2 , . . . , xn = rn para las inc ognitas de un sistema, se dice soluci on a un on es una soluci on a todas y cada una de las ecuaciones del sistema. Si un sistema sistema lineal, si esta sustituci tiene al menos una soluci on se llama sistema consistente; en caso contrario, se dice sistema inconsistente. Ejemplo 1.4 Verique que x = 3, y = 1, z = 2 es soluci on a: 2 x + y 3 z = 1 Soluci on Sustitiyendo los valores de cada inc ognita en la ecuaci on obtenemos: 2 (3) + (1) 3 (2) = 1 1 = 1 Como queda una identidad, x = 3, y = 1, z = 2 es soluci on a la ecuaci on Ejemplo 1.5 Verique que x = 3, y = 1, z = 2 es soluci on al sistema: 2x + y 3 z = 1 x y 2z = 0 x + 2y + z = 2 4

Soluci on Sustitiyendo en cada ecuaci on tenemos: 2 (3) + (1) 3 (2) = 1 =1 1 (3) (1) (2) = 0 =2 0 2 (3) + 2(1) + (2) = 3 =3 Como la tercera de estas igualdades no se cumple, x = 3, y = 1, z = 2 no es soluci on al sistema dado Ilustremos un poco la naturaleza de los sistemas de ecuaciones lineales. Los siguientes ejemplos contienen sistemas de ecuaciones y su representaci on gr aca. En dichos ejemplos, se ilustra c omo son los posibles conjuntos soluci on: cuando la soluci on consta de un s olo punto, soluci on u nica, cuando el n umero de soluciones es innito, y cuando no existe ninguna soluci on al sistema. Ejemplo 1.6 Sistema con soluci on u nica:
6 J J 3x + 2y = 6 3 J J 2 J x y = 0 J r 1 J J J J x 1 2 J 3 J J y

3x + 2y = 6 xy = 0

En este caso, las rectas no son paralelas al tener diferente pendiente y deben cortarse en un solo punto Ejemplo 1.7 Sistema con innitas soluciones:
Jy J 3 6 J3 x + 2 y = 6 J J J J 6 x + 4 y = 12 J J J J 3 x 1 2J

3x + 2y = 6 6 x + 4 y = 12

2 1

En este caso, ambas ecuaciones representan la misma recta en el plano Ejemplo 1.8 Sistema inconsistente:

3 x + 2 y = 6.3 3 x + 3 y = 5.8

J J Jy 6 JJ J 3 J J 3 x + 2 y = 6.3 J JJ 2 JJ JJ J 1 3 x + 2 y = 5.8 J J J JJ J JJ 1 2J 3 J

En este caso, las ecuaciones representan rectas paralelas; al tener la misma pendiente y tener diferente ordenada al origen no es posible que se corten Ejemplo 1.9 Sistema con soluci on u nica:

6 5

x + 3y z = 4 2 x + y + 3 z = 9 4 x + 2 y + z = 11

4 z3 2 1 0 0 1 2 y 3 4 4 3 2 x 1 0

Ejemplo 1.10 Sistema con innitas soluciones:

-4

x + 2y z = 4 2x + 5y + 2z = 9 x + 4y + 7z = 6

-2 0

y 2 4 -4 -2

0 2 4 x

Ejemplo 1.11 Sistema inconsistente:

4 2

y 2z = 5 2 x y + z = 2 4x y = 4

z0 -2 -4 -4 -2 y 0 2 4 4 2 0 x -4 -2

Ejemplo 1.12 Sistema inconsistente:

-4

2x y + z = 2 2 x y + z = 2 2x y + z = 0

-2 0

y 2 4 -4 -2

0 2 4 x

Ejemplo 1.13 Sistema inconsistente:

-4

2x y + z = 2 2x y + z = 2 2x 2y + 3z = 0

-2 0

y 2 4 -4 -2

0 2 4 x

1.6.

Clasicaci on de los sistemas de ecuaciones

Podemos clasicar los sistemas de ecuaciones respecto a sus conjuntos soluci on: sistema consistente 7

con soluci on u nica sistema inconsistente

con innitas soluciones

1.7.

M etodo de soluci on a un sistema lineal

on hacia atr as. Este m etodo consiste en resolver primero la Estos sistemas se resuelven mediante sustituci u ltima ecuaci on; con su soluci on resolver la pen ultima ecuaci on y as sucesivamente. En nuestro ejemplo: De la u ltima ecuaci on: z = 2, Con el valor anterior la segunda ecuaci on queda 2 y + (2) = 2 por consiguiente y = 0, Sustituyendo las inc ognitas despejadas la primera ecuaci on queda: 2 x + 3 (0) 2 (2) = 1 Por consiguiente x = 3/2 Viendo lo sencillo de resolver los sistemas triangulares, el problema de resolver un sistema de ecuaciones lineales se convierte en el problema de transformar un sistema dado en un sistema de forma triangular que sea un sistema equivalente a el, es decir, un sistema nuevo cuyo conjunto soluci on es el mismo que el conjunto soluci on al sistema original.

Los sistemas de ecuaciones lineales m as sencillos de resolver son los sistemas de forma triangular. Considere el siguiente ejemplo. 2x + 3y 2z = 1 2y + z = 2 3 z = 6

1.8.

Manipulaci on de ecuaciones

Cuando uno manipula sin cuidado una ecuaci on para resolverla puede ocurrir que se pierdan soluciones o inclusive que se ganen soluciones que no lo son. Veamos los siguientes ejemplos. Si para resolver la ecuaci on x (x + 3) = x cancelamos x en ambos lados de la ecuaci on, y resolvemos obtenemos que la u nica soluci on es x = 2, lo cual es incorrecto pues en la cancelaci on perdimos la soluci on x = 0. Si por otro, para resolver la ecuaci on x + 2 1 = 2x + 3 despejamos el radical y elevamos al cuadrado, obtenemos la ecuaci on cuadr atica: x + 2 = (2 x + 4)2 la cual tiene como ra ces x = 2 y x = 7/4, de las cuales x = 7/4 no es ra z de la ecuaci on inicial. De estos ejemplos concluimos que la manipulaci on a un sistema de ecuaciones lineales a resolver debe hacerse con cuidado de manera que no se pierdan o ganen soluciones incorrectas. Dos sistemas de ecuaciones son sistemas equivalentes si ambos tienen el mismo conjunto soluci on. Nuestra forma de proceder ser a manipular el sistema de ecuaciones de manera que en cada paso se tenga un sistema equivalente al sistema del paso anterior. 8

1.9.

Operaciones elementales

Las tres reglas siguientes ayudan a triangularizar un sistema y garantizan la obtenci on de sistemas de ecuaciones equivalentes: estas reglas se conocen como operaciones elementales entre las ecuaciones del sistema. Las operaciones elementales con ecuaciones son: Operaci on de Intercambio: Intercambie dos ecuaciones (la de la posici on i con la de la posici on j ): Ei Ej (4)

La forma de interpretar la operaci on ser a la siguiente. Dado un cierto sistema de ecuaciones lineales, se genera un nuevo sistema de ecuaciones donde la diferencia entre ambos ser a que la ecuaci on i del nuevo sistema ser a la ecuaci on j del sistema previo y la ecuaci on j ser a del nuevo sistema ser a la ecuaci on i del sistema previo. E1 E1 . . . . . . E i 1 E i 1 E Ej i Ei+1 E E Ei+1 i j . . . . SELinicial : SELnuevo : . . Ej 1 Ej 1 E Ei j Ej +1 Ej +1 . . . . . . En En

Operaci on de Escalamiento: Multiplique una ecuaci on (la de la posici on i) por una constante diferente de cero (c): Ei c Ei , c = 0 (5)

Operaci on de Eliminaci on: Sume a una ecuaci on (la de la posici on j ) un m ultiplo de otra ecuaci on (la de la posici on i) y a la ecuaci on resultante ll amele de nuevo la ecuaci on j : Ej Ej + c Ei (6)

La forma de interpretar la operaci on ser a la siguiente. Dado un cierto sistema de ecuaciones lineales, se genera un nuevo sistema de ecuaciones donde la diferencia entre ambos ser a que la ecuaci on i del nuevo sistema ser a la ecuaci on i del sistema previo multiplicada por el escalar c. La multiplicaci on ser a en ambos miembros de la ecuaci on. E1 E1 . . . . . . E E i 1 i 1 Ei c Ei Ei c Ei SELinicial : SELnuevo : E E i+1 i+1 . . . . . . En En

La forma de interpretar la operaci on ser a la siguiente. Dado un cierto sistema de ecuaciones lineales, se genera un nuevo sistema de ecuaciones donde la diferencia entre ambos ser a que la ecuaci on j del nuevo 9

sistema ser a la ecuaci on j del sistema previo a la cual se le ha sumado la ecuaci on i del sistema previo multiplicada por el escalar c. La suma ser a miembro a miembro. E1 E1 . . . . . . E E i 1 i 1 E E i i E E i +1 i +1 Ej Ej + c Ei . . . . SELinicial : SEL : nuevo . . E E j 1 j 1 Ej Ej + c Ei Ej +1 Ej +1 . . . . . . En En Es sencillo justicar que la aplicaci on de alguna de las tres operaciones elementales anteriores convierten el sistema en uno equivalente. Para ello debe demostrarse que una sustituci on es soluci on al primer sistema si y s olo si es soluci on al sistema resultante. Como las operaciones cambian una o dos ecuaciones basta razonar sobre las ecuaciones transformadas. Esta demostraci on es realmente un ejercicio de escritura. Para llevar a cabo las demostraciones use la siguiente notaci on. Sea X = Xo una sustituci on de la forma x1 = a1 , x2 = a2 , . . . , xn = an donde las xi representan las inc ognitas del sistema y ai representan n umeros reales. Diremos que la ecuaci on E : IE = DE satisface X = Xo si el valor obtenido de sustitituir X = Xo en el lado izquierdo, representado por Sus(X = Xo , IE ), es igual al valor obtenido de sustituir X = Xo en el lado derecho, representado por Sus(X = Xo , DE ). Que la aplicaci on de una operaci on de intercambio de ecuaciones mantiene la equivalencia de entre los sistemas no requiere justicaci on. Suponga que c = 0 y que la ecuaci on E : c IE = c DE se obtiene de E : IE = DE multiplic andola por c as Sus(X = Xo , IE ) = c Sus(X = Xo , IE ) y Sus(X = Xo , DE ) = c Sus(X = Xo , DE ). Por tanto, Sus(X = Xo , IE ) Sus(X = Xo , DE ) = c (Sus(X = Xo , IE ) Sus(X = Xo , DE )) = 0 si y s olo si Sus(X = Xo , IE ) Sus(X = Xo , DE ) = 0. Esto dice que para c = 0, X = Xo es soluci on a la ecuaci on E si y s olo si es soluci on a c E . Lo anterior demuestra que si aplicamos una operaci on de escalamiento el sistema obtenido es equivalente al sistema original. Supongamos ahora que usando las ecuaciones E1 : IE1 = DE1 y E2 : IE2 = DE2 se forma otro sistema de ecuaciones E3 : E1 y E4 : IE2 + c IE1 = DE2 + c IE1 . Suponga ahora que X = X0 es soluci on tanto a E1 como a E2 . Entonces Sus(X = Xo , IE 4 ) = Sus(X = Xo , IE2 + c IE1 ) = Sus(X = Xo , IE2 ) + c Sus(X = Xo , IE1 ) = Sus(X = Xo , DE2 ) + c Sus(X = Xo , DE1 ) = Sus(X = Xo , DE4 ) probando que X = Xo es soluci on a E4 y tambi en a a E4 , entonces Sus(X = Xo , IE2 ) = Sus(X = Sus(X = Sus(X = Sus(X = Sus(X E3 . Si suponemos ahora que X = Xo es soluci on a E3 y = Xo , I E 4 c I E 3 ) = Xo , IE4 ) c Sus(X = Xo , IE3 ) = Xo , DE4 ) c Sus(X = Xo , DE3 ) = Xo , D E 4 c D E 3 ) = Xo , D E 2 )

probando que X = Xo es soluci on a E2 y tambi en a E1 (= E3 ). Lo anterior justica que si aplicamos una operaci on de eliminaci on se obtiene un sistema equivalente al sistema original. 10

1.10.

Operaciones elementales de rengl on

En lugar de manejar ecuaciones es preferible manejar la matriz aumentada del sistema. Por ello es que las anteriores operaciones entre ecuaciones pueden verse como operaciones entre renglones de una matriz. La idea de estas operaciones elementales es que capturen las operaciones elementales entre las ecuaciones de un sistema lineal pero llevadas a la matriz aumentada. Aunque pueden llevarse a efecto a cualquier matriz, no necesariamente a la matriz aumentada de un sistema lineal. Las operaciones elementales de rengl on son: Intercambio: Intercambie dos renglones (el de la posici on i con el de la posici on j ): Ri Rj Escalamiento: Multiplique un rengl on (el de la posici on i) por una constante diferente de cero (c): Ri c Ri , c = 0 (8) (7)

Eliminaci on: Sume a un rengl on (el de la posici on j ) un m ultiplo de otro rengl on (el de la posici on i): Rj Rj + c Ri Ejemplo 1.14 Resuelva el sistema: (9)

x + y z = 1 2 x + y + 3 z = 10 3x + y + 2z = 3

Soluci on Mantengamos el orden de las ecuaciones y el de las variables. El sistema y su matriz aumentada queda: x + y z = 1 1 1 1 1 2 x + y + 3 z = 10 y 2 1 3 10 3 1 2 3 3x + y + 2z = 3 Lo que debemos hacer es eliminar la primera variable de las ecuaciones dos y tres. Para ello a la segunda ecuaci on le debemos sumar la primera ecuaci on multiplicada por 2. Mientras que a la tercera le debemos sumar la primera multiplicada por 3. Despu es de E2 E2 + (2) E1 y E3 E3 + 3 E1 ( o R2 R2 + (2) R1 y R3 R3 + 3 R1 ) obtenemos: x + y z = 1 1 1 1 1 y + 5 z = 8 y 0 1 5 8 + 4y z = 6 0 4 1 6 Lo que debemos hacer ahora es eliminar la segunda variable de la ecuaci on tres. Para ello a la tercera ecuaci on le debemos sumar la segunda ecuaci on multiplicada por 4. Despu es de E3 E3 + 4 E2 ( o R3 R3 + 4 R2 ) obtenemos: x + y z = 1 1 1 1 1 y + 5 z = 8 y 0 1 5 8 + 19 z = 38 0 0 19 38 A pesar de que el sistema es ya escalonado, es m as conveniente continuar 1 1 o R3 19 R3 ) obtenemos: unos delanteros. Despu es de E3 19 E3 ( x + y z = 1 1 1 1 5 y + 5 z = 8 y 0 1 0 0 1 + z = 2 11

el proceso de manera que queden 1 8 2

Eliminemos ahora la variable z de la primera y segunda ecuaci on. E1 E1 + E3 ( o R2 R2 + (5) R3 y R1 R1 + R3 ) obtenemos: x + y = 3 1 1 y = 2 y 0 1 + z = 2 0 0

Despu es de E2 E2 + (5) E3 y 0 3 0 2 1 2

Eliminemos ahora la variable y de la primera ecuaci on. Despu es de E1 E1 + E2 ( o R1 R1 + R2 ): x = 1 1 0 0 1 y = 2 y 0 1 0 2 0 0 1 2 + z = 2 Para nalmente completar nuestra tareas, ajustemos los coecientes de las variables. Despu es de E1 (1) E1 y E2 (1) E2 ( o R1 (1) R1 R2 (1) R2 ): x = 1 1 0 0 1 y = 2 y 0 1 0 2 2 z = 2 0 0 1 La soluci on es x = 1, y = 2, y z = 2. Generalmente, la forma de trabajo consiste s olo en escribir la la manipulaci on de la matriz aumentada indicando en forma detallada las operaciones realizadas. R2 R2 + (2) R1 1 1 1 1 1 1 1 1 R3 R3 + 3 R1 2 1 3 10 5 8 0 1 3 1 2 3 0 4 1 6 1 1 1 1 1 1 1 1 R R + 4 R 3 3 2 0 1 5 8 0 1 5 8 0 4 1 6 0 0 19 38 1 1 1 1 1 1 1 1 1 R3 R3 19 0 1 5 8 5 8 0 1 0 0 19 38 0 0 1 2 R2 R2 + (5) R3 1 1 1 1 1 1 R1 R1 + R3 0 1 5 8 0 1 0 0 1 2 0 0 3 1 1 0 1 0 0 R1 R1 + R2 0 1 0 2 0 1 0 0 0 1 2 0 0 1 R1 (1) R1 1 1 1 0 0 R2 (1) R2 0 1 0 2 0 2 0 0 1 0 Por tanto, la soluci on es: x = 1, y = 2, y z = 2 0 1 0 3 0 0 2 1 2 1 2 2

0 1 0 2 2 1

12

Ejemplo 1.15 Resuelva el sistema

2x + 3y + 9z = 4 3 x 3 y 18 z = 4 x + 2y + 3z = 1

Soluci on Manteniendo el orden de las inc ogintas x primero, y segundo, y z tercero la matriz aumentada del sistema queda: 2 3 9 4 3 3 18 4 1 2 3 1 Observe que para eliminar la variable x de la segunda ecuaci on utilizando la primera ecuaci on deber amos multiplicar la primera ecuaci on por 3/2 lo cual hace que debamos manejar fracciones. Que adem as de la dicultad natural que presentan se incurre en errores del tipo n umerico cuando es necesario redondear n umeros. Por otro lado, si dividimos la ecuaci on 1 entre dos para que las operaciones se simpliquen de nuevo aparecen fracciones. Aprovecharemos mejor el uno que aparece en la ecuaci on 3 es conveniente primero el intercambio de los renglones 1 y 3. Intercambiando en la matriz los renglones 1 y 3: 1 2 3 2 3 9 4 1 R1 R3 3 3 18 4 3 3 18 4 1 4 1 2 3 2 3 9 Uilizando la ecuaci on (el rengl on) 1, que se llamar a ecuaci on (rengl on) pivote, debemos hacer que las ecuaciones (renglones) inferiores no tengan la variable x, es decir, que tengan como coeciente de x cero. Sumando al rengl on 2 el rengl on1 multiplicado por 3, y al rengl on 3 el rengl on 1 multiplicado por -2 obtenemos: R2 R2 + (3) R1 1 1 1 2 3 1 2 3 R3 R3 + (2) R1 3 3 18 4 3 9 1 0 2 3 9 0 1 3 4 2 Ahora procederemos a eliminar la y de la ecuaci on 3. Como en la discusi on inicial, aprovecharemos que en el rengl on 3 aparece el coeciente 1. Intercambiando los renglones 2 y 3 obtenemos: 1 2 3 1 2 3 1 1 R2 R3 0 2 3 9 1 3 0 1 0 1 3 2 0 3 9 1 Sumando al rengl on 3 el rengl on 2 multiplicado por 3 obtenemos: 1 2 3 1 1 2 3 1 R3 R3 + (3)R2 0 1 3 2 0 1 3 2 0 3 9 1 0 0 0 5 El u ltimo rengl on de esta matriz est a representando la ecuaci on: 0x + 0y + 0z = 5 Es decir, 0=5 13

Evidentemente esta relaci on nunca se puede satisfacer. soluci on es el conjunto vac o Regla general para inconsistencia:

Por tanto, el sistema es inconsistente: conjunto

Si en cualquier paso de la eliminaci on aparece un rengl on en la matriz aumentada con ceros excepto el elemento correspondiente a la constante, el sistema ser a inconsistente. (No se requiere terminar el proceso de eliminaci on.) Ejemplo 1.16 Resuelva el sistema

2x + y + 3z = 2 3 x 3 y 3 z = 2 4 x + 11 y 3 z = 2

Soluci on Manteniendo el orden de las inc ogintas x primero, y segundo, y z tercero la matriz aumentada del sistema queda: 2 1 3 2 3 3 3 2 4 11 3 2 Note que ahora no tenemos la fortuna de tener un 1 como primer coeciente. Ni tampoco la divisi on del rengl on primero por 2 es una buena opci on. En estos casos y cuando queramos mantener los n umero de la matriz enteros, lo que conviene es una estrategia como la desarrollada en el m etodo Montante. En este m etodo se hace que los renglones donde se eliminar a una variable se hagan m ultiplos en el coeciente a eliminar del coeciente pivote. En este caso en el rengl on 3, el elemento a hacer cero es un cuatro el cual ya es m ultiplo del elemento pivote que es el 2. Pero en el rengl on dos, el elemento a eliminar -3 no es m ultiplo de elemento pivote 2. Por consiguiente, s olo multiplicaremos de momento el rengl on 2 por 2 de manera que el elemento a eliminar sea -6 el cual es ya m ultiplo del elemento pivote 2. Multiplicamos el rengl on 2 por 2: 2 1 3 2 1 3 2 2 R2 2 R2 3 3 3 2 6 6 6 4 4 11 3 2 4 11 3 2 Procedemos a eliminar la variable x de los renglones inferiores. R2 R2 + (3) R1 2 1 3 2 1 3 2 2 R3 R3 + (2) R1 6 6 6 4 2 3 0 3 4 11 3 2 0 9 9 6 Es importante observar que el rengl on 1 ya no debe ser empleado como pivote para eliminar la variable y en los siguientes pasos; pues si se quisiera eliminar la y utilizando el rengl on 1, volver amos a reaparecer la variable x en los renglones inferiores arruinando el trabajo de eliminarla que ya hemos hecho. Pocedamos a eliminar la variable y de la tercera ecuaci on sumado al tercer rengl on 2 el segundo multiplicado por 3: 2 1 3 2 2 1 3 2 R3 R3 + (3) R2 0 3 3 2 0 3 3 2 0 9 9 6 0 0 0 0 14

Procedemos a trabajar con la variable y : 1 2 1 3 2 1 3 2 2 R2 R2 3 0 3 3 2 0 1 1 2/3 0 0 0 0 0 0 0 0 Procedemos a eliminar la variable y de la primera ecuaci on: 2 0 4 2 1 3 2 8/3 R1 R1 + (1)R2 0 1 1 2/3 0 1 1 2/3 0 0 0 0 0 0 0 0 Y ahora trabajando con la variable x: 1 8/3 4/3 2 0 4 1 0 2 R1 R1 2 0 1 1 2/3 0 1 1 2/3 0 0 0 0 0 0 0 0 Para encontrar la soluci on regresamos cada rengl on a su forma de ecuaci on. 1x + 0y + 2z = 4/3 0 x + 1 y 1 z = 2/3 0x + 0y + 0z = 0 Despejando s olo x y y obtenemos x = 4/3 2 z y = 2/3 + z De donde observamos que queda una variable (z ) sin restricci on. Esta variable se llamar a variable libre y su existencia indica que hay soluciones innitas

Ejemplo 1.17 Resuelva el sistema

x 2y + 3z = 18 2x 4y + 7z = 41 2 x + 4 y 6 z = 36

Soluci on Manteniendo el orden de las inc ogintas x primero, y segundo, y z tercero la matriz aumentada del sistema queda: 18 1 2 3 2 4 7 41 2 4 6 36 Procedemos a eliminar x de las ecuaciones 2 y 3: R2 R2 + (2) R1 18 1 2 3 18 1 2 3 R3 R3 + (+2) R1 2 4 7 0 1 5 41 0 2 4 6 36 0 0 0 0

15

Procedemos a eliminar z de la ecuaci on 1: 1 2 0 3 1 2 3 18 R1 R1 + (3)R2 0 0 1 5 0 1 5 0 0 0 0 0 0 0 0 0 Para encontrar la soluci on regresamos cada rengl on a su forma de ecuaci on. 1x 2y + 0z = 3 0x + 0y + 1z = 5 0x + 0y + 0z = 0 Despejando s olo x y z obtenemos x = 3 + 2y z = 5 De donde observamos que queda una variable libre (y ). Lo que indica que hay innitas soluciones

Ejemplo 1.18 Resuelva el sistema

Soluci on Manteniendo el orden de las inc ogintas x primero, y segundo, y z tercero la matriz aumentada del sistema queda: 1 2 1 1 3 6 3 3 3 6 3 3 Procedemos a eliminar x de las ecuaciones 2 y 3: R2 R2 + (3) R1 1 1 2 1 1 2 1 1 R3 R3 + (+3) R1 3 6 3 3 0 0 0 0 3 6 3 3 0 0 0 0 Convirtiendo el primer rengl on en ecuaci on y despejando x obtenemos: x = 1 + 2y z Como la soluci on tiene dos variables libres (y y z ) el sistema tiene soluciones innitas. (Bastaba tener al menos una variable libre)

x 2y + 1z = 1 3x 6y + 3z = 3 3 x + 6 y 3 z = 3

1.11.

Eliminaci on matricial contra algebraica

Un punto que deber a quedar claro es cu al es el efecto del paso de eliminaci on, cuando es adecuadamente empleado. Para ilustrar esto, supongamos que estamos en el proceso de soluci on de un sistema de ecuaciones lineales y que hemos arribado al paso: + a11 x + a12 y = b1 + a22 y = b2 16

Sabemos que lo que debemos hacer es sustituir el valor de y obtenido en la segunda ecuaci on en la primera: +a11 x + a12 (b2 /a22 ) = b2 y posteriormente debemos despejar al t ermino en x de la primera ecuaci on: +a11 x = b1 a12 b2 a22 Re-

Esto lo hemos aprendido bien y nos resulta c omodo y simple, porqu e insistir en el manejo matricial? presentado el sistema en el estado que se tomo como inicial tendr amos: a11 a12 b1 0 a22 b2 De acuerdo con el proceso de eliminaci on debemos aplicar la operaci on: a11 a12 b1 0 a22 b2
22

R1 R1 a12 R2

12 a11 0 b1 a a22 b2 0 a22 b2

Observamos que al aplicar el paso de eliminaci on, el efecto obtenido es el mismo que el sustituir el valor de una variable ya despejada en una ecuaci on donde aparece. Note que mientras que lo que se hac a previamente involucraba cuestiones algebraicas, en el manejo de matrices s olo involucra cuestiones aritm eticas. Y por consiguiente, este proceso es f acil de implementar en un programa de computadora mientras que en el primer caso requer a de un sistema computacional capaz de manejo simb olico al involucrar sustituci on y despeje, y por consiguiente requerir a un sistema m as complejo. Es tambi en importante observar que el n umero de operaciones aritm eticas que se realizan en el caso del manejo matricial es igual al que se hace en el caso de la ognita k despejada de sustituci on algebraica. En general: el resultado de sustituir en la ecuaci on i (Ei ) la inc on de eliminaci on: la ecuaci on j (Ej ) equivale a realizar la operaci Ei Ei aik Ej ajk (10)

donde aik es el coeciente de la inc ognita k en la ecuaci on i y ajk es el coeciente de la inc ognita k en la ecuaci on j . Note que si ajk es cero entonces la operaci on no puede hacerse y desde el punto de vista operativo signica que la inc ognita k no aparece en la ecuacion j y por tanto no puede despejarse de ella. Es importante aik se nalar que el proceso de eliminaci on utilizando operaciones del tipo Ei Ei a Ej es: jk v alido, al obtenerse los mismos resultados que siguiendo el proceso algebraico tradicional de despeje y sustituci on, programable, al implementarse computacionalmente en forma sencilla, y de igual de costo en t erminos del n umero de operaciones aritm eticas a realizar que el proceso algebraico.

1.12.

Comentario nal

Se recomienda al estudiante que revise a detalle el m etodo anterior para su comprensi on: este m etodo est a probado a ser el m etodo m as eciente en general para resolver ecuaciones. Aunque se sabe que es dif cil abandonar lo que tantas veces se practic o, se le pide que haga el esfuerzo por abandonar pr acticas diferentes de soluci on.

17

Eliminaci on gaussiana y otros algoritmos


Departamento de Matem aticas, CCIR/ITESM 10 de enero de 2011

Indice
2.1. Introducci on . . . . . . . . . . . . . . . . . . . . 2.2. Objetivos . . . . . . . . . . . . . . . . . . . . . 2.3. Forma escalonada por renglones . . . . . . . . . 2.4. Pivotes de una matriz . . . . . . . . . . . . . . 2.5. Algoritmo de eliminaci on gaussiana . . . . . . . 2.6. Eliminaci on Gaussiana: ejemplo . . . . . . . . . 2.7. An alisis de los conjuntos soluci on . . . . . . . . 2.8. F ormula para todas las soluciones . . . . . . . . 2.9. Algoritmo de Gauss-Jordan . . . . . . . . . . . 2.10. Algoritmo de Gauss-Jordan: ejemplo . . . . . . 2.11. M etodo Montante . . . . . . . . . . . . . . . . . 2.12. M etodo de Montante: ejemplo . . . . . . . . . . 2.13. Diferencias operativas de los m etodos . . . . . . 2.14. Complejidad de un algoritmo . . . . . . . . . . 2.15. Complejidad del algoritmo de Gauss . . . . . . 2.16. Complejidad del algoritmo de Gauss-Jordan . . 2.17. Complejidad del algoritmo de Montante . . . . 2.18. Comparativa de los algoritmos . . . . . . . . . 2.19. Algoritmos y computadoras . . . . . . . . . . . 2.20. Y los determinantes del M etodo de Montante? 2.21. Pero, qu e m etodo me conviene seguir? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 3 3 4 5 8 10 11 12 12 13 14 14 16 17 18 18 19 19

2.1.

Introducci on

En esta lectura veremos procedimientos sistem aticos para resolver un sistema de ecuaciones lineales. Estos algoritmos trabajan directamente sobre la matriz aumentada del sistema llev andola a la matriz de un sistema triangular que es equivalente al sistema inicial. La equivalencia del sistema triangular nal con el inicial se argumenta debido a que el algoritmo s olo utiliza los tres tipos de operaciones vistos en la lectura anterior y cuya aplicaci on individual siempre preserva la equivalencia. Los procedimientos que revisaremos son: el algoritmo de Eliminaci on Gaussiana, el algoritmo de Gauss-Jordan y el m etodo Montante. Finalmente, se realizar a una revisi on sobre el trabajo computacional realizado por estas estrategias.

2.2.

Objetivos

Ser a importante que Usted Entienda los conceptos: matriz escalonada y escalonada reducida.

Entienda y mecanice los procedimientos de Eliminaci on gaussiana, Eliminaci on de Gauss-Jordan, y El m etodo de Montante. Conozca las diferencias en el proceder entre los algoritmos vistos. Comprenda las reglas para analizar las soluciones a un sistema de ecuaciones. Comprenda el concepto de complejidad de un algoritmo. Conozca las diferencias en los costos de c omputo de los algoritmos vistos.

2.3.

Forma escalonada por renglones

Los algoritmos que veremos trabajan sobre la matriz aumentada y realizan sobre de ella operaciones elementales de rengl on como fueron denidas en la lectura anterior. Esta matriz ir a transform andose paulatinamente a una matriz que posee ciertas propiedades. Lo que haremos primeramente es denir estas. Denici on 2.1 Una matriz se dice matriz escalonada si cumple: 1. En caso de tener renglones de ceros, todos ellos est an en la parte inferior de la matriz. 2. El elemento delantero de cada rengl on no cero (despu es del primer rengl on) se encuentra a la derecha del elemento delantero del rengl on anterior. Y se llama matriz escalonada reducida si es escalonada y adem as cumple: 3. El elemento delantero de cualquier rengl on no cero es 1. 4. Todos los elementos arriba y abajo de un 1 delantero son cero. Ejemplo 2.1 Indique porqu e las siguientes matrices no son escalonadas:
2 0 0 3 0 0 2 1 0 , 0 1 0 3 5 2 2 1 0 2 , 0 1 0 3 0 3 0 1 0 2 , 0 2 0 0 0 1 0 0 0 3 , 0 3 5 0 1 1 3 3 3

Soluci on En el primer ejemplo, tiene un rengl on de ceros y no aparece hasta el nal; no se cumple la condici on 1. En el segundo ejemplo, cuando comparamos la posici on del primer elemento no cero del segundo rengl on (5) con la posici on del primer elemento no cero del tercer rengl on (2) vemos que el 2 no est a a la derecha del 5; no se cumple la condici on 2. En el tercer ejemplo, el rengl on de cero aparece hasta abajo, pero cuando se comparan los elementos delanteros de los renglones 2 y 3 el inferior no est a a la derecha del elemento delantero superior: se cumple la condici on 1 pero no la 2. En el cuarto ejemplo, falla de nuevo la condici on 1. En el u ltimo ejemplo, recuerde s olo hay escalonada de derecha a izquierda; el elemento delantero del rengl on 2 no est a a la derecha de delantero del rengl on 1 Ejemplo 2.2 Indique porqu e las siguientes matrices s son escalonadas:
2 0 0 3 5 0 2 1 0 2 , 0 1 0 3 1 0 0 1 0 2 , 0 0 0 0 2 0 0 3 1 3 , 0 0 0 2 0 0 0 0 0 , 0 0 0 0 0 0 0 0 0

Soluci on Observe que las matrices listadas cumplen las condiciones 1 y 2 Ejemplo 2.3 Indique porqu e las siguientes matrices son escalonadas pero no reducidas:
1 0 0 3 1 0 1 1 0 , 0 2 0 2 1 0 1 1 0 2 , 0 1 0 0 1 0 0 1 1 0 , 0 1 0 0 1 0 0 3 0 1 , 0 0 0 1 0 0 3 1 0

Soluci on En el primer ejemplo, est a fallando la condici on 3: el elemento delantero del rengl on 3 debe ser 1. En el segundo ejemplo, la condici on 3 se cumple pero la condici on 4 falla: arriba de los 1 delanteros debe haber s olo ceros. En los ejemplos 3, 4 y 5, note que la condici on 4 dice que todos los elementos superiores a los elementos delanteros deben ser cero. En estos ejemplos no se cumple tan condici on Ejemplo 2.4 Verique que las siguientes matrices s son escalonadas reducidas:
1 0 0 0 1 0 1 0 0 0 , 0 1 0 0 1 0 0 3 0 1 , 0 0 0 0 1 0 0 1 0 1 , 0 0 0 3 0 0 0 4 0 , 0 0 0 0 0 0 0 0 0

Soluci on Observe que en el ejemplo 2, el elemento (2,3) no es delantero por ello no se impone la condici on que el elemento superior sea cero. La matriz es efectivamente escalonada reducida

2.4.

Pivotes de una matriz

Cuando una matriz est a en su forma escalonada, los primeros elementos diferentes de cero de cada rengl on reciben el nombre de elementos pivote o simplemente pivotes. Note que por ser el pivote el primer elemento no cero del rengl on, no hay forma que un rengl on tenga m as de un pivote: puede no tener pivote en caso de que sea un rengl on de ceros, pero no puede tener dos o m as. Note tambi en que por estar escalonada la matriz, no hay forma que dos pivotes queden en la misma columna: puede una columna no tener pivote, pero si tiene pivote no puede tener dos o m as. De este hecho, concluimos que una matriz m n no puede tener mas de m pivotes porque tiene a los m as uno por cada rengl on. Y por otro lado, no puede tener m as de n pivotes pues a lo m as tiene un pivote por cada columna. Es decir, el n umero de pivotes debe ser menor o igual que el m nimo n umero entre m y n.

2.5.

Algoritmo de eliminaci on gaussiana

El Algoritmo de Gauss o de Eliminaci on gaussiana consta de los siguientes pasos: 1. Determine la primer columna (a la izquierda) no cero. 2. Si el primer elemento de la columna es cero, interc ambielo por un rengl on que no tenga cero. 3. Obtenga ceros abajo del elemento delantero sumando m ultiplos adecuados a los renglones debajo de el. 4. Cubra el rengl on y la columna de trabajo y repita el proceso comenzando en el paso 1. Al t ermino del ciclo entre el paso 1 al 4 (es decir cuando se han barrido todos los renglones), la matriz deber a tener forma de escal on. 5. Comenzando con el u ltimo rengl on no cero avance hacia arriba para que en cada rengl on tenga un 1 delantero y arriba de el queden s olo ceros. Para ello deber a sumar m ultiplos adecuados del rengl on a los renglones correspondientes.

Es importante observar que en el m etodo de eliminaci on Gaussiana: Los pasos del 1 a 4 aplicados repetidamente escalonan la matriz; el paso 5 aplicado repetidamente reduce la matriz. En el paso 2, si el elemento no es cero no se realiza intercambio. En el paso 3, los elementos que se hacen cero son s olo los inferiores al pivote.

2.6.

Eliminaci on Gaussiana: ejemplo

Ejemplo 2.5 Aplique el algoritmo de Gauss a la matriz: 3 6 9 3 2 4 8 0 2 3 4 1 Soluci on En nuestro caso la primer columna tiene elementos diferentes de cero, continua entonces en el paso 2. Siendo el elemento (1, 1) diferente de cero se continua con el paso 3. El elemento (1, 1) ser a usado como pivote para hacer ceros debajo de el; para ello debemos sumar m ultiplos adecuados del rengl on pivote a los renglones inferiores: 3 6 9 3 3 3 6 9 R2 R2 (2/3) R1 2 4 8 0 (1) 0 0 2 2 R3 R3 (2/3) R1 2 3 4 1 0 1 2 1 El algoritmo procede tapando el rengl on de trabajo, en este caso el primero. Al repetir el paso 1, el algoritmo busca la primer columna diferente de cero; en este caso se mueve a la segunda columna y continua con el paso 2. En vista que elemento (2, 2) es cero debemos buscar en la parte inferior de la columna 2 un elemento diferente de cero y realizar un intercambio de renglones: 3 6 9 3 6 9 3 3 R2 R3 0 0 2 2 1 0 1 2 (2) 0 1 2 1 0 0 2 2 Continuamos ahora con el paso 3. En este caso los elementos por debajo del elemento (2, 2) son cero, y el algoritmo procede a la siguiente columa. El algortimo termina en sus pasos 1 al 4. Procede al paso 5. La matriz es ahora escalonada, el siguiente paso es hacer 1 cada pivote y posteriormente hacer cero arriba de cada uno de ellos. Hagamos 1 el elemento (3, 3): 3 6 9 3 3 6 9 3 R3 1/(2) R3 0 1 2 1 0 1 2 1 (3) 0 0 2 2 0 0 1 1 Debemos hacer cero por arriba del elemento pivote (3, 3): 3 6 9 3 3 6 0 12 R1 R1 (9) R3 0 1 2 1 0 1 0 3 R2 R2 (2) R3 0 0 1 1 0 0 1 1

(4)

Procedamos con el siguiente elemento pivote (2, 2); el elemento ya cero por arriba de el: 3 6 0 12 3 0 R1 R1 6 R2 0 1 0 3 0 1 0 0 1 1 0 0 El algoritmo concluye haciendo 3 0 0

es 1 y ahora debemos proceder a hacer 0 6 0 3 1 1

(5)

1 el pivote del primer rengl on: 1 0 0 2 0 0 6 R1 1/3 R1 3 3 1 0 0 1 0 0 1 1 0 0 1 1

(6)

2.7.

An alisis de los conjuntos soluci on

Una vez escalonando o reduciendo la matriz aumentada de un sistema, hay que saber con precisi on qu e se puede decir sobre el conjunto de soluciones. S olo hay tres posibles resultados en el an alisis: El sistema no tiene soluci on: sistema inconsistente. El sistema tiene una u nica soluci on. El sistema tiene innitas soluciones. Regla de Inconsistencia El sistema es inconsistente si aparece un pivote en la columna de t erminos constantes. Ejemplo 2.6 Son inconsistentes los sistemas cuya 1 0 0 1 0 0 0 0 Regla de Consistencia Es consistente cualquier sistema en cuya matriz escalonada no aparece ning un pivote en la columna de t erminos constantes. Ejemplo 2.7 Son consistentes los sistemas cuya matriz aumentada 1 0 1 1 1 3 0 1 0 2 2 2 , 0 0 0 0 3 1 0 0 Regla de la Soluci on Unica Siendo un sistema consistente, el sistema tiene soluci on u nica si en la matriz escalonada la columna de cada variable hay un pivote. 5

matriz aumentada se convierte mediante operaciones elementales en: 0 0 1 0 0 0 2 0 , 0 1 0 0 , 1 1 1 2 0 1 0 0 1 0 0 0 0 3 0 0 0 0 0 1

se convierte mediante operaciones elementales en: 3 1 2 1 , 1 1 1 2 1 1 0 1 1 1 0 0

Ejemplo 2.8 Tienen soluci on u nica lo sistemas cuya matriz aumentada se convierte mediante operaciones elementales en: 1 0 3 1 1 1 1 3 0 2 2 2 , 0 1 2 1 0 0 1 1 0 0 3 1 0 0 0 0 Regla para Soluciones Innitas Si un sistema es consistente, el sistema tiene soluciones innitas si en la matriz escalonada hay una columna de una variable sin pivote. Ejemplo 2.9 Tienen soluciones innitas lo sistemas cuya matriz aumentada se convierte mediante operaciones elementales en: 1 0 3 1 1 1 1 3 0 1 2 1 1 1 1 3 , 0 2 2 2 , 0 0 0 0 0 2 2 2 0 0 0 0 0 0 0 0 Nota Importante Observe que de los ejemplos anteriores que los renglones de ceros pueden ocurrir en cualquiera de los casos: puede haber renglones de ceros en la matriz y el sistema ser inconsistente, consistente con soluci on u nica o consistente con innitas soluciones. Es decir, los renglones de ceros no dan en general informaci on sobre c omo es el conjunto soluci on. Pueden ocurrir o no cuando el sistema sea 1 0 0 0 inconsistente: 1 2 0 1 6 2 0 1 3 0 , 0 1 1 0 0 0 1 0 0 0 1 0 0 0

Pueden ocurrir o no cuando el sistema tenga soluci on u nica: 1 0 1 4 1 0 1 4 0 1 2 1 , 0 1 2 1 0 0 1 1 0 0 1 1 0 0 0 0 Pueden ocurrir o no cuando el sistema tenga innitas soluciones: 1 0 1 4 4 0 1 2 1 , 1 0 1 0 1 2 1 0 0 0 0 Ejemplo 2.10 Se tiene un sistema de ecuaciones que tiene una matriz aumentada 8 5 y al reducirla tiene un total de 5 pivotes, entonces .. 6

A B C D E

es inconsistente. hay soluciones innitas. tiene soluci on u nica. si la u ltima columna hay pivote, inconsistente. Si no, u nica. si la u ltima columna hay pivote, inconsistente. Si no, innitas.

Soluci on Puesto que la matriz escalonada de tiene 5 pivotes y la matriz tiene 5 columnas, entonces toda columna tiene pivote. En particular, la u ltima columna tendr a pivote. Como la matriz es aumentada, entonces la columna correspondiente a las constantes tendr a pivote. Por lo tanto, el sistema original ser a inconsistente. La opci on que describe la situaci on es A Ejemplo 2.11 Se tiene un sistema de ecuaciones que tiene una matriz aumentada 5 5 y al reducirla tiene un total de 4 pivotes, entonces .. A B C D E es inconsistente. tiene soluci on u nica. hay soluciones innitas. si en la u ltima columna hay pivote, inconsistente. Si no, u nica. si la u ltima columna hay pivote, inconsistente. Si no, innitas.

Soluci on Puesto que la matriz reducida es 5 5 y tiene 4 pivotes, la u ltima columna tiene la posibilidad de tener pivote. En cuyo caso, el sistema ser a inconsistente. Tambi en se tiene la posibilidad de que la u ltima columna no tenga pivote. En cuyo caso, el sistema ser a consistente y los cuatro pivotes estar an en las primeras columnas. Y por tanto, en este caso la columna de cada variable tendr a pivote y por consiguiente cada variable ser a ja. Y por lo tanto, en este caso habr a soluci on u nica. La respuesta que describe mejor la situaci on es la D Ejemplo 2.12 Se tiene un sistema homog eneo de ecuaciones que tiene una matriz aumentada 5 6 y al reducirla tiene un total de 5 pivotes, entonces .. A B C D E tiene soluci on u nica. si la u ltima columna hay pivote, inconsistente. Si no u nica. es inconsistente. hay soluciones innitas. si la u ltima columna hay pivote, inconsistente. Si no innitas.

Soluci on Puesto que el sistema es homog eneo, en la columna de las constantes habr a s olo ceros. Por la naturaleza de las operaciones elementales, en la matriz reducida s olo habr a ceros en tal columna. Por tanto, no habr a pivotes en la columna de las constantes. Por tanto, el sistema ser a consistente y los 5 pivotes estar an en las primeras columnas y por tanto, en la columna de cada variable habr a pivote. Por tanto, el sistema ser a consistente con soluci on u nica

2.8.

F ormula para todas las soluciones

Veamos ahora una estrategia para obtener la f ormula de donde se obtienen todas las soluciones a un sistemas de ecuaciones lineales cuando el sistema tiene innitas soluciones. Ilustraremos esto mediante un par de ejemplos. Ejemplo 2.13 Manejando el orden x, y, z, w escriba en forma vectorial la soluci on general al sistema: 4w + 2x + 6y + 2z = 2 w + 3 x + 9 y + 4 z = 14 4 w + 3 x + 9 y + 3 z = 3 3 w + 4 x + 12 y + 4 z = 11 Reporte las coordenadas del vector que multiplica a la variable libre en la soluci on resultante.

Soluci on (Y m etodo general) Paso 1: Apliquemos Gauss a la matriz aumentada Formamos la matriz aumentada con el orden que sugiere el problema (x, y, z, w): 2 6 3 9 3 9 4 12 2 4 3 4 1 2 4 0 1 14 0 4 3 3 11 0 3 0 0 0 0 1 0 0 0 3 0 2 1 3 0 0

Al aplicar las reglas de an alisis, observamos que el sistema es consistente (al no haber pivote en la columna de las constantes) y con soluciones innitas (al ser y una variable libre, recuerde que las variables jas son aquellas en cuya columna hay pivote) Paso 2: Convierta cada rengl on no cero en ecuaci on El rengl on 1 de la reducida que: x + 3 y = 3 El rengl on 2 queda: z = 2 y el rengl on 3 queda: w=3

Paso 3: De cada ecuaci on, despeje la variable delantera. x + 3 y = 3 x = 3 3 y z = 2 z = 2 w = 3 w = 3

Paso 4: Se complementan las ecuaciones introduciendo ecuaciones donde cada variable libre es igual a s misma. x y z w = 3 3 y = y = 2 = 3

Paso 5: Se reescribe en forma vectorial las soluciones 3 3 y x y y z = 2 3 w

Paso 6: Se separa el segundo miembro de acuerdo a las constantes y a las variables libres 3 3 x y 0 +y 1 = 0 z 2 0 3 w Lo anterior es la f ormula general para todas las soluciones del sistema original; el concepto de variable libre indica que se puede tomar cualquier valor y que con el se produce una soluci on. Tambi en, aunque esto no es tan evidente, que cualquier otra soluci on puede obtenerse de esta f ormula para valores adecuados de las variables libres

Ejemplo 2.14 Determine la soluci on general en forma vectorial para el sistema: 6w 2x + 3y + 3z = 3 5w + 2x + y 2z = 2 w 4x + 2y + 5z = 1 13 w 8 x + 8 y + 11 z = 7

Soluci on Sigamos la metodolog a descrita en el ejemplo anterior:

Aplicamos Gauss a la matriz aumentada 2 3 3 6 2 1 2 5 4 2 5 1 8 8 11 13

(orden: x, 3 2 1 7

y, z, w): 1 0 0 0 0 9/8 9/8 3/8 1 1/4 11/4 5/4 0 0 0 0 0 0 0 0

Convertimos cada rengl on diferentes de cero de la matriz reducida a una ecuaci on: x 9/8 z + 9 /8 w = 3 /8 y + 1/4 z + 11/4 w = 5/4 Ahora, despejamos las variables jas (x y y ): x = 3/8 + 9/8 z 9/8 w y = 5/4 1/4 z 11/4 w Complementamos las ecuaciones con ecuaciones donde cada variable libre est a igualada a s misma: x y z w = = = = 3/8 + 9/8 z 9/8 w 5/4 1/4 z 11/4 w z w

Ahora, le damos a lo anterior la forma de una igualdad entre vectores: x 3/8 + 9/8 z 9/8 w y 5/4 1/4 z 11/4w z = z w w Finalmente, separamos el lado izquierdo de acuerdo a las variables libres: x 3/8 9/8 9/8 y 5/4 1/4 11/4 z = 0 +z 1 +w 0 w 0 0 1

2.9.

Algoritmo de Gauss-Jordan

El Algoritmo de Gauss-Jordan consta de los siguientes pasos: 1. Determine la primer columna (a la izquierda) no cero. 2. Si el primer elemento de la columna es cero, interc ambielo por un rengl on que no tenga cero. Multiplicando apropiadamente el rengl on, h agalo 1. Este primer 1 ser a llamado 1 pivote. 3. Obtenga ceros arriba y abajo del 1 pivote sumando m ultiplos adecuados a los renglones debajo de rengl on pivote en la matriz completa. 4. Cubra la columna y el rengl on de trabajo y repita el proceso comenzando en el paso 1 con la columna siguiente. Es importante observar que en el m etodo de Gauss-Jordan: En la idea general, la matriz se va escalonando y reduciendo a la vez. En el paso 2, si el elemento no es cero no se realiza intercambio. En el paso 3, los elementos que se hacen cero no solo son los inferiores al pivote (Eliminaci on Gaussiana) sino tambi en los superiores. 10

2.10.

Algoritmo de Gauss-Jordan: ejemplo

Ejemplo 2.15 Aplique el algoritmo de Gauss-Jordan a la matriz: 3 3 6 9 2 4 8 0 2 3 4 1 Soluci on En el paso 1 se ubica la primer columna diferente de cero: es la primer columna. En el paso 2 se revisa si el primer elemento es diferente de cero el cual es nuestro caso. Procedemos ahora con el paso 3. Contrario al algoritmo de Gauss, el algoritmo de Gauss-Jordan primero crea los 1s pivote: 3 6 9 3 1 2 3 1 R1 1/3 R1 2 4 8 0 4 8 0 2 (7) 2 3 4 1 2 3 4 1 Posteriormente hace cero debajo de el: 1 1 2 3 1 1 2 3 R2 R2 2 R1 2 4 8 0 0 0 2 2 R3 R3 (2) R1 0 1 2 1 2 3 4 1

(8)

Cubrimos ahora la primer columna y el primer rengl on y repetimos el procedimiento. En el paso 1 identicamos la primer columna diferente de cero de la parte no cubierta. La primer columna cumple. Apliquemos el paso 2 ahora. En este caso el elemento (2, 2) es cero y se deber a buscar un elemento inferior que sea diferente de cero: 1 2 3 1 1 2 3 1 R2 R3 0 0 2 2 1 0 1 2 (9) 0 1 2 1 0 0 2 2 El elemento pivote (2, 2) ya es 1; 1 0 0 el algoritmo procede ahora a hacer ceros arriba y debajo de el: 1 2 3 1 0 1 1 R1 R1 2 R2 1 2 1 1 0 1 2 0 2 2 0 0 2 2

(10)

Cubrimos ahora la segunda columna y el segundo rengl on de la matriz. Y procedemos de nuevo con el paso 1. La columna de la matriz descubierta se reduce a un s olo elemento y que no es cero. Procedemos con el paso 2. El pivote es ahora el elemento (3, 3); primero se crea el 1 pivote: 1 0 1 1 1 0 1 1 R3 1/(2) R3 0 1 2 1 1 0 1 2 (11) 0 0 2 2 0 0 1 1 Posteriormente, se hacen ceros 1 0 0 arriba y debajo de el: 0 1 1 1 0 0 2 R1 R1 1 R3 1 2 1 3 0 1 0 R2 R2 (2) R3 0 1 1 0 0 1 1

(12)

11

2.11.

M etodo Montante

El Algoritmo Montante es una estrategia desarrollada en los 70s por el profesor Mario Ren e Montante en aquel entonces profesor de FIME de la UANL, M exico. El m etodo trabaja bajo el supuesto principal que la matriz es s olo de n umeros enteros y que no se realizar a ninguna divisi on entre enteros salvo al nal. Esto minimiza el total de errores por redondeo. El m etodo procede de una forma semejante al de Gauss-Jordan sin hacer uno los pivotes y forzando a que los elementos que se har an cero sean m ultiplos del pivote. El m etodo consta de los siguientes pasos: 1. Determine la primer columna (a la izquierda) no cero. 2. Si el primer elemento de la columna es cero, interc ambielo por un rengl on que no tenga cero. Este se llamar a elemento pivote x. 3. Obtenga ceros arriba y abajo del pivote x primeramente multiplicando cada rengl on por x y posteriormente sumando m ultiplos del rengl on pivote. En t erminos de operaciones elementales lo que se realiza es que para cada rengl on i diferente del rengl on pivote hacer Ri xRi Ri Ri ai,m Rm 4. Repita el proceso comenzando en el paso 1 para el rengl on siguiente. El principal comentario es que en el paso 3 la instrucci on Ri xRi tiene la intenci on de hacer que el elemento a hacer 0 se haga un m ultiplo del elemento pivote de forma tal que no se requiere ninguna divisi on en la instrucci on de eliminaci on.

2.12.

M etodo de Montante: ejemplo

Ejemplo 2.16 Aplique el algoritmo de Montante a la matriz:

3 6 9 3 2 0 4 8 2 3 4 1

Soluci on Debemos multiplicar el rengl on 2 y 3 por el elemento (1, 1): 3 6 9 3 6 9 3 3 R2 3 R2 2 4 8 0 0 6 12 24 R3 3 R3 2 3 4 1 6 9 12 3

(13)

Ahora la cancelaci on procede utilizando el rengl on 1 con los elementos (2, 1) y (3, 1) anteriores a la multiplicaci on: 3 6 9 3 3 6 9 3 R2 R2 (2) R1 6 12 24 0 0 0 6 6 (14) R3 R3 (2) R1 6 9 12 3 0 3 6 3 Ahora deberemos intercambiar los renglones 2 y 3 para tener 3 6 9 3 R2 R3 0 0 6 6 0 3 6 3 12 un pivote en (2, 2): 3 6 9 3 0 3 6 3 0 0 6 6

(15)

Para eliminar el elemento arriba del pivote (2, 2) el algoritmo procede multiplicando el rengl on 1 por el pivote (2, 2): 3 6 9 3 9 18 27 9 R1 3 R1 0 3 6 3 3 0 3 6 (16) 0 0 6 6 0 0 6 6 La cancelaci on arriba del pivote (2, 2) procede restando al rengl on 1 del elemento (1, 2): 9 9 9 18 27 R1 R1 (6) R2 0 3 6 3 0 0 0 6 6 0 el rengl on pivote por el contenido previo 0 9 9 3 6 3 0 6 6

(17)

Ahora el pivote es el elemento (3, 3) y debemos hacer cero arriba de el. Para ello el algoritmo procede multiplicando los rengl ones donde se har a la cancelaci on por el elemento pivote: 54 9 0 9 9 54 0 54 R1 6 R1 0 3 6 3 0 18 36 18 (18) R2 6 R2 0 0 6 6 0 0 6 6 La cancelaci on procede restando los m ultiplos del rengl on 3 usando los elementos anteriores a la multiplicaci on: 54 0 54 54 54 0 0 108 R1 R1 (9) R3 0 18 36 18 0 18 0 54 (19) R2 R2 (6) R3 0 0 6 6 0 0 6 6 Las u nicas divisiones proceden al nal: R1 1/(54) R1 54 0 0 108 2 1 0 0 R2 1/(18) R2 0 18 0 54 3 0 1 0 R3 1/(6) R3 0 0 6 6 0 0 1 1

(20)

2.13.

Diferencias operativas de los m etodos

Veamos ahora un ejemplo donde se maniesta las diferencias de operaci on entre los m etodos Ejemplo 2.17 Para la matriz: 23 13 1 0 11 3 indique cu al ser a el siguiente paso de acuerdo a: a) Eliminaci on Gaussiana b) M etodo de Gauss-Jordan c) M etodo de Montante entre las opciones: 1) R1 11 R1 2) R1
1 23

R1
13 11

3) R1 R1

R2 13

4) R2

1 11

R2

Respuesta: Recuerde que el algoritmo de eliminaci on gaussiana primeramente escalona la matriz y luego reduce. En este caso la matriz ya est a escalonada: por tanto, eliminaci on gaussiana prepara la reducci on haciendo 1 el elemento pivote inferior. Por tanto, eliminaci on gaussiana debe hacer 1 el elemento (2, 2), lo cual coincide con la opci on 4. En el caso del Gauss-Jordan, se realiza la reducci on preparando el pivote de arriba para abajo. Por tanto, Gauss-Jordan debe hacer uno el elemento (1, 1), lo que coincide con la opci on 2. El m etodo Montante va escalonando y reduciendo la matriz de arriba hacia abajo evitanto las divisiones. Estando escalonada la matriz, Montante trabajar a con el elemento (2, 2) para hacer cero en la parte superior. En este caso particular, Montante har a que el elemento (1, 2) fuera m ultiplo del pivote (2, 2). As Montante, debe multiplicar el rengl on 1 por el elemento pivote (2, 2). Esto corresponde a la opci on 1. Resumiendo: Eliminaci on Gaussiana 4, Gauss-Jordan 2, Montante 1

2.14.

Complejidad de un algoritmo

Existen dos medidas importantes de una estrategia de soluci on o algoritmo en la resoluci on de un problema. El concepto de algoritmo es el de un procedimento sistem atico y muy bien espec cado para realizar una tarea determinada. La primer medida de un algoritmo es su certeza, es decir, la total conanza de que cuando el algoritmo es aplicado en un cierto problema, encontrar a la soluci on correcta o bien indicar a que el problema no tiene soluci on. La otra medida es la complejidad de un algoritmo, es decir, la cantidad de trabajo involucrado por aquella persona o sistema de c omputo que lleva a cabo cada uno de los pasos. En los algoritmos donde se buscan soluciones num ericas el principal indicador de la medida de trabajo o complejidad es el conteo total de las operaciones aritm eticas realizadas desde el inicio del programa hasta la obtenci on de la soluci on. Las operaciones que se contabilizan son las operaciones de suma, multiplicaci on, sustracci on, y divisi on. Puesto que para las computadoras recientes el tiempo invertido por su procesador en una suma es el mismo que el realizado por una multiplicaci on, resta, o divisi on, en el conteo de operaciones no se especica si fueron unas u otras. La palabra FLOP (FLoating point OPeration) reere a una operaci on entre n umeros reales y abarca suma, resta, multiplicaci on, o divisi on. Actualmente, en computaci on la palabra FLOPS es utilizada como acr onimo de FLoating point Operations Per Second, pero en el area de an alisis de algoritmos y para nosotros tiene el signicado que ya explicamos y FLOPs ser a el plural de FLOP. El an alisis que realizaremos de la complejidad de los algoritmos vistos ser a contando el n umero total de FLOPs que se invierte cuando se aplica a un sistema lineal de n ecuaciones con n inc ognitas general. Despreciaremos en nuestro an alisis el esfuerzo computacional de preguntar si un n umero es diferente de cero, as como los posibles intercambios entre los renglones para darle la forma escalonada. Sobre este u ltimo punto, la mayor a de las implementaciones computacionales de los algoritmos poseen trucos de programaci on para evitar el movimiento de n umeros en la memoria de la computadora utilizando apuntadores y vectores de ndices. Un hecho que asumiremos es que nunca nos encontraremos con una columna de ceros. De encontrarse tal columna el trabajo computacional se reducir a porque la matriz con la cual se opera tiene menos n umeros, y esto no es un caso general. Este tipo de suposiciones se conoce como el an alisis del peor de los casos. En los siguientes an alisis, haremos el truco de introducir la variable m que ir a bajando sobre los renglones de la matriz.

2.15.

Complejidad del algoritmo de Gauss

Supongamos que estamos aplicamos el algoritmo de eliminaci on gaussiana a un sistema n por n y que estamos trabajando ya con el rengl on m. Consideraremos primero el trabajo realizado por los pasos 1 al 4 y posteriormente el trabajo realizado en el paso 5. Es importante notar que el proceso de Gauss avanza dejando

14

la matriz escalonada hasta la columna de trabajo: a1,1 a1,2 a1,m1 a1,m 0 a2,2 a2,m1 a2,m . . . . .. . . . . . . . . . 0 0 am1,m1 am1,m 0 0 0 am,m . . . . .. . . . . . . . . . 0 0 0 an,m

. . . . . .

1 Ciclo del paso 1 al 4 Al asumir que am,m es diferente de cero, pasamos al paso 3. En el paso 3 hay que hacer cero debajo del elemento (m, m), para cada uno de los m n renglones inferiores Ri ; para ello habr a que calcular el factor f = ai,m /am,m por el cual debe multiplicarse el rengl on Rm , lo cual implica realizar una divisi on, y posteriormente realizar la operaci on: Ri Ri f Rm . En este caso, en el rengl on i hay ceros hasta antes de la columna m, en el elemento (i, m) quedar a un cero (el factor f fue calculado para ello), as que los u nicos elementos que deber an calcularse son los elementos del rengl on i desde la columna (m + 1) y hasta terminar, es decir, hasta la columna n + 1, es decir, un total de (n + 1) (m + 1) + 1 = n m + 1 elementos, y para cada uno de ellos habr a que hacer am+1,j am+1,j f am,j , es decir para cada uno de ellos habr a que hacer 2 FLOPs, siendo un total de n m + 1 elementos, el n umero total de FLOPs que habr a que realizar para hacer la operaci on Ri Ri f Rm es, incluyendo la divisi on para calcular f , 2(n m + 1) + 1 = 2n 2m + 3. Como esto habr a que aplicarlo a todos los renglones por debajo del rengl on m y hasta el n, entonces para realizar un ciclo desde el paso 1 hasta el paso 4 deben hacerse (n m) (2 n 2m + 3) FLOPS. El ciclo del paso 1 al paso 4 y su repetici on ir a avanzando m desde 1 hasta n 1. Por consiguiente el total de FLOPs ser a: n1 2 1 7 (n m) (2 n 2 m + 3) = n3 + n2 n. 3 2 6
m=1

El ciclo en el paso 5 inicia en el u ltimo rengl on, hace 1 el elemento pivote y luego a cada rengl on superior el resta el rengl on inferior multiplicado por la constante adecuada. As , si asumimos que se est a trabajando en el rengl on m la matriz se ver a: a1,1 a1,2 a1,m 0 0 a1,n+1 0 a2,2 a2,m 0 0 a2,n+1 . . . . . . . . . . .. . . . . . . . . . . . . 0 0 am,m 0 0 am,n+1 0 0 0 1 0 am+1,n+1 . . . . . . . . . . . . . . . . . . . . . . . . 0 Es decir, que en el rengl on m s olo existir an dos elementos diferentes de cero; el elemento (m, m) y el elemento (m, n + 1). 15 0 0 0 1 an,n+1

2 Ciclo del paso 5. Las operaciones implicadas en el paso 5 ser an


1 Rm am,m Rm Por la observaci on anterior, para esto se requiere s olo una divisi on; la del t ermino constante entre el elemento pivote, la del pivote entre s mismo ya sabemos que dar a 1 y no se realizar a, simplemente en la posici on (m, m) pondremos un 1

Rj Rj aj,m Rm Por la misma observaci on anterior, esta operaci on s olo requiere una multiplicaci on y una resta, estas operaciones s olo tienen que ver con los t erminos constantes. Los nuevos elementos aj,m ser an cero. Como hay m 1 renglones superiores, el total de operaciones en un ciclo del paso 5 ser a: 2 (m 1) + 1 = 2 m 1 Por consiguiente el total de FLOPs en el paso 5 ser a:
1

(2 m 1) = n2
m=n

Por consiguiente, en general cuando se aplica en algoritmo de eliminaci on gaussiana a un sistema n n el n umero de FLOPs es: 2 3 3 2 7 n + n n (21) 3 2 6

2.16.

Complejidad del algoritmo de Gauss-Jordan

Supongamos que estamos aplicando el algoritmo a una matriz aumentada n por n + 1 y que estamos trabajando con el rengl on m. El algoritmo avanza del primer rengl on hasta el u ltimo. Es importante notar que el proceso de Gauss-Jordan avanza dejando la matriz reducida hasta el rengl on de trabajo Rm : 1 0 0 1 . . .. . . . . . 0 0 0 0 . . .. . . . . . 0 0 0 0 . . . a1,m a2,m . . . . . .

1 am1,m 0 am,m . . . . . . . . . 0 an,m

Supongamos que estamos ubicados en el rengl on m, lo que debemos hacer es hacer un uno pivote en la posici on (m, m) y posteriormente hacer ceros por arriba y por debajo de el. 1. Paso 2. Lo que debe hacerse es dividir el rengl on entre el elemento pivote: en dicho rengl on, antes de la columna m hay ceros, en el elemento (m, m) quedar a un 1, as que los u nicos elementos a calcular en el rengl on m son apartir de la columna m + 1 y hasta la columna n + 1. As deber an hacerse (n + 1) (m + 1) + 1 = n m + 1 divisiones.

16

2. Paso 3. Para cada rengl on i diferente de m debemos realizar Ri Ri ai,m Rm . C omo el rengl on m tiene ceros antes de la columna m y en ai,m quedar a un cero, los u nicos elementos que se calcular an son ai,j ai,j ai,m am,j , desde j = m + 1 y hasta j = n + 1, es decir un total de (n + 1) (m + 1) + 1 = n m + 1. Como para cada uno de ellos se realizan dos operaciones entonces el total de FLOPs para hacer un cero en un rengl on arriba o abajo de (m, m) se requieren 2 (n m + 1) Como hay en total n renglones , el n umero total de FLOPs en el paso 3 ser a: (n 1) 2 (n m + 1) Por consiguiente, en una iteraci on del paso 2 seguido del paso 3 se har an n m + 1 + (n 1) 2 (n m + 1) Como el algoritmo de Gauss-Jordan itera los pasos 2 y 3 recorriendo todos los renglones, el n umero total de FLOPs ser a: n 1 1 (n m + 1 + (n 1) 2 (n m + 1)) = n3 + n2 n 2 2
m=1

As , la complejidad del algoritmo de Gauss-Jordan es: 1 1 n3 + n2 n 2 2 (22)

2.17.

Complejidad del algoritmo de Montante

Supongamos que aplicamos el algoritmo a una matriz aumentada n por n + 1. El algoritmo avanza del primer rengl on hasta el u ltimo. Es importante notar que el proceso de Montante avanza dejando la matriz de la siguiente forma hasta la columna de trabajo: a1,1 0 0 a1,m 0 a2,2 0 a2,m . . . . . . . . . . . . . . . . . . 0 0 am1,m1 am1,m 0 0 0 a m,m . . . . . .. . . . . . . . . . . . 0 0 0 an,m Supongamos que estamos ubicados en el rengl on m, lo que debemos hacer es hacer ceros por arriba y por debajo de el. Multiplicaci on de los renglones superiores por am,m . Esto implica realizar multiplicaciones por un total de: (m 1) (n m + 1) + m 1 Multiplicaci on de los renglones inferiores por am,m . Esto implica realizar multiplicaciones por un total de: (n m) (n m + 1) A cada rengl on diferente de m aplicarle Ri Ri ai,m Rm Esto da un total de: (n 1) 2 (n m + 1) 17

Sumando los t erminos anteriores, el total de FLOPs para el trabajo con el rengl on m es: 3 n2 3 m n + 4 m 4 Por consiguiente, al repetir estos pasos desde el primer rengl on hasta el u ltimo dar an un total de FLOPs:
n m=1

3 1 3 n2 3 m n + 4 m 4 = n3 + n2 2 n 2 2

Posteriormente habr a que hacer 1 cada elemento pivote realizando n divisiones adicionales. As , la complejidad del algoritmo de Montante es: 3 3 1 2 n + n n (23) 2 2

2.18.

Comparativa de los algoritmos

A pesar que la complejidad de los algoritmos indica que el algoritmo de eliminaci on gaussiana es mejor por tener la menor complejidad, la versi on en computadora paralela (muchos procesadores) del algoritmo de Gauss-Jordan tiene una menor complejidad que la versi on paralela del algoritmo de Eliminaci on Gaussiana. Al asignarle a cada procesador la instrucci on Ri Ri f Rj , eliminaci on gaussiana los ejecuta de i = j +1, . . . , n mientras que Gauss-Jordan los ejecuta para i = j , aprovechando los procesadores m as ecientemente. El algoritmo de Montante tiene la ventaja que si se utiliza para matrices con coecientes enteros las u nicas divisiones realizadas ser an las u ltimas, lo cual reduce sustancialmente el error num erico. Una desventaja importante del algoritmo de Montante es que los coecientes en la matriz pueden crecer considerablemente. En resumen, aunque el mejor algoritmo general para resolver un sistema de ecuaciones lineales es el algoritmo de eliminaci on gaussiana, puede haber situaciones particulares al problema o al ambiente de computo que haga que otro algoritmo tenga ventajas sobre el. Por ello es que es conveniente conocer otras alternativas para resolver problemas y conocer sus ventajas o desventajas.

2.19.

Algoritmos y computadoras

Las computadoras operan realizando instrucciones b asicas paso a paso. Dichas instrucciones son ejecutadas en forma s ncrona con un reloj interno. En nuestros d as (a no de 2005), es com un escuchar que la velocidad de una computadora se mida en algunos pocos gigahertz, digamos por ejemplo 1.3 Gigahertz. Ello quiere decir que el reloj interno de una computadora ejecutar a 1.3 109 ciclos en un segundo. Lo cual equivale a decir que aproximadamente dicha computadora ejecutar a 1.3 109 instrucciones b asicas en un segundo. El tiempo de ejecuci on de un FLOP en las computadoras puede variar; en algunas computadoras toma el tiempo de 1, 2 o en algunos casos 3, instrucciones b asicas para completar un FLOP. Si seguimos el ejemplo de la computadora de 1.3 Ghz y suponemos que nuestra hipot etica computadora tome 2 instrucciones b asicas para completar un FLOP, podr amos decir que cada FLOP tomar a 1/(1.3 109 )/2 segundos. Para tener una idea del uso de la complejidad del algoritmo para determinar tiempos de computo, digamos que se desea utilizar un programa que realiza el algoritmo de Gauss en dicha computadora para resolver un sistema de 100 100. Entonces, dicho programa realizar a 681550 FLOPs, por consiguiente el tiempo que tomar a s olo 9 en operaciones de punto otante ser a 681550/(1.3 10 )/2 0.000262 segundos. Mientras que para un sistema 1000 1000 ser a de .256986 segundos y para uno de 10000 10000 ser a de 256.467 segundos. En ambientes de manufactura donde se utiliza el m etodo del elemento nito para hacer simulaciones, es com un trabajar con matrices de m as de 106 106 . Resolver un sistema 106 106 en tal computadora se requerir a, contando s olo tiempo por operaciones de punto otante, un poco m as de 8 a nos en ser resuelto. Adem as, requerir a m as de 900 terabytes para ser almacenado. Por ello, es que existen algoritmos especializados que aprovechan el hecho de que la matriz tiene una forma particular para economizar operaciones y espacio. 18

2.20.

Y los determinantes del M etodo de Montante?

En la denici on original del m etodo de Montante como fue propuesto por su creador, se hac a referencia a determinantes de 2 por 2. En la presentaci on dada en esta lectura hemos omitido tal referencia y hemos preferido reducir el m etodo a operaciones elementales de rengl on las cuales creemos que hacen el m etodo m as claro y que no requieren ning un otro concepto. Para corroborar la equivalencia, vea los siguientes c alculos al aplicar el m etodo Montante en la matriz dada y compare los contenidos de la matriz intermedia en la posici on (2, 2) o (3, 2) con la matriz inicial. Primeramente obligamos a que sean m ultiplos de (1, 1) los contenidos de (2, 1) y (3, 1): a11 a12 a11 a12 R2 a11 R2 a21 a22 a11 a21 a11 a22 (24) R3 a11 R3 a31 a32 a11 a31 a11 a32 Posteriormente, se procede a hacerlos cero utilizando el elemento pivote (1, 1): a11 a12 R2 R2 a21 R1 a11 a21 a11 a22 R3 R3 a31 R3 a11 a31 a11 a32 a11 a12 0 a11 a22 a21 a12 0 a11 a32 a31 a12

(25)

Viendo los contenidos nales de (2, 2) o de (3, 2) la referencia a los determinantes 2 por 2 en la matriz inicial es obvia, aunque consideramos que tambi en innecesaria.

2.21.

Pero, qu e m etodo me conviene seguir?

Como se ver a m as adelante en el curso, debido al signicado de cada n umero en la reducida, la matriz reducida obtenida de una matriz dada es u nica. Esto signica que cualquier procedimiento basado en operaciones elementales de rengl on debe llevar al mismo resultado. Por tanto, esto nos da la posibilidad de seguir cualquier estrategia basada en operaciones elementales de rengl on para reducir una matriz. Lo que normalmente se hace es revisar a simple vista en cada momento aqu el elemento que conviene que sea pivote de manera que involucre o menor n umero de operaciones o bien operaciones menos complejas. Sin duda, el hacer un n umero razonable de ejemplos le ir a construyendo la intuici on del camino personal de reducci on de una matriz.

19

Aplicaciones de Sistemas de Ecuaciones Lineales


Departamento de Matem aticas, CCIR/ITESM 10 de enero de 2011

Indice
3.1. Introducci on . . . . . . . . . . . . 3.2. Objetivo . . . . . . . . . . . . . . 3.3. Fracciones parciales . . . . . . . . 3.4. Determinaci on de curvas . . . . . 3.5. Balanceo de Reacciones Qu micas 3.6. Aplicaciones a Manufactura . . . 3.7. Aplicaciones Diversas . . . . . . 3.8. Transferencia de Calor . . . . . . 3.9. Splines c ubicos . . . . . . . . . . 3.10. Suma de los primeros cuadrados 3.11. Integraci on num erica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 1 3 4 5 6 6 8 8 9

3.1.

Introducci on

En esta lectura veremos algunas aplicaciones de los sistemas de ecuaciones lineales. Las aplicaciones de la resoluciones de sistemas son innumerables, y por consiguiente es imposible pretender cubrir las aplicaciones. Queda como reto personal encontrar situaciones donde surgan este tipo de problemas.

3.2.

Objetivo

La lectura pretende que usted conozca algunas de las situaciones que conducen a la resoluci on de un sistema de ecuaciones lineales. Notablemente, la t ecnica de las fracciones parciales, el ajuste de curvas y algunos m as.

3.3.

Fracciones parciales

Una t ecnica muy conveniente utilizada en algunas tareas matem aticas es aquella conocida como fracciones parciales. Esta se aplica para simplicar integrales o transformadas de Laplace, por citar algunos ejemplos. La idea principal consiste en cambiar la forma que puede ser expresado un cociente entre polinomios a otra forma m as conveniente para cierto tipo de c alculo. Ejemplo 3.1 Determine los valores de las constantes a y b para que satisfagan: 1 a b = + (x 2)(x + 3) x2 x+3

Soluci on Se debe cumplir:


1 (x2)(x+3)

= = = =

a x2

b x+3

a (x+3)+b (x2) (x2) (x+3) ax+3a+bx2b (x2)(x+3) (3 a2 b) + (a+b) x (x2)(x+3)

Esto se cumple si: 1 + 0 x = 1 = (3 a 2 b) + (a + b) x Es decir, si: 3a 2b = 1 a + b = 0 El cual tiene como soluci on: a= 1 1 yb= 5 5

Ejemplo 3.2 (Forma dudosa) Determine los valores de las constantes a y b para que satisfagan: 2 + 2 x + 2 x2 a b = + (x + 1)(x2 + 1) x + 1 x2 + 1 Soluci on Se debe cumplir:
2+2x+2x2 (x+1)(x2 +1)

= = = =

a x+1

b x2 +1

a (x2 +1)+b (x+1) (x+1) (x2 +1) a x2 + a + b x + b (x+1)(x2 +1) (a+b) + (b) x+a x2 (x+1)(x2 +1)

Esto se cumple si: 2 + 2x + 2x2 = (a + b) + (b) x + a x2 Es decir, si: a + b = 2 + b = 2 a = 2 El cual no tiene soluci on. Qu e puede andar mal? La forma propuesta para la expresi on en fracciones parciales. Ejemplo 3.3 Determine los valores de las constantes a, b y c para que satisfagan: 2 + 2 x + 2 x2 a bx + c = + 2 2 (x + 1)(x + 1) x+1 x +1

Soluci on Se debe cumplir:


2x2 +2x+2 (x+1)(x2 +1)

= = = =

a x+1

bx+c x2 +1

a(x2 +1)+(bx+c)(x+1) (x+1)(x2 +1) ax2 +a+bx2 +bx+cx+c (x+1)(x2 +1) (a+b)x2 +(b+c)x+(a+c) (x+1)(x2 +1)

Esto se cumple si: 2x2 + 2x + 2 = (a + b)x2 + (b + c)x + (a + c) Es decir, si: a + b = 2 b + c = 2 a + c = 2 El cual tiene como soluci on: a = 1, b = 1 y c = 1

3.4.

Determinaci on de curvas

Un problema comun en diferentes areas es la determinaci on de curvas. es decir el problema de encontrar la funci on que pasa por un conjunto de puntos. Usualmente se conoce la naturaleza de la funci on, es decir, se conoce la forma que debe tener la funci on. Por ejemplo, l nea recta, par abola o exponencial etc. Lo que se hace para resolver este tipo de problemas es describir la forma m as general de la funci on mediante par ametros constantes. Y posteriormente se determinan estos par ametros haciendo pasar la funci on por los puntos conocidos. Ejemplo 3.4 Determine la funci on cudr atica que pasa por los puntos P (1, 4), Q(1, 2), y R(2, 3). Soluci on La forma m as general de una cuadr atica es: f (x) = a x2 + b x + c donde los coecientes a, b, y c son constantes num ericas. El problema consiste en determinar estos coecientes. As pues los par ametros a, b, y c se vuelven ahora las inc ognitas. Y para poderlas determinar requerimos de ecuaciones o igualdades que deben satisfacer. Para determinar estas ecuaciones debemos usar los puntos. Para que la funci on pase por el punto P (1, 4) se debe cumplir que f (x = 1) = 4 es decir, se debe cumplir: a (1)2 + b (1) + c = 4 es decir, se debe cumplir: a+b+c=4 Procediendo de igual manera con el punto Q(1, 2): formulamos la ecuaci on: ab+c=2 3

y para R(2, 3): 4a + 2b + c = 3 Resumiendo para que la funci on f (x) = a x2 ecuaciones: a a 4a La soluci on a este sistema es: + b x + c pase por los puntos P , Q, y R deben cumplirse las + b + c =4 b + c =2 + 2b + c = 3

2 11 a = , b = 1, y c = 3 3 La misma situaci on presentada en el problema de las fracciones parciales que originaba un sistema inconsistente, se puede presentar en la determinaci on de funciones. Y la conclusi on es similar: si el sistema originado es inconsistente lo que se concluye es que no existe una funci on con esa forma general que pase exactamente por los puntos dados. Ejemplo 3.5 Conociendo la soluci on general a una ED: y (t) = C1 et + C2 et + C3 e3 t Determine en orden los valores de las constantes C1 , C2 , y C3 para que se cumpla: y (0) = 0, y (0) = 1, y (0) = 2 Soluci on En este caso las inc ognitas son las constantes C1 , C2 , y C3 . Para determinarlas requerimos las ecuaciones y para ellas debemos determinar las derivadas de y (t): y (t) = C1 et + C2 et + C3 e3 t y (t) = C1 et C2 et + 3 C3 e3 t y (t) = C1 et + C2 et + 9 C3 e3 t Usando las condiciones iniciales y las derivadas calculadas tenemos: 0 = C1 + C2 + C3 1 = C1 C2 + 3 C3 2 = C1 + C2 + 9 C3 La soluci on es: C1 = 0, C2 = 1/4 y C3 = 1/4.

3.5.

Balanceo de Reacciones Qu micas

Una aplicaci on sencilla de los sistemas de ecuaciones se da en el balanceo de reacciones qu micas. La problem atica consiste en determinar el n umero entero de mol eculas que intervienen en una reacci on qu mica cuidando siempre que el n umero de atomos de cada sustancia se preserve. Ejemplo 3.6 Balancee la reacci on qu mica a CH4 + b O2 c CO2 + d H2 O Soluci on Para determinar los coecientes a, b, c, y d que representan el n umero de mol eculas de las sustancias en la 4

reacci on debemos igualar el n umero de atomos en cada miembro: Por los atomos de carbono a=c Por los atomos de ox geno 2b = 2c + d Por los atomos de hidr ogeno 4a = 2d Este sistema es consistente y origina innitas soluciones. La f ormula general para las soluciones queda:
1 a = 2 d b = d c = 1 2d

El valor m as peque no de d que hace que los n umeros de mol eculas sean enteros positivos es d = 2: a = 1, b = 2, c = 1, y d = 2

3.6.

Aplicaciones a Manufactura

Ejemplo 3.7 Patito computers fabrica tres modelos de computadoras personales: ca non, clon, y lenta-pero-segura. Para armar una computadora modelo ca non necesita 12 horas de ensamblado, 2.5 para probarla, y 2 m as para instalar sus programas. Para una clon requiere 10 horas de ensamblado, 2 para probarla, y 2 para instalar programas. Y por u ltimo, para una lenta-pero-segura requiere 6 para ensamblado, 1.5 para probarla, y 1.5 para instalar programas. Si la f abrica dispone en horas por mes de 556 para ensamble, 120 para pruebas, y 103 horas para instalaci on de programas, cu antas computadoras se pueden producir por mes? Soluci on En nuestro caso las inc ognitas el n umero de cada tipo de computadora a producir: x = n umero de computadoras ca non y = n umero de computadoras clon z = n umero de computadoras lenta-pero-segura Para determinar las ecuaciones debemos utilizar los tiempos de ensamblado, pruebas, e instalaci on de programas. Ensamblado 556(total) = 12 x(ca non) + 10 y (clon) + 6 z (lenta) Pruebas 120(total) = 2.5 x(ca non) + 2 y (clon) + 1.5 z (lenta) Instalaci on de programas 103(total) = 2 x(ca non) + 2 y (clon) + 1.5 z (lenta) Al resolver este sistema obtenemos: x = 34, y = 4, z = 18 5

Dado lo com un de las aplicaciones hacia el area de manufactura, existe una forma simple de construir la matriz del sistema de ecuaciones que en general se trabaja como una tabla: En la u ltima columna aparecen los recursos: un rengl on para cada tipo de recursos y en cuya posici on nal se pone el total de recursos disponibles. En las primera columnas se colocan los objetos o modelos a ser ensamblados o construidos: en cada posici on se coloca el total de recursos que consume en forma unitaria cada tipo de objeto. Recursos requeridos por unidad Ca non Clon Lenta 12 10 6 2.5 2 1.5 2 2 1.5

Recurso Ensamble Pruebas Instalaci on

Total 556 120 103

3.7.

Aplicaciones Diversas

Ejemplo 3.8 Un negociante internacional necesita, en promedio, cantidades jas de yenes japoneses, francos franceses, y marcos alemanes para cada uno de sus viajes de negocios. Este a no viaj o tres veces. La primera vez cambi o un total de $434 a la siguiente paridad: 100 yenes, 1.5 francos y 1.2 marcos por dolar. La segunda vez, cambi o un total de $406 con las siguientes tasas: 100 yenes, 1.2 francos, y 1.5 marcos por dolar. La tercera vez cambi o $434 en total, a $125 yenes, 1.2 francos, y 1.2 marcos por dolar. Qu e cantidades de yenes, francos y marcos compr o cada vez? Soluci on En nuestro caso las inc ognitas son las cantidades de moneda extranjera requerida que se mantuvo ja en los tres viajes: x = cantidad de yenes y = cantidad de francos z = cantidad de marcos Primera vez: 434(total) = Segunda vez: 406(total) = Tercera vez: 434(total) = Resolviendo el sistema anterior obtenemos: x = 10500, y = 126, z = 294 1 1 1 x+ y+ z 100 1.2 1.5 1 1 1 x+ y+ z 125 1.2 1.2 1 1 1 x+ y+ z 100 1.5 1.2

3.8.

Transferencia de Calor

Ejemplo 3.9 Un aspecto importante del estudio de la Transferencia de Calor es determinar la temperatura en estado estable de una placa delgada cuando se conocen las temperaturas alrededor de la placa. Suponga que la placa de la siguiente gura representa una secci on transversal perpendicular a la placa.

t t TCO t T1 t T4 t t

TCN t T2 t T5 t t TCS

t T3 t T6 t t t TCE t

Sean T1 , T2 , T3 , T4 , T5 , y T6 las tempreaturas interiores de los nodos de la red. La temperatura en un nodo es aproximadamente igual al promedio de las temperaturas de los cuatro nodos m as cercanos arriba, abajo, a la derecha, y a la izquierda. As por ejemplo T1 = (TCN + T2 + T4 + TCO ) /4. Determine las temperaturas T1 a T6 sabiendo que TCN = 25o , TCE = 37o , TCS = 10o , TCO = 31o Reporte s olo el valor de T2 . Soluci on Las ecuaciones para las temperaturas de los puntos interiores a la placa T1 a T6 quedan: T1 T2 T3 T4 T5 T6 = = = = = = (TCN + T2 + T4 + TCO )/4 (TCN + T3 + T5 + T1 )/4 (TCN + TCE + T6 + T2 )/4 (T1 + T5 + TCS + TCO )/4 (T2 + T6 + TCS + T4 )/4 (T3 + TCE + TCS + T5 )/4

Usando los datos de las temperaturas a los costados de la placa y convirtiendo cada ecuaci on a la forma can onica queda (conviene multiplicar por 4 cada ecuaci on): 4 T1 T2 T4 T1 + 4 T2 T3 T2 + 4 T3 T1 + 4 T4 T2 T4 T3 Quedando T1 T2 T3 T4 T5 T6 4 1 0 1 0 0 1 4 1 0 1 0 0 1 4 0 0 1 1 0 0 4 1 0 0 1 0 1 4 1 0 0 1 0 1 4 56 25 62 41 10 47 = = = = = = 56 25 62 41 10 47

T5

T6 T5 + 4 T5 T6 T5 + 4 T6

Al reducir la matriz obtenemos la soluci on: T1 T2 T3 T4 T5 T6 = = = = = = 25.527 24.496 27.527 21.614 19.931 23.614

3.9.

Splines c ubicos

Ejemplo 3.10 Determine los coecientes que deben tener los polinomios
S1 (x) = A1 + B1 (x 0.4) + C1 (x 0.4) + D1 (x 0.4) S2 (x) = A2 + B2 (x 0.5) + C2 (x 0.5) + D2 (x 0.5)
2 2 3 3

para que se cumpla: 1. 3. 5. 7. S1 (0.4) S2 (0.5) S1 (0.5) S1 (0.4) = = = = 0.528571 0.895926 S2 (0.5) 0 2. 4. 6. 8. S1 (0.5) S2 (0.6) S1 (0.5) S2 (0.6) = = = = 0.895926 0.356182 S2 (0.5) 0

Lo que debe hacer es tomar como inc ognitas dichos coecientes, usar las condiciones anteriores para construir ecuaciones, y resolver el sistema que se forma. La condici on 1. lleva a la ecuaci on A1 = 0.528571 La condici on 2. lleva a la ecuaci on A1 + .1 B1 + .01 C1 + .001 D1 = .895926 La condici on 3. lleva a la ecuaci on A2 = .895926 La condici on 4. lleva a la ecuaci on A2 + .1 B2 + .01 C2 + .001 D2 = .356182 La condici on 5. lleva a la ecuaci on B1 + .2 C1 + .03 D1 = B2 La condici on 6. lleva a la ecuaci on 2 C1 + .6 D1 = 2 C2 La condici on 7. lleva a la ecuaci on 2 C1 = 0 La condici on 8. lleva a la ecuaci on 2 C2 + .6 D2 = 0. Al resolver este sistema de 8 ecuaciones con 8 inc ogintas daa la soluci on: A1 = .52857100 B1 = 5.9412975 C1 = 0.0 D1 = 226.77475 A2 = 0.89592600 B2 = .86194500 C2 = 68.032425 D2 = 226.77475

3.10.

Suma de los primeros cuadrados

Ejemplo 3.11 Existe una f ormula para calcular la suma 1 + 4 + 9 + + n2 . Sabiendo que la f ormula es un polinomio de grado tres en la variable n, encuentre dicha f ormula. Sugerencia: Proponga como f ormula F (n) = A n3 + B n2 + C n + D donde A, B, C y D son inc ognitas. Dando los valores n = 1, n = 2, n = 3 y n = 4 y conociendo los resultados que dan esas sumas, plantea y resuelve el sistema. Soluci on Para n = 1 la suma da:
1

i2 = 12 = 1
i=1

Por tanto, la f ormula para n = 1 debe dar 1. La ecuaci on queda: A 13 + B 12 + C 1 + D = A + B + C + D = 1 Para n = 2 la suma da:
2

i2 = 12 + 22 = 1 + 4 = 5
i=1

Por tanto, la f ormula para n = 2 debe dar 5. La ecuaci on queda: A 23 + B 22 + C 2 + D = 8 A + 4 B + 2 C + D = 5 Para n = 3 la suma da:
3

i2 = 12 + 22 + 32 = 1 + 4 + 9 = 14
i=1

Por tanto, la f ormula para n = 3 debe dar 14. La ecuaci on queda: A 33 + B 32 + C 3 + D = 27 A + 9 B + 3 C + D = 27 Para n = 4 la suma da:
4

i2 = 12 + 22 + 32 + 42 = 1 + 4 + 9 + 16 = 30
i=1

Por tanto, la f ormula para n = 3 debe dar 14. La ecuaci on queda: A 43 + B 42 + C 4 + D = 64 A + 16 B + 4 C + D = 30 Al resolver este sistema de 4 ecuaciones para A, B , C y D obtenemos: 1 1 1 A= ,B= ,C= 3 2 6 Por tanto la f ormula de la sumatoria queda:
n

n N,
i=1

i2 =

1 3 1 2 1 n + n + n 3 2 6

3.11.

Integraci on num erica

Ejemplo 3.12 La integral de una funci on en un intervalo se puede aproximar dividiendo el intervalo en un n umero de puntos adecuado (2 n + 1) y en cada 3 puntos consecutivos cambiar la funci on a integrar por la par abola (polinomio cuadr atico) que pasa ellos. Utilice esta t ecnica para calcular la integral
1.8

f (x) dx
1.

Utilizando los datos: i 1 2 3 4 5 xi 1.0 1.2 1.4 1.6 1.8 9 f (xi ) 1.37772 1.28014 1.36167 2.69787 2.55062

Soluci on Primero calculemos la par abola que pasa por los 3 primeros puntos. La par abola ser a f1 (x) = a1 x2 + b1 x + c1 . Al aplicar las condiciones de que pase por esos puntos quedan las ecuaciones Para (1.0, 1.37772) 1.00 a1 + 1.0 b1 + c1 = 1.37772 Para (1.2, 1.28014) 1.44 a1 + 1.2 b1 + c1 = 1.28014 Para (1.4, 1.36167) 1.96 a1 + 1.4 b1 + c1 = 1.36167 Resolviendo el sistema se obtiene a1 = 2.238875, b1 = 5.413425, c1 = 4.552270 Por tanto,
1.4 1.6

f (x) dx
1.0 1 .0

f1 (x) dx = 0.5239966667

Por otro lado, para u ltimos 3 puntos la par abola ser a f2 (x) = a2 x2 + b2 x + c2 . Al aplicar las condiciones de que pase por esos puntos quedan las ecuaciones Para (1.4, 1.36167) 1.96 a2 + 1.4 b2 + c2 = 1.36167 Para (1.6, 2.69787) 2.56 a2 + 1.6 b2 + c2 = 2.69787 Para (1.8, 2.55062) 3.24 a2 + 1.8 b2 + c2 = 2.55062 Resolviendo el sistema se obtiene a2 = 18.543125, b2 = 62.310375, c2 = 49.528330 Por tanto,
1.8 1.8

f (x) dx
1.4 1 .4 1 .4

f2 (x) dx = 0.9802513333
1.8

As

1.8

f (x) dx =
1.0 1.0

f (x) dx +
1.4

f (x) dx 1.504248

10

Combinaci on Lineal
Departamento de Matem aticas, CCIR/ITESM 10 de enero de 2011

Indice
5.1. 5.2. 5.3. 5.4. 5.5. Introducci on . . . . . . . . . . . . Combinaci on lineal entre vectores Aplicaci on . . . . . . . . . . . . . Combinaci on Lineal . . . . . . . SEL vs Combinaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 3 4

5.1.

Introducci on

En este apartado se introduce uno de los conceptos m as importantes del curso: el de combinaci on lineal entre vectores. Se establece la relaci on entre el problema de resolver un sistema de ecuaciones lineales y el problema de determinar si un vector es combinaci on lineal de un conjunto de vectores. El resultado clave indica que es equivalente buscar la soluci on a un sistema de ecuaciones lineales que determinar los valores de los coecientes que multiplicando cada una de las columnas de la matriz de coecientes y sumando los vectores resultantes da como resultado el vector de constantes del sistema.

5.2.

Combinaci on lineal entre vectores

El curso de algebra lineal puede a la vez considerarse aburrido por monotem atico; el problema fundamental del algebra lineal es resolver sistemas de ecuaciones lineales. Y por consiguiente, pr acticamente la totalidad de los temas tiene como n analizar los sistemas lineales y sus soluciones. Despu es del concepto de sistema de ecuaciones el segundo concepto en importancia es el de combinaci on lineal. Veamos c omo se motiva este concepto. Ejemplo 5.1 Supongamos el sistema de ecuaciones lineales: 1 x + (1) y = 1 2x + 1y = 5 Sabemos que cada ecuaci on representa una l nea recta en R2 y que la soluci on a el coincide con la intersecci on de las rectas. En la gura 1 se ilustra esta idea. Para buscar otra visi on de la situaci on, sustituimos la soluci on x = 2 y y = 1: 1 (2) + (1)(1) = 1 2 (2) + 1(1) = 5 En notaci on vectorial, lo anterior queda 1 (2) + (1) (1) 2 (2) + 1 (1) = 1 5

Figura 1: Soluci on como intersecci on de rectas

Figura 2: Soluci on como la forma de combinar las columnas o tambi en

1 (2) 2 (2) 2 1 2

1 (1) 1 (1) 1 1

1 5 1 5

o tambi en

+1

En la gura 2 se muestran las columnas de la matriz y el vector de constantes: el grid nos sirve para indicar c omo obtener el vector de constantes combinando las columnas de la matriz Desde el punto de vista de las columnas de la matriz de coecientes y del vector de constantes: la soluci on al sistema de ecuaciones representa los coecientes por los cuales hay que multiplicar a cada columna de la matriz de coecientes para que al sumar resultados se obtenga el vector de constantes Si la matriz de coecientes es A y el vector de constantes es b, la relaci on dice x (columna 1 de A) + y (columna 2 de A) = (vector de constantes)

5.3.

Aplicaci on

Ejemplo 5.2 Continuemos con la empresa maquiladora del ejemplo anterior. Supongamos que la empresa construye ensambles tipo D y ensambles tipo E. Para construir un ensamble D requiere 3 As, 4 Bs y 2 Cs. Y para construir un ensamble E requiere 5 As, 3 Bs y 2 Cs. Un d a notan que han usado 130 A, 111 Bs y 64 Cs para ensamblar Ds y Es. Cu antos Ds y cu antos E han hecho? Respuesta

En este caso buscamos los valores de x, el n umero de Ds construidos, y de y , el n umero de Es construidos. As debe cumplirse que: 130 5 3 x 4 + y 3 = 111 64 2 2 Si desarrollamos e igualamos componente a componente tenemos que nuestro problema consiste en resolver el sistema 3 x + 5 y = 130 4 x + 3 y = 111 2 x + 2 y = 64 al formar la matriz aumentada y reducirla 3 4 2 se obtiene 5 130 1 0 15 3 111 0 1 17 2 64 0 0 0 (17 del tipo E). 1 0 15 0 1 17 0 0 0 Nuevamente observamos que la

de donde la soluci on es x = 15 (15 del tipo D) y y = 17 soluci on x = 15 y y = 17 de 3 5 130 4 3 111 2 2 64

representa los coecientes por los cuales multiplicar las columnas de la matriz de coecientes para que al sumar estos productos se obtenga el vector de t erminos constantes: 130 3 5 15 4 + 17 3 = 111 64 2 2 Ejemplo 5.3 Siga con el ejemplo de la empresa maquiladora. Suponga ahora que bodega indica una existencia de < 125, 110, 40 > y que se desean hacer ensambles D y E de manera que se consuma sin desperdicio toda la existencia. Ser a posible? Soluci on Nuevamente buscamos valores de x y de y para que 125 5 3 x 4 + y 3 = 110 40 2 2 Armando la matriz y reduci endola obtenemos: 3 5 125 1 0 0 4 3 110 0 1 0 2 2 40 0 0 1 De donde concluimos que al ser inconsistente el sistema, no existe forma de combinar m ultiplos de < 3, 4, 2 > y < 5, 3, 2 > para dar < 125, 110, 40 >. Por tanto, no es posible hacer ensambles D y E de manera que se consuma sin desperdicio toda la existencia

5.4.

Combinaci on Lineal

Demos ahora la denici on de combinaci on lineal: Denici on 5.1 Sean v1 , v2 , . . . , vk , vectores n y sean c1 , c2 , . . . , ck escalares. El vector de la forma c1 v1 + c2 v2 + + ck vk on lineal de v1 , v2 , . . . , vk . Los escalares c1 , c2 , . . . , ck se llaman coecientes de la combinaci on se llama combinaci lineal.

5.5.

SEL vs Combinaciones Lineales

El siguiente es el segundo resultado clave del curso: Resultado clave Si x1 , x2 , . . . , xn son las inc ognitas de un sistema cuya matriz de coecientes es A y cuyo vector de constantes es b, siendo tambi en a1 , a2 , . . . , an las columnas de A entonces: Ax = b x1 a1 + x2 a2 + + xn an = b Es decir, el sistema tiene soluci on si y s olo si b es una combinaci on lineal de las columnas de la matriz A. La soluci on del sistema es el vector formado por coecientes de la combinaci on lineal de las columnas de A que dan b. Ejemplo 5.4 Indique si el vector y es combinaci on lineal de los vectores v1 , v2 , v3 . Donde: y= 6 , v1 = 3 6 , v2 = 2 24 , v3 = 8 24 8

Soluci on La pregunta consiste en saber si existen escalares c1 , c2 y c3 (tres escalares por ser tres vectores) tales que: c1 v1 + c2 v2 + c3 v3 = y Sustituyendo los vectores, la relaci on anterior queda: c1 6 2 + c2 24 8 + c3 24 8 = 6 3

La matriz aumentada del sistema anterior queda con eliminaci on Gaussiana: 6 24 24 6 2 8 8 3 1 4 4 0 0 0 0 1

Como el sistema anterior es inconsistente, no existen c1 , c2 , y c3 que hagan que se cumpla : c1 v1 + c2 v1 + c3 v1 = y Por lo tanto, el vector y no es combinaci on lineal de los vectores v1 , v2 , v3 . Ejemplo 5.5 Indique si el vector y es combinaci on lineal de los vectores v1 y v2 . Donde: 38 6 2 y = 41 , v1 = 5 , v2 = 4 29 1 6 4

Soluci on La pregunta consiste en saber si existen escalares c1 y c2 (tres escalares por ser tres vectores) tales que: c1 v1 + c2 v2 = y La matriz aumentada del sistema anterior queda con eliminaci on Gaussiana: 1 0 5 6 2 38 5 4 41 0 1 4 1 6 29 0 0 0 Como el sistema anterior es consistente, s existen c1 y c2 (c1 = 5 y c2 = 4), que hacen que se cumpla : c1 v1 + c2 v2 = y Por lo tanto, el vector y s es combinaci on lineal de los vectores v1 y v2 Nota Es conveniente observar, por el trabajo que pude ahorrar, c omo se forma la matriz aumentada del sistema directamente de los datos. La matriz de coecientes se forma con los vectores que se deben combinar. Estos entran como columnas en orden de aparici on. El vector de constantes es el vector que uno se pregunta si es combinaci on lineal de los vectores dados. Si acaso el sistema formado es consistente, el vector s es combinaci on lineal de los vectores dados. Si el sistema es incosistente, el vector no es combinaci on lineal. Ejemplo 5.6 Indique si el primer vector es combinaci on lineal de los restantes: 12 24 Soluci on La matriz aumentada y trabajada queda: 2 1 12 5 4 24 1 0 8 0 1 4 , 2 5 , 1 4

Como el sistema es consistente, el vector s es combinaci on lineal de los restantes Ejemplo 5.7 Indique si el sistema [A|b] es consistente para todos los vectores b R3 si A es la matriz: 4 1 3 5 5 5 5 5 3 Soluci on Supongamos un vector b en R3 cualquiera. Digamos que b =< b1 , b2 , b3 >. Nuestro problema consiste en determinar c omo deben ser b1 , b2 y b3 para que el sistema [A|b] sea consistente. Esperamos dos posibles tipos de respuesta: Que no importa como sean b1 , b2 y b3 el sistema es consistente. o 5

Que b1 , b2 y b3 deben cumplir cierta relaci on para que se cumpla la consistencia y que no todos los puntos posibles de R3 la cumplen. Recordemos que el an alisis de consistencia de un sistema se obtiene de la matriz escalonada y por ello no se requiere la forma escalonada reducida. Para escalonar siguiremos una estrategia tipo Montante manteniendo la aritm etica totalmente con n umeros enteros. As para hacer cero en las posiciones (2, 1) y (3, 1) lo que hacermos es hacer que tales posiciones se hagan un m ultiplo del elemento (1, 1). Aplicando R2 4R2 y R3 4R3 obtenemos: 4 1 3 b1 4 1 3 b1 5 5 b2 20 20 20 4 b2 [ A| b] = 5 5 5 3 b3 20 20 12 4 b3 Ahora procederemos a hacer cero bajo el pivote mediante las operaciones R2 R2 + 5R1 y R3 R3 5R1 : 4 1 3 b1 b1 4 1 3 20 20 20 4 b2 0 25 35 5 b1 + 4 b2 20 20 12 4 b3 0 25 3 5 b1 + 4 b3 Para hacer un cero en la posici on (3, 2) haremos R3 R3 + R2 obteni endose: 4 1 3 b1 b1 4 1 3 0 25 35 5 b1 + 4 b2 0 25 35 5 b1 + 4 b2 0 25 3 5 b1 + 4 b3 0 0 32 4 b2 + 4 b3 Observamos que las posiciones de los pivotes son (1, 1), (2, 2) y (3, 3), y por tanto no hay posibilidad de tener un pivote en la columna de las constantes. Por tanto, no importa cual sea el vector b =< b1 , b2 , b3 > el sistema [A|b] es siempre consistente Ejemplo 5.8 Indique si el sistema [A|b] es consistente para todos 4 5 2

los vectores b R3 si A es la matriz: 3 6 5 25 3 0

Soluci on Como en el problema anterior, busquemos escalonar [A|b] donde b =< b1 , b2 , b3 > representa un vector arbitrario de R3 . Haciendo R2 4R2 y R3 2R3 sobre [A|b] obtenemos: 4 3 6 b1 4 3 6 b1 [A|b] = 5 5 25 b2 20 20 100 4 b2 2 3 0 b3 4 6 0 2 b3 Ahora haciendo R2 R2 + 5R1 y R3 R3 R1 obtenemos: 4 3 6 b1 4 3 6 b1 20 20 100 4 b2 0 35 70 5 b1 + 4 b2 4 6 0 2 b3 0 3 6 b1 + 2 b3 Ahora haciendo R3 35R3 obtenemos: 4 3 6 b1 b1 4 3 6 0 35 70 5 b1 + 4 b2 0 35 70 5 b1 + 4 b2 0 3 6 b1 + 2 b3 0 105 210 35 b1 + 70 b3 6

Ahora haciendo R3 R3 3 R2 obtenemos: 4 3 6 4 3 6 b1 b1 0 35 70 5 b1 + 4 b2 0 35 70 5 b1 + 4 b2 0 105 210 35 b1 + 70 b3 0 0 0 50 b1 12 b2 + 70 b3 de donde la consistencia depende del valor de la expresi on 50 b1 12 b2 + 70 b3 : 50 b1 12 b2 + 70 b3 = 0 da consistencia: todo vector b =< b1 , b2 , b3 > de R3 que cumpla 50 b1 12 b2 + 70 b3 = 0 nos dar a un sistema [A|b] consistente.

50 b1 12 b2 + 70 b3 = 0 da inconsistencia: todo vector b =< b1 , b2 , b3 > de R3 que cumpla 50 b1 12 b2 + 70 b3 = 0 nos dar a un sistema [A|b] inconsistente. Por ejemplo, tomando b =< 1, 0, 0 > dar a b1 = 1, b2 = 0 y b3 = 0, que al ser sustituidos en la expresi on dan como resultado: 50 b1 12 b2 + 70 b3 = 50(1) 12(0) + 70(0) = 50 = 0 lo cual indica que [A|b] es inconsistente.

Resumiendo, para la matriz A se cumple que es falso que para todos los vectores b de R3 el sistema [A|b] es consistente

Vectores en Rn y producto punto


Departamento de Matem aticas, CCIR/ITESM 10 de enero de 2011

Indice
4.1. Introducci on . . . . . . . . . . . . 4.2. Vector . . . . . . . . . . . . . . . 4.3. Igualdad entre vectores . . . . . . 4.4. Suma entre vectores . . . . . . . 4.5. Producto por escalares . . . . . . 4.6. Propiedades . . . . . . . . . . . . 4.7. Aplicaciones de vectores . . . . . 4.8. Producto punto . . . . . . . . . . 4.9. Ortogonalidad . . . . . . . . . . . 4.10. Longitud o norma . . . . . . . . 4.11. Distancia entre vectores . . . . . 4.12. Vector unitario . . . . . . . . . . 4.13. Angulo entre vectores . . . . . . 4.14. Proyecci on ortogonal . . . . . . . 4.15. Componente vectorial . . . . . . 4.16. Propiedades del Producto Punto 4.17. Desigualdad de Cauchy-Schwarz 4.18. Desigualdad del Tri angulo . . . . 4.19. Teorema de Pit agoras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 3 3 3 5 5 6 6 7 7 8 8 9 9 10 10 10

4.1.

Introducci on

En este apartado se introduce el concepto de vectores en el espacio n-dimensional asi como el concepto producto punto entre vectores en el espacio n-dimensional. Se incluyen anotaciones geom etricas sobre estos conceptos.

4.2.

Vector

Denici on 4.1 Un vector n es arreglo vertical de n n umeros reales de la forma: x1 x2 x= . . . xn Los elementos xi se llamar an las componentes del vector y podr an ser n umeros reales cualquiera. Se referir aa n como la dimensi on del vector x. El conjunto de todos los posibles vectores n se representar a por Rn .

3 2.5 2 1.5 1 0.5 0.5 1 1.5 2 0 0 0

0.5

1.5

Figura 1: Componentes de un Vector Ejemplo 4.1 El vector

5 3 x= 8 2

es un vector 4, es decir es un vector con 4 componentes. La componente 1 es 5, la componente 2 es -3, la componente 3 es 8, y la componente 4 es -2 En la gura 1 se ilustran las componentes de un vector en R3 : el vector est a en azul y las componentes son los vectores en rojo que se obtienen en proyectar perpendicularmente el vector sobre los ejes.

4.3.

Igualdad entre vectores

Denici on 4.2 Dos vectores x y y se dicen vectores iguales si tienen la misma dimensi on y las coordenadas correspondientes son todas iguales.

Ejemplo 4.2 Indique para que valor de x y y los vectores son iguales: x= Soluci on Igualando componentes: x1 = y3 3 = x+1 Resolviendo primero para x y luego para y obtenemos: x=2 y=4 x1 3 y= y3 x+1

3z

3 x

0 0 0.5 1 0 1.5 2 y

Figura 2: Suma de dos vectores por Componentes

4.4.

Suma entre vectores

Denici on 4.3 La suma entre vectores x y y s olo puede realizarse cuando los vectores tienen la misma dimensi on, en cuyo caso la suma se calcula: x1 y1 x 1 + y1 x 2 y2 x 2 + y2 . + . = . . . . . . . xn yn x n + yn En la gura 2 se ilustra que el proceso de suma de dos vectores en R3 que se efectua por medio de la regla del paralelogramo: para sumar dos vectores, uno de ellos se traslada hasta la punta del otro y el vector suma resultante va del inicio del primero hasta la punta del segundo. Es obtenido sumando las componentes de los dos vectores.

4.5.

Producto por escalares


x da como resultado un vector. Este producto se cx1 cx2 . . . cxn

Denici on 4.4 El producto de un escalar c (n umero real) por un vector dene como: x1 x2 c . = . . xn

En la gura 3 se ilustra que el resultado de escalar un vector (hacerlo m as peque no o m as grande, inclusive cambiarlo de sentido) coincide con el escalamiento de las componentes del vector.

4.6.

Propiedades

Las operaciones de suma entre vectores y producto de un escalar por un vector satisfacen las siguientes propiedades:

-3

6 -6

4 -2 xz 2 -1 0 2 0 0 y -21 -4 2 -6 -8

-2

-4

Figura 3: Producto de escalar por vector 1 Ley asociativa de la suma de vectores: (u + v ) + w = u + (v + w ) 2 Ley conmutativa de la suma de vectores: u+v =v+u 3 Vector cero: u+0=0+u=u 4 Inversos aditivos: u + (u) = (u) + u = 0 5 Propiedad distributiva del producto sobre la suma: a (u + v ) = au + av 6 Propiedad distributiva de la suma se escalares sobre el producto: (a + b) u = au + bu 7 Propiedad asociativa del producto: (ab) u = a (bu) = b (au) 8 Propiedades generales: 1u = u y 0u = 0

4.7.

Aplicaciones de vectores

Veamos ahora algunos ejemplos que muestran la utilidad del manejo de vectores para representar cantidades que deben manejarse por separado. Ejemplo 4.3 Suponga una empresa maquiladora que a partir de componentes tipos b asicos A, B y C ensambla otros componentes. A los componentes A, B y C los podemos considerar como materia prima, adem as son direrentes y un tipo no puede suplir a otro. Normalmente, la empresa tiene almacenado en un buen n umero de estos componentes y lleva un control estricto de las cantidades. El personal de almacen por conveniencia reporta el contenido y la salida de materiales por un vector de 3 componentes. En lugar de decir: en bodega hay 200 componentes tipo A, 250 componentes tipo B y 347 componentes tipo C, la gente de bodega dice tenemos < 200, 250, 347 >. En lugar de decir: salieron de bodega 333 componentes tipo A, 130 componentes tipo B y 58 componentes tipo C dice salieron < 333, 130, 58 > Ahora veamos que las operaciones con vectores tambi en les son convenientes para su manejo de bodega. Ejemplo 4.4 Siguiendo con el ejemplo, suponga que inicialmente poseen < 1200, 1400, 800 >. Un mes despu es salen cuatro pedidos por < 25, 30, 50 > cada uno y entra < 100, 300, 200 >. En el siguiente mes salen tres pedidos por < 30, 25, 30 > cada uno y no hay entrada. Indique cu al es la cantidad de material en bodega. Soluci on La representaci on vectorial es bastante adecuada y el resultado puede expresarse como una operaci on entre vectores: 1200 25 100 30 1110 1400 4 30 + 300 3 25 = 1505 800 50 200 30 710 Quedan 1110 tipo A, 1505 tipo B y 710 tipo C

4.8.

Producto punto

Denici on 4.5 Sean u =< u1 , u2 , , un >, y v =< v1 , v2 , , vn > dos vectores cualquiera en Rn . El producto Punto, o producto escalar, de u y v se dene como u v = u1 v 1 + u2 v 2 + + u n v n Ejemplo 4.5 Determine el producto punto entre los vectores: v =< 2, 3, 4 > y v =< 2, 1, 1 > Soluci on De la propia denici on del producto punto: 2 2 3 1 = (2) (2) + (3) (1) + (4) (1) 4 1 = 43+4=5 Nota Es importante observar que el producto punto es s olo entre vectores de la misma dimensi on: No entre un escalar y un vector; No entre dos vectores de diferente dimensi on. Tambi en debe observarse que el resultado 5 (1)

del producto punto es un escalar, no un vector. Ejemplo 4.6 Indique cuales opciones contienen operaciones indenidas: 1. 3. 5. 7. u (v w ) 2. u u + 2 (u v )w 4. u (3v ) (u u)3 6. u (3 + w) (u v )(v w)

Soluci on 1. Indenida porque (v w) es un escalar. 2. Denida porque es una suma entre escalares. 3. Denida porque es un escalar por un vector. 4. Denida. 5. Denida: es un escalar al cubo. 6. Indenida: lo que falla es la suma de escalar con vector. 7. Denida: es un producto entre escalares

4.9.

Ortogonalidad

Denici on 4.6 Dos vectores u y v , se dice que son vectores ortogonales, si uv =0 Ejemplo 4.7 Diga si las siguientes parejas de vectores son o no ortogonales: u1 =< 2, 3, 4 > y u2 =< 1, 2, 3 > v1 =< 2, 3 > y v2 =< 3, 2 > Soluci on Los vectores < 2, 3, 4 > y < 1, 2, 3 > no son ortogonales debido a que < 2, 3, 4 > < 1, 2, 3 >= (2) (1) + (3) (2) + (4) (3) = 4 = 0 Los vectores < 2, 3 > y < 3, 2 > s son ortogonales debido a que: < 2, 3 > < 3, 2 >= (2) (3) + (3) (2) = 0 (2)

4.10.

Longitud o norma

Denici on 4.7 La norma de un vector u se dene como u = uu= 6 u1 2 + un 2 (3)

Ejemplo 4.8 Determine la norma del vector: v =< 2, 3, 1 > Soluci on Directamente de la denci on: < 2, 3, 1 > = (2) (2) + (3) (3) + (1) (1) = 14

4.11.

Distancia entre vectores

Denici on 4.8 La distancia euclidiana entre los vectores u y v , se dene como du,v = u v Ejemplo 4.9 Determine la distancia entre el punto P (2, 3, 0) y el punto Q = (0, 6, 1). Soluci on Directamente de la denici on tenemos: dP ,Q = < 2, 3, 0 > < 0, 6, 1 > = < 2, 3, 1 > = 22 + (3)2 + 12 14 = (4)

4.12.

Vector unitario

Denici on 4.9 Un vector u se dice vector unitario, o simplemente unitario, si u =1 Ejemplo 4.10 Diga si los siguientes vectores son unitarios: u =< 1, 2 > y v =< 1/ 2, 1/ 2 > Soluci on El vector < 1, 2 > no es unitario debido a que: < 1, 2 > = < 1, 2 > < 1, 2 > = 1 + 4 = 1 es unitario porque: Mientras que el vector < 1/ 2, 1/ 2 > s < 1/ 2, 1/ 2 > = 1/2 + 1/2 = 1 (5)

Componentes de un vector

2 1.5 1 0.5 0 0.5 1 0.5 1 1.5 2

Figura 4: Proyecci on Ortogonal

4.13.

Angulo entre vectores

Denici on 4.10 El angulo entre vectores u y v , se dene como el u nico n umero (0 )que cumple cos () = uv u v (6)

Ejemplo 4.11 Determine el angulo entre los vectores P =< 1, 2 > y Q =< 1, 1 >. Soluci on Como P Q = 1 2 = 1, P = 5, Q = 2 De donde: cos () = de donde 1 = = 0.31622, 10 P Q P Q

1.8925(en radianes), 108.43o

4.14.

Proyecci on ortogonal

Denici on 4.11 Sean u y v dos vectores en Rn , ninguno de los dos el vector cero, La proyecci on ortogonal de u sobre v se dene como el vector uv v. upr,v = (7) vv En la gura 4 se ilustra la proyecci on ortogonal de un vector sobre otro. Ejemplo 4.12 Determine la proyecci on de u =< 1, 2 > sobre v =< 1, 1 >.

Componentes de un vector

2 1.5 1 0.5 0 0.5 1 0.5 1 1.5 2

Figura 5: Componente vectorial Soluci on Como u v = 3, v v = 2 As upr,v = 3 3 3 < 1, 1 >=< , > 2 2 2

4.15.

Componente vectorial

Denici on 4.12 La componente vectorial de u ortogonal a v se dene como el vector uc,v = u uv vv v (8)

En la gura 5 se ilustra la componente vectorial sobre un vector. Ejemplo 4.13 Determine la componente ortogonal de u =< 1, 2 > sobre v =< 1, 1 >. Soluci on Como u v = 3, v v = 2 As 3 1 1 ucv =< 1, 2 > < 1, 1 >=< , > 2 2 2

4.16.

Propiedades del Producto Punto

Para cualquier vectores u, v , y w en Rn y escalar c se cumple

1 Simetr a: uv =vu 2 Aditividad: u (v + w ) = u v + u w 3. Homogeneidad: c (u v ) = (c u) v = u (c v ) 4. Positividad: uu0 Adem as, u u = 0 si y s olo si u = 0 (13) (12) (11) (10) (9)

4.17.

Desigualdad de Cauchy-Schwarz

Teorema Para cualquiera dos vectores u y v en Rn se cumple |u v | u v (14)

Adem as, la igualdad se cumple si y s olo si los vectores u y v son m ultiplos escalares entre s . El resultado anterior se conoce como la desigualdad de Cauchy-Schwarz.

4.18.

Desigualdad del Tri angulo

Teorema Para cualquiera dos vectores u y v en Rn se cumple u+v u + v . El resultado anterior se conoce como la desigualdad del tri angulo. (15)

4.19.

Teorema de Pit agoras

Teorema Los vectores u y v son ortogonales si y s olo si se cumple u+v


2

= u

+ v 2.

(16)

El resultado anterior se conoce como el Teorema de Pit agoras.

10

Matrices: Conceptos y Operaciones B asicas


Departamento de Matem aticas, CCIR/ITESM 10 de enero de 2011

Indice
6.1. Introducci on . . . . . . . . . . . . . . . 6.2. Matriz . . . . . . . . . . . . . . . . . . 6.3. Igualdad entre matrices . . . . . . . . 6.4. Matrices especiales . . . . . . . . . . . 6.5. Suma de matrices . . . . . . . . . . . . 6.6. Producto de un escalar por una matriz 6.7. Producto de una matriz por un vector 6.8. Matriz de requerimiento . . . . . . . . 6.9. Producto entre Matrices . . . . . . . . 6.10. Matriz de requerimiento y producto de 6.11. Propiedades de las operaciones . . . . 6.12. Notas Importantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 3 4 4 5 7 8 9 9 10

6.1.

Introducci on

En esta lectura veremos conceptos b asicos sobre matrices, las operaciones de suma entre matrices, producto de un escalar por una matriz y el producto entre matrices.

6.2.

Matriz

Denici on 6.1 Una matriz A m n es un arreglo rectangular de m n n umeros en forma de m renglones horizontales y n columnas verticales: a11 a12 a1n a21 a22 a2n (1) am1 am2 amn Nos referiremos al elemento que se encuentra en el rengl on i y en la columna j como el elemento aij de A o como el (i, j )- esimo elemento de A. La dimensi on de A es el producto indicado del n umero de renglones por el n umero de columnas, as en este caso la dimensi on de A es m n. El i- esimo rengl on de A es: ai1 ai2 La j - esima columna de A es: a1j a2j . . . amj ain

Tambi en podemos considerar que la matriz A es una secuencia de sus columnas a1 , a2 ,..., an : A = [a1 a2 an ] . Ejemplo 6.1 Indique cu ales de las siguientes representaciones son matrices: 2 2 2 2 4 3 2 4 3 , , 0 1 0 0

2 2 5 0

2 0 4 3 0 1 0 0

Recuerde: Matriz es un arreglo rectangular; Por consiguiente, la u nica representaci on que corresponde a una matriz es la u ltima Ejemplo 6.2 Para cada matriz, indique el n umero de renglones, el n umero de columnas y su dimensi on: 2 4 1 4 2. 3. 4 1. 4 4 4 3 4 6 2 1 1 1 5. 6. 2 5 5 4. 5 6 2 6 3 2 3 3 6 0 7. 6 6 8. 3 1 0 2 5 Soluci on 1. tiene 2 renglones y 1 columna: es 2 1; 2. tiene 1 rengl on y 2 columnas: es 1 2, 3. tiene 3 renglones y 1 columna: es 3 1, 4. tiene 2 renglones y 2 columnas: es 2 2, 5. tiene 1 rengl on y 3 columnas: es 1 3, 6. tiene 3 renglones y 3 columnas: es 3 3, 7. tiene 3 renglones y 2 columnsa: es 3 2, y 8. tiene 2 renglones y 3 columnas: es 2 3 Ejemplo 6.3 Liste en orden los elementos (3, 1), (3, 2), y (2, 2) de la matriz: 3 4 1 3 1 2 3 3 3 Soluci on El elemento (3, 1) est a en el rengl on 3 y en la columna 1: es -3. El elemento (3, 2) est a en el rengl on 3 y en la columna 2: es 3. El elemento (2, 2) est a en el rengl on 2 y en la columna 2: es 1

6.3.

Igualdad entre matrices

Denici on 6.2 Dos matrices se dicen matrices iguales si tienen la misma dimensi on y adem as elemento por elemento son iguales. 2

Ejemplo 6.4 Cu al debe ser el valor de x y de y para que las matrices sean iguales: 1 x y x+y = 1 yx 2x 3

Soluci on Se requiere que: x = y x, que y = 2 x y que x+y = 3. Resolviendo el sistema se obtiene que x = 1 y que y = 2 Ejemplo 6.5 Cu al debe ser el valor de x y de y para que las matrices sean iguales: 1 yx 1 x 3 = 2x y x+y 0 0 Soluci on Como la matriz a la izquierda es 2 2 y la de la derecha es 3 2. Las matrices no pueden ser iguales para ning un valor de x y de y

6.4.

Matrices especiales

Denici on 6.3 1. Una matriz 1 n se llama matriz rengl on. 2. Una matriz m 1 se denomina una matriz columna o vector. 3. Una matriz n n se llama matriz cuadrada. 4. Una matriz cuya totalidad de elementos es cero se llama matriz cero y se representa por 0. Sea A una matriz cuadrada: 1. A la colecci on de elementos aii se le llama su diagonal principal. 2. Se dice matriz triangular superior si todos los elementos que est an abajo de la diagonal principal son cero. 3. Se dice matriz triangular inferior si todos los elementos que est an arriba de la diagonal principal son cero. 4. Se dice matriz diagonal si todos los elementos que est an por arriba y por abajo de la diagonal principal son cero. 5. Se dice matriz escalar si es diagonal y todos los elementos de la diagonal principal son iguales. Ejemplo 6.6 Clasique las siguientes matrices: 1. 5. 2 6 1 0 2 0 4 5 2. 6. 0 4 4 0 2 0 4 0 3. 7. 3 4 4 0 0 5 0 0 5 4. 8. 4 0 0 8 0 3 6 3

Soluci on La matriz 1. por el elemento (2, 1) no es ni triangular superior, ni diagonal, ni escalar. Por el elemento (1, 2) tampoco es triangular inferior La matriz 2. por el elemento (2, 1), no es triangular superior, ni diagonal ni escalar. Por el lemento (1, 2) tampoco es triangular inferior. La matriz 3. es triangular superior, pero no diagonal ni escalar; no es triangular inferior. La matriz 4. es triangular superior y triangular inferior, diagonal pero no matriz escalar. La matriz 5. es triangular inferior, pero no diagonal ni escalar; no es triangular superior. La matriz 6. es triangular inferior, pero no diagonal ni escalar; no es triangular superior. La matriz 7. es triangular inferior, triangular superior, matriz diagonal y matriz escalar. La matriz 8. no es triangular inferior, ni triangular superior, ni matriz diagonal, ni matriz escalar

6.5.

Suma de matrices

Denici on 6.4 Dos matrices de las mismas dimensiones se pueden sumar; la suma de dos matrices de diferente dimensi on no. La suma de dos matrices de las mismas dimensiones es una matriz de las misma dimensiones y se obtiene sumando sus elementos correspondientes:
a11 a21 . . . am1 .. . a1n a2n . . . amn b11 b21 . . . bm1 .. . b1n b2n . . . bmn a11 + b11 a21 + b21 . . . am1 + bm1 .. . a1n + b1n a2n + b2n . . . amn + bmn

Ejemplo 6.7 Realice la suma de las matrices: 1 0 1 2 A = 1 1 y B = 1 2 . 4 1 1 1 Observamos que la suma s se puede realizar porque las dimensiones de las matrices coinciden, as : 2 2 (1) + (1) (2) + (0) 1 0 1 2 1 1 + 1 2 = (1) + (1) (1) + (2) = 2 3 5 2 (1) + (4) (1) + (1) 4 1 1 1

6.6.

Producto de un escalar por una matriz

Denici on 6.5 Sea A cualquier matriz y c un escalar cualquiera. El producto escalar c A es una matriz que tiene las mismas dimensiones que la matriz A, y que en cada elemento contiene el elemento correspondiente de A multiplicado por c: a11 a12 a1n c a11 c a12 c a1n a21 a22 a2n c a21 c a22 c a2n c . = . . . . . . . . . . . . . . . . . . . . . . . . am1 am2 Ejemplo 6.8 Realice el producto 1 2 0 . 3 1 1 4 amn c am1 c am2 c amn

Este producto siempre se puede realizar, y en este caso: 1 2 (3) (1) (3) (2) 3 6 0 = (3) (1) (3) (0) = 3 0 3 1 1 4 (3) (1) (3) (4) 3 12

6.7.

Producto de una matriz por un vector

Denici on 6.6 Sea A una matriz m n y B una matriz columna n 1, el Producto Matricial A B es la una matriz C columna m 1 denida como: n a11 a12 a1n b1 j =1 a1j bj n a21 a22 a2n b2 j =1 a2j bj = . . . . . .. . . . . . . . . . . . am1 am2 amn bn = El producto no est a denido cuando el n umero de B. Alternativamente, a11 a12 a1n b1 a21 a22 a2n b2 . . = b1 . . . . . . . . . . . . . am1 am2 amn bn
n j =1 amj bj

a11 b1 + a1,2 b2 + + a1n bn a21 b1 + a2,2 b2 + + a2n bn . . . am1 b1 + am,2 b2 + + amn bn

columnas de A es diferente que el n umero de renglones de + b2 + + bn

a11 a21 . . . am1

a21 a22 . . . am2

a1n a2n . . . amn

Ejemplo 6.9 Realize el producto de acuerdo a ambas deniciones y compruebe la igualdad de resultados: 4 2 0 1 5 . 3 4 2 7 Soluci on Observamos que el producto s se puede realizar porque el n umero de columnas de la matriz A coincide con el n umero de renglones de B . De acuerdo a la denici on del producto como producto punto de los renglones de A con b: 4 2 0 1 (2) (4) + (0) (5) + (1) (7) 5 = 3 4 2 (3) (4) + (4) (5) + (2) (7) 7 8 + 0 + 7 1 = = 12 + 20 + 14 22

De acuerdo a la denici on del producto como combinaci on lineal de las columnas de la matriz: 4 2 0 1 2 0 1 5 = 4 +5 7 3 4 2 3 4 2 7 8 0 7 = + + 12 20 14 = 1 22

Observamos que hay equivalencia entre una forma y otra para el c alculo de un producto de una matriz por un vector columna Ejemplo 6.10 Suponga una f abrica con varias etapas de ensamble. En la primera etapa se producen dos tipos de productos, digamos productos tipo X y tipo Y. Estos productos est an compuestos de partes que la f abrica denomina materia prima. La f abrica opera utilizando tres tipos de partes del tipo materia prima; tipo a, tipo b, y tipo c. Para armar una pieza del tipo X requiere 4 piezas del tipo a, 3 del tipo b y 5 del tipo c. Para armar una pieza del tipo Y requiere 5 del tipo a, 2 del tipo b y 6 del tipo c. Suponga que la planta desea armar 10 piezas del tipo X y 21 piezas del tipo Y. Cu antas piezas a, b, y c necesita? Soluci on La anterior composici on podr a ordenadamente presentarse por la siguiente tabla. Requerimientos por armado un tipo X un tipo Y 4 5 3 2 5 6

tipo a tipo b tipo c

Para ver que este problema se resuelve usando el producto de una matriz con un vector, desarrollemos los c alculos: 4 5 10 4 21 5 10 3 + 21 2 = 10 3 + 21 2 5 6 10 5 21 6 (10) (4) + (21) (5) = (10) (3) + (21) (2) (10) (5) + (21) (6) (4) (10) + (5) (21) = (3) (10) + (2) (21) (5) (10) + (6) (21) 4 5 145 10 = 3 2 = 72 21 5 6 176 Por ello es que se requieren 145 del tipo as, 72 del tipo b, y 176 del tipo c Ejemplo 6.11 Continuamos con la Empresa Ensambladora. Suponga que en una siguiente etapa de ensamblado se prepan dos tipos de piezas; la pieza tipo M y la pieza tipo N. Suponga que para la pieza tipo M requiere 8 piezas tipo X y 3 piezas tipo Y. Mientras que para la pieza tipo N requiere 2 piezas tipo X y 4 piezas tipo Y. Suponga que la planta desea armar 11 piezas del tipo M y 20 piezas del tipo N, cu antas piezas X y Y se necesita? 6

Diga entonces, cu antas piezas tipo a, b y c se requiere. Soluci on La informaci on de la etapa se puede representar en forma de matriz como: Requerimientos por armado tipo M tipo N 8 2 3 4

tipo X tipo Y

As , las piezas requeridas se pueden calcular 8 2 3 4 11 20 = (8) (11) + (2) (20) (3) (11) + (4) (20) = 128 113 Por

Por ello es que para armar 11 piezas M y 20 piezas N se requieren 128 del tipo X y 113 del tipo Y. otro lado, para saber cu antas piezas a, b y c se requieren hagamos: 1077 (4) (128) + (5) (113) 4 5 3 2 128 = (3) (128) + (2) (113) = 610 113 1318 (5) (128) + (6) (113) 5 6 De donde concluimos que se requieren en total 1077 piezas a, 610 b y 1318 c

6.8.

Matriz de requerimiento

Para un proceso simplicado de entrada-salida que cumple las propiedades de aditividad y proporcionalidad donde a la materia prima se codica como un vector de n componentes (el valor de n es el total de tipos diferentes de materia prima en el proceso) y a la salida se codica como un vector de m componentes (el valor de m es el total de tipos diferentes de productos posibles a la salida del proceso): la matriz de requerimiento del proceso es una matriz A n m tal que para determinar el total de cada tipo de materia prima requerida para producir cantidades de productos codicados en el vector y se realiza el producto A y. Note que el vector resultante tiene n componentes que son precisamente el n umero de materias primas disponibles. La matriz de requerimiento tiene en cada columna el detalle de materia prima requerido para producir un art culo o una unidad de cada tipo de art culo a la salida: En la primera columna aparece el correspondiente al tipo de producto 1, y as sucesivamente. En la primera etapa de la maquiladora del ejemplo anterior la matriz de requerimiento es simplemente la representaci on matricial de la informaci on de la tabla: Requerimientos por armado un tipo X un tipo Y 4 5 3 2 5 6

tipo a tipo b tipo c

matriz de requerimiento para la etapa de ensamble:

4 5 A= 3 2 5 6

6.9.

Producto entre Matrices

Denici on 6.7 Sea A una matriz m n y B una matriz n k . El producto A B es la matriz m k cuyas columnas son A b1 ,A b2 ,..., A bk , donde b1 ,b2 ,..., bk son las columnas de la matriz B. A B = A[b1 , . . . , bk ] = [A b1 , . . . A bk ] (2)

Equivalentemente, el elemento (i, j ) del producto puede ser calculado haciendo el producto punto entre el rengl on i de la matriz a la izquierda por la columna j de la matriz a la derecha. Ejemplo 6.12 Realice el producto A por B si 3 2 4 2 0 1 5 . A= y B = 2 4 2 1 2 0 3 2 Observamos que el n umero de columnas de A (3) coincide con el n umero de renglones de B (3) por lo cual el producto se puede efectuar. Para la realizaci on trabajemos sobre las columnas de B : A por columna 1 de B: 2 0 1 2 1 2 3 2 = 0 A b1 = (2) (3) + (0) (2) + (1) (0) (2) (3) + (1) (2) + (2) (0) 6 4

A por columna 2 de B: A b2 = 2 0 1 2 1 2 2 4 = 3 (2) (2) + (0) (4) + (1) (3) (2) (2) + (1) (4) + (2) (3) 7 14

A por columna 3 de B: A b3 = 2 0 1 2 1 2 4 5 = 2 (2) (4) + (0) (5) + (1) (2) (2) (4) + (1) (5) + (2) (2) 6 9

Por consiguiente el producto es: A B = [A b1 A b2 A b3 ] = 6 7 6 4 14 9

Ejemplo 6.13 Siguiendo con la situaci on de la empresa maquiladora, Cu al ser a matriz que da el c alculo de piezas a, b y c de la etapa 1 a la etapa 2? Soluci on El producto de las matrices con ambas etapas respetando el orden es la respuesta: (4) (8) + (5) (3) (4) (2) + (5) (4) 4 5 8 2 3 2 = (3) (8) + (2) (3) (3) (2) + (2) (4) 3 4 5 6 (5) (8) + (6) (3) (5) (2) + (6) (4) 8

4 5 3 2 5 6

8 2 3 4

47 28 = 30 14 58 34

Es f acil comprobar que esta matriz contiene en las columnas los requerimientos de piezas a, b y c para armar una pieza M y una pieza N

6.10.

Matriz de requerimiento y producto de matrices

Es importante observar la bondad del producto de matrices respecto a las matrices de requerimiento: La matriz de requerimiento de un grupo de etapas de ensamble continuadas vistas como una sola etapa de ensamble es el producto de las matrices de requerimiento de las etapas involucradas justo en el mismo orden.

6.11.

Propiedades de las operaciones

Sean A, B y C matrices m n cualquiera, y sean a, b, y c escalares cualquiera. Entonces son v alidas las siguientes armaciones: 1. La suma de matrices es asociativa: (A + B) + C = A + (B + C). 2. La suma de matrices es conmutativa: A + B = B + A. 3. La matriz 0 es el neutro bajo la suma: A + 0 = 0 + A = A. 4. Cada matriz tiene un inverso aditivo y este es precisamente el escalar 1 por la matriz: A + (1 A) = (1 A) + A = 0. 5. El producto por escalares se distribuye sobre la suma de matrices: c (A + B) = c A + c B. 6. La suma de escalares se distribuye sobre la multiplicaci on por matrices: (a + b) A = a A + b A. 7. La multiplicaci on por escalares es asociativa: (a b) A = a (b A). 8. El escalar 1 multiplicado por una matriz da como resultado la matriz inicial: 1 A = A. 9. El escalar cero por una matriz da la matriz de ceros: 0 A = 0. 10. La multiplicaci on de matrices es asociativa: A (B C) = (A B) C. 11. La multiplicaci on de matrices se distribuye sobre la suma de matrices: a ) A (B + C) = A B + A C, y b ) (A + B) C = A C + B C.

12. Movilidad de los escalares en una multiplicaci on: a (A B) = (a A) B = A (a B). 13. La matriz cuadrada con s olo unos en la diagonal In es la identidad multiplicativa: Im A = A In = A. 14. El resultado de multiplicar la matriz cero, de la dimensi on adecuada, por cualquier matriz da como resultado la matriz cero: 0 A = A 0 = 0.

6.12.

Notas Importantes

El producto de matrices s olo est a denido en el caso cuando el n umero de columnas de la primera matriz es igual al n umero de renglones de la segunda matriz. En cualquier otro caso se dice que est a indenido o que es irrealizable. El producto matricial no es conmutativo: en general A B = B A. Por ejemplo si A= se tiene AB= 2 5 3 8 =BA= 7 4 5 3 1 1 2 1 , B= 1 3 1 2

10

Espacios Generados en Rn
Departamento de Matem aticas, CCIR/ITESM 12 de enero de 2011

Indice
7.1. Objetivos . . . . . . . . . . . . . . . . . . . 7.2. Introducci on . . . . . . . . . . . . . . . . . . 7.3. Ejemplo 1, caso homog eneo . . . . . . . . . 7.4. Motivaci on: Ejemplo 2, caso no homog eneo 7.5. Espacio generado . . . . . . . . . . . . . . . 7.6. Condici on de pertencia a un generado . . . 7.7. Vectores especiales . . . . . . . . . . . . . . 7.8. Espacios generados en R2 . . . . . . . . . . 7.9. Espacios generados en R3 . . . . . . . . . . 7.10. Reducci on del conjunto generador . . . . . . 7.11. Cerradura del espacio generado . . . . . . . 7.12. Contenci on entre espacios generados . . . . 7.13. Generaci on de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 3 4 5 6 6 7 8 11 11 13

7.1.

Objetivos

Uno de los conceptos m as importantes del Algebra Lineal es el concepto de espacio generado por un conjunto de vectores. Este concepto ser a introducido en esta lectura. Los principales apartados son: El concepto de espacio generado por un conjunto de vectores. El proceso para vericar cuando un vector pertenece a un espacio generado. C omo son los espacios generados en R2 y en R3 . C omo reducir un conjunto generador. C omo se comparan dos espacios generados. C omo saber si un espacio generado es todo Rn .

7.2.

Introducci on

En el curso de algebra lineal casi todo gira en torno a la soluci on de sistemas de ecuaciones lineales. Despu es de sistema de ecuaciones lineales y combinaci on lineal, el tercer concepto en importancia en el curso es el de espacio generado. Este concepto tiene mucho de abstracto y conviene ilustrar c omo se relaciona con el an alisis de un sistema de ecuaciones lineales. En los siguientes dos ejemplos se motivar a el concepto de espacio generado por un conjunto de vectores. En ellos lo que debe es observar la forma que tiene la soluci on general obtenida.

7.3.

Ejemplo 1, caso homog eneo

Ejemplo 7.1 Suponga que desea resolver el sistema: x 3x 2x x 2x La matriz aumentada del sistema es: 1 2 3 2 1 1 1 3 4 3 1 2 2 6 8 2 1 2 2 0 1 4 3 0 2 0 0 0 0 0 2y y 6y + 3y + y + + + 3z + 2 w 2z + 4 w 8z 4z z + 2w + t = 0 + 3t = 0 2t = 0 + t = 0 + 2t = 0

Al aplicarle eliminaci on gaussiana tenemos: 1 0 0 0 0 0 1/5 6/5 1 0 1 7/5 2/5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

Observamos que el sistema es consistente al no tener pivotes en la columna de las constantes. En general, y debido a que las operaciones elementales no pueden aparecer n umeros diferentes de cero en una columna que s olo conten a ceros, si el sistema es homog eneo, la columna de las constantes seguir a conteniendo ceros despu es del algoritmo de eliminaci on gaussiana. Y por consiguiente, no podr a haber pivote en la columna de las constantes. Es decir, los sistemas homog eneos siempre ser an consistentes. Esta conclusi on era obvia pues hacer cero todas las variables en toda ecuaci on lineal homog enea la debe convertir en una identidad. Regresemos a nuestro ejemplo. Adem as de que nuestro sistema es consistente, observamos que tiene columnas de variables sin pivote, y por consiguiente, tiene variables libres: lo que nos lleva a concluir que el sistema de ecuaciones tiene innitas soluciones. Determinemos la f ormula general para todas las soluciones. Para ello debemos convertir cada regl on no cero en una ecuaci on: 1 6 x+ z+ w+t=0 5 5 7 2 y z w=0 5 5 Despejando las variables jas: 1 6 x = z wt 5 5 7 2 y = z+ w 5 5

Escribiendo el resultado en forma vectorial: x y z w t = 1 6 z wt 5 5 7 2 z+ w 5 5 z w t es decir, que la f ormula para la soluci on general es: 1 6 1 5 5 7 2 0 x y 5 5 + w + t 0 z = z , 1 0 w 0 t 0 1 1 0 0 para z , w y t escalares libres

7.4.

Motivaci on: Ejemplo 2, caso no homog eneo

Habiendo visto la forma de la soluci on a un sistema homog eneo con soluciones innitas, veamos ahora qu e pasa en el caso semejante no homog eneo. Ejemplo 7.2 Suponga que se desea resolver el sistema: x 3y + z w = 2 x 3y 5z 2w = 1 2x 6y 4z 3w = 3 x + 3 y 7 z = 3 La matriz aumentada del sistema es: 1 3 1 1 2 1 3 5 2 1 2 6 4 3 3 1 3 7 0 3 Al aplicarle eliminaci on gaussiana tenemos:

1 3 0 0 1 0 0 0 0 3

0 0 0

7 6 1 6 0 0

11 6 1 6 0 0

Y regresando los renglones no cero a una ecuaci on: 7 11 x 3y w = 6 6 1 1 z+ w= 6 6 Despejando las variables jas: 7 11 x = 3y + w + 6 6 1 1 z= w+ 6 6 Escribiendo el resultado en forma vectorial: 11 x 6 y 0 +y = z 1 6 w 0 3 7 6 0 , 1 6 1

1 +w 0 0

donde y y w escalares libres Nuestro prop osito al mostrar los ejemplos anteriores es ilustrar c omo son los conjuntos soluci on cuando existen soluciones innitas en los sistemas de ecuaciones lineales. Lo que hemos visto es que aparece la estructura: escalar1 vector1 + escalar2 vector2 + donde los vectores son jos y donde los escalares son libres, es decir, que pueden tomar cualquier valor de n umero real. Este tipo de estructura es de suma importancia para nuestro curso y recibir a un nombre y un tratamiento especial.

7.5.

Espacio generado

Pasemos ahora a la denici on del espacio generado por un conjunto de vectores. Denici on 7.1 El conjunto formado por todas las combinaciones lineales de los vectores v1 , v2 ,. . . , vk en Rn se llama espacio generado por los vectores v1 , v2 ,. . . , vk . Este conjunto se representa por Gen {v1 , v2 , . . . , vk } . Es decir, es el conjunto formado por todas las combinaciones lineales c1 v1 + c2 v2 + + ck vk donde c1 ,c2 ,. . . ,ck son escalares libres. Si V = Gen {v1 , v2 , , vk } se dice que los vectores v1 , v2 ,. . . , vk generan a V y que {v1 , v2 , . . . , vk } es un conjunto generador de V . Veamos ahora un ejemplo que ilustra que no s olo el espacio generado es relevante para describir los conjuntos soluci on a un sistema de ecuaciones, sino que la pertenencia a un espacio generado est a ntimamente relacionada a un sistema de ecuaciones lineales. Ejemplo 7.3 Indique si el vector x =< 2, 3, 1 > pertenece al espacio V = Gen {y1 =< 1, 2, 1 >, y2 =< 3, 5, 0 >}. 4 (1)

Soluci on El vector x pertence a V si y s olo si x es una combinaci on lineal de los vectores y1 y y2 , es decir, si y s olo si existen escalares c1 y c2 para los cuales: x = c1 y1 + c2 y2 Esto se convierte en un sistema con matriz aumentada y que 1 3 2 1 2 5 3 0 1 0 1 0 reduci endola: 0 0 1 0 0 1

Como el sistema es inconsistente, no pueden existir c1 y c2 que cumplan la relaci on, y por tanto, x no es combinaci on lineal de y1 y y2 , y por tanto, x1 no pertence al espacio generado Ejemplo 7.4 Indique para qu e valor del par ametro a el vector x1 =< 2, 3, a > pertenece al espacio V = Gen {y1 =< 1, 2, 1 >, y2 =< 3, 5, 0 >} Soluci on El vector x pertence a V si y s olo si x es una combinaci on lineal de los vectores y1 y y2 , es decir, si y s olo si existen escalares c1 y c2 para los cuales: x = c1 y1 + c2 y2 Al formar la matriz aumentada del sistema y escalonarla queda 1 3 2 1 3 2 2 5 3 0 1 1 1 0 a 0 0 a+1 De aqu vemos que la u nica posibilidad para que el sistema sea consistente es que en el u ltimo rengl on no exista pivote; por tanto, a + 1 = 0 = a = 1

7.6.

Condici on de pertencia a un generado

El siguiente es el principal resultado sobre espacios generados y marca la relaci on entre estos y los sistemas de ecuaciones lineales. Este resultado no es sino una reformulaci on de la interpretaci on de la soluci on de un sistema de ecuaciones lineales. Aqu el que dice que cuando se resuelve un sistema de ecuaciones lineales lo que se busca es la forma de combinar las columnas de la matriz de coecientes para obtener el vector de constantes. Teorema Sean b, v1 , v2 ,. . . , vm vectores en Rn . Entonces b Gen{v1 , v2 , . . . , vm } [v1 , v2 , . . . , vm |b] es consistente Dicho de otra manera, Gen {v1 , v2 , . . . , vk } consiste justo por aquellos vectores b para los cuales [v1 , v2 , . . . , vm |b] es consistente.

7.7.

Vectores especiales

Los siguientes vectores son importantes porque conforman el conjunto m as simple que genera a Rn . En el n espacio n-dimensional R , el vector ei representa el vector que es el vector con solo ceros, excepto que en la coordenada i tiene un 1. Ejemplo 7.5 En R4

1 0 0 1 e1 = 0 , e2 = 0 0 0

0 0 0 0 , e3 = , y e4 = 1 0 0 1

En general: Rn = Gen{ei , i = 1, . . . , n}

7.8.

Espacios generados en R2

Los espacios generados son conjuntos de vectores o abusando de la notaci on, son conjuntos de puntos. Una pregunta que se puede hacer es: geom etricamente, qu e son los espacios generados? Como veremos posteriormente, los u nicos tres tipos de espacios generados en R2 independientemente del n umero de vectores son El conjunto que consta del punto o vector cero. Una l nea que pasa por el origen. Todo R2 . Veamos algunos ejemplos que nos ilustran la naturaleza de los espacios generados en R2 . Ejemplo 7.6 Indique qu e vectores x =< x, y > pertenece al espacio V = Gen {y =< 1, 2 >} Soluci on El vector x pertence a V si y s olo si x es una combinaci on lineal del vector y, es decir, si y s olo si existe un escalar c tal que: x = cy Esto se convierte en un sistema con matriz aumentada que escalonadose queda: 1 x 2 y 1 x 0 y 2x

De aqu vemos que la u nica posibilidad para que el sistema sea consistente es que en el u ltimo rengl on no exista pivote en la columna de las constantes; por tanto y 2x = 0 Es decir, para que un vector x =< x, y > pertenezca al espacio generado por y =< 1, 2 >, el vector debe cumplir y = 2x Es decir, que el espacio generado por el vector y es la recta anterior. La cual observamos que efectivamente pasa por el origen 6

Ejemplo 7.7 Indique qu e vectores x =< x, y > pertenecen al espacio V = Gen {y1 =< 1, 2 >, y2 =< 1, 1 >} Soluci on El vector x pertence a V si y s olo si x es una combinaci on lineal de los vectores y1 y y2 , es decir, si y s olo si existen escalares c1 y c2 tales que: x = c1 y1 + c2 y2 Esto se convierte en un sistema con matriz aumentada que escalon adose queda: 1 1 x 2 1 y 1 0 x + y 0 1 2x y

Como no hay pivotes en la columna de las constantes, el sistema es siempre consistente. Por consiguiente, todo vector x =< x, y > es combinaci on lineal de los vectores y1 y y2 . Por tanto, los vectores y1 y y2 generan todo R2 : Gen {y1 , y2 } = R2

7.9.

Espacios generados en R3

Los u nicos cuatro tipos de espacios generados en R3 independientemente del n umero de vectores son El conjunto que consta del punto o vector cero. nea que pasa por el origen. Una l Un plano que pasa por el origen. Todo R3 . Ejemplo 7.8 Indique qu e vectores x =< x, y, z > pertenecen al espacio V = Gen {y1 =< 1, 2, 1 >, y2 =< 1, 0, 1 >} Soluci on El vector x pertence a V si y s olo si x es una combinaci on lineal de los vector y1 y y2 , es decir, si y s olo si existen escalares c1 y c2 tales que: x = c1 y1 + c2 y2 Esto se convierte en un sistema con matriz 1 1 2 0 1 1 aumentada que escalonadose queda: x 1 1 x y 0 2 y 2 x z 0 0 zx

El sistema ser a consistente si y s olo si z x = 0. Es decir, que los vectores < x, y, z > que s son combinaci on lineal de y1 y y2 son aquellos que complen z x = 0. Por tanto, x Gen {y1 , y2 } = y : z x = 0 z 7

Posteriormente veremos que esta ecuaci on representa un plano en R3 que pasa por el origen Ejemplo 7.9 Indique qu e vectores x =< x, y, z > pertenecen al espacio V = Gen {y1 =< 1, 2, 1 >} Soluci on El vector x pertence a V si y s olo si x es una combinaci on lineal del vector y1 , es decir, si y s olo si existen escalares c1 tales que: x = c1 y1 Esto se convierte en un sistema con matriz aumentada 1 x 2 y 1 z que escalonadose queda: 1 x 0 y 2x 0 zx

El sistema ser a consistente si y s olo si y 2 x = 0 y z x. Es decir, que los vectores < x, y, z > que s son combinaci on lineal de y1 y y2 son aquellos que complen y = 2 x y z = x. Por tanto, x Gen {y1 , y2 } = y : y = 2 x y z = x z Posteriormente veremos que esta ecuaci on representa una recta en R3 que pasa por el origen

7.10.

Reducci on del conjunto generador

Un problema que frecuentemente ocurre es que el generador del espacio es redundante. Es decir, que tiene mucha informaci on que podr a ser deducida de otra. En t erminos de vectores, dir amos hay vectores que no aportan una componente nueva al espacio que generan los vectores restantes. El siguiente resultado dice en qu e condici on el conjunto generado se puede reducir y seguir generando el mismo espacio generado. Teorema Si uno de los vectores en la lista v1 , v2 ,. . . , vk es una combinaci on del resto, el espacio generado permance igual si dicho vector se elimina de la lista. Demostraci on Sin perder generalidad, supongamos que vk es combinaci on lineal de los vectores v1 , v2 ,. . . ,vk1 . Por tanto, deben existir escalares a1 ,a2 ,. . . ,ak1 tales que vk = a1 v1 + + ak1 vk1 (2)

Sea ahora un vector v cualquiera del espacio generado V = Gen {v1 , v2 , . . . , vk }. Por consiguiente, deben existir escalares ci para i = 1, . . . , k tales que v = c1 v1 + + ck1 vk1 + ck vk Sustituyendo (2) en (3) obtenemos v = c1 v1 + + ck1 vk1 + ck (a1 v1 + + ak1 vk1 ) 8 (3)

desarrollando lo anterior y agrupando respecto a los vectores vi obtenemos v = (c1 + ck , a1 ) v1 + + (ck1 + ck ak1 ) vk1 lo cual nos dice que cualquiera que sea el vector v de V , este deber a ser una combinaci on lineal de los vectores v1 , v2 ,. . . ,vk1 . Es decir, hemos probado que Gen {v1 , v2 , . . . , vk } Gen {v1 , v2 , . . . , vk1 } como la contenci on rec proca se cumple, debido a que toda combinaci on lineal de los vectores v1 ,v2 ,. . . ,vk1 es a su vez una combinaci on lineal entre los vectores v1 ,v2 ,. . . ,vk1 , vk tomando los mismos coecientes y haciendo cero el coeciente de vk , entonces Gen {v1 , v2 , . . . , vk } = Gen {v1 , v2 , . . . , vk1 } Ejemplo 7.10 Determine cu ales vectores pueden eliminarse y seguir generando el mismo espacio si 2 1 2 1 V = Gen 2 , 4 , 1 , 1 1 0 2 1 Soluci on Determinemos cu ales vectores son combinaciones lineales de los restantes; Por conveniencia, designemos por v, u, x, y y los vectores del conjunto en el orden izquierda a derecha. Veamos si el vector y es combinaci on lineal de los anteriores: Armamos la matriz aumentada como se convino previamente (nal de lectura 22): 1 2 1 1 2 0 1 2 2 4 1 1 0 0 1 1 1 2 0 1 0 0 0 0 Siendo el sistema consistente, el vector y es combinaci on lineal de los vectores u, v y x por el resultado anterior: Gen {u, v, x, y} = Gen {u, v, x} Nuevamente nos preguntamos si es posible eliminar otro vector, digamos x: 1 2 1 1 2 0 2 4 1 0 0 1 1 2 0 0 0 0 Armamos la matriz aumentada:

Como el sistema es inconsistente, no es posible eliminar el vector x y seguir generando el mismo espacio. Ahora nos preguntamos si el vector v es combinaci on lineal de v y x: 1 0 2 1 1 2 2 1 4 0 1 0 1 0 2 0 0 0 Siendo el sistema consistente, concluimos que el vector u es combinaci on lineal de los vectores v y x, y por tanto: Gen {u, v, x, y} = Gen {u, v, x} = Gen {v, x}

Nos seguimos preguntanto si es posible continuar determinando si hay un vector que se combinaci on lineal de los restantes en el conjunto {v, x}: Veamos si el vector x es combinaci on lineal de v: 1 1 1 0 2 1 0 1 1 0 0 0 Por tanto, x no es combinaci on lineal de v y por consiguiente v es combinaci on lineal de x: 1 1 1 1 2 0 0 1 0 no puede ser eliminado. 0 1 0 Veamos si el vector

Por consiguiente, no es posible eliminar el vector v y nuestra conclusi on nal es que: Gen {u, v, x, y} = Gen {v, x} Nota Todos los c alculos anteriores pueden hacerse en s olo uno: Con los vectores iniciales tomados como columnas se forma una matriz. A esta matriz se lleva a la forma reducida. Los vectores cuya posici on tiene elemento pivote son los vectores que deben conservarse para el generador. Aquellos vectores en cuya columna no queda pivote son combinaci on lineal de los restantes pueden eliminarse. Ejemplo 7.11 Determine cu ales vectores pueden eliminarse y seguir generando el mismo espacio si V = Gen
1 2 1

2 4 2

1 1 0

1 10 3

Soluci on Por conveniencia, designemos por v, u, x, y y los vectores del conjunto en el orden izquierda a derecha. Formemos la matriz con los vectores como columnas: 1 2 1 1 1 2 0 3 2 4 1 10 0 0 1 4 1 2 0 3 0 0 0 0 Por tanto, los vectores que deben permanecer son los vectores que entraron en las columnas 1 y 3; los dem as pueden eliminarse del generador: 1 2 1 1 1 1 Gen 2 , 4 , 1 , 10 = Gen 2 , 1 1 2 0 3 1 0 Puede vericarse f acilmente que: u = 2 v y = 3 v + (4) x Note lo completo de la informaci on contenida en la matriz reducida!

10

7.11.

Cerradura del espacio generado

Uno de los conceptos clave en algebra lineal es el concepto de espacio lineal. Un espacio lineal es un conjunto cerrado bajo las operaciones suma entre elementos del conjunto y multiplicaci on de un elemento del conjunto por un escalar. Este concepto ser a denido con precisi on y revisado m as adelante en el curso. El siguiente resultado indica que todo espacio generado es a su vez un espacio lineal. Teorema Si V = Gen {v1 , v2 , , vk }, entonces para cualesquiera vectores u y w elementos de V , y cualquiera escalar c: 1. u + w tambi en es un elemento de V , 2. c u tambi en es un elemento de V . Demostraci on Sean u y w dos elementos de V . Por consiguiente, u y w son combinaciones lineales de v1 , v2 , , y vk . Por tanto, deben existir escalares a1 , a2 , . . . , ak , b1 , b2 , . . . , bk tales que u = a 1 v1 + + a k vk w = b1 v1 + + bk vk . Para ver la condici on 1, hagamos la suma de u con w: u + w = (a1 v1 + + ak vk ) + (b1 v1 + + bk vk ) = (a1 v1 + b1 v1 ) + + (ak vk + bk vk ) = (a1 + b1 )v1 + + (ak + bk ) vk de donde, observamos que u + w tambi en es una combinaci on lineal de v1 , v2 ,. . . , y vk . Demostrando que u+w V. Para ver la condici on 2, hagamos el producto de u con un escalar c cualquiera c u = c (a1 v1 + + ak vk ) = (c a1 ) v1 + + (c ak ) vk Por tanto, el vector c u es tambi en una combinaci on lineal de v1 , v2 ,. . . , y vk . Demostrando que c u V

7.12.

Contenci on entre espacios generados

En general, los espacios generados son innitos y para ver que un espacio generado est a contenido como conjunto dentro de otro deber a hacerse elemento por elemento. Sin embargo, el siguiente resultado nos dice c omo se pueden comparar espacios generados a partir de conjuntos de generadores. Es decir, reduce el problema de ver si un espacio generado est a contenido dentro de otro a un caso nito. Teorema Si V = Gen {x1 , , xm }, y W = Gen {y1 , , yk } son conjuntos de vectores en Rn . Todo vector xi (i = 1, 2, . . . , m) pertence a W si y solo si V W . Demostraci on Supongamos que todo vector xi (i = 1, 2, . . . , m) pertence a W . Veamos que V W . Como W = Gen {x1 , , xm }, deben existir escalares cij para i = 1, . . . , m y j = 1, . . . , k tales que xi = ci1 y1 + + cik yk 11

Sea w un vector de V cualquiera. Como V = Gen {x1 , , xm }, entonces deben existir escalares a1 , a2 ,. . . ,am tales que v = a1 x1 + + am xm Sustituyendo cada xi obtenemos: v = a1 (c11 y1 + + c1k yk ) + + am (cm1 y1 + + cmk yk ) Si desarrollamos los productos anteriores y agrupamos respecto a los vectores yj obtenemos v = (a1 c11 + + am cm1 )y1 + + (a1 c1k + + am cmk )yk Por consiguiente, cualquier vector v de V es combinaci on de los vectores yj y por tanto, pertenece a W . Probando que V W . Supongamos ahora que V W . Por tanto, cualquier vector de V pertenece a W . En perticular, pertenecen a W los vectores xi = 0 x1 + 0 x2 + + 1 xi + + 0 x m de donde se concluye que cada vector xi W Ejemplo 7.12 Diga si U V , V U , U = V , o no son comparables, si 2 3 1 U = Gen u1 = 2 , u2 = 6 , u3 = 4 2 3 1 4 1 V = Gen v1 = 8 , v2 = 0 4 1 Soluci on Veamos si U V : De acuerdo al resultado previo debemos ver si todo ui V . Para ello construimos 4 1 1 0 1/4 1 2 0 1 0 [v1 , v2 |u1 ] = 8 0 4 1 1 0 0 0 4 1 3 1 0 3/4 6 0 1 0 [v1 , v2 |u2 ] = 8 0 4 1 3 0 0 0 4 1 2 1 0 1/2 0 [v1 , v2 |u3 ] = 8 0 4 0 1 4 1 2 0 0 0 Como cada sistema es consistente ui V y as U = Gen {u1 , u2 , u3 } V. Veamos si V U : De acuerdo al resultado previo debemos ver si todo vi U . Para ello construimos 1 3 2 4 1 3 2 4 6 4 8 0 0 0 0 [u1 , u2 , u3 |v1 ] = 2 1 3 2 4 0 0 0 0 1 3 2 1 1 3 2 0 6 4 0 0 0 0 1 [u1 , u2 , u3 |v2 ] = 2 1 3 2 1 0 0 0 0 12

As al ser consistente el primer sistema v1 U , pero al ser inconsistente el segundo sistema v2 / U . Por lo tanto, V = Gen {v1 , v2 } U. Por tanto, s olo se cumple U V . Observaciones Note que para vericar que U V , en lugar de hacer [v1 , v2 |u1 ] , [v1 , v2 |u2 ], [v1 , v2 |u3 ] basta hacer [v1 , v2 |u1 , u2 , u3 ] reducir y buscar los pivotes: si todos los pivotes est an a la izquierda, entonces la contenci on se cumple: si hay al menos un pivote a la derecha, entonces la contenci on no se cumple. Para que se cumpla la igualdad V = U debe vericarque se cumplen simult aneamente U V y V U .

7.13.

Generaci on de Rn

En el siguiente resultado se revisa las condiciones en las cuales un conjunto genera todo el espacio que lo contiene: Teorema Sea {v1 , v2 , . . . , vm } un conjunto de vectores en Rn . Entonces son equivalentes las siguientes armaciones: 1. Para cualquier vector de constantes b, el sistema [v1 , v2 , . . . , vm |b] es consistente. 2. Rn = Gen{v1 , v2 , . . . , vm }. 3. La matriz reducida (o escalonada) obtenida de [v1 , v2 , . . . , vm ] tiene pivote en cada rengl on. Demostraci on En lo siguiente digamos que V = Gen {v1 , . . . , vm }. 1 implica 2 Como vi Rn , entonces el teorema anterior arma que V Rn . Lo que falta probar es que Rm V . Sea c un vector cualquiera de Rn . Usamos la propiedad 1. aplicada para b = c, y se deduce que [v1 , . . . , vm |c] es un sistema consistente. Aplicando el primer teorema de esta secci on se deduce que c V = Gen {v1 , . . . , vm }. Esto prueba que Rn V . Como las dos contenciones se cumplen se tiene que V = Rn . 2 implica 3 Demostremos su contrapositiva. Supongamos que al aplicar las operaciones elementales O1 ,O2 ,. . . ,Or la matriz [v1 , . . . , vm ] tiene un rengl on un rengl on sin pivote. Sin p erdida de generalidad supongamos que en el rengl on n no quedan pivotes. Tomemos b como el vector que se obtiene de aplicar los inversos de las operaciones elementales Oi a en en orden opuesto: inv inv inv b = O1 O2 Or en (La idea es que al aplicarle a b las operaciones O1 , O2 ,. . . ,Or se obtenga el vector en ) De lo anterior se deduce que al aplicarle al sistema [v1 vm |b] las operaciones O1 , O2 , . . . , y Or se obtiene una matriz cuyo u ltimo rengl on es el rengl on de ceros salvo que en su u ltima posici on tiene 1. Por tanto, el sistema es inconsistente. Por el primer teorema de esta secci on, se deduce que el b no pertenece a V . As hemos probado que si no se cumple 3 entonces no se cumple 2. Esta es la contrapositiva de 2 implica 3. 3 implica 1 Sea b un vector de constantes cualquiera. Formemos el sistema [v1 vm |b]. Al reducir el sistema, no existe pivote en la columna de las constantes debido a que por 3 todos los renglones tienen pivote y estos est an en la parte izquierda de la matriz aumentada. Por lo tanto, el sistema es consistente. La prueba de estas implicaciones muestra que las 3 armaciones son equivalentes

13

Veamos una aplicaci on del resultado anterior a un problema ya resuelto. Ejemplo 7.13 Indique si el sistema [A|b] es consistente para todos 4 5 2

los vectores b R3 si A es la matriz: 3 6 5 25 3 0

Soluci on Al aplicar eliminaci on gaussiana a la matriz A se obtiene 4 3 6 1 0 3 5 5 25 0 1 2 2 3 0 0 0 0 Como no quedan pivotes en todos los renglones de ceros se concluye, por el teorema previo, que no es cierto que para cualquier vector b de R3 el sistema es consistente Ejemplo 7.14 Sean a1 , a2 , a3 , b, y c vectores de Rn . Ser a cierto que: Si 4 b Gen {a1 , a2 }, entonces [a1 , a2 , a3 |b] es consistente. Soluci on Si 4 b Gen {a1 , a2 } entonces existen escalares c1 y c2 tales que: 4 b = c1 a1 + c2 a2 dividiendo entre 4 tendremos que: b= por lo tanto: c2 c1 a1 + a2 4 4

c1 c2 a1 + a2 + 0 a3 4 4 Esto dice que el vector b se obtiene combinado los vectores a1 , a2 y a3 , por lo tanto: b= [a1 a2 a3 |b] es consistente. Por tanto, la armaci on es cierta. Ejemplo 7.15 Sean a1 , a2 , a3 , b, y c vectores de Rn . Ser a cierto que: Si [a1 , a2 |b] es consistente y [a1 , 3 a2 |6 c] es inconsistente, entonces [a1 , b|b + c] es consistente. Soluci on Si [a1 , a2 |b] es consistente, entonces que s existen escalares c1 y c2 tales que b = c1 a1 + c2 a2 Si [a1 , 3 a2 |6 c] es inconsistente entonces no existen escalares e1 y e2 que cumplan 6 c = e1 a1 + e2 3 a2

14

Dividiendo esta igualdad entre 6 se convierte en: c= e1 3 e2 a1 + a2 6 6

Por tanto, tampoco existir an escalares f1 y f2 que cumplan: c = f1 a1 + f2 a2 Esto nos da pie a pensar que la armaci on a demostrar es falsa. Para comprobarlo, razonemos por contradicci on: pensemos que la armaci on fuera cierta. Es decir, que el sistema [a1 b|b + c] es consistente. Por tanto, deber a haber escalares d1 y d2 tales que b + c = d1 a1 + d2 b Por tanto, si pasamos a b al lado derecho c = d1 a1 + (d2 1) b si recordamos la conclusi on de nuestro primer supuesto b = c1 a1 + c2 a2 y sustituimos en lo anterior obtenemos que: c = d1 a1 + (d2 1) (c1 a1 + c2 a2 ) = (d1 + (d2 1) c1 ) a1 + (d2 1) c2 a2 Es decir, esto dir a que se puede obtener c combinando a1 y a2 . Pero esto es imposible porque contradice el supuesto 2. As , no es posible que el sistema [a1 , b|b + c] sea consistente: debe ser inconsistente. Ejemplo 7.16 Sean a1 , a2 , a3 , b, y c vectores de Rn . Ser a cierto que: Si [a1 , a2 |b] es consistente y [a1 , b|c] tambi en es consistente, entonces [a1 , a2 |c] es consistente. Soluci on El supuesto [a1 , a2 |b] consistente indica que existen c1 y c2 escalares tales que: b = c1 a1 + c2 a2 El supuesto [a1 , b|c] consistente indica que existen d1 y d2 escalares tales que: c = d1 a1 + d2 b Si sustituimos la conclusi on del primer supuesto en la f ormula anterior tenemos que: c = d1 a1 + d2 (c1 a1 + c2 a2 ) = (d1 + d2 c1 ) a1 + d2 c2 a2 Concluimos que es posible obtener c combinando a1 y a2 . Por tanto, el sistema [a1 a2 |c] es consistente. Ejemplo 7.17 Sean a1 , a2 , a3 , b, y c vectores de Rn . Ser a cierto que: Si [a1 , a2 , a3 |b] es consistente, entonces [a1 , 2 a3 , a2 |3 b] es consistente.

15

Soluci on [a1 , a2 , a3 |b] consistente indicar a que existen c1 , c2 , c3 tales que: b = c1 a1 + c2 a2 + c3 a3 Si multiplicamos por 3 se tendr a 3 b = 3 c1 a1 + 3 c2 a2 + 3 c3 a3 3 = (3 c1 ) a1 + (3 c2 ) a2 + 2 c3 2 a3 3 = (3 c1 ) a1 + 2 c3 2 a3 + (3 c2 ) a2 Lo cual dice que el vector 3 b es combinaci on lineal de a1 , 2 a3 y a2 . Por tanto, el sistema [a1 2 a3 a2 |3 b] es consistente. Ejemplo 7.18 Sean a1 , a2 , a3 , b, y c vectores de Rn . Ser a cierto que: Si [a1 , a2 , a3 |b] es inconsistente, entonces b Gen {a1 , a2 } Soluci on Si la conclusi on de la implicaci on b Gen {a1 , a2 } fuera cierta entonces existir an escalares c1 y c2 tales que b = c1 a1 + c2 a2 por tanto b = c1 a1 + c2 a2 + 0 a3 y por tanto, concluir amos que el vector b se obtiene combinado a1 , a2 y a3 . Es decir [a1 a2 a3 |b] es consistente. Pero esto es la negaci on de la hip otesis [a1 , a2 , a3 |b] es inconsistente de la implicaci on. Por tanto, no es posible que b Gen {a1 , a2 }. Por tanto, la armaci on debe ser falsa.

16

Dependencia e Independencia Lineal en Rn


Departamento de Matem aticas, CCIR/ITESM 12 de enero de 2011

Indice
8.1. Objetivos . . . . . . . . . . . . . . . . . . . . . . 8.2. Motivaci on . . . . . . . . . . . . . . . . . . . . . 8.3. Relaci on entre el sistema y su sistema homog eneo 8.4. Idea Clave . . . . . . . . . . . . . . . . . . . . . . 8.5. Dependencia lineal . . . . . . . . . . . . . . . . . 8.6. Criterio de dependencia lineal . . . . . . . . . . . 8.7. Conjuntos de dos vectores . . . . . . . . . . . . . 8.8. Tama no de un conjunto independiente . . . . . . 8.9. Algunas Pruebas de Dependencia Lineal . . . . . 8.10. Resultados te oricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . asociado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 2 3 4 4 5 5 11

8.1.

Objetivos

Despu es del concepto de espacio generado, el siguiente concepto en importancia es el de dependencia lineal. Este concepto ser a introducido en esta lectura. Los principales apartados son: El concepto de conjunto de vectores linealmente dependiente. El proceso para vericar cuando un conjunto de vectores es linealmente dependiente. La relaci on entre independencia lineal y sistemas de ecuaciones lineales. La meta nal es analizar las razones por las que un sistema de ecuaciones tiene innitas soluciones. Nuestra conclusi on ser a que se debe a que las columnas de la matriz de coecientes forman un conjunto de vectores linealmente dependiente. Si fuera conjunto independiente, la soluci on ser a u nica en caso de haber soluci on.

8.2.

Motivaci on

La motivaci on de este concepto surge del an alisis de un sistema de ecuaciones lineales. Considere el sistema Ax = b Supongamos que el sistema sea consistente y que x0 sea una soluci on al mismo. Es decir, Ax0 = b Supongamos tambi en que x1 sea otra soluci on al sistema, entonces Ax1 = b

Si restamos las ecuaciones anteriores tenemos: Ax0 Ax1 = b b = 0 Factorizando el lado izquierdo tenemos: A (x0 x1 ) = 0 Es decir, que el vector x0 x1 es una soluci on a Ax = 0 el cual se conoce como sistema homog eneo asociado al sistema Ax = b. Para el sistema homog eno asociado, por ser homog eneo, podemos decir que siempre es consistente: todas las variables igualadas a cero es una soluci on. Esta soluci on se conoce como la soluci on trivial. Si el sistema homog eneo asociado s olo tiene la soluci on 0 entonces x0 x1 = 0, y por tanto x0 = x1 . Es decir, si el sistema homog eneo asociado tiene s olo la soluci on trivial, entonces el sistema A x = b tiene soluci on u nica. Por otro lado, si el sistema homog eneo A x = 0 tiene otra soluci on diferente de 0, digamos xh , entonces: A (xo + xh ) = Axo + Axh = b + 0 = b Es decir, si xh es una soluci on diferente de 0 al sistema homog eneo, entonces x0 + xh es una soluci on a A x = b diferente de xo . Es decir, que si A x = 0 tiene innitas soluciones entonces el sistema consistente A x = b tambi en tendr a innitas soluciones.

8.3.

Relaci on entre el sistema y su sistema homog eneo asociado

Esto se puede resumir en el siguiente resultado que dice que la unicidad de la soluci on en un sistema consistente queda determinada por la unicidad del sistema homog eneo: Teorema Suponga el sistema consistente: Ax = b Entonces: el sistema tiene soluci on u nica si y s olo si el sistema homog eneo asociado tiene soluci on u nica. Equivalentemente: el sistema no tiene soluci on u nica si y s olo si el sistema homog eneo asociado tiene otra soluci on diferente de la soluci on trivial.

8.4.

Idea Clave

De acuerdo con este resultado, la clave para saber si un sistema de ecuaciones lineales puede tener innitas soluciones est a en el an alisis del sistema homog eneo asociado , y esto hace que nos interesemos en saber si los sistemas homog eneos tienen otra soluci on adem as de la soluci on trivial. Si A = [a1 , a2 , . . . , an ] y x = [x1 , x2 , . . . , xn ]T entonces el sistema Ax = 0 se convierte en el sistema: x1 a1 + x2 a2 + + xn an = 0 Por consiguiente, la pregunta: el sistema homog eneo Ax = 0 tiene otra soluci on adem as de la soluci on trivial? se convierte en: hay forma de combinar linealmente los vectores ai para que den el vector 0 donde no todos los coecientes sean cero?

8.5.

Dependencia lineal

Lo anterior motiva la siguiente denici on: Denici on Un conjunto de vectores en Rn , v1 , v2 ,. . . , vk , es linealmente dependiente si existen constantes c1 , c2 ,. . . ,ck no todos ceros tales que: c1 v1 + c2 v2 + + ck vk = 0. Un conjunto de vectores que no es linealmente dependiente se dice linealmente independiente : es decir, cuando la u nica combinaci on lineal de los vectores que da el vector cero es la que tienen todos sus coecientes cero. Ejemplo 8.1 Indique si el siguiente conjunto de vectores es linealmente independiente: 4 1 1 x = 6 , x2 = 3 , x3 = 2 1 1 4 2 Soluci on Debemos ver c omo deben ser las constantes c1 , c2 y c3 para que: c1 x1 + c2 x2 + c3 x3 = 0 El sistema anterior tiene matriz aumentada 4 1 6 3 1 4 que al reducirla queda: 1 0 0 0 1 0 2 0 0 1 0 0 2 0 0 0 1 0

Como el sistema tiene soluci on u nica c1 = 0, c2 = 0 y c3 = 0 se deduce que la u nica forma de combinar los vectores xs para que den el vector cero es la que tiene todos los coecientes cero. Por tanto, el conjunto de vectores es linealmente independiente Ejemplo 8.2 Indique si el siguiente conjunto de vectores es linealmente independiente: 0 5 15 x1 = 3 , x2 = 2 , x3 = 15 3 2 3 Soluci on Debemos ver c omo deben ser las constantes c1 , c2 y c3 para que: c1 x1 + c2 x2 + c3 x3 = 0 El sistema anterior tiene matriz aumentada que al 0 5 15 3 2 15 3 2 3 reducirla queda: 0 1 0 3 0 0 0 1 3 0 0 0 0 0 0

Como el sistema tiene innitas soluciones se deduce que adem as de la soluci on c1 = 0, c2 = 0 y c3 = 0 debe tener otras soluciones y en estas otras al menos un coeciente c debe ser diferente de cero. Por ejemplo, reconvirtiendo los renglones no cero de la matriz reducida a ecuaciones se obtiene: c1 + 3c3 = 0 y c2 + 3c3 = 0 es decir, c1 = 3c3 y c2 = 3c3 . Dando a c3 un valor diferente de cero (por ejemplo c3 = 1) se pueden obtener coecientes (siguiendo el ejemplo, c1 = 3 y c2 = 3) que hacen que la combinaci on lineal de el vector cero. Por tanto, el conjunto de vectores es linealmente dependiente

8.6.

Criterio de dependencia lineal

El principal resultado para caracterizar conjuntos de vectores linealmente independientes es el siguiente: Teorema Sea A = {v1 , v2 , . . . , vk } un conjunto de vectores en Rn . Son equivalentes los siguientes hechos. El conjunto A es linealmente independiente. Tiene soluci on u nica el sistema [v1 v2 vk |0] Tiene k pivotes la matriz reducida obtenida de [v1 v2 vk ]

8.7.

Conjuntos de dos vectores

El resultado previo indica que para determinar si un conjunto es linealmente independiente habr a que reducir una matriz. Sin embargo, hay situaciones donde no es requerido tal proceso. Teorema Son equivalentes los siguientes hechos: a. El conjunto formado por los dos vectores es l.d. b. Un vector es un m ultiplo escalar del otro. Demostraci on Suciencia (a b) Suponga que x1 y x2 forman un conjunto linelamente dependiente. Entonces existen escalares c1 y c2 no ambos cero tal que c1 x1 + c2 x2 = 0 como ambos escalares no son ambos cero, alguno de ellos deber a ser diferente de cero: Si c1 = 0, entonces de la ecuaci on anterior podemos depejar x1 : x1 = y por tanto x1 en un m ultiplo de x2 . Si c2 = 0, enotnces entonces de la ecuaci on anterior podemos depejar x2 : x2 = y por tanto x2 en un m ultiplo de x1 . As en cualquier caso uno de los dos vectores es un m ultiplo del otro. Necesidad (b a) Suponga que x1 es un m ultiplo de x2 . Por tanto, existe un escalar c tal que x1 = cx2 . Por tanto, 1x1 +(c)x2 = 0. Y por consiguiente el conjunto es linealmente dependiente. Lo mismo ocurre en el caso cuando x2 es un m ultiplo de x1 . Por consiguiente, si uno es un m ultiplo del otro el conjunto formado por esos evectores ser a linealmente dependiente c1 x1 c2 c2 x2 c1

8.8.

Tama no de un conjunto independiente

Otra situaci on donde es f acil vericar si un conjunto es linealmente dependiente es cuando el n umero de elementos rebasa la dimensi on del espacio que los contiene: Teorema Si conjunto de vectores v1 , v2 ,. . . , vk es linealmente independiente en Rn entonces k n. Equivalentemente, todo conjunto en Rn con m as de n vectores es linealmente dependiente. Demostraci on Demostremos el resultado por el m etodo de prueba indirecto: veamos que si la conclusi on es falsa entonces la hip otesis es falsa. Supongamos que k > n. Por tanto, la matriz formada [v1 v2 . . . , vk ] tendr a m as columnas que renglones. As al ser reducida no podr a tener m as de n pivotes, es decir el n umero de pivotes no ser a k . Por tanto el conjunto de vectores no ser a linealmente independiente; ser a linealmente dependiente Ejemplo 8.3 Indique si el siguiente conjunto de vectores es linealmente dependiente: 2 1 , 6 4 , 0 5 , 1 7

Soluci on Puesto que el conjunto tiene 4 vectores en R2 es linealmente dependiente: N umero de vectores (4) > dimensi on del espacio donde est an (2).

8.9.

Algunas Pruebas de Dependencia Lineal

Hay otras pruebas que no reemplazan a proceso de reducci on en lo general, pero cuando aplican ahorran trabajo: Algunas pruebas de Dependencia Lineal 1. Si el conjunto solo tiene un vector, el conjunto es lineamente dependiente si y s olo si el vector es el vector cero. 2. Si el vector cero pertence a un conjunto de vectores, el conjunto es linealmente dependiente. 3. Si en un conjunto de vectores aparecen vectores repetidos el conjunto es linealmente dependiente. 4. Si el conjunto consta de m as de dos vectores: el conjunto es linealmente dependiente si y solamente si un vector del conjunto es combinaci on lineal de los restantes. 5. Si en un conjunto de vectores uno de ellos es m ultiplo escalar de otro el conjunto es linealmente dependiente. 6. Si el conjunto consta de m as de dos vectores y el primer vector no es el vector cero: el conjunto es linealmente dependiente si y solamente si un vector del conjunto es combinacion lineal de los vectores anteriores en el conjunto. 7. Si un conjunto de vectores contiene un subconjunto de vectores que es linealmente dependiente, el conjunto es a su vez linealmente dependiente.

8. Si un conjunto de vectores es linealmente independiente, entonces cualquier subconjunto de el tambi en ser a linealmente independiente. Demostraci on 1.- {x} es ld. si y s olo si existe c = 0 tal que cx = 0. Pero siendo c = 0, cx = 0 si y s olo si x = 0. Por tanto, {x} es ld. si y s olo x = 0. 2.- {x1 , x2 , . . . , xi = 0, . . . , xk } es ld. pues 0 x1 + 0 x2 + + 0 xi1 + 1 0 + 0 xi+1 + + 0 xk = 0 4.Supongamos que {x1 , x2 , . . . , . . . , xk } es ld. Entonces, existen escalares c1 , c2 , . . . , ck no todos cero tal que c1 x1 + c2 x2 + + ck xk = 0 digamos que ci = 0. Por tanto, la ecuaci on anterior podr a ser escrita como ci xi = c1 x1 ci1 xi1 ci+1 xi+1 ck xk Por tanto xi = (c1 /ci ) x1 + + (ci1 /ci ) xi1 + (ci+1 /ci ) xi+1 + + (ck /ci ) xk Por consiguiente, el vector xi es una combinaci on lineal de los restantes vectores en el conjunto. Por otro lado si el vector xi fuera combincaci on lineal de los vectores restantes se tendr a que existen c1 , c2 ,. . . , ci1 , ci+1 ,. . . ,ck tales que: xi = c1 x1 + c2 x2 + + ci1 xi1 + ci+1 xi+1 + + ck xk De donde (c1 ) x1 + (c2 ) x2 + + (ci1 ) xi1 + 1 xi + (ci+1 ) xi+1 + + (ck ) xk = 0 lo cual es una combinaci on que da el vector cero con no todos los coecientes cero. Por tanto, el conjunto es linealmente dependiente. 3.- Es un caso particular de 4. 5.- Es un caso particular de 4. 6.- Supongamos que {x1 , x2 , . . . , . . . , xk } es ld. Entonces, existen escalares c1 , c2 , . . . , ck no todos cero tal que c1 x1 + c2 x2 + + ck xk = 0 escojamos el ndice mayor tal que cio = 0. Por consiguiente cj = 0 para io < j k . Note que su io = 1 entonces La ecuaci on anterior se reduce a c1 x1 = 0 y como c1 = 0 se puede despejar x1 = 0. Lo cual no se da en este caso. Por tanto, io > 1. La ecuaci on anterior podr a ser escrita como c1 x1 + c2 x2 + + cio xio = 0 despejando xio se tiene xio = (c1 /cio ) x1 + + (cio 1 /cio )xio 1 Por tanto xio es combinaci on de los vectores anteriores a el x1 , x2 ,. . . ,xio 1 . La rec proca de 6. se prueba en forma an aloga a la rec proca 4. 7.- Supongamos que {x1 , x2 , . . . , xk } es ld. Entonces, existen escalares c1 , c2 , . . . , ck no todos cero tal que c1 x1 + c2 x2 + + ck xk = 0 6

entonces c1 x1 + c2 x2 + + ck xk + 0 xk+1 = 0 con no todos los coecientes cero: alguno de los ci no era cero. Probando que {x1 , x2 , . . . , xk , xk+1 } es ld. Esto prueba que si a un conjunto ld. se le a nade un nuevo vector, entonces el conjunto seguir a siendo linealmente dependiente. Repitiendo este proceso se pueden a nadir cuantos vectores se desee y siempre se obtendr a un conjunto linealmente dependiente. 8.- Si un subconjunto B de un conjunto de vectores li A no fuera tambi en li, entonces B deber a ser ld. por 7., en conjunto A deber a ser linealmente dependiente. Esto es imposible. As el subconjunto B debe tambi en ser linealmente independiente Ejemplo 8.4 Indique si el siguiente conjunto de vectores es linealmente dependiente: 3 9 x1 = 0 , x 2 = 0 1 3 Soluci on El conjunto es linealmente dependiente porque el segundo vector es m ultiplo escalar del primero.(x2 = 3x1 ) Ejemplo 8.5 Indique si el siguiente conjunto de vectores es linealmente dependiente: 4 0 1 x1 = 1 , x2 = 0 , x3 = 4 2 0 3 Soluci on El conjunto es linealmente dependiente porque el vector cero est a en el conjunto: x2 = 0 x1 Ejemplo 8.6 Para qu e valor de a el siguiente conjunto de vectores es linealmente dependiente? 1 2 Soluci on Al formar la matriz aumentada y escalonar tenemos: 1 6 0 2 a 0 1 2 0 0 12 + a 0 , 6 a

El sistema tendr a soluci on innitas cuando 12 + a = 0, es decir, cuando a = 12. Por tanto, para a = 12 el conjunto es linealmente dependiente. Mientras que para a = 12 es linealmente independiente Ejemplo 8.7 Suponga que el conjunto {v1 , v2 , v3 , v4 , v5 } es linealmente independiente. Ser a el conjunto {v4 , v3 , v2 } 7

linealmente independiente? Soluci on Cierto: Puesto que el conjunto es linealmente independiente, cualquier subconjunto de el ser a linealmente independiente Ejemplo 8.8 Suponga que el conjunto { v3 , v1 , v2 , } es linealmente dependiente. Ser a el conjunto { v1 , v2 , v3 , v4 , v5 } linealmente dependiente? Soluci on Cierto: Puesto que el conjunto es linealmente dependiente, cualquier conjunto que lo contenga ser a linealmente dependiente Ejemplo 8.9 Suponga que el conjunto {v1 , v2 , v3 , v4 , v5 } es linealmente dependiente. Ser a el conjunto {v3 , v5 , v4 } linealmente independiente? Soluci on No se puede deducir ninguna conclusi on denitiva: El conjunto puede ser linealmente dependiente o independiente Ejemplo 8.10 Suponga que los vectores v1 y v2 forman un conjunto linealmente independiente. Ser a el siguiente conjunto linealmente independiente? {y1 = 2 v1 2 v2 , y2 = 2 v1 3 v2 } Soluci on Buscamos c omo deben ser las constantes c1 y c2 para que: c1 y1 + c2 y2 = 0 Es decir c1 (2 v1 2 v2 ) + c2 (2 v1 3 v2 ) = 0 Desarrollando esto queda: (2c1 + 2c2 ) v1 + (2c1 3c2 ) v2 = 0 Como el conjunto {v1 , v2 } es linealmente independiente los coecientes de la combinaci on lineal anterior deben ser cero: 2c1 + 2c2 = 0 2c1 3c2 = 0 Este sistema tiene soluci on u nica c1 = 0 y c2 = 0. Por tanto, la u nica combinaci on lineal de los vectores y que da el vector 0 es la que tiene coecientes cero. Por tanto, el conjunto {y1 , y2 } es linealmente independiente Ejemplo 8.11 Considere el sistema A x = b. Si las columnas de A forman un conjunto l.d., entonces el sistema 8

A B C

no se sabe si tiene soluci on. tiene innitas soluciones. tiene soluci on u nica.

Soluci on Recuerde que la consistencia no depende de si las columnas de A son un conjunto linealmente independiente. Lo que se tiene es que si A x = b es consistente entonces habr a soluci on u nica si y s olo si las columnas de A forman un conjunto li. En este caso, la respuesta m as conveniente es A : no se sabe si tiene soluci on Ejemplo 8.12 Suponga que el sistema A x = b tiene soluciones innitas para un vector b particular. El conjunto de las columnas de la matriz de coecientes ser a linealmente dependiente? A B C Falso No hay suciente informaci on para concluir Cierto

Soluci on El dato es que A x = b tiene soluciones innitas. Por tanto, A x = 0 tiene soluciones innitas. Por tanto, es cierto que las columnas de A son dependientes Ejemplo 8.13 Suponga que el sistema A x = b es tal que el conjunto de las columnas de la matriz de coecientes es linealmente dependiente, qu e se puede decir de la soluci on al sistema? A B C D Que si acaso existe soluci on, entonces hay innitas soluciones Que si acaso existe soluci on, entonces es u nica Que s existen innitas soluciones Que s existe y adem as es u nica

Soluci on Nuevamente, el dato s olo sirve para describir el comportamiento de las soluciones en caso de haber. La reson, entonces hay innitas soluciones puesta es que A Que si acaso existe soluci Ejemplo 8.14 Suponga que el sistema A x = b n n es tal que tiene soluci on u nica para un cierto vector b. Para otro vector b1 ser a consistente el sistema A x = b1 ? A B C D Consistente o inconsistente, si consistente soluci on u nica. Consistente o inconsistente, si es consistente puede tener innitas. Consistente sin importar b1 y tiene soluci on u nica. No hay informaci on para saber si es consistente. 9

Soluci on Si tiene soluci on u nica para un b se deduce que las columnas de A son linealmente independientes. Por tanto, y como A tiene n columnas, si a A se le aplica rref quedan n pivotes. Como A tiene n renglones entonces en la reducida de A quedar an pivotes en cada rengl on. Por tanto, las columnas de A generan todo Rn . n Por consiguiente, para cualquier otro vector b1 de R el sistema ser a consistente y tendr a soluci on u nica: C Ejemplo 8.15 Suponga que el sistema A x = b n n tiene innitas soluciones para un cierto vector b. Para otro vector b1 ser a consistente el sistema A x = b1 ? A B C D E Puede ser consistente o inconsistente, pero si es consistente tendr a soluci on u nica. Puede ser consistente o inconsistente, pero si es consistente puede tener soluciones innitas. El sistema tiene soluci on sin importar b1 y tiene soluciones innitas.. No hay informaci on para saber si es consistente. Puede ser consistente o inconsistente, pero si es consistente tiene soluciones innitas.

Soluci on Dado que tiene innitas soluciones para un b se deduce que las columnas de A son linealmente dependientes. Por tanto, y como A tiene n columnas, si a A se le aplica rref quedan menos de n pivotes. Como A tiene n renglones entonces en la reducida de A quedar an con alg un rengl on sin pivote. Por tanto, las columnas de A no generan todo Rn . Por consiguiente, habr a vectores b1 de Rn el sistema podr a ser consistente o inconsistente pero si es consistente seguro tendr a soluciones innitas: E Ejemplo 8.16 Suponga que el sistema A x = b m n (con n > m) es inconsistente para un cierto vector b. Para otro vector b1 ser a consistente el sistema A x = b1 ? A B Ser a siempre inconsistente. Puede ser consistente o inconsistente, pero si es consistente puede tener soluciones innitas o soluci on u nica. El sistema tiene soluci on sin importar b1 y tiene soluciones innitas. No hay informaci on para saber si tendr a soluciones innitas o u nica. Puede ser consistente o inconsistente, pero si es consistente tiene soluciones innitas.

C D E

Soluci on Dado que el n umero de columnas de A es mayor que el n umero de renglones, entonces despu es de reducir A quedar an a lo m as m pivotes, que ser a menor que n. Por consiguiente las columnas de A formar a un conjunto linealmente dependiente. Esto implicar a de que en cualquier otro b1 para A x = b1 consistente el sistema tendr a soluciones innitas. El hecho de que A x = b sea inconsistente para un cierto b indica que las columnas de A no generan a todo Rm . Por tanto, habr a muchos b1 para los cuales es inconsistente. Resumiendo, el sistema podr a ser consistente o inconsistente y en el caso que sea consistente el sistema tendr a soluciones innitas E

10

8.10.

Resultados te oricos

Veremos ahora un par de resultados que servir an para elaborar la teor a de la dimensi on y que son relativos al concepto de dependencia lineal: Teorema Si el conjunto S1 = {v1 , v2 , . . . , vk } es linealmente independiente entonces: a. Cualquier vector y en el generado por S , se puede escribir en forma u nica como combinaci on lineal de los vectores v1 ,. . . ,vk . b. Si vk+1 no pertenece al generado por S1 , entonces el nuevo conjunto S2 = {v1 , v2 , . . . , vk , vk+1 } es linealmente independiente. Demostraci on Demostraci on de a. Sea un vector cualquiera y en Gen(S1 ), y supongamos que existen escalares a1 ,a2 ,. . . ,ak y escalares b1 ,b2 ,. . . ,bk tales que y = a1 v1 + a2 v2 + + ak vk = b1 v1 + b2 v2 + + bk vk As (a1 b1 )v1 + (a2 b2 )v2 + + (ak bk )vk = 0 como el conjunto S1 es li todos los coecientes de esta relaci on deben ser cero. As para cada i = 1, 2, . . . , k se tiene ai = bi . Es decir, que ambas formas de obtener y son u nicas. Demostraci on de b. Razonemos por contradicci on Supongamos que el conjunto fuera ld. Como el conjunto S1 era li, el vector v1 debe ser diferente de cero. Pues en caso contrario el vector cero pertenecer a a S1 y por tanto S1 deber a ser ld. Por un teorema anterior debe existir un vector de S2 que es combinaci on lineal de los vectores anteriores a el en S2 . Este vector s olo tiene dos posibilidades: ser vk+1 este caso es imposible pues vk+1 no pertenece a Gen(S1 ). ser vi con 1 i k este caso es imposible pues implicar a que S1 es linealmente dependiente. Por tanto, el supuesto que S2 sea ld nos lleva a una contradicci on l ogica. As S2 debe ser linealmente independiente

11

Matrices Invertibles y Elementos de Algebra Matricial


Departamento de Matem aticas, CCIR/ITESM 12 de enero de 2011

Indice
9.1. Introducci on . . . . . . . . . . . . . . . . . . 9.2. Transpuesta . . . . . . . . . . . . . . . . . . 9.3. Propiedades de la transpuesta . . . . . . . . 9.4. Matrices invertibles . . . . . . . . . . . . . . 9.5. Motivaci on del algoritmo de inversi on . . . 9.6. Algoritmo para invertir una matriz . . . . . 9.7. Comentario . . . . . . . . . . . . . . . . . . 9.8. Propiedades de la inversa . . . . . . . . . . 9.9. Ecuaciones con matrices . . . . . . . . . . . 9.10. Complejidad computacional de la inversi on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 2 2 3 4 4 5 8

9.1.

Introducci on

En esta lectura veremos la matriz transpuesta y la matriz inversa a una matriz dada (En caso de que la matriz inversa a ella exista). Revisaremos las propiedades que tienen el tomar la inversa o la transpuesta de una matriz as como un m etodo eciente de inversi on. Terminaremos con la aplicaci on de estos conceptos a la soluci on de cierto tipo de ecuaciones matriciales.

9.2.

Transpuesta

Denici on 9.1 La matriz transpuesta de una matriz A n m es una matriz con dimensiones m n cuyo elemento (i, j ) es precisamente el elemento (j, i) de la matriz A. A esta matriz se le simboliza AT . Una forma f acil de construir T A es tomar los renglones de A y convertirlos en columnas. Ejemplo 9.1 Determine AT si A= 1 2 3 4 5 6 .

Soluci on Siguiendo la indicaci on de tomar los renglones de A como columnas para AT tenemos: 1 4 AT = 2 5 3 6

9.3.

Propiedades de la transpuesta
T

1. La transpuesta de la transpuesta de una matriz A es otra vez A: AT

= A.

2. La transpuesta de una suma es la suma de las transpuestas: (A + B)T = AT + BT . 3. (c A)T = c AT . 4. (A B)T = BT AT . La transpuesta de un producto es el producto de las transpuestas pero en orden contrario

9.4.

Matrices invertibles

Denici on 9.2 Se dice que una matriz A cuadrada n n es una matriz invertible, o que es una matriz no singular, si existe una matriz B n n, que llamaremos la matriz inversa de A, que cumple: AB = I y BA = I (1)

Una matriz invertible s olo tiene una inversa, es decir, la inversa es u nica. La u nica inversa de una matriz invertible A se representa por A1 . As A A1 = I = A1 A (2)

Como se puede ver 0 C = 0, para cualquier matriz C de dimensiones adecuadas, esto signica que existen matrices cuadradas que no pueden ser invertibles (La matrix cuadrada 0 es una de ellas) este tipo de matrices se llama matriz singular o matriz no invertible.

9.5.

Motivaci on del algoritmo de inversi on

Veamos un ejemplo que motivar a el algoritmo para obtener la inversa de una matriz. Ejemplo 9.2 Determine la inversa de 1 2 A= 3 5 Suponga que buscamos una matriz B, 2 2 tal que A B = I22 : 1 2 3 5 As se debe cumplir: Para elemento (1,1) del producto: 1 b11 2 b21 = 1 Para elemento (2,1) del producto: 3 b11 5 b21 = 0 Para elemento (1,2) del producto: 1 b12 2 b22 = 0 Para elemento (2,2) del producto: 3 b12 5 b22 = 1 Esto conduce a dos sistemas de ecuaciones: uno en b11 y b21 y otro b21 y b22 con matrices aumentadas que al reducirse quedan: 1 2 1 1 0 5 3 5 0 0 1 3 2 b11 b12 b21 b22 = 1 0 0 1

y 1 2 0 3 5 1 1 0 2 0 1 1

Y as b11 = 5, b21 = 3, b21 = 2, y b22 = 1. Quedando la inversa como A1 = B = Observemos que Ambas matrices aumentadas tienen la misma matriz de coecientes: exactamente A. Teniendo la misma matriz de coecientes, los sistemas deben reducirse con las mismas operaciones de rengl on. En cada sistema, la columna de las constantes es una columna de I. Como las matrices aumentadas tienen las mismas matrices de coecientes y las operaciones de rengl on para la reducci on son las mismas, entonces el proceso se puede llevar a cabo formando la matriz aumentada [A|I] y reduciendo. Despu es del proceso de reducci on, la inversa queda exactamente acamodada en la posici on donde entr o I. 5 2 3 1

9.6.

Algoritmo para invertir una matriz

Para determinar A1 , si existe, haga los siguiente: 1. Construya la matriz aumentada [A|I]. Aqu I representa la matriz identidad n n. 2. Reduzca la matriz [A|I]. Digamos que se obtenga [B|C]. 3. Si la matriz B es la matriz identidad, entonces A s es invertible y A1 = C. 4. Si la matriz B no es la identidad, entonces A no es invertible. Ejemplo 9.3 Invierta las matrices: A1 = Soluci on Para A1 : [A1 |I] = 1 3 1 0 2 7 0 1
2 2 1

1 3 2 7

y A2 =

1 2 2 4

R R +2 R

1 3 1 0 0 1 2 1 1 3 1 0 0 1 2 1 1 0 7 3 0 1 2 1

2 2

R 1 R

1 1 1

R R 3 R

Como en el resultado nal B es la matriz identidad, A1 es una matriz invertible y A1 1 = Para A2 : [A2 |I] = 1 2 1 0 2 4 0 1
2 2 1

7 3 . 2 1 1 2 1 0 0 0 2 1 0 1 2 1 0 0 1 1/2 1 2 0 1/2 0 0 1 1/2 = [B|C].

R R 2 R

R2 1 R2

1 1 2

R R R

Como en el resultado nal B no es la matriz identidad, A2 no es una matriz invertible. Observe con cuidado que en c alculo para A2 que no hace falta concluir por completo hasta la forma reducida: en el momento que aparezca un rengl on en ceros en la parte correspondiente a B la matriz ya no ser a invertible

9.7.

Comentario

Recuerde que para una matriz A n n la matriz inversa de ella se deni o como una matriz B n n que cumple A B = In = B A y en nuestra deducci on del algoritmo s olo buscamos que se cumpla A B = I. En los resultados te oricos de algebra de matrices se tiene que Si A es una matriz cuadrada y existe una matriz cuadrada C tal que A C = I, entonces A es invertible. Es decir, que es suciente tener inversa lateral derecha para tener inversa por ambos lados. Si A es una matriz cuadrada invertible y si B es una matriz cuadrada que cumple A B = I, entonces A1 = B. Es decir, que la inversa lateral derecha de una matriz cuadrada invertible coincide con la inversa de la matriz. Estos resultados te oricos justican que s olo busquemos la inversa derecha de una matriz para decir si la matriz es invertible y que la matriz encontrada es precisamente su inversa.

9.8.

Propiedades de la inversa

1 Si la matriz A, n n, puede invertirse, entonces el sistema A x = b tiene soluci on u nica para cada vector b. Esta soluci on puede calcularse como x = A1 b 2 Sean A y B dos matrices cuadradas n n invertibles cualquiera entonces AB es invertible y (A B)1 = B1 A1 . 3 La inversa de una matriz invertible tambi en es una matriz invertible y A1 4
1

= A.

4 Si c es una constante cualquiera, pero diferente de cero, entonces la matriz c A tambi en es invertible y (c A)1 = 1 1 A . c

5 Si k es un n umero entero postivo, entonces Ak tambi en es una matriz invertible y Ak 6 La matriz AT tambi en es invertible y AT
1 1

= A1 .

= A1

9.9.

Ecuaciones con matrices

Ahora pondremos en pr actica nuestra algebra con matrices para resolver ecuaciones donde se involucran inc ognitas que representan matrices. Ejemplo 9.4 Resuelva para X cX + A = B Soluci on Los pasos que se siguen son muy similares al algebra b asica sumamos en ambos miembros la matriz A:

(c X + A) A = B A Como la suma / resta de matrices es asociativa se pueden agrupar los sumando para dejar juntos A y A: c X = c X + 0 = c X + ( A A) = B A Siendo estos c alculos para suma y resta de matrices tan similares a los del algebra b asica usaremos la misma regla: Si en una igualdad entre expresiones con matrices aparece sumando o restando una matriz en un miembro la podemos pasar al otro miembro restando o sumando: Z+C=DZ=DC Ahoara debemos despejar X de la expresi on cX = B A procedemos a multiplicar por el escalar 1/c: X = 1X = 1 1 1 c X = (cX) = (B A) c c c (3)

Siendo estos c alculos para la multiplicaci on o divisi on con escalares tan similares a los del algebra b asica usaremos la misma regla: Si en una igualdad entre expresiones con matrices aparece multiplicando (resp. dividiendo) un escalar lo podemos pasar al otro miembro dividiendo (resp. multiplicando).

cZ = D Z = Por tanto, el valor de la inc ognita X es X=

1 D c

(4)

1 (B A) c

Ejemplo 9.5 Asumiendo que la matriz A sea invertible, despeje la matriz X de la ecuaci on: AX = B Soluci on Este tipo de problemas presenta a los alumnos cierta dicultad en los primeros despejes de ecuaciones matriciales. Se debe tener bien en claro que la matriz A a eliminar est a a la izquierda de la inc ognita est a multiplicando a la izquierda y que por consiguiente debe de multiplicarse por la izquierda por la matriz inversa de A: X = I X = A1 A X = A1 (A X) = A1 B Es equivocado hacer cancelar A pretendiendo multiplicar por la derecha: X = AXA1 = BA1 Y representa un error a un m as grave dividir entre A pretendiendo cancelar A: X= AX B = A A

La regla v alida para cancelar matrices cuando estas poseen inversas que multiplican es la siguiente: A X = B X = A1 B X A = B X = B A1 Ejemplo 9.6 Suponiendo que A y B son matrices invertibles, despeje X de: ABX = C Soluci on Otro problema que los alumnos enfrentan en los primeros despejes aparece en este tipo de problemas. Hay dos formas correctas de pensar el problema. En la primera la ecuaci on original se debe pensar agrupada de la siguiente manera: (A B) X = C En cuyo caso el despeje de X es directo por las reglas vistas: X = (A B)1 C Otra manera correcta de plantear el problema es: A (B X) = C 6 (5)

(6)

De donde el despeje en dos pasos es haciendo primero: B X = A1 C Para despu es obtener: X = B1 A1 C Note que ambos resultados sin id enticos en vista de la igualdad: (A B)1 = B1 A1 Ejemplo 9.7 Despeje x de la ecuaci on: XT = A Soluci on En este caso se debe tener presente la propiedad XT cada miembro: X = XT Ejemplo 9.8 Despeje x de la ecuaci on: X1 = A Soluci on 1 En este caso se debe tener presente la propiedad X1 = X. Por consiguiente, tomando matriz inversa en cada miembro: 1 X = X1 = A1 Ejemplo 9.9 Suponiendo que A es invertible y c = 0 , despeje X de: A (c X + B) + C = D Soluci on Procediendo como anteriormente: A (c X + B) cX + B cX X = DC = A1 (D C) = A1 (D C) B 1 (D C) B = 1 c A
T T

= X. = AT

Por consiguiente, tomando la transpuesta en

Ejemplo 9.10 Suponiendo matrices invertibles donde se requiera despeje X de: A (BX)1 + C
T

+D=E

Soluci on Este tipo de despejes requiere ser riguroso en el orden: Pasando al segundo miembro D: A (BX)1 + C 7
T

=ED

Multiplicando por A1 por la derecha: (BX)1 + C Tomando la transpuesta en ambos miembros: (BX)1 + C = A1 (E D) Pasando al segundo miembro C: (BX)1 = A1 (E D) Tomando inversa en ambos miembros: BX = Finalmente, eliminando la matriz B: X = B1 A1 (E D)
T T T T

= A1 (E D)

A1 (E D)

9.10.

Complejidad computacional de la inversi on

Supongamos entonces que aplicamos el algoritmo de eliminaci on gaussiana para invertir una matriz n por n. Consideraremos primero el trabajo realizado por los pasos 1 al 4 y posteriormente el trabajo realizado en el paso 5. Es importante notar que el proceso de Gauss avanza dejando la matriz escalonada hasta la columna de trabajo:
a1,1 0 . . . 0 0 . . . 0 a1,2 a1,m1 a1,m a2,2 . . . 0 0 . . . 0 . . . a2,m1 . . . am1,m1 0 . . . 0 a2,m . . . am1,m am,m . . . an,m . . . . . . . . . b1,1 . . . . . . . . . bm,1 . . . . . . ... . . . . . . ... . . . . . . b1,n . . . . . . . . . bm,n . . . . . .

. . .

1 Ciclo del paso 1 al 4 Al asumir que am,m es diferente de cero, pasamos al paso 3. En el paso 3 hay que hacer cero debajo del elemento (m, m), para cada uno de los m n renglones inferiores Ri ; para ello habr a que calcular el factor f = ai,m /am,m por el cual debe multiplicarse el rengl on Rm , lo cual implica realizar una divisi on, y posteriormente realizar la operaci on: Ri Ri f Rm . En este caso, en el rengl on i hay ceros hasta antes de la columna m, en el elemento (i, m) quedar a un 1 (el factor f fue calculado para ello), as que los u nicos elementos que deber an calcularse son los elementos del rengl on i desde la columna (m + 1) y hasta terminar, es decir, hasta la columna n + n, es decir, un total de 2 n m elementos, y para cada uno de ellos habr a que hacer am+1,j am+1,j f am,j , es decir para cada uno de ellos habr a que hacer 2 FLOPs, siendo un total de 2 (2 n m) elementos, el n umero total de FLOPs que habr a que realizar para hacer la operaci on Ri Ri f Rm es, incluyendo la divisi on para calcular f , 2(2 n m) + 1 = 4 n 2 m + 1.

Como esto habr a que aplicarlo a todos los renglones por debajo del rengl on m y hasta el n, entonces para realizar un ciclo desde el paso 1 hasta el paso 4 deben hacerse (n m) (4 n 2m + 1) FLOPS. El ciclo del paso 1 al paso 4 y su repetici on ir a avanzando m desde 1 hasta n 1. Por consiguiente el total de FLOPs ser a: n1 5 3 1 (n m) (4 n 2 m + 1) = n3 n2 n. 3 2 6
m=1

2 Ciclo del paso 5. Las operaciones implicadas en el paso 5 ser an


1 Rm : n divisiones Rm am,m Para esto se requiere n divisiones; la del pivote entre si mismo ya sabemos que dar a 1 y no se realizar a, simplemente en la posici on (m, m) pondremos un 1

Rj Rj aj,m Rm : n multiplcaciones y n restas Esta operaci on s olo requiere n multiplicaciones y n restas; estas operaciones s olo tienen que ver con los t erminos en la parte aumentada. Los nuevos elementos aj,m ser an cero. Como hay m 1 renglones superiores, el total de operaciones en un ciclo del paso 5 ser a: (m 1) (2 n) + n Por consiguiente el total de FLOPs en el paso 5 ser a:
1

(2 n (m 1) + n) = n3 2 n2 + n
m=n

Por consiguiente y en general: cuando se aplica en algoritmo de inversi on de una matriz cuadrada n n anterior utilizando eliminaci on gaussiana para la reducci on el n umero de m aximo de FLOPs ser a: 8 3 7 2 5 n n + n 3 2 6 Ejemplo 9.11 Sea A una matriz cuadrada. Ser a cierto que: Si el sistema A x = 0 tiene innitas soluciones, entonces A es invertible. Soluci on Que el sistema A x = 0 tenga innitas soluciones indica que cuando se reduce [A|0] queda una columna a la izquierda sin pivote. Por tanto, cuando se reduzca [A|I] quedar a una columna a la izquierda sin pivote. Por tanto, en la reducida no se podr a obtener [I|B]. Por tanto, la matriz A no tendr a inversa; ser a singular. Por tanto, es falso que sea invertible. La armaci on es falsa. Ejemplo 9.12 Sea A una matriz cuadrada. Ser a cierto que: Si para un vector b el sistema A x = b no tiene soluci on, entonces A es invertible. Soluci on Si para un vector b el sistema A x = b no tiene soluci on eso signicar a que cuando se reduce [A|b] queda pivote en la columna de las constantes. Por tanto, en la reducida de A quedar a un rengl on de ceros. Por tanto, cuando se reduzca [A|I] a la izquierda quedar a un rengl on de ceros. Por tanto, en la reducida no podremos obtener [I|B]. As A no tiene inversa. Es falso que A es invertible. Ejemplo 9.13 Sea A una matriz cuadrada. Ser a cierto que: 9 (7)

Si la matriz A no es invertible, entonces A x = 0 tiene innitas soluciones. Soluci on Si suponemos que la matriz A no es invertible, entonces cuando se reduce [A|I] no queda la identidad en el lado izquierdo. Por consiguiente, debe quedar un rengl on sin pivote a la izquierda. Por tanto, cuando se reduce [A|0] debe quedar a la izquierda un rengl on de ceros. Por tanto y debido a que la matriz es cuadrada debe queda una columna sin pivote a la izquierda en tal reducida. Como a la derecha no quedan pivotes pues a la derecha entr o el vector de ceros, concluimos que tal sistema es consistente y que en su reducida queda una columna sin pivote. Por tanto, [A|0] tendr a innitas soluciones. La armaci on es cierta. Ejemplo 9.14 Sea A una matriz cuadrada. Ser a cierto que: Si la matriz A A no es invertible, entonces A x = 0 tiene soluci on u nica. Soluci on Si A A no es invertible, tampoco lo es A (pues en caso contrario A A ser a invertible, que no es el caso). Por tanto, en el lado izquierdo de la reducida de [A|I] no puede quedar la matriz identidad. Por tanto, a la izquierda de la reducida de [A|0] no queda la identidad. Por tanto, debe quedar un rengl on sin pivote y por consiguiente (siendo cuadrada A) debe quedar una columna sin pivote. Por tanto [A|0] debe tener innitas soluciones. As , es falso que [A|0] tiene soluci on u nica.

10

L neas y Planos en el Espacio


Departamento de Matem aticas, CCIR/ITESM 12 de enero de 2011

Indice
10.1. Introducci on . . . . . . . . . . . . . . . . . 10.2. Ecuaci on param etrica de la recta . . . . . 10.3. Ecuaci on de un plano: Forma param etrica 10.4. Ecuaci on Est andar de un Plano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 6 6

10.1.

Introducci on

Los conjuntos soluci on a un sistema de ecuaciones lineales cuando tienen soluciones innitas tienen una versi on geom etrica interesante y conocida. En el caso de sistemas con dos variables, los conjuntos soluci on innitos son l neas rectas. En el caso de sistemas con tres variables, los conjuntos soluci on innitos son rectas o planos en el espacio. En esta secci on veremos las rectas y los planos en el espacio por su relaci on que tienen con los sistemas de ecuaciones lineales. Un objetivo secundario es agregarlos al conocimiento propio de las areas de Ingenier a.

10.2.

Ecuaci on param etrica de la recta

La ecuaci on param etrica de la recta que pasa por el punto P (xo , yo , zo ) y que es paralela al vector de direcci on n =< a, b, c > es: x = p + tn (1) ametro de la ecuaci on. Esta ecuaci on tambi en puede escribirse en funci on de sus componentes donde t es el par x = xo + t a y = yo + t b z = zo + t c

(2)

Ejemplo 10.1 Determine la ecuaci on de la recta que pasa por el punto P (1, 2, 3) y que tiene direcci on n =< 5, 7, 4 >. Soluci on Utilizando en forma directa la f ormula anterior, la ecuaci on param etrica queda: x =< x, y, z >=< 1, 2, 3 > +t < 5, 7, 4 > De donde la ecuaci on param etrica en funci on de las componentes queda: x = 1 + t (5) = 1 + 5t y = 2 + t (7) = 2 + 7t z = 3 + t (4) = 3 4 t (3)

P+t*N

P L 00 0 5 N

t*N

10

Figura 1: L nea en el Espacio Si intentamos despejar de cada una de las igualdades anteriores el par ametro t obtenemos: t = t = t = Como el valor de t es el mismo, obtenemos: x1 y2 z+3 = = 5 7 4 a esta forma se le conoce como las ecuaciones sim etricas de la recta Ejemplo 10.2 Determine la recta que pasa por los puntos P (1, 2, 3) y Q(3, 2, 3). Soluci on En este caso no se proporciona el vector de direcci on, pero lo podemos calcular f acilmente debido a que la recta debe tener direcci on P Q, as la direcci on de la recta es: n = Q P =< 3 1, 2 2, 3 (3) >=< 2, 0, 6 > . Y por consiguiente, la ecuaci on param etrica queda: x =< x, y, z >=< 1, 2, 3 > +t < 2, 0, 6 > x = 1 + t (2) = 1 + 2t y = 2 + t (0) = 2 z = 3 + t (6) = 3 + 6 t x1 5 y2 7 z+3 4

Para obtener las ecuaciones sim etricas, observamos que no es posible despejar t de la segunda ecuaci on quedando solamente: x1 t = 2 y = 2 z+3 t = 6 De donde las ecuaciones sim etricas se describen como: z+3 x1 = , y=2 2 6 Ejemplo 10.3 Diga si el punto P (13, 14, 13) pertenece a la recta: x = 2 + 3 t, y = 1 3 t, z = 3 + 2 t Soluci on Este tipo de problema puede resolverse de diferentes maneras. Una forma de resolverlo es mediante el uso de las ecuaciones sim etricas de la l nea reacta, que en este caso queda: y1 z3 x+2 = = 3 3 2 Recordamos que un punto del espacio pertenece a la l nea si y s olo si satisface sus ecuaciones. Hacemos la sustituci on de las coordenadas del punto: 14 1 13 3 13 + 2 = 5, = 5, =5 3 3 2 como las tres cantidades son iguales, el punto pertenece a la recta. Otra alternativa de soluci on consiste en determinar si existe un valor de t que cumpla las ecuaciones de la recta si el punto se sustituye: 13 = 2 + 3 t 3t = 15 t = 5 14 = 1 3 t 3 t = 15 t = 5 13 = 3 + 2 t 2t = 10 t = 5 como el valor de t es el mismo, el punto pertenece a la recta Ejemplo 10.4 Indique si se intersectan las rectas L1 : x = 1 2 t, y = 3 t, z = 2 + 3 t L2 : x = 1 + 5 t, y = 3 + 4 t, z = 1 + 5 t En caso de intersecci on en un s olo punto, determ nelo. Soluci on Este problema puede ser resuelto al menos de dos maneras. En una primera soluci on trabajemos con el sistema formado por las ecuaciones sim etricas: L1 : y0 z+2 x1 = = 2 3 3 3

y+3 z1 x+1 = = 5 4 5 Para cada l nea, convertimos sus ecuaciones sim etricas en dos ecuaciones: L2 : L1 : L2 : y0 y0 z+2 x1 = y = 2 3 3 3

x+1 y+3 y+3 z1 = y = 5 4 4 5 Ahora resolvamos el sistema formado por estas 4 ecuaciones lineales. Para ello, escribimos cada una en su forma can onica: y 0 1 1 x1 2 x+ 1 2 = 3 3y = 2
y 0 3 x+1 5 y +3 4

= = =

z +2 3 y +3 4 z 1 5

1 1 3y 3z = 1 5x 1 4y

2 3

1 4 y = 11 20 19 1 5 z = 20

Formando la aumentado y reduciendo obtenemos: 0 1/3 1/3 2/3 1/2 1/3 1/2 0 1/5 1/4 0 11/20 0 1/4 1/5 19/20

1 0 0 0

0 1 0 0

0 1 0 3 1 1 0 0

Como el sistema es consistente, las rectas se intersectan. Como tiene soluci on u nica, la intersecci on consta exactamente de un punto, el cual es P (1, 3, 1). Otra forma de hacer el problema es la siguiente. Utilizamos la forma vectorial param etrica en cada recta y diferenciamos los par ametros de las l neas para tener: L1 : < x, y, z >= < 1, 0, 2 > +t1 < 2, 3, 3 > L2 : < x, y, z >= < 1, 3, 1 > +t2 < 5, 4, 5 > Para encontrar la intersecci on igualamos los vectores < x, y, z > y buscamos determinar consistencia para t1 y t2 : < 1, 0, 2 > +t1 < 2, 3, 3 >=< 1, 3, 1 > +t2 < 5, 4, 5 > de donde t1 < 2, 3, 3 > +t2 < 5, 4, 5 >=< 2, 3, 3 > Formando la aumentada y reduciendo tenemos: 2 5 2 1 0 1 3 4 3 0 1 0 3 5 3 0 0 0 Como el sistema es consistente, las rectas se intersectan. Como tiene soluci on u nica t1 = 1 y t2 = 0 las rectas se intersectan en un punto, el cual es < x, y, z > = < 1, 0, 2 > +t1 < 2, 3, 3 > = < 1, 0, 2 > +1 < 2, 3, 3 > = < 1, 3, 1 > 4

Ejemplo 10.5 Respecto al conjunto de R3 formado por las soluciones a 2x 2y + 3z = 7 4 x 4 y + 5 z = 11 6 x 6 y + 9 z = 21 Qu e se puede decir? Soluci on Formando la matriz aumentada y reduci endola 2 2 3 4 4 5 6 6 9

obtenemos: 1 1 0 1 7 11 0 3 0 1 0 0 0 21 0

Si convertimos cada rengl on no cero en ecuaci on y despejamos las variables delanteras obtenemos: x = 1 + y z = 3 Que en forma vectorial queda: x 1 1 y = 0 +y 1 z 3 0 La cual es la ecuaci on de una l nea en forma param etrica con vector de direcci on < 1, 1, 0 > Ejemplo 10.6 Encuentre el coseno del angulo que forman las l neas L1 : < x, y, z >= < 3, 1, 4 > +t < 0, 1, 3 > L2 : < x, y, z >= < 3, 1, 10 > +t2 < 0, 5, 2 > Acciones Aunque no se usa en la determinaci on a ngulo, compruebe que las l neas se intersectan. El concepto del angulo entre las l neas s olo aplica a l neas que se intersectan. El angulo de intersecci on de dos rectas es el a ngulo entre los vectores de direcci on. Utilice la f ormula que da directamente el coseno del angulo entre vectores que hace referencia al producto punto. Ejemplo 10.7 Indique si los puntos P (1, 1, 2), Q(2, 3, 1) y R(1, 3, 2) son colineales. Acciones Determine la l nea que pasa por los dos primeros. La forma conveniente en este caso son las ecuaciones sim etricas. Tome el tercer punto y vea si satisface la ecuaci on encontrada: son colineales si el tercer punto satisface la ecuaci on de la l nea que pasa por los dos primeros. La denici on precisa para que un conjunto de puntos sea colineal es que exista una recta que los contiene.

z x N 0.5 00 y P

Figura 2: Plano en el Espacio

10.3.

Ecuaci on de un plano: Forma param etrica

Considere un punto en el espacio Po (x0 , y0 , z0 ) y dos vectores de direcci on v1 =< a1 , b1 , c1 > y v2 =< a2 , b2 , c2 >; un punto cualquiera P (x, y, z ) pertenece al plano que pasa por Po y que tiene direcci on dada por los vectores v1 y v2 si existen escalares t y s tales que P = Po + t v1 + s v2 Esta relaci on se transforma en: x = xo + a1 t + a2 s y = yo + b1 t + b2 s z = zo + c 1 t + c 2 s (4)

etricas del plano. Es importante se nalar que en caso Estas ecuaciones se conocen como las ecuaciones param que los vectores v1 y v2 tengan la misma direcci on entonces lo que se tiene es una l nea recta. Por otro lado, si t = s la ecuaciones tambi en representan una l nea.

10.4.

Ecuaci on Est andar de un Plano

La ecuaci on est andar de un plano en R3 es de la forma: a ( x x 0 ) + b ( y y0 ) + c ( z z 0 ) = 0 (5)

Los datos necesarios para determinar un plano son un punto P (xo , yo , zo ) que pertenezca al mismo y un vector perpendicular, o tambi en conocido como vector normal al plano n =< a, b, c >. Ejemplo 10.8 Determine el plano que pasa por el punto P (1, 1, 3) y que tiene como vector normal n =< 1, 2, 3 > Soluci on Sustituyendo en la ecuaci on del plano: (1)(x 1) + (2)(y 1) + 3(z (3)) = 0 o simplicando: x 2 y + 3 z = 10 6

De las ecuaciones param etricas se puede obtener la forma est andar del plano eliminando los par ametros t y s para ello se forma el sistema: a1 t + a2 s = x xo b1 t + b2 s = y yo c 1 t + c 2 s = z zo se reduce y se aplica la condici on de consistencia. Ejemplo 10.9 Determine el plano que pasa por los puntos P (1, 1, 3), Q(1, 2, 1) y R(0, 1, 2). Soluci on En nuestro caso tomaremos v1 = PQ =< 1 1, 2 1, 1 (3) >=< 0, 1, 2 > y v2 = PR =< 0 1, 1 1, 2 (3) >=< 1, 0, 1 > y por tanto las ecuaciones param etricas quedan: x = +1 + (0)t + (1)s y = +1 + (1)t + (0)s z = 3 + (2)t + (1)s Encontrando la ecuaci on est andar: 0 1 x 1 1 0 y1 1 x1 0 y 1 0 1 2 1 z+3 0 0 z + 4 2y + x El sistema es consistente si y solamente si x 2y + z + 4 = 0 Esta u ltima relaci on es la ecuaci on est andar del plano. Otra alternativa para hacer el ejercicio anterior es calcular el vector normal al plano n = PQ PR i j k 0 1 2 1 0 1

n= Por tanto

= 1i 2j + 1k

n =< 1, 2, 1 > Y la ecuaci on del plano queda: 1(x 1) 2(y 1) + 1(z (3)) = 0

Ejemplo 10.10 Indique si los siguientes planos se intersectan: P1 : 4 x + 4 y z = 4 P2 : x 2 y + z = 16 Acciones Forme un sistema con las dos ecuaciones de los planos. 7

Resuelva el sistema formado: Los planos se intersectan si y s olo si el sistema es consistente. (No importa si hay soluci on u nica o innitas, s olo importa la consistencia). Ejemplo 10.11 Determine la ecuaci on del plano que consiste de todos los puntos que son equidistantes a los puntos R(1, 2, 1) y a S (0, 3, 1). Acciones Tome un punto cualquiera del plano P (x, y, z ). Encuentre la f ormula de la distancia d1 de P a R y la f ormula de la distancia d2 de P a S . Iguale las distancias ( este es el concepto de equidistantes). Eleve al cuadrado ambos miembros de la igualdad; esto cancelar a ra ces cuadradas. Desarrolle los cuadrados en ambos miembros. Al pasar las variables al lado derecho deber an cancelarse los cuadrados de ellas y quedar a una ecuaci on lineal en x y y z que corresponde a la ecuaci on del plano. Ejemplo 10.12 Indique si los puntos P (1, 1, 2), Q(2, 3, 1), R(1, 3, 2) y S (1, 2, 3) son coplanares. Acciones Determine plano que pasa por los tres primeros. La forma conveniente en este caso es la forma est andar. Tome el cuarto punto y vea si satisface la ecuaci on encontrada: son coplanares si y s olo si el cuarto punto satisface la ecuaci on del plano que pasa por los tres primeros. La denici on precisa para que un conjunto de puntos sea coplanar es que exista un plano que los contiene. Ejemplo 10.13 Respecto al conjunto de R3 formado por las soluciones a x + 3 y z = 1 x 3 y + z = 1 2 x + 6 y 2 z = 2 3 x + 9 y 3 z = 3 Qu e se puede decir? Soluci on Formando la matriz aumentada y reduci endola obtenemos: 1 3 1 1 1 3 1 1 2 6 2 2 3 9 3 3

1 0 0 0

3 1 1 0 0 0 0 0 0 0 0 0

La rengl on que no es cero representa la ecuaci on de un plano en el espacio: 1x + 3y + 1z = 1 Para obtener ecuaciones param etricas del mismo, despejamos la variable delantera: x = 1 3y + z 8

Que en forma vectorial queda: 1 3 1 x y = 0 +y 1 +z 0 1 0 0 z Cambiando de nombre las variables: 1 x 3 1 y = 0 + t 1 + s 0 0 z 0 1

Determinantes y Desarrollo por Cofactores


Departamento de Matem aticas, CCIR/ITESM 12 de enero de 2011

Indice
11.1. Introducci on . . . . . . . . . . . . . . . . . . 11.2. El determinate de una matriz 2 2 . . . . . 11.3. Determinante 2 2: Regla de memorizaci on 11.4. Geometr a del determinante 2 2 . . . . . . 11.5. Determinante de una matriz 3 3 . . . . . 11.6. Regla de Sarrus para un determinante 3 3 11.7. El menor (i, j ) de una matriz . . . . . . . . 11.8. El cofactor (i, j ) de una matriz . . . . . . . 11.9. Denici on del determinante . . . . . . . . . 11.10. Desarrollo de un determinante . . . . . . . . 11.11. Sugerencia para el c alculo de determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 2 3 3 4 4 5 5 6

11.1.

Introducci on

El determinante de una matriz cuadrada A es un n umero real asignado a ella. En la notaci on matem atica el determinante de A se simboliza por det(A) o tambi en por |A|. El determinante de una matriz es un n umero que mide, entre otras cosas, si una matriz es invertible. Nuestro resultado m as importante en este sentido es |A| = 0 si y s olo si A es una matriz invertible. En nuestro acercamiento, primero veremos c omo se calcula el determinante de matrices cuadradas 2 2, y 3 3 y despu es pasaremos al caso general. Una disculpa por el abuso de las barras para simbolizar al determinante de una matriz que podr a confundirse son las utilizadas para el valor absoluto de un n umero: haremos lo posible por evitar confusiones escribiendo las matrices en negritas y may usculas para diferenciarlas de los escalares que es a los que se aplica el valor absoluto: |A| = determinate de la matriz A |c| = valor absoluto del escalar c.

11.2.

El determinate de una matriz 2 2

Denici on 11.1 Sea A una matriz 2 2: A= El determinante A se dene como: |A| = det(A) = a11 a22 a12 a21 (1) a11 a12 a21 a22

Ejemplo 11.1 Calcule el determinante de A1 = Soluci on Directamente de la denici on se tiene

1 2 3 4

, A2 =

3 2 1 8

det(A1 ) = (1)(4) (2)(3) = 4 6 = 2 det(A2 ) = (3)(8) (2)(1) = 24 + 2 = 22

11.3.

Determinante 2 2: Regla de memorizaci on

Una forma de memorizar el c alculo del determinante de una matriz 22 es la siguiente: escribir los elementos de la matriz y hacer los productos en diagonal de manera que los que van de izquierda-arriba a derecha-abajo iran multiplicados por +1 mientras que los productos de izquierda-abajo a derecha-arriba ir an multipliados por 1: a11 a12 | A| = = +a11 a22 a21 a12 a21 a22

11.4.
Sea

Geometr a del determinante 2 2


A= a11 a12 a21 a22 .

El area del paralelogramo con esquinas P (0, 0), Q(a11 , a21 ), R(a12 , a22 ), y S (a11 + a12 , a21 + a22 ) es el valor absoluto de |A|. Veamos algunos ejemplos donde se utiliza este hecho. Ejemplo 11.2 Calcule el area del paralelogramo con lados v1 =< 3, 0 > y v2 =< 1, 2 >
3 2 1 0

v2

v1 + v2

0 0 Soluci on A= 3 1 0 2

v1
3

= (3)(2) (0)(1) = 6

Lo cual coincide con el resultado de base por altura: 3 2 = 6 Ejemplo 11.3 2

Determine el area del paralelogramo formado por los puntos P (1, 2), Q(2, 3), R(5, 5) y S (6, 6). Soluci on Traslademos el paralelogramo de manera que uno de sus v ertices sea O(0, 0). Para ello elegimos cualquiera de sus v ertices y se lo restamos a sus cuatro esquinas. Digamos que se elije P (1, 2). As el paralelogramo trasladado tendr a como esquinas a: P (0, 0) = P (1, 2) P (1, 2) Q (1, 1) = Q(2, 3) P (1, 2) R (4, 3) = R(5, 5) P (1, 2) S (5, 4) = S (6, 6) P (1, 2) Observamos que efectivamente es un paralelogramo al cumplirse S (5, 4) = Q (1, 1) + R (4, 3). Por tanto, el area de paralelogramo original es: A= 1 4 1 3 = |3 4| = |1| = 1

11.5.

Determinante de una matriz 3 3

Denici on 11.2 El determinante de una matriz A 3 3 se calcula mediante la f ormula: a11 a12 a13 a21 a22 a23 | A| = a31 a32 a33 = + a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a13 a22 a31 a11 a23 a32 a12 a21 a33

11.6.

Regla de Sarrus para un determinante 3 3

alculo del determinante de una matriz 3 3 consiste en copiar la primera y la La regla de Sarrus para el c segunda columna de la matriz y colocarlas inmediatamente a la derecha de la matriz. Posteriormente, calcular los productos en diagonal de tres elementos como se indica en la gura: | A| = a11 a12 a13 a21 a22 a23 a31 a32 a33 a11 a12 a21 a22 a31 a32

Los producto de izquierda-arriba con los elementos derecha-abajo (en azul) se multiplican por +1 mientras que los de izquierda abajo con los elementos derecha-arriba (en rojo) se multiplican por 1; todos los resultados se suman. Ejemplo 11.4 Calcule el determinante de

1 2 1 0 A= 3 4 0 1 4

Soluci on Utilizamos directamente la regla de Sarrus: | A| = 1 2 1 1 2 1 2 1 0 3 4 3 4 0 = 3 4 0 1 4 0 1 0 1 4 = + (1)(4)(4) + (2)(0)(0) + (1)(3)(1) (0)(4)(1) (1)(0)(1) (4)(3)(2) = 16 3 + 24 = 5

11.7.

El menor (i, j ) de una matriz

Denici on 11.3 Suponga una matriz A n n, el menor (i, j ) de la matriz A, representado por Mij , es el determinante de la matriz que se obtiene de A eliminando el regl on i y la columna j . Ejemplo 11.5 Determine M32 de la matriz A: 1 2 1 0 A= 3 4 0 1 4 Soluci on De A no consideramos el rengl on 1 A= 3 0 3 ni la columna 2 y calculamos el determinante de la matriz resultante: 2 1 1 1 4 0 , M32 = = (1)(0) (3)(1) = 3 3 0 1 4

11.8.

El cofactor (i, j ) de una matriz

Denici on 11.4 Suponga una matriz A n n, el cofactor (i, j ) de la matriz A se dene como: Cij = (1)i+j Mij Ejemplo 11.6 Determine C32 de la matriz A: 1 2 1 0 A= 3 4 0 1 4 Soluci on: Calculamos primero M32 : 1 2 1 0 , M32 = A= 3 4 0 1 4 Por tanto, C32 = (1)3+2 M32 = (1)5 (3) = 3. 1 1 3 0 = (1)(0) (3)(1) = 3 (2)

11.9.

Denici on del determinante

La denici on formal del determinante de una matriz es el siguiente: Denici on Sea A una matriz cuadrada n n. El determinate de A simbolizado por |A| se dene como: la suma de los productos de los elementos del primer rengl on de A por sus cofactores correspondientes
n

| A| =
i=1

a1i C1i

(3)

11.10.

Desarrollo de un determinante

A pesar de que en la denici on formal del determinante se hace referencia al rengl on 1, el resultado fundamental es que puede calcularse sobre cualquier rengl on o columna: Teorema Suponga que A es una matriz n n, |A| puede ser calculado desarrollando sobre cualquier columna o regl on: Suponga que a11 a12 a1n a21 a22 a2n A= . . . . . . . . . . . . an1 an2 ann Desarrollo sobre el rengl on i: |A| = ai1 Ci1 + ai2 Ci2 + + ain Cin Desarrollo sobre la columna j : |A| = a1j C1j + a2j C2j + + anj Cnj Ejemplo 11.7 Determine, mediante el desarrollo sobre el rengl on 2, |A| para: 1 2 1 0 A= 3 4 0 1 4 Soluci on: Calculamos los menores sobre el rengl on 2: M21 = Por tanto |A| = (3)(1)2+1 (7) + (4)(1)2+2 (4) + (0)(1)2+3 (1) = 5 Ejemplo 11.8 Determine, mediante el desarrollo sobre la columna 1, 1 A= 3 0 2 1 1 4 = 7, M22 = 1 1 0 4 = 4, M23 = 1 2 0 1 =1

|A| para: 2 1 4 0 1 4 5

Soluci on: Calculando los menores sobre la columna 1:


M11 = 4 0 1 4 = 16, M21 = 2 1 1 4 = 7, M31 = 2 4 1 0 =4

Por tanto |A| = (1)(1)1+1 (16) + (3)(1)2+1 (7) + (0)(1)3+1 (4) = 5

11.11.

Sugerencia para el c alculo de determinantes

Cuando se usa el m etodo de cofactores para el c alculo de un determinante es importante escoger un rengl on o una columna con el mayor n umero de ceros posible. Esto se debe que los cofactores correspondientes a tales elementos cero no hace falta calcularlos. Ejemplo 11.9 Determine el(los) valor(es) de que hacen cero el determinante de la matriz: 2 0 0 3 0 A= 1 0 1 1 Soluci on Calculemos primero el determinante de la matriz. Debido a que la u ltima columna tiene muchos cero, entonces desarrollemos sobre ella: |A| = C13 a13 + C23 a23 + C33 a33 = C33 a33 2 0 (1 ) = (1)3+3 1 3 = (2 ) (3 ) (1 ) Por tanto, los u nicos valores para que hacen |A| = 0 son: 1 = 2, 2 = 3 y 3 = 1

Propiedades de los Determinantes


Departamento de Matem aticas, CCIR/ITESM 12 de enero de 2011

Indice
12.1. Propiedades . . . . . . . . . . . . . . . . . 12.2. La adjunta de una matriz cuadrada . . . . 12.3. Resultado clave 1 . . . . . . . . . . . . . . 12.4. El determinante: medida de invertibilidad 12.5. Determinate y la unicidad de un sistema . 12.6. Determinantes y dependencia lineal . . . . 12.7. M etodo pr actico de c alculo . . . . . . . . 12.8. Ejemplo del m etodo pr actico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 4 4 5 5 6 6 6

12.1.

Propiedades

En esta secci on se hace una lista de las propiedades m as importantes de los determinantes. Para hacer una ilustraci on de las mismas, ejemplicaremos con una matriz 3 3 pero aplican para matrices de cualquier orden. 1. Para cualquier matriz A, A y su transpuesta tienen el mismo determinante: |AT | = |A| a1 a2 a3 a1 b1 c1 b1 b2 b3 = a2 b2 c2 c1 c2 c3 a3 b3 c3 2. Si B se obtiene de A multiplicando uno de sus renglones (o columnas) por una constante distinta de cero, entonces |B| = k |A|. a1 a2 a3 a1 a2 a3 kb1 kb2 kb3 = k b1 b2 b3 c1 c2 c3 c1 c2 c3 a1 a2 ka3 a1 a2 a3 b1 b2 kb3 = k b1 b2 b3 c1 c2 c3 c1 c2 kc3 3. Si B se obtiene de A intercambiando dos renglones (o columnas) cualesquiera |B| = |A|. a1 a2 a3 b1 b2 b3 b1 b2 b3 = a1 a2 a3 c1 c2 c3 c1 c2 c3 (1)

a3 a2 a1 a1 a2 a3 b1 b2 b3 = b3 b2 b1 c3 c2 c1 c1 c2 c3 4. Si B se obtiene de A sumando un m ultiplo de un rengl on (o columna) a otro rengl on (o columna), entonces |B| = |A|. a1 a2 a3 a1 a2 a3 ka1 + b1 ka2 + b2 ka3 + b3 = b1 b2 b3 c1 c2 c3 c1 c2 c3 a1 a2 a3 a1 a2 ka2 + a3 b1 b2 kb2 + b3 = b1 b2 b3 c1 c2 c3 c1 c2 kc2 + c3 5. Si la matriz A es triangular (superior o inferior), su determinante es el producto de los elementos de la diagonal principal. a11 .. .. 0 a22 .. = a11 a22 a33 0 0 a33 6. Si A tiene un rengl on (o columna) de ceros, entonces |A| = 0. a1 a2 a3 0 0 0 =0 c1 c2 c3 a1 a2 0 b1 b2 0 = 0 c1 c2 0 7. Si A tiene dos renglones (o columnas) que son iguales, entonces |A| = 0. a1 a2 a3 a1 a2 a3 = 0 c1 c2 c3 a1 a2 a1 b1 b2 b1 = 0 c1 c2 c1 8. Si A tiene dos renglones (o columnas) que son m ultiplos entre s , entonces |A| = 0. a1 a2 a3 ka1 ka2 ka3 = 0 c1 c2 c3 a1 a2 ka1 b1 b2 kb1 = 0 c1 c2 kc1

9. Si A es cualquier matriz de n n y k es cualquier escalar, entonces |k A| = k n |A| 10. El determinante de un producto de matrices es el producto de los determinantes de los factores. |AB| = |A| |B|

|A1 A2 Am | = |A1 | |A2 | |A3 | De las propiedades anteriores se deduce que: Teorema Si A es invertible, entonces |A1 | = 1 |A|

Demostraci on Como AA1 = I, tomando determinantes y aprovechando que el determinante de un producto es el producto de los determinantes se tiene |A| A1 = 1 de donde A1 = 1/ |A| Ejemplo 12.1 Obtenga el determinante de cada matriz:
6 5 1 1 1 4 0 0 3 2 1. A = 0 2. B = 3 2 2 4 6 6 6 6 1 6 2 6 6 5 5 1 4. D = 0 2 4 3. C = 10 10 2 0 0 3

Respuesta: |A| = 0, pues tiene un rengl on de ceros. |B| = 0, pues tiene una columna repetida (la primera y la segunda). |C| = 0, pues un rengl on es un m ultiplo de otro (el 3 es -2 por el 2). |D| = (2)(2)(3) = 12, pues es una matriz triangular. Ejemplo 12.2 Si A y B son matrices 2 2 tales que |A| = 4 y |B| = 1, calcule los determinantes de las matrices: 1. BA 2. AB 3. A BT 4. AT B

5. AT B A1 6. 5 A 1) 2) 3) 4) 5) 6) Respuesta: |B A| = |B| |A| = (1)(4) = 4, |A B| = |A| |B| = 4, |ABT | = |A| |BT | = |A| |B| = (4)(1) = 4 |AT B| = |AT | |B| = |A| |B| = 4 |AT B A1 | = |AT | |B| |A1 | = (4)(1)(1/4) = 1 | 5A| = (5)2 |A| = (25)(4) = 100

12.2.

La adjunta de una matriz cuadrada

Denici on 12.1 Sea A = [aij ] una matriz n n y sea Cij el cofactor de aij . A la matriz n n cuyo elemento (i, j ) es el cofactor Cij se le llama la matriz de cofactores de A. A la transpuesta de la matriz de cofactores de A se le llama la adjunta de A y se le simboliza por adj(A): adj(A) = C11 C21 . . . C12 C22 . . . .. . C1n C2n . . . Cnn T (2)

Cn1 Cn2 Ejemplo 12.3 Determine la matriz adjunta de la matriz

2 0 1 1 A = 1 2 3 1 3 Soluci on Calculemos todos los cofactores posibles: C11 = (1)1+1 C13 = (1)1+3 C22 = (1)2+2 C31 = (1)3+1 C33 = (1)3+3 Por tanto 2 1 1 3 1 2 3 1 2 1 3 3 0 1 2 1 2 0 1 2 = 5, = 5, = 9, = 2, = 4 C12 = (1)1+2 C21 = (1)2+1 C23 = (1)2+3 C32 = (1)3+2 1 1 3 3 0 1 1 3 2 0 3 1 2 1 1 1 =0 = 1 = 2 = 3

T 5 0 5 5 1 2 adj(A) = 1 9 2 = 0 9 3 2 3 4 5 2 4 4

12.3.

Resultado clave 1

El siguiente resultado es la clave para ver c omo es que el determinante de una matriz cuadrada es su medida de invertibilidad: Teorema Sea A una matriz n n, entonces: A adj(A) = |A| In Demostraci on Considere el producto B = A adj(A). El elemento (i, j ) de B es: bij = (rengl on i de A j de adj(A)) ) (columna Cj 1 Cj 2 = [ai1 ai2 ain ] . . . Cjn = ai1 Cj 1 + ai2 Cj 2 + + ain Cjn Existen dos casos sobre i y j : i = j : en este caso bij coincide con la expansi on de |A| en el rengl on i. i = j : en este caso bij coincide con la expansi on en el rengl on j de una matriz donde el rengl on i de A ha sido reemplazado por rengl on j . Es decir, el determinante de una matriz que tiene un rengl on repetido. Por tanto, tal determinante debe ser cero y as para i = j se tiene bij = 0. Por tanto, |A| bij = As A adj(A) = |A| In 0 si i = j si i = j (3)

12.4.

El determinante: medida de invertibilidad

Habiendo probado el resultado anterior, se deduce un resultado clave sobre el determinante de una matriz cuadrada: Teorema Una matriz A es invertible si y s olo si |A| = 0. Demostraci on Si |A| = 0, por el teorema anterior A adj(A) = |A| In . Haciendo algebra con la expresi on tenemos: A 1 adj(A) |A| = In

de donde se deduce que A es invertible y que A1 =

1 |A| adj(A).

Si A es invertible, entonces existe A1 tal que AA1 = I. Tomando determinantes se tiene |A| |A1 | = |I| = 1. Por tanto, |A| no puede ser cero 5

12.5.

Determinate y la unicidad de un sistema

El siguiente resultado indica c omo se puede relacionar el determinante de la matriz de un sistema de ecuaciones cuadrado con el determinante de la matriz de coecientes: Teorema El sistema n n consistente Ax = b: tiene innitas soluciones si y s olo si |A| = 0. En particular: el sistema homog eneo cuadrado Ax = 0 tiene una soluci on distinta de 0 si y s olo si |A| = 0. Demostraci on Ax = b tiene innitas soluciones ssi las columnas de A forman un conjunto linealmente dependiente ssi al aplicar rref a A queda al menos una variable libre ssi al aplicar rref a A quedan menos de n pivotes ssi A no es invertible ssi |A| = 0

12.6.

Determinantes y dependencia lineal

De la misma argumentaci on de la demostraci on del teorema clave 3 se deduce un m etodo r apido para saber si un conjunto de vectores puede ser linealmente dependiente o no: Teorema Las columnas de una matriz n n A forman un conjunto linealmente dependiente si y s olo si |A| = 0. En particular, un conjunto de n vectores en Rn es linealmente dependiente si y s olo si al formar con ellos una matriz y al obtener el determinante de esta se obtiene cero.

12.7.

M etodo pr actico de c alculo

En la pr actica para calcular el determinante de una matriz se utiliza variante del el m etodo de GaussJordan ( qu e curioso,verdad?) La idea se basa en el siguiente hecho: Si se aplica una operaci on elemental a una matriz A: op A B el determinante de A cambia de la siguiente manera: 1) Si Op es del tipo Ri Rj : |A| = |B| Recuerde la regla: Un cambio de renglones cambia el signo del determinante . 2) Si Op es del tipo Ri c Ri entonces |A| = 3) Si Op es del tipo Ri Ri + c Rj entonces det(A) = det(B ) Recuerde la regla: Las operaciones de eliminaci on no cambian el determinante. El m etodo consiste en aplicar a la matriz s olo las operaciones de intercambio y eliminaci on para convertir la matriz original en una matriz escalonada. El determinante de la u ltima matriz ser a simplemente el producto de los elementos de la diagonal principal. Cada cambio de rengl on implicar a un cambio en el signo. 1 |B| c

12.8.

Ejemplo del m etodo pr actico

Veamos algunos ejemplos que ilustran el m etodo pr actico del c alculo de un determinante utilizando como referencia el proceso de escalonamiento. Ejemplo 12.4 Obtenga el determinante de la matriz 0 0 4 2 3 A= 1 5 13 12 Soluci on Apliquemos el algoritmo de Eliminaci on Gaussiana: 0 0 4 1 2 3 R1 R2 2 3 0 4 A0 = A = 1 A1 = 0 5 13 12 5 13 12 As |A| = |A1 |. Continuando con el algoritmo de Gauss: 1 2 3 1 2 3 R3 R3 +5 R1 0 4 0 4 A1 = 0 A2 = 0 5 13 12 0 3 3 Asimismo: 1 2 3 1 2 3 R2 R3 0 4 A3 = 0 3 3 A2 = 0 0 0 4 0 3 3

As |A| = |A1 | = |A2 |.

As |A| = |A2 | = (1) |A3 | = |A3 |. Como |A3 | = tenemos |A| = 12 Ejemplo 12.5 Calcule |A|, si A con las operaciones: 1. 2. 3. 4. 5. se convierte en la matriz escalonada: R4 (intercambio) 6 R1 (escalamiento) R3 2 R1 (eliminaci on) R3 (intercambio) R4 4 R2 (eliminaci on) 5 5 4 5 0 5 4 5 B= 0 0 3 4 0 0 0 2 R1 R1 R3 R2 R4 1 6 (1) (1) (1) |B| = 25 1 2 3 0 3 3 0 0 4 = (1) (3) (4) = 12

Soluci on Se tiene: |A| = (1)

Espacios Vectoriales
Departamento de Matem aticas, CCIR/ITESM 14 de enero de 2011

Indice
13.1. Objetivos . . . . . . . . . . . . . . 13.2. Motivaci on . . . . . . . . . . . . . 13.3. Abstracci on y Generalizaci on . . . 13.4. Generalizaci on . . . . . . . . . . . 13.5. El concepto de operaci on . . . . . 13.6. Espacio Vectorial . . . . . . . . . . 13.7. Teoremas sobre espacios vectoriales 13.8. Ejemplos de EV . . . . . . . . . . 13.9. Subespacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 3 3 3 4 7 7 13

13.1.

Objetivos

En esta lectura se introduce el concepto de espacio vectorial. Este concepto generaliza los vectores n y las matrices m n. El concepto es abstracto y por tanto tiene alguna dicultad natural; se le pide al estudiante un esfuerzo extra para pensar las cosas desde un punto de vista general.

13.2.

Motivaci on

Veamos un ejemplo para introducir el concepto de las ideas invariantes en la soluci on a un sistema de ecuaciones lineales. Ejemplo 13.1 Considere el sistema homog eneo: x + 2y + w + 2t = 0 2x + 4y z + w + 5t = 0 x + 2y + z + 2w + t = 0 z+wt = 0 Si utilizamos el orden x y z w t la matriz aumentada 1 2 0 1 2 0 1 2 2 4 1 1 0 0 5 0 1 2 0 0 1 2 1 0 0 0 1 1 1 0 0 0 De donde la f ormula para las soluciones son: x y z =y w t 2 1 0 0 0 +w 1 0 1 1 0 reducida queda: 0 1 2 0 1 1 1 0 0 0 0 0 0 0 0 0 2 0 1 0 1

+t

Si utilizamos el orden x y w 1 2 2 4 1 2 0 0

z t la matriz aumentada reducida queda: 1 0 2 0 1 2 0 1 3 0 1 1 5 0 1 1 0 0 0 1 0 0 0 2 1 1 0 0 0 0 1 1 1 0 0 0 0 0 0 0

De donde la f ormula para las soluciones son: x y z =y w t

2 1 0 0 0

+z

1 0 1 1 0

+t

3 0 0 1 1

Si utilizamos el orden x y t z w la matriz aumentada reducida queda: 1 2 2 0 1 0 1 2 0 2 3 0 2 4 5 1 1 0 0 0 1 1 1 0 1 2 1 1 2 0 0 0 0 0 0 0 0 0 1 1 1 0 0 0 0 0 0 0 De donde la f ormula para las soluciones son: x y z =y w t

2 1 0 0 0

+z

2 0 1 0 1

+w

3 0 0 1 1

Si utilizamos el orden y x z w t la matriz aumentada 1 2 1 0 1 2 0 1 2 4 2 1 1 5 0 0 0 2 1 1 2 1 0 0 0 0 0 1 1 1 0 0 0 De donde la f ormula para las soluciones x y z =x w t son:

reducida queda: 1 0 1 0 2 1 1 1 0 0 0 0 0 0 0 0 0

1 1/2 0 0 0

+w

0 1/2 1 1 0

+t

0 1 1 0 1

Todas las soluciones previas aparentant ser diferentes, sin embargo, todas representan el mismo conjunto soluci on. Necesitamos una teor a que nos d e conanza en los resultados obtenidos; qu e nos indique las cosas que permanecen y las cosas que pueden cambiar en las m ultiples respuestas v alidas en Rn que podemos n obtener. Adem as de los conjuntos soluci on en R , existen otras areas de la ingenier a que requieren un apoyo matem atico: las matrices tienen su importancia y uso en ingenier a industrial y en control; las series trigonom etricas en procesamiento de se nales; los conjuntos de polinomios y las series de potencias para los IFIs, etc.. C omo desarrollar una teor a comod n que se pueda aplicar a diferentes contextos sin ning un cambio importante?

13.3.

Abstracci on y Generalizaci on

Si se hace una encuesta entre los matem aticos sobre que palabras describen a las matem aticas se notar a que la mayor a responde al menos dos palabras claves: abstracci on y generalizaci on. La abstracci on tiene que ver con representar cantidades por medio de s mbolos ,y la generalizaci on tiene que ver con la construcci on de estructuras o teor as que engloban ciertas cosas o hechos conocidos. La que nos interesa m as para abrir este tema es el aspecto de la generalizaci on. La generalizaci on tambi en tiene que ver con la economia del trabajo realizado para investigar, y con determinar cu ales son los elementos m nimos responsables de que ciertos resultados ocurran.

13.4.

Generalizaci on

Para entender como ocurre la generalizaci on en nuestra materia recordemos algunos conceptos hemos visto en diferentes cursos de matem aticas: 1. vectores en el espacio n dimensional (Rn ), 2. matrices con entradas reales (Mnm ), 3. polinomios reales, 4. series de pontencias, 5. series trigonom etricas, y 6. soluciones a ecuaciones diferenciales lineales homog eneas entre otros elementos. El objetivo que se persigue en el presente tema consiste en introducir aquella estructura abstracta que engloba las anteriores construcciones, y qu e resultados se pueden obtener en lo general sin importar a cual de las estructuras espec cas se haga referencia.

13.5.

El concepto de operaci on

Antes que el concepto de espacio vectorial est a el concepto de operaci on. Veamos algunos ejemplos de operaciones para ir entendiendo que las operaciones de suma o de multiplicaci on por escalares podr an ser diferentes de las que conocemos. Lo que es importante recordar es el uso de los par entesis : sirven para indicar un orden en las operaciones. Ejemplo 13.2 Suponga que V = R2 y que se dene la operaci on: (x, y ) (z, w) = (5 x + z, 2 w + 2 y ) Si a = (2, 3) , b = (1, 3) , c = (1, 1) Calcule: 1. a b = (5 (x = 2) + (z = 1), 2 (w = 3) + 2 (y = 3)) = (11, 0) 2. b a = (5 (1) + (2), 2 (3) + 2 (1)) = (7, 0) 3

3. (a b) c = (11, 0) (1, 1) = (5 (11) + (1), 2 (1) + 2 (0)) = (56, 2) 4. a (b c) = (2, 3) (6, 4) = (16, 2) Ejemplo 13.3 Suponga que V = R2 y que se denen las operaciones: (x, y ) (z, w) = (2 x, 3 w + y ) y t Si a = (1, 0) , c1 = 1, c2 = 4 Calcule: 1. (c1 + c2 ) 2. (c1 a = 3 (1, 0) = (2(3)(1), 3(3)(0)) = (6, 0) (x, y ) = (2 t x, 3 t y )

a) (c2

a) = (2, 0) (8, 0) = (4, 0) (1, 0) = (8, 0) (8, 0) = (16, 0)

3. (c1 c2 ) 4. c1 (c2

a = 4 a) = 1

13.6.

Espacio Vectorial

Denici on 13.1 Sea V un conjunto no vac o sobre el cual existen dos operaciones. Una llamada suma de vectores y otra llamada mulitplicaci on de un escalar por un vector. La suma de vectores, o simplemente suma, es una regla o funci on que asocia a dos vectores, digamos u y v un tercer vector, a este se le representar a como u v. La multiplicaci on es una regla que asocia a un escalar y a un vector, digamos c y u un segundo vector representado por c u. Diremos que el conjunto V se llama espacio vectorial si cumple todos y cada uno de los siguientes axiomas: (A1) Para cualquiera dos vectores u y v en V uv V Este axioma se conoce como el axioma de cerradura bajo la suma: La suma de dos elementos del conjunto debe dar como resultado tambi en un elemento del conjunto. (A2) Para cualquiera dos vectores u y v en V uv =vu Este axioma se conoce como el axioma de la conmutatividad de la suma: El orden de los sumandos no altera el resultado de la suma. (A3) Para cualquiera tres vectores u, v y w en V u (v w) = (u v) w Este axioma se conoce como axioma de la asociatividad de la suma: 4 (3) (2) (1)

En una suma de vectores, no importa el orden c omo asocien la sumas entre dos; el resultado ser a siempre el mismo. (A4) Existe un u nico vector en V que se simbolizar a por 0 y que se llamar a el vector cero tal que para cualquier vector u V se cumple u0=0u=u (4) Este axioma se conoce como el axioma de la existencia del elemento neutro: Existe en el conjunto un elemento distinguido que sumado con cualquier elemento da el mismo segundo elemento. (A5) Para cualquier vector u V existe un u nico vector tambi en en V y simbolizado por u que cumple u (u) = (u) u = 0 Este axioma se conoce como axioma de la existencia de inversos aditivos: Cada elemento del conjunto posee un inverso aditivo; un elemento del conjunto que sumado con el da el neutro aditivo. (M1) Para cualquier vector u V y para cualquier escalar c R se cumple c uV (6) (5)

Este axioma se conoce como el axioma de cerradura bajo la multiplicaci on por escalares: El resultado del producto entre cualquier escalar por cualquier elemento del conjunto debe dar como resultado tambi en un elemento del conjunto. (M2) Para cualquiera dos vectores u y v en V , y para cualquier escalar c en R se cumple c (u v) = (c u) (c v) (7)

Este axioma se conoce como la propiedad distributiva del producto (por escalares) sobre la suma (de vectores): En un producto de un escalar por una suma de vectores, da lo mismo realizar la suma de los vectores y el resultado multiplicarlo por el vector que individualmente multiplicar cada vector por el escalar y despu es sumar los resultados. (M3) Para cualquier vector u V y para cualquiera dos escalares a y b en R se cumple (a + b) u = (a u) (b u) (8)

Este axioma se conoce como la propiedad distributiva del producto por escalares sobre la suma escalares. (M4) Para cualquier vector u V y para cualquiera dos escalares a y b en R se cumple a (b u) = (a b) u (9)

Esta propiedad se conoce como la ley asociativa del producto entre escalares y el producto de escalar con vector. Lo llamaremos simplemente como la propiedad asociativa del producto. 5

(M5) Para cualquier vector u V se cumple 1 u=u (10)

Cuando se elabora una argumentaci on en alg un c alculo o demostraci on uno debe hacer referencia a los axiomas. Por ellos es que es conveniente y elegante llamarlos por su descripci on. Se le pide al alumno que entienda la l ogica de cada uno de ellos y memorice sus descripciones. Ejemplo 13.4 Indique cual opci on enuncia la propiedad distributiva de la suma de escalares sobre el producto. 1.- (c + k ) x = (c x) (k x) Respuesta

2.- x 0 = 0 x = x 3.- x y = y x Conmutatividad 4.- c x es vector Cerradura

5.- x (x) = (x) x = 0 6.- x y es vector Cerradura Ejemplo 13.5 Indique cual opci on describe la propiedad: x0=0x=x 1.- Cerradura del producto por escalares. 2.- Existencia del neutro de la suma. Respuesta 3.- Distributividad del producto sobre la suma de vectores. 4.- Distributividad de la suma de escalares sobre el producto. 5.- Asociatividad del producto por escalares. 6.- Existencia del inverso aditivo Ejemplo 13.6 Apesar que nuestro inter es no es hacer demostraciones matem aticas si es conveniente entender c omo se construyen. El siguiente argumento prueba que el vector cero es u nico. Es decir, que si hay otro vector que cumple la propiedad que dene al neutro debe ser el mismo neutro. Justique los pasos. Suponga que x+y =x Entonces por (a) existe (x) que al sumarlo en ambos miembros da (x) + (x + y) = (x) + x Por la propiedad (b) se deduce entonces ((x) + x) + y = (x) + x Por la propiedad (c) se tiene entonces 0+y =0 6

Finalmente, por la propiedad (d) se tiene y = 0. 1: la propiedad del inverso aditivo, 2: asociativa, 3: del neutro Respuesta: la correspondencia es (a)=1,(b)=2,(c)=1,(d)=3

13.7.

Teoremas sobre espacios vectoriales

Resultados generales sobre espacios generales: Sea V es un espacio vectorial, y sean u V y c R, entonces: 1. 0 u = 0 (El escalar 0 por cualquier vector da el vector cero) 2. c 0 = 0 (Cualquier escalar por el vector cero da el vector cero) 3. c u = 0 implica c = 0 o u = 0 (Cuando el producto de un escalar por un vector da el vector cero, o el escalar es cero o el vector es el vector cero) 4. (c) u = (c u) (Multiplicar por un escalar negativo implica obtener el inverso aditivo del producto del escalar sin el signo por el vector)

13.8.

Ejemplos de EV

Veamos algunos de los espacios vectoriales que utilizaremos. Ejemplo EV 1 Sea V = R+ con las operaciones: x y = x y y c x = xc , veamos que V con tal operaciones cumple los axiomas de espacio vectorial: Axioma A1: x y V Efectivamente, pues si x, y V entonces x, y > 0 y por tanto x y = x y > 0, probando que x y V . Axioma A2: x y = y x Efectivamente, pues x y = x y = y x = y x. Esto se tiene por la propiedad conmutativa del producto de n umeros reales. Axioma A3: x (y z ) = (x y ) z Efectivamente, pues x (y z ) = x (y z ) = x (y z ) = (x y ) z = (x y ) z = (x y ) z . Esto se tiene por la propiedad asociativa del producto de n umeros reales. Axioma A4: Existe en V un neutro para Efectivamente, el n umero 1 de V = R cumple la propiedad requerida pues 1 x = 1 x = x = x 1 = x 1. Axioma A5: Todo elemento de V posee un inverso aditivo en V Efectivamente, si x V es n umero, 1/x tambi en est a en V = R (Pues si x > 0, tambi en se cumple 1/x > 0) y cumple la propiedad requerida pues x 1/x = x 1/x = 1 = 1/x x = 1/x x. Axioma M1: c x V Efectivamente, pues si x V entonces x > 0 y c x = xc > 0 para cualquier n umero c. (Recuerde que para x > 0, xc = ec ln(x) > 0) Axioma M2: c (x y ) = (c x) (c y ) Efectivamente, c (x y ) = c (x y ) = (x y )c = xc y c = (xc ) (y c ) = (c x) (c y ). Y esto vale por la ley de los exponentes con bases positivas. Axioma M3: (c1 + c2 ) x = (c1 x) (c2 x) Efectivamente, (c1 + c2 ) x = xc1 +c2 = xc1 xc2 = (xc1 ) (xc2 ) = (c1 x) (c2 x). Esto vale por la ley de los exponentes con bases positivas. Axioma M4: (c1 c2 ) x = c1 (c2 x) Efectivamente, (c1 c2 ) x = xc1 c2 = (xc2 )c1 = c1 (xc2 ) = c1 (c2 x). Esto vale por la ley de los exponentes 7

con bases positivas. Axioma M5: 1 x = x Efectivamente, 1 x = x1 = x. Habi endose cumplido los 10 axiomas, concluimos que V con las operaciones xy =xy y c x = xc

s es un espacio vectorial

Ejemplo EV 2: Rn El conjunto de todas las n-adas con componentes reales Rn : operaciones: La suma: La suma de dos vectores con n componentes es un vector tambi en con n componentes cuya componente i- esima es la suma de las componentes i- esimas de los vectores que se est an sumando: (xi ) + (yi ) = (xi + yi ) El producto por escalares: El producto de un escalar por un vector de n componentes se tambi en un vector de n componetes cuya componente i- esima es el producto del escalar por la i esima componente del vector que se multiplica: c (xi ) = (c xi ) Axiomas A1 y M1: x + y Rn y c x Rn De la misma denici on de la suma y producto por escalares. Axioma A2 : x + y = y + x Los vectores son iguales pues tienen la misma dimensi on y al comparar las componente i se tiene xi + yi = yi + xi Axioma A3: x + (y + z) = (x + y) + z Los vectores son iguales pues tienen la misma dimensi on y al comparar las componente i se tiene xi + (yi + zi ) = (xi + yi ) + zi Axioma A4: Existe el vector neutro bajo la adici on: Este vector es el vector con todas sus componentes cero 0 = (0) y cumple 0 + x = x + 0 = x pues al comparar las i- esimas componentes se cumple: 0 + xi = xi + 0 = xi Axioma A5: Cada vector de tiene su inverso aditivo: Para cada vector x = (xi ) el vector x = (xi ) cumple x + (x) = (x) + x = 0 pues al comparar las i- esimas componentes se cumple: xi + xi = 0 = xi + xi Axioma M2: c(x + y) = c x + c y: Los vectores son iguales pues tienen la misma dimensi on y al comparar las componentes i se tiene c(xi + yi ) = c xi + c yi

Axioma M3: (c1 + c2 )x = c1 x + c2 x: Los vectores son iguales pues tienen la misma dimensi on y al comparar las componentes i se tiene (c1 + c2 )xi = c1 xi + c2 xi Axioma M4: (c1 c2 )x = c1 (c2 x): Los vectores son iguales pues tienen la misma dimensi on y al comparar las componentes i se tiene (c1 c2 )xi = c1 (c2 xi ) Axioma M5: 1 (xi ) = (1 xi ) = (xi ) Habi endose cumplido los 10 axiomas, concluimos que Rn con las operaciones (xi ) + (yi ) = (xi + yi ) y c(xi ) = (c xi ) s es un espacio vectorial

Ejemplo EV 3: Mmn El conjunto de todas las matrices m n con componentes reales Mmn : operaciones: La suma: La suma de dos matrices m n es una matriz tambi en m n cuyo elemento (i, j ) es la suma de los elementos (i, j ) de las matrices que se est an sumando: (aij ) + (bij ) = (aij + bij ) El producto por escalares: El producto de un escalar por una matriz m n es tambi en una matriz m n cuyo elemento (i, j ) es el producto del escalar por el elemento (i, j ) de la matriz que se multiplica: c (aij ) = (c aij ) Axiomas A1 y M1: A + B Mmn y c A Mmn : De la misma denici on de la suma de matrices y producto por escalares. Axioma A2 ; A + B = B + A: Las matrices son iguales pues tienen la misma dimensi on y al comparar los elementos (i, j ) se tiene aij + bij = bij + aij Axioma A3: A + (B + C) = (A + B) + C: Las matrices son iguales pues tienen la misma dimensi on y al comparar los elementos (i, j ) se tiene aij + (bij + cij ) = (aij + bij ) + cij Axioma A4, Existe una matriz neutra bajo la adici on: Esta matriz es la matriz con todas sus componentes cero 0 = (0) y cumple 0 + A = A + 0 = A, pues al comparar los elementos (i, j ) componentes se cumple: 0 + aij = aij + 0 = aij Axioma A5: Cada matriz de tiene su invero aditivo: Para cada matriz A = (aij ), la matriz A = (aij ) cumple A + (A) = (A) + A = 0, pues al comparar los elementos (i, j ) se cumple: aij + aij = 0 = aij + aij 9

Axioma M2: c(A + B) = c A + c B: Las matrices son iguales pues tienen la misma dimensi on y al comparar los elementos (i, j ) se tiene c(aij + bij ) = c aij + c bij Axioma M3: (c1 + c2 )A = c1 A + c2 A: Las matrices son iguales pues tienen la misma dimensi on y al comparar los elementos (i, j ) se tiene (c1 + c2 )aij = c1 aij + c2 aij Axioma M4: (c1 c2 )A = c1 (c2 A): Las matrices son iguales pues tienen la misma dimensi on y al comparar los elementos (i, j ) se tiene (c1 c2 )aij = c1 (c2 aij ) Axioma M5: 1 (aij ) = (1 aij ) = (aij ) Habi endose cumplido los 10 axiomas, concluimos que Mmn con las operaciones (aij ) + (bij ) = (aij + bij ) y c(bij ) = (c aij ) s es un espacio vectorial

Ejemplo EV 4: P De todos los polinomios con coecientes reales en la variable x con las operaciones: Suma: Cuando son dos polinomios, esta operaci on se lleva a cabo sumando los coecientes de las mismas potencias de x de los polinomios. a0 + a1 x + + am xm + b0 + b1 x + + bm xm = (a0 + b0 ) + (a1 + b1 ) x + + (am + bm ) xm Alguno de los polinomios se completa hasta el grado mayor de los dos con coecientes cero Por ejemplo, si p(x) = 2 + 3 x2 + x4 y q (x) = 2 3 x + x2 x3 + x4 + 2 x5 escribimos a los polinomios como p(x) = 2 + 0 x + 3 x2 + 0 x3 + 1 x4 + 0 x5 q (x) = 2 3 x + 1 x2 1 x3 + 1 x4 + 2 x5 as p(x) + q (x) = (2 + 2) + (0 3) x + (3 + 1) x2 + (0 1) x3 + (1 + 1) x4 + (0 + 2) x5 = 4 3 x + 4 x2 x3 + 2 x4 + 2 x5 Multiplicaci on: La multiplicaci on por escalar es la multiplicaci on de todo el polinomio por una constante: c(a0 + a1 x + a2 x2 + + am xm ) = c a0 + c a1 x + + c am xm

10

En lo siguiente supondremos que cada polinomio se escribe en la forma p(x) = p0 + p1 x + p2 x2 + Es decir, que usaremos el nombre del polinomio para nombrar a sus coecientes y usaremos sub ndices para indicar la potencia de x a la cual acompa nan. Axiomas A1 y M1: p(x) + q (x) P y c p(x) P : De la misma denici on de la suma de polinomios y producto por escalares. Axioma A2 ; p(x) + q (x) = q (x) + q (x): Los polinomios son iguales pues est an en la misma variable y comparando los coecientes de xi se tiene: pi + qi = pi + qi Axioma A3: p(x) + (q (x) + r(x)) = (p(x) + q (x)) + r(x): Los polinomios son iguales pues est an en la misma variable y comparando los coecientes de xi se tiene: pi + (qi + ri ) = (pi + qi ) + ri Axioma A4, Existe un polinomio neutro bajo la adici on: Este polinomio es el polinomio con todos sus coecientes cero: 0 = 0 = 0 + 0 x y cumple 0 + p(x) = p(x) + 0 = p(x), pues al comparar los coecientes de xi se tiene: 0 + pi = pi + 0 = pi Axioma A5: Cada polinomio de tiene su invero aditivo: Para cada plinomio p(x) = p0 + p1 x + , el polinomio p(x) = (p0 ) + (p1 ) x + (p2 )x2 + cumple p(x) + (p(x)) = (p(x)) + p(x) = 0, pues al comparar los coecientes de xi se tiene: (pi ) + pi = 0 Axioma M2: c(p(x) + q (x)) = c p(x) + c q (x): Los polinomios son iguales pues est an en la misma variable y comparando los coecientes de xi se tiene: c(pi + qi ) = c pi + c qi Axioma M3: (c1 + c2 )p(x) = c1 p(x) + c2 p(x): Los polinomios son iguales pues est an en la misma variable y comparando los coecientes de xi se tiene: (c1 + c2 )pi = c1 pi + c2 pi Axioma M4: (c1 c2 )p(x) = c1 (c2 p(x)): Los polinomios son iguales pues est an en la misma variable y comparando los coecientes de xi se tiene: (c1 c2 )pi = c1 (c2 pi ) Axioma M5: 1 p(x) = p(x) Habi endose cumplido los 10 axiomas, concluimos que P con las operaciones suma de polinomios y producto de un escalar por un polinomio conocidas s es un espacio vectorial

Ejemplo EV 5: Pn Todos los polinomios con coecientes reales en la variable x de grado menor o igual que n (n es entero mayor o igual que cero): 1 operaciones:Sea x la variable independiente de los polinomios. 11

a ) Suma: Misma que en P . b ) Multiplicaci on por escalares: Misma que en P . 2 el cero: El polinomio 0, es aquel cuya totalidad de coecientes es cero. 3 inversos aditivos: El inverso de p de un polinomio p tiene por coecientes los opuestos de los coecientes de p

Ejemplo EV 6: F (R) El conjunto de todas las funciones de valor real denidas en R: 1 operaciones: Sean f y g dos funciones de valor real con dominio R y sea c cualquier escalar. a ) Suma: Se dene la suma de f + g de f y g como la funci on cuyos valores est an expresados por: (f + g )(x) = f (x) + g (x) para toda x R b ) producto por escalares: Igualmente, el producto por escalar cf se dene como sigue: (c f )(x) = c f (x) para toda x A 2 el cero: La funci on cero, 0 es aquella cuyos valores son todos ceros: 0(x)= 0 para toda x R. 3 inversos aditivos: La inversa de f de f es la funci on (-1)f . 4 axiomas: La comprobaci on de los axiomas se deja como ejercicio. Ejemplo EV 7: F (A) De manera m as general que en el ejemplo de espacio vectorial 6, si A es un conjunto cualquiera denimos el conjunto F (A) de todas las funciones de valor real que tienen como dominio A; entonces F (A) es un espacio vectorial. Ejemplo EV 8: F (A, V ) De manera m as general que en el ejemplo de espacio vectorial 7, si A es un conjunto cualquiera y V es un espacio vectorial (con una operaci on suma y producto por escalares ) denimos el conjunto F (A, V ) de todas las funciones que tienen como dominio X y como codominio V . Denimos en F (A, V ) la suma de la siguiente manera: f g: A V a f (a) g (a) y denimos el producto por escalares de la siguiente manera: c f: A V a c

f (a)

entonces F (A, V ) es un espacio vectorial. Normalmente, el s mbolo usando para la suma de funciones es el mismo que el usando para la suma de V y el usado para el producto de un escalar por una funci on es el mismo que el s mbolo del producto por escalares.

12

13.9.

Subespacio Vectorial

Como se ha visto probar que un conjunto es un espacio vectorial es un trabajo arduo. Sin embargo, hay situaciones en las que la prueba se reduce considerablemente: Cuando el conjunto est a contenido en un conjunto mayor que ya es un espacio vectorial. En este caso, como todas las propiedades de los axiomas hacen referencia a elementos del conjunto y por tanto a elementos al conjunto mayor que ya es espacio vectorial y por consiguiente se verican. Salvo posiblemente los axiomas A1 y M1 que hacen referencia a la cerradura. Denici on 13.2 Sea V = (V, +, ) un espacio vectorial. Un subconjuto U de V (U V ) que no es vac o se dice subespacio vectorial o simplemente subespacio de V si U con las mismas operaciones de suma y multiplicaci on por escalares que est an denidas en V , pero restringidas a vectores de U , es un espacio vectorial. Apesar que en la denci on de subespacio est a implicita la vericaci on de los axiomas, el siguiente resultado da la clave para la vericaci on de que un conjunto se subespacio. Teorema Un subconjunto no vac o U de un espacio vectorial V es con operaciones y de V si cumple las siguientes condiciones: es un subespacio

El conjunto U es cerrado bajo la suma; Cualquiera dos elementos de U sumados dan como resultado un elemento que tambi en est a en U. El conjunto U es cerrado bajo la multiplicaci on por escalares; Cualquier elemento de U multiplicado por cualquier escalar da como resultado un elemento que tambi en est a en U . Demostraci on Debemos probar que si se cumplen las condiciones marcadas, entonces U con la suma, que ya ten a V , y el producto por escalares, que ya ten a V , satisface los 10 axiomas para ser el mismo un espacio vectorial. newline A1 Sean x y y dos elementos cualquiera de U . Al cumplirse que U es cerrado bajo la suma, x y est a en U . A2 Sean x y y dos elementos cualquiera de U , como x y y son elementos de V y V es espacio vectorial cumple A2: xy =yx A3 Sean x, y y z elementos cualquiera de U ; por tanto, son elementos de V y como V es espacio vectorial se cumple A3: x (y z) = (x y) z A4 Como U no es vac o, U tiene al menos un elemento, digamos x. Como U es cerrado bajo el producto por escalares: c R, c x U En particular, se debe cumplir para c = 0. As , 0 tanto, el neutro de V , est a tambi en en U . x U . Pero nosotros probamos que 0 x = 0. Por

13

A5 Sea x un elemento cualquiera de U . Debemos ver que tiene inverso aditivo en U . Como U es cerrado bajo el producto por escalares: c R, c x U En particular, debe cumplirse para c = 1; es decir, 1 1 x = x (el inverso aditivo de x). Por tanto x U . x U . Pero nosotros hemos probado que

M1 Sean x un elemento cualquiera de U y c un escalar cualquiera. Al cumplirse que U es cerrado bajo el producto por escalares, c x est a en U . De forma similar a la prueba de que los axiomas A2 y A3 se cumplen al cumplirse para V (los elementos de U son elementos de V ), los axiomas M2 a M5 se pueden vericar f acilmente. La prueba de que U con las operaciones y de V cumple los 10 axiomas nos dice que es espacio vectorial; y como U V , U es subespacio vectorial de V Observe que realmente el resultado anterior hace referencia a tres condiciones: La que est a en el enunciado: que el conjunto no sea vac o, y las dos expl citamente citadas. Ejemplo 13.7 El subconjuto W de P2 formado por s olo polinomios de la forma p(x) = a x + 3 a x2 donde a es un n umero real, es un subespacio vectorial? Soluci on Requisito 0: Se debe probar que el conjunto posee al menos un elemento: Debemos dar un ejemplo concreto de un polinomio que corresponde a este formato: Por ejemplo p(x) = 2 x + 6 x2 el coeciente de x2 , 6, es justo el doble del coeciente de x, que es 2. Por tanto, W = . Requisito 1: Debemos probar que si se suman dos elementos cualquiera del conjunto, el resultado tambi en est a en el conjunto. Para abarcar cualquier elemento de W no podemos utilizar un valor num erico de a; debemos utilizar letras. Sean p(x) = a1 x + 3 a1 x2 y q (x) = a2 x + 3 a2 x2 dos elementos de W , veamos si p(x) + q (x) W : p(x) + q (x) = a1 x + 3 a1 x2 + a2 x + 3 a2 x2 = (a1 + a2 ) x + 3 (a1 + a2 ) x2 de donde vemos que el coeciente de x2 es el de x multiplicado por 3. Por tanto, p(x) + q (x) W . Por tanto, W es cerrado bajo la suma. Requisito 2: Debemos probar que si se multiplica un escalar cualquiera por un elemento cualquiera del conjunto, el resultado tambi en est a en el conjunto. Para abarcar cualquier elemento de W no podemos utilizar un valor num erico de a; debemos utilizar letras. Sea p(x) = a1 x + 3 a1 x2 un elemento cualquiera de W y c un escalar cualquiera, veamos si c p(x) W : c p(x) = c (a1 x + 3 a1 x2 ) = (c a1 ) x + 3 (c a1 ) x2 de donde vemos que el coeciente de x2 es el de x multiplicado por 3. Por tanto, c p(x) W . Por tanto, W es cerrado bajo el producto por escalares. Como hemos probado los tres requisitos, W es un subespacio vectorial de P2 .

14

Ejemplo 13.8 El conjunto W de todas las matrices 2 2 de la forma: a 0 0 b donde a y b son n umeros reales que cumplen a b 0, es un subespacio vectorial de M22 ? Soluci on Requisto 0: Como la matriz 1 0 A= 0 1 tiene el patr on de las matrices de W para a = 1 y b = 1 y se cumple a b = 1 0, A W . Por tanto, W = . Requisito 1: Debemos probar que si se suman dos elementos cualquiera del conjunto, el resultado tambi en est a en el conjunto. Para abarcar cualquier elemento de W no podemos utilizar valores num ericos; debemos utilizar letras. Sean a1 0 a2 0 A= yB= 0 b1 0 b2 dos elementos de W , que cumplan a1 b1 0 y a2 b2 0 veamos si A + B W : A+B = a1 + a2 0 0 b1 + b2

Ahora apliquemos la prueba u ltima para ver si pertenece a W (a1 + a2 ) (b1 + b2 )) = a1 b1 + a2 b1 + a1 b1 + a2 b2 0? Observe que lo que es cierto es que a1 b1 0 y que a2 b2 0. Pero el t ermino a2 b1 + a1 b2 puede cambiar la desigualdad. De hecho los valores a = 1, b1 = 5, a2 = 3, y b2 = 1 cumplen a1 b1 = (1)(5) = 5 0 y a2 b2 = (3)(1) = 3 Pero (a1 + a2 )(b1 + b2 ) = (1 + 3)(5 + 1) = (2)(4) = 8 > 0 Estos n umeros nos dan las matrices Ao = 1 0 0 5 y Bo = 3 0 0 1

que s est an en W , pero cuya suma no est a en W . A estos ejemplos concretos que prueban que una cierta armaci on del tipo para cualquiera no se cumpla se llaman contra ejemplos. El anterior contra ejemplo hace que W no sea cerrado bajo la suma. Fallando un requisito como ahora, W no es un subespacio. Sin embargo, como nos interesa ver la opci on que se ajusta a W deberemos revisar el otro requisito. Requisito 2: Debemos probar que si se multiplica un escalar cualquiera por un elemento cualquiera del conjunto, el resultado tambi en est a en el conjunto. Para abarcar cualquier elemento de W no podemos utilizar un valor num erico de a; debemos utilizar letras. Sea A= a1 0 0 b1 veamos si c A W :

un elemento cualquiera de W (y por tanto a1 b1 0) y c un escalar cualquiera, cA = c a1 0 0 c b1 15

Ahora apliquemos la prueba u ltima para ver si pertenece a W (c a1 ) (c b1 ) 0? Como (c a1 ) (c b1 ) = c2 (a1 b1 ) y c2 0 y a1 b1 0 entonces (c a1 ) (c b1 ) = c2 (a1 b1 ) 0 Por tanto, c A W . Por tanto, W es cerrado bajo el producto por escalares. Resumiendo, W no es espacio vectorial: s es cerrado bajo el producto por escalares pero no es cerrado bajo la suma. Ejemplo 13.9 Sea V = Mnn el conjunto de todas las matrices cuadradas. Este conjunto con la suma conocida de matrices y el producto de un escalar por una matriz es un espacio vectorial. Este es nuestro espacio vectorial de referencia. Denimos un subconjunto de Mnn formado por las matrices sim etricas: U = A Mnm : AT = A Es decir, U est a formado por todas las matrices cuadradas n n que al tomarle la transpuesta queda la misma matriz. Vea que U es un subespacio de Mnn . Demostraci on Veamos que U cumple los requisitos para ser subespacio: 1. Que U = . Efectivamente, la matriz de ceros 0 n n es una matriz que al tomarle su transpuesta queda ella misma. Por tanto, 0T = 0. Como U agrupa a todas las matrices n n que cumplen esta propiedad; 0 es un elemento de V . Por tanto, U no es vac o. 2. Que U es cerrado bajo la suma. Tomemos dos matrices cualquiera n n de U , digamos A y B. Si son elementos de U deben ser sim etricas, es decir: AT = A BT = B Veamos ahora que la matriz A + B tambi en est a en U , es decir, que A + B es una matriz sim etrica: Para ello, tomemos su transpuesta y veamos que queda ella misma. Sabemos que (A + B)T = AT + BT por las propiedades de la transpuesta de una matriz. Siendo A y B sim etricas, deducimos que (A + B)T = A + B Es decir, la matriz A + B es tal que cuando se obtiene su transpuesta queda ella misma. Concluimos que A + B es una matriz n n sim etrica, es decir, A + B U . 3. Que U es cerrado bajo el producto por escalares. Sea c un escalar cualquiera y A es un elemento de U cualquiera. As , A es una matriz sim etrica n n: AT = A. Por las propiedades de la traza y teniendo la simetr a de A: (c A)T = c AT = c A Por tanto, la matriz c A es tal que cuando se calcula su transpuesta se obtiene la misma matriz c A. Por tanto, c A es una matriz n n sim etrica. Es decir, c A es un elemento de U . 16

De lo anterior, concluimos que el conjunto U es un subespacio de Mnn Ejemplo 13.10 Tomemos como espacio vectorial de referencia Rn con la suma y el producto por escalares com unes. Sea A n una matriz m n ja, dena en R el conjunto formado por todos los vectores que son soluci on al sistema de ecuaciones homog eneas cuya matriz de coecientes es A: U = {x Rn : A x = 0} Vea que U es un subespacio de Rn . Comente si el correspondiente conjunto de soluciones a un sistema no homog eneo es un subespacio. Demostraci on Veamos que U satisface los requisitos para ser espacio vectorial. 1. Que U = . Efectivamente, como el producto de cualquier matriz A por el vector cero da como resultado el vector cero (cuando se tienen las dimensiones adecuadas para que el producto sea factible), concluimos que el vector 0 de Rn es un elemento de U . 2. Que U es cerrado bajo la suma. Sean x1 y x2 dos elementos cualquiera de U . Por tanto, ellos deben ser soluci on al sistema homog eneo A x = 0, es decir: A x1 = 0 y A x2 = 0 As , si utilizamos la propiedad distributiva del producto: A (x1 + x2 ) = A x1 + A x2 = 0+0=0 Esto nos dice que cuando el vector x1 + x2 se sustituye por el vector de inc ognitas en la ecuaci on A x = 0 la ecuaci on se satisface. Es decir, que x1 + x2 es una soluci on al sistema homog eneo. Como U contiene todas las soluciones a ese sistema, x1 + x2 est a en U . 3. Que U es cerrado bajo el producto por escalares. Sean c un escalar cualquiera y y un elemento cualquiera de U . As y satisface A y = 0. Si ahora utilizamos las propiedades del producto con matrices tenemos A (c y ) = c (A y ) = c0=0 Esto dice que c y es una soluci on al sistema A x = 0. Por tanto, c y es un elemento de U . Por lo anterior, U es un subespacio vectorial de Rn . Si el sistema no fuera homog eneo tendr a que tener la forma A x = b para b = 0. Armamos que el conjunto de soluciones no podr a ser subespacio de Rn . Efectivamente, hemos visto que el vector cero siempre debe pertencer al cualquier subespacio. En particular, deber a pertenecer al conjunto de soluciones. Pero esto es imposible debido a que A 0 = 0 = b. Concluimos que si el sistema no es homog eneo, el conjunto de soluciones no forman un subespacio de Rn

17

Espacios generados, dependencia lineal y bases


Departamento de Matem aticas, CCIR/ITESM 14 de enero de 2011

Indice
14.1. Introducci on . . . . . . . . . . . . . . . . . . . . 14.2. Espacio Generado . . . . . . . . . . . . . . . . . 14.3. Generadores Conocidos de los Espacios Vectoriales . 14.4. Reducci on del conjunto generador . . . . . . . . 14.5. Dependencia Lineal . . . . . . . . . . . . . . . . 14.6. Pruebas de dependencia lineal . . . . . . . . . . 14.7. Unicidad de la combinaci on lineal . . . . . . . . 14.8. Base . . . . . . . . . . . . . . . . . . . . . . . . 14.9. Todo espacio tiene base . . . . . . . . . . . . . 14.10. Unicidad de la representaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 4 5 6 7 7 7 8 9

14.1.

Introducci on

Nuestro inter es consiste en reformular las deniciones de dependencia lineal, independencia lineal y espacio generado que ya se ten an para Rn pero en el contexto general de los espacios vectoriales. Es de notar que en las deniciones dadas s olo se hac a referencia a suma de vectores, multiplicaci on de un vector por un escalar, a combinaci on lineal y al vector cero. Todo esto existe en el espacio vectorial en general. Las demostraciones de cada uno de los resultados son id enticas a las correspondientes para Rn , por ello no se incluir an.

14.2.

Espacio Generado

Denici on 14.1 Sea V un espacio vectorial, y v1 , v2 , . . . ,vk vectores de V . El conjunto formado por todas las posibles combinaciones lineales de los vectores v1 , v2 , . . . ,vk se llama el espacio generado por v1 , v2 , . . . ,vk . Este conjunto se representa por Gen {v1 , v2 , . . . , vk } Si V = Gen {v1 , v2 , . . . , vk } diremos que {v1 , v2 , . . . , vk } genera a V y que {v1 , v2 , . . . , vk } es un conjunto generador de V . Ejemplo 14.1 Indique si la matriz A= pertenece al espacio generado por las matrices: A1 = 2 2 3 0 , A2 = 4 4 6 0 y A3 = 2 1 0 2 1 0 0 2

Soluci on Buscamos saber si existen constantes c1 , c2 y c3 tales que: A = c1 A1 + c2 A2 + c3 A3 Es decir, 1 0 0 2 = c1 2 2 3 0 + c2 4 4 6 0 + c3 2 1 0 2

Si se efectua cada producto y se realiza la suma de las matrices en el lado izquierdo obtenemos: 1 0 0 2 = 2 c1 4 c2 + 2 c3 2 c1 + 4 c2 + 1 c3 3 c1 + 6 c2 + 0 c3 0 c1 + 0 c2 2 c3

Si se igualan elementos correspondientes de estas matrices se obtiene: 2 c1 2 c1 3 c1 0 c1 + + + 4 c2 4 c2 6 c2 0 c2 + + + 2 c3 1 c3 0 c3 2 c3 = 1 = 0 = 0 = 2

Formando la matriz aumentada y aplicando Gauss-Jordan obtenemos: 2 4 2 1 1 2 0 2 0 4 1 0 1 0 3 0 6 0 0 0 0 0 0 2 2 0 0 0

0 0 1 0

Debido al pivote en la columna de las constantes, el sistema es inconsistente. Como el sistema es inconsistente, no existen c1 , c2 y c3 que cumplen: A = c1 A1 + c2 A2 + c3 A3 Por tanto, A no pertence al espacio Gen{A1 , A2 , A3 } . Observaci on Es importante observar la relaci on entre 1 0 0 2 y la matriz aumentada: 2 4 2 1 2 4 1 0 3 6 0 0 0 0 2 2 El efecto nal es como si las matrices se convirtieran en un vector columna. El proceso de conversi on consiste en acomodar en una gran columna todos y cada uno de los renglones. Esto consiste en un proceso de zig-zag sobre los renglones de la matriz. A este proceso de convertir una matriz en un vector columna lo llamaremos vectorizaci on de una matriz. Ejemplo 14.2 Indique si el polinomio p(x) = 1 2 x x2 19/4 x3 = c1 2 2 3 0 + c2 4 4 6 0 + c3 2 1 0 2

es una combinaci on lineal de los polinomios: p1 (x) = 1 + 2 x 3 x2 + x3 p2 (x) = 1 + x + x2 + 3 x3 y p3 (x) = 1 + 3 x 3 x2 + 4 x3 Soluci on La pregunta es si existen valores para c1 , c2 y c3 de manera que p(x) = c1 p1 (x) + c2 p2 (x) + c3 p3 (x) Si sustuimos los polinomios, desarrollamos los productos por las constantes, y agrupamos los t erminos respecto a x, obtenemos: 1 2 x x2 19/4 x3 = c1 c2 c3 + (2 c1 + c2 + 3 c3 ) x+ (3 c1 + c2 3 c3 ) x2 + (c1 + 3 c2 + 4 c3 ) x3 Por consiguiente, para que lo anterior se cumpla se requiere que: c1 2 c1 3 c1 c1 c2 + c2 + c2 + 3 c2 c3 + 3 c3 3 c3 + 4 c3 = 1 = 2 = 1 = 19/4

Este sistema tiene como matriz aumentada que reducida queda: 1 1 1 1 1 2 0 2 1 3 3 0 1 3 1 1 3 4 19/4 0

0 1 0 0

0 1/2 0 7/4 1 1/4 0 0

Vemos que el sistema tiene soluci on (En este ejemplo tiene soluci on u nica, pero lo que importa es si tiene o no soluci on). Por tanto, si existen c1 , c2 y c3 que satisfacen p(x) = c1 p1 (x) + c2 p2 (x) + c3 p3 (x) Por consiguiente, p(x) s pertenece a Gen {p1 (x), p2 (x), p3 (x)} Observaci on Es importante observar la relaci on entre 1 2 x x2 19/4 x3 = c1 (1 + 2 x 3 x2 + x3 )+ c2 (1 + x + x2 + 3 x3 )+ c3 (1 + 3 x 3 x2 + 4 x3 ) y la matriz aumentada: 1 1 1 1 2 1 3 2 3 1 3 1 1 3 4 19/4 3

El efecto nal es como si los polinomios se convirtieran en un vector columna. El proceso de conversi on consiste en tomar en orden, iniciando con el t ermino constante, s olo los coecientes del polinomio y formar un vector columna. A este proceso de convertir un polinomio en un vector columna lo llamaremos vectorizaci on de un polinomio. Nota Tambi en es importante se nalar que el proceso para vericar si un vector en Rn es combinaci on lineal de un conjunto de vectores, que consist a en formar una matriz aumentada donde en la primera parte entran los vectores del conjunto como columnas y en la parte aumentada entra el vector como columna, sigue siendo v alido usando vectorizaci on en el caso de vectores que son polinomios o matrices. Ejemplo 14.3 Indique si p1 (x) = 1 + x + x2 p2 (x) = 1 Gen p (x) = 1 x2 3 p4 (x) = x2 = P2

Soluci on Debemos ver si cualquier polinomio p(x) = a + b x + c x2 es siempre combinaci on lineal de los polinomios dados. Es decir, debemos ver que sin importar los valores de a, b y c existen c1 , c2 , c3 y c4 tales que: p(x) = c1 p1 (x) + c2 p2 (x) + c3 p3 (x) + c4 p4 (x) Por las notas anteriores, esto se convierte 1 1 1 1 0 0 1 0 1 en la matriz aumentada que escalonada queda: 0 a 1 1 1 0 a 0 b 0 1 1 0 ba 1 c 0 0 1 1 c b

Puesto que los pivotes aparecen en la primera parte de la matriz aumentada, el sistema es consistente independientemente de los valores de a, b, y c. Por tanto, cualquier polinomio p(x) es combinaci on lineal de p1 , p2 , p3 y p4 . Por consiguiente, tal conjunto de vectores s genera P2 Observaci on Es importante observar que la inclusi on del polinomio cualquiera p(x) = a + b x + c x2 no tiene un uso real cuando se pregunta si se genera todo el espacio. Tambi en es de observar que este tipo de preguntas se responden de igual manera que en el caso de vectores de Rn : se forma una matriz con los vectores, y se aplica gauss-jordan. Si cada rengl on tiene un pivote, el conjunto s genera al espacio vectorial completo. Si existe un rengl on sin pivote, el conjunto de vectores no genera al espacio vectorial completo. Pero los vectores, ya sean polinomios o matrices, deben vectorizarse.

14.3.

Generadores Conocidos de los Espacios Vectoriales

Es importante tener en mente los generadores usuales de los espacios vectoriales que trabajaremos. Ejemplos Es cierto que: 1. {e1 , e2 , . . . , en } genera a Rn . 2. 3. 1, x, x2 , . . . , xn genera a Pn . 1, x, x2 , . . . genera a P .

4. {E11 , E12 , E13 , . . . , Emn , } genera a Mmn . 4

14.4.

Reducci on del conjunto generador

En ciertas situaciones es importante determinar un conjunto de generadores reducido. Para ello, deberemos ser capaces de eliminar de un conjunto generador ciertos vectores que no aportan informaci on al espacio generado. El siguiente resultado indica cu ales vectores se pueden eliminar de un conjunto generador. Teorema Si uno de los vectores v1 , v2 , . . . ,vk del espacio vectorial V es combinaci on lineal de los restantes, el generado permanece igual si se elimina dicho vector. Ejemplo 14.4 Considere los vectores: v1 v2 v3 v4 v5 y suponga que W = Gen {v1 , v2 , v3 , v4 , v5 } Indique qu e opciones contienen vectores que se pueden remover del generador y que el conjunto restante puede seguir generando W 1. v3 , v4 2. v3 , v5 3. v1 , v5 4. v2 Soluci on Formamos [v1 v2 v5 |v3 v4 ] y reducimos: 5 5 9 2 6 1 0 4 2 4 1 2 0 1 0 1 0 0 3 2 6 3 6 6 6 6 0 0 = = = = =

5 + 4 x + x3 5 2 x x2 6 x3 2 x + 2 x2 + 6 x3 6 2 x 6 x2 + 6 x3 9 4 x + 3 x2 + 6 x3

0 0 0 1/2 1 1/2 0 0

0 0 0 1

Concluimos que como queda un pivote en la parte derecha v3 y v4 no pueden ser removidos simult aneamente y seguir generando el mismo espacio. Formamos [v1 v2 v4 |v3 v5 ] y reducimos: 1 0 0 0 0 2 9 5 5 6 4 2 2 1 4 0 1 0 0 1 0 0 1 0 0 0 1 6 2 3 3 6 6 6 6 0 0 0 1 2 Concluimos que como queda un pivote en la parte derecha v3 y v5 no pueden ser removidos simult aneamente y seguir generando el mismo espacio. Formamos [v2 v3 v4 |v1 v5 ] y reducimos: 5 2 6 5 9 1 0 0 0 1 2 1 2 4 4 0 1 0 0 2 1 0 0 1 0 0 2 6 0 3 6 6 6 3 6 0 0 0 1 0 5

Concluimos que como queda un pivote en la parte derecha v1 y v5 no pueden ser removidos simult aneamente y seguir generando el mismo espacio. Formamos [v1 v3 v4 v5 |v2 ] y reducimos: 5 2 6 9 1 0 0 0 5 0 4 1 2 4 2 0 1 0 0 2 0 2 6 3 1 0 0 1 0 0 3 6 6 6 6 0 0 0 1 1 Concluimos que no como queda un pivote en la parte derecha v2 s puede ser removido y seguir generando el mismo espacio

14.5.

Dependencia Lineal

Despu es de espacios generados, el siguiente concepto en importancia en espacios vectoriales es el concepto de dependencia o independencia lineal. Este concepto es el mismo que en Rn . Este concepto en Rn involucraba combinaciones lineales y el vector cero. Estos est an presentes en cualquier espacio vectorial. Denici on 14.2 Se dice que un conjunto de vectores v1 , v2 , . . . ,vk es linealmente dependiente si hay escalares c1 , c2 , . . . , ck no todos ceros tales que c1 v1 + c2 v2 + + ck vk = 0 Se dice linealmente independiente si no es linealmente dependiente; esto es, que la u nica combinaci on lineal que da el vector cero es la que tiene todos sus coecientes cero. Se dice que un conjunto de vectores innito es linealmente dependiente si posee un conjunto de vectores nito que es linealmente dependiente. Ejemplo 14.5 Indique si el conjunto formado por las siguientes matrices es linealmente dependiente o independiente. A1 = 2 2 1 1 , A2 = 2 2 2 0 , A3 = 1 2 0 2 , A4 = 8 1 5 5

Soluci on Lo que debemos determinar es c omo deben ser las constantes c1 , c2 , c3 y c4 para que se cumpla: c1 A1 + c2 A2 + c3 A3 + c4 A4 = 0 Siguiendo las observaciones hechas con anterioridad, esto en: 2 2 1 8 0 2 2 2 1 0 1 2 0 5 0 1 0 2 5 0 se convierte en la matriz aumentada que se reduce 1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 1 0

Puesto que el sistema tiene soluci on u nica, los u nicos valores que cumplen la anterior igualdad son: c1 = 0, c2 = 0, c3 = 0, c4 = 0. Por lo tanto, el conjunto formado con esas matrices es linealmente independiente Si el sistema hubiera tenido una columna sin pivote en la parte de la matriz de coecientes, el sistema hubiera tenido una variable libre, y por tanto el sistema hubiera tenido innitas soluciones, y por tanto, el conjunto 6

en ese caso hubiera sido linealmente dependiente. Observaci on Es importante observar que incluir la matriz de ceros no tiene un uso real cuando se pregunta si un conjunto es dependiente o independiente. Tambi en es de observar que este tipo de preguntas se responden de igual manera que en el caso de vectores de Rn : se forma una matriz con los vectores, y se aplica gauss-jordan. Si cada columna tiene un pivote, el conjunto s es linealmente independiente. Si existe una columna sin pivote, el conjunto de vectores es lineamente dependiente. Pero los vectores, ya sean polinomios o matrices, deben vectorizarse.

14.6.

Pruebas de dependencia lineal

Como se ha visto, para determinar si un conjunto es linealmente dependiente o independiente ha de aplicarse el proceso de Gauss-Jordan. Sin embargo, a veces se pueden revisar a simple vista ciertas pruebas y concluir sin necesidad de Gauss-Jordan. Las pruebas pueden sumarizarse en el siguiente resultado. Teorema Sea S un conjunto de vectores del espacio vectorial V , S es linealmente dependiente si teniendo un solo vector el vector es el vector cero, o tiene al vector cero como elemento, o teniendo dos vectores uno es un m ultiplo escalar del otro, o contiene un subconjunto de vectores que es linealmente dependiente, o hay un vector de S que es combinaci on de los vectores restantes en S .

14.7.

Unicidad de la combinaci on lineal

Teorema Sea S = {v1 , v2 , . . . , vk } un conjunto de vectores del espacio vectorial V que es linealmente independiente. Entonces 1. Si v es un vector que pertenece al generado por S , entonces v se escribe de forma u nica como combinaci on lineal de S . Esto es, si v = a1 v1 + a2 v2 + ak vk = b1 v1 + b2 v2 + bk vk entonces a1 = b1 , a2 = b2 ,. . . , ak = bk . 2. Si v es un vector que no pertenece al generado por S , entonces {v1 , v2 , . . . , vk , v} es linealmente independiente.

14.8.

Base

El concepto de base es uno de las m as importantes en los espacios vectoriales. Este concepto tiene que ver con conjuntos de generadores minimales. Es decir, con conjuntos generadores donde cada vector aporta informaci on que los vectores restantes en el conjunto no poseen. Denici on 14.3 Sea B un conjunto no vac o de vectores del espacio vectorial V distinto de cero, B es una base para V si:

1. B es linealmente independiente, y 2. B genera a V . Ejemplo 14.6 Indique en cu ales opciones el conjunto dado es base para M22 : 1. B 1 = 1 5 0 5 , 5 6 1 2 , , 3 3 4 5 , 6 2 5 6 6 6 2 1 , 1 1 4 1 , , 4 4 6 6 , 5 4 1 3 0 2 5 0 2 2 33 18 , 0 0 2 4

2. B 2 =

4 2 5 1 4 6 5 6 0 0 5 4 ,

3 5 2 2 0 2 1 1 4 4 1 16 ,

3. B 3 =

4. B 4 =

Soluci on Veamos si B1 es base: Formemos la matriz cuyas columnas son los elementos de B1 vectorizados y reduzcamos: 1 5 3 4 1 0 0 0 5 6 3 4 0 1 0 0 0 1 4 6 0 0 1 0 5 2 5 6 0 0 0 1 Como en cada rengl on hay pivote, B1 genera a M22 . Como en cada columna hay pivote, B1 es linealmente independiente. Como B1 genera a M22 y es linealmente independiente, B1 es base para M22 . Veamos si B2 es base: Formemos la matriz cuyas columnas son los elementos de B2 vectorizados y reduzcamos: 1 0 0 0 392/1893 4 3 6 5 0 0 1 0 0 2 364/1893 5 2 4 0 5 2 5 1 2 0 0 1 0 794/1893 0 0 0 1 1048/1893 1 2 6 3 4 Como en cada rengl on hay pivote, B2 genera a M22 . Como hay una columna sin pivote, B2 es linealmente dependiente. Como B2 es linealmente dependiente, B2 no es base para M22 . Veamos si B4 es base: Formemos la matriz cuyas columnas son los elementos de B4 vectorizados y reduzcamos: 0 4 1 2 1 0 3/4 13/2 0 4 1 2 0 1 1/4 1/2 5 1 4 33 0 0 0 0 4 16 1 18 0 0 0 0 Como hay al menos un rengl on sin pivote, B4 no genera a M22 . Con eso basta para decir que B4 no es base para M22 . Como hay una columna sin pivote, B4 es linealmente dependiente. Con eso tambi en bastaba para armar que B4 no es base para M22

14.9.

Todo espacio tiene base

Una de las necesidades m as grandes en espacios vectoriales es la de determinar una base para un espacio vectorial. El siguiente resultado es de tipo te orico y da la garant a de bases siempre existen. 8

Teorema Cualquier espacio vectorial tiene una base.

14.10.

Unicidad de la representaci on

El siguiente resultado ayudar a a denir el concepto vector de coordenadas de un vector respecto a una base dada. Desde un punto de vista te orico, caracteriza en forma precisa lo que es una base. Teorema Un subconjunto B = {v1 , v2 , . . . , vk } de un espacio vectorial V es una base para V si y s olo si para cada vector v en V existen escalares c1 , c2 ,. . . ,ck u nicos tales que v = c1 v1 + c2 v2 + + ck vk Demostraci on Sea v un elemento cualquiera de V . Como B genera a V entonces existen c1 , c2 ,. . . ,ck escalares tales que v = c1 v1 + + ck vk Esto prueba la existencia de los coecientes ci . Veamos ahora que los coecientes son u nicos. Supongamos que existan a1 , a2 ,. . . ,ak escalares tales que v = a1 v1 + + ak vk si restamos las anteriores igualdades se tiene: 0 = (c1 a1 ) v1 + + (ck ak )vk como el conjunto B es linealmente independiente, entonces los coecientes de la anterior combinaci on lineal deben todos ser cero: ci ai = 0, i = 1, . . . , k es decir, ci = ai , i = 1, . . . , k . Esto prueba que los coecientes de la combinaci on lineal son u nicos

Teor a de la Dimensi on en Espacios Vectoriales


Departamento de Matem aticas, CCIR/ITESM 14 de enero de 2011

Indice
15.1. Introducci on . . . . . . . . . . . . . . . 15.2. Resultados matem aticos necesarios . . 15.3. Teorema del intercambio . . . . . . . . 15.4. Teorema fundamental de la dimensi on 15.5. Denici on de la dimensi on . . . . . . . 15.6. Numerolog a en Espacios Vectoriales . 15.7. Procesos de C alculo . . . . . . . . . . 15.8. Ejemplos sobre teor a . . . . . . . . . 15.9. Ejemplos de c alculo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 4 5 5 5 7 7 8

15.1.

Introducci on

Nuestra meta consiste en decir con precisi on que cosas deben permanecer jas en un espacio generado en un espacio vectorial. El concepto te orico importante es el de dimensi on de un espacio vectorial. El resultado t ecnico m as importante es el teorema del intercambio: A partir de el, se deduce que cualquier dos bases a un mismo espacio vectorial deben tener el mismo n umero de elementos. Esto permitir a denir la dimensi on de un espacio vectorial. Esta sesi on termina con una serie de resultados relativos al n umero de elementos de un conjunto generador y de un conjunto linealmente independiente en su relaci on con la dimensi on del espacio vectorial.

15.2.

Resultados matem aticos necesarios

El resultado matem atico importante es el teorema del intercambio, pero para su demostraci on se requerien ciertos resultados matem aticos. En lo siguiente V es un espacio vectorial. El primer resultado dice que si un vector es combinaci on lineal de otros entonces el espacio generado con el y esos otros es igual al que generan esos otros vectores. Este resultado tiene varias interpretaciones. En la primera indica que si un vector es combinaci on lineal de los otros y se a nade al conjunto generador, entonces no se genera m as de lo que ya se generaba. En otra interpretaci on dice que si tal vector se omite del conjunto generador, entonces no se genera menos lo que que ya se generaba: Lema 1 Si y Gen{x1 , . . . , xn }, entonces Gen{x1 , . . . , xn , y} = Gen{x1 , . . . , xn } Demostraci on

Claramente Gen{x1 , . . . , xn } Gen{x1 , . . . , xn , y}. Entonces, s olo deberemos probar la otra contenci on. Como y Gen{x1 , . . . , xn }, entonces existen escalares c1 , c2 ,. . . ,cn tales que
n

y=
i=1

ci xi

Sea ahora v un elemento cualquiera de Gen{x1 , . . . , xn , y}. Por tanto, deber an existir constantes a1 ,a2 ,. . . ,an ,an+1 tal que: v = a1 x1 + a2 x2 + + an xn + an+1 y As v = a1 x1 + a2 x2 + + an xn + an+1
i=1 n

ci xi

Si desarrollamos y reagrupamos lo anterior obtenemos: v = (a1 + an+1 c1 ) x1 + (a2 + an+1 c2 ) x2 + + (an + an+1 cn ) xn lo anterior dice que v es una combinaci on lineal de x1 , x2 ,. . . , xn . Por tanto v Gen(x1 , . . . , xn ). Siendo v cualquier elemento de Gen(x1 , . . . , xn , y) esto prueba que Gen{x1 , . . . , xn , y} Gen{x1 , . . . , xn } La validez de estas dos contenciones prueba que los conjuntos son iguales El siguiente resultado requerido dice que si un vector del generado se a nade al conjunto generador, el nuevo generador ser a linealmente dependiente: Lema 2 Si y Gen{x1 , . . . , xn }, entonces {x1 , . . . , xn , y} es linealmente dependiente. Demostraci on Efectivamente, si y Gen{x1 , . . . , xn }, entonces existen escalares c1 ,c2 ,. . . ,cn tales que y = c1 x1 + + cn xn por consiguiente: c1 x1 + + cn xn 1 y = 0 La anterior es una combinaci on lineal de x1 , . . . ,xn ,y que da el vector 0 donde el coeciente de y no es cero. Por tanto, el conjunto {x1 , . . . , xn , y} es linealmente dependiente Existen otros resultados b asicos que se requieren y que son f aciles de deducir: Lema 3 Si el conjunto {v1 , . . . , vn } es linealmente independiente, entonces: ninguno de los vectores vi es el vector cero. cualquier subconjunto de el es tambi en linealmente independiente. Demostraci on 2

Razonemos por contradicci on: si un vector fuera cero, digamos v1 = 0. Entonces 1 v1 + 0 v2 + + 0 vn = 0 y por tanto el conjunto ser a linealmente dependiente. Lo cual contradice el supuesto. Razonemos tambi en por contradicci on: si un subconjunto de vi fuese linealmente dependiente, tal combinaci on lineal se podr a completar con coecientes ceros a una combinaci on lineal con todos los vi y por tanto el conjunto con todos los vi ser a linealmente dependiente. Lo cual contradice el supuesto El siguiente resultado da operatividad a la demostraci on del teorema del intercambio: Lema 4 Suponga que u1 = 0. Si el conjunto {u1 , u2 , . . . , un } es linealmente dependiente, entonces existe un vector ui que es combinaci on lineal de los vectores anteriores u1 , . . . , ui1 . (As i > 1) Demostraci on Si el conjunto es linealmente dependiente, existen constantes c1 ,c2 ,. . . ,cn no todos cero tal que: c1 u1 + c2 u2 + + cn un = 0. Denimos i el ndice mayor (entre 1 y n) tal que ci = 0. Note que tal entero existe pues hay al menos un cj diferente de cero. Por consiguiente, los cj posteriores a ci son cero, y as la f ormula previa queda: c1 u1 + c2 u2 + + ci ui = 0 con ci = 0 Observe que i > 1, pues en caso contrario lo anterior quedar a c1 v1 = 0. Como c1 = 0 se tendr a u1 = 0 lo cual es contrario a la hip otesis. De donde obtenemos: ui = c1 c2 ci1 u1 u2 ui1 ci ci ci

Lo anterior nos dice que ui es combinaci on lineal de los vectores previos en la lista Un resultado te orico tambi en u til es el siguiente: Lema 5 Suponga que y / Gen(x1 , . . . , xn ) y que el conjunto {x1 , . . . , xn } es linealmente independiente. Entonces {x1 , . . . , xn , y} tambi en ser a linealmente independiente. Demostraci on Razonemos por contradicci on. Supongamos que el conjunto {x1 , . . . , xn , y} es linealmente dependiente. Aplicando el lema 3 se tiene que x1 = 0, entonces por el lema 4 existe un vector que es combinaci on lineal de los anteriores: tenemos s olo dos alternativas. Que sea un xi o que sea y. Si fuera un xi deber a ser combinaci on de los elementos anteriores, o sea de los mismos xj . Por tanto, el conjunto de los xj deber a ser linealmente dependiente. Esto contradice el supuesto. Si el vector que es combinaci on lineal de los anteriores fuera y esto dir a que y Gen(x1 , . . . , xn ). Esto tambi en contradice el supuesto. Esta contradicci on en todas las alternativas indica que {x1 , . . . , xn , y} no puede ser linealmente dependiente. As , debe ser linealmente independiente

15.3.

Teorema del intercambio

El siguiente teorema se conoce como el teorema del intercambio y recibe su nombre por la forma como es demostrado. La demostraci on se centra en la segunda armaci on: Se prueba que todo conjunto linealmente independiente tiene a lo m as m elementos, siendo m el n umero de elementos de un conjunto generador del espacio. En la demostraci on, se toma un vector del conjunto linealmente independiente y se introduce vector a vector en un conjunto que genera. Como el conjunto sigue generando y es dependiente, es posible sacar un elemento del conjunto inicial que genera: Es decir, se intercambia un elemento que genera por uno del conjunto linealmente independiente. Teorema Si un espacio vectorial V es generado por m vectores. Entonces cualquier subconjunto que contenga m as de m vectores es linealmente dependiente. En otras palabras, todo subconjunto linealmente independiente de V tiene cuando mucho m vectores. En otras palabras, si B1 es un conjunto de vectores de V linealmente independiente y B2 es un conjunto de vectores que genera a V entonces #(B1 ) #(B2 ) Demostraci on Suponga que B1 = {x1 , x2 , . . . , xn } es un conjunto linealmente independiente de V y que B2 = {y1 , y2 , . . . , ym } genera a V . Dena C0 = B2 . A partir de C0 demos el conjunto A 1 = { x1 , y 1 , y 2 , . . . , ym } (A1 es C0 donde de ha a nadido x1 al frente del conjunto) Por el lema 1, V = Gen(A1 ). Por el lema 2, A1 es linealmente dependiente. Por el lema 3, al ser B1 linealmente independiente, ninguno de los vectores xi es igual al vector cero. Por el lema 4, existe un elemento de A1 que es combinaci on lineal de los anteriores, por tanto debe ser un yi1 el que es combinaci on lineal de los anteriores. Por el lema 1, este vector yi1 puede ser removido de A1 y el conjunto resultante sigue generando V . Denamos C1 = {x1 , y1 , y2 , . . . , yi1 1 , yi1 +1 . . . , ym } Note que en C1 , es C0 pero se ha a nadido x1 y se ha eliminado un vector yi1 y se cumple V = Gen(C1 ). A partir de C1 denimos el conjunto: A2 = {x2 , x1 , y1 , y2 , . . . , yi1 1 , yi1 +1 . . . , ym } Nuevamente: Por el lema 1, V = Gen(A2 ). Por el lema 2, A2 es linealmente dependiente. Se tiene tambi en que x2 = 0, y as por el lema 4, existe un elemento de A2 que es combinaci on lineal de los anteriores, por tanto debe ser un yi2 el que es combinaci on lineal de los anteriores. Si fuera un vector xj combinaci on de los anteriores se contradice el hecho que los vectores xs forman un conjunto linealmente independiente. Por el lema 1, este vector yi2 puede ser removido de A2 y el conjunto resultante sigue generando V . Denamos C2 = {x2 , x1 , y1 , y2 , . . . , yi1 1 , yi1 +1 . . . , yi2 1 , yi2 +1 . . . , ym } Note que en C2 , es C1 pero se ha a nadido x2 y se ha eliminado un vector yi2 y se cumple V = Gen(C2 ). Continuamos de esta manera a nadiendo uno a uno vectores xs y sacando un vector y. La situaci on continuar a hasta 4 (1)

que uno de los conjuntos B1 o B2 se haya agotado. Si se agot o B1 , eso signica que #(B1 ) #(B2 ) que es lo que se desea probar. Si se agot o B2 antes que B1 , eso signicar a que todos los vectores ys salieron y qued o un vector xj sin entrar. Pero tal situaci on es imposible pues en el correspondiente Cj 1 = {xj 1 , . . . , x1 } genera a todo V y xj V y por tanto {xj , xj 1 , . . . , x1 } ser a linealmente dependiente contradiciendo que B1 es linealmente independiente (Lema 5). Por consiguiente la u nica posibilidad que se puede tener es que B1 se agot o probando que #(B1 ) #(B2 )

15.4.

Teorema fundamental de la dimensi on

Habiendo probado el teorema del intercambio, probar que dos bases cualquiera tienen el mismo n umero de elementos es f acil: Teorema Si un espacio vectorial V tiene una base con n elementos, entonces cualquier otra base de V tambi en tiene n elementos. Demostraci on Sean dos bases para V : B1 y B2 una con n elementos y otra con m elementos, respectivamente. Entoces utilizando primeramente que B1 (al ser base) genera a V y que B2 (al ser base) es linealmente independiente en V se deduce por el teorema del intercambio que m n. Por otro lado, si ahora se usa que B2 genera a V y que B1 es linealmente independiente en V se deduce por el teorema del intercambio que n m. Por tanto, m = n

15.5.

Denici on de la dimensi on

El anterior resultado arma que cualquiera dos bases para un mismo espacio vectorial tienen el mismo n umero de elementos. Por consiguiente, la siguiente denici on es v alida: Denici on Si un espacio vectorial V tiene una base con n elementos, se dice que V es dimensional nito, y que n es la dimensi on de V . Se expresa: dim(V ) = n

15.6.

Numerolog a en Espacios Vectoriales

En un espacio vectorial y relativos a su dimensi on existen cierto resultados sobre las cantidades de elementos de conjuntos generadores o conjuntos linealmente dependientes o independientes. El siguiente resultado dene l mites m aximos y m nimos para el n umero de elementos de conjuntos que son linealmente independientes o que generan a un espacio. Teorema Sea V un espacio vectorial de dimensi on n, y S un subconjunto con m elementos. 1. Si S es linealmente independiente, entonces m n. Equivalentemente: si n < m, S es linealmente dependiente. Un conjunto con m as elementos que la dimensi on del espacio que los contiene es linealmente dependiente. Pero tener menos que n no es garant a de que sea l.i. 2. Si S genera a V , entonces m n. Equivalentemente: si m < n, S no puede generar a V . 5

Un conjunto con menos elementos que la dimensi on no puede generar el espacio que lo contiene. Pero tener m as que n no es garant a para generar. Demostraci on Sea B una base para V , as #(B ) = n. 1. Como B es base, B genera a V . Si S es linealmente independiente el teorema del intercambio armar a: m = #(S ) #(B ) = n 2. Como B es base, B es linealmente independiente. Si S genera a V el teorema del intercambio armar a: n = #(B ) #(V ) = m El siguiente resultado indica que si se ha alcanzado un cierto n umero de elementos y respecto al n umero de elementos de la base, entonces se tienen otras propiedades. Teorema Sea V un espacio vectorial n dimensional, y sea S un conjunto con n elementos. 1. Si S es linealmente independiente, entonces S genera a V . Es decir, S es base. 2. Si S genera a V , entonces S es linealmente independiente. Es decir, S es base. Demostraci on Sea B una base de V con n elementos. 1. Si S no generara a V entonces existir a y V Gen(S ). Por el lema 5, S = S {y}, deber a ser linealmente independiente. Pero esto es imposible pues S tiene n + 1 elementos. 2. Si S no fuera linealmente independiente, entonces ser a linealmente dependiente. Y por tanto existir a un elemento de S que es combinaci on lineal de los restantes. Los resultados que hemos desarrollado indican que si tomamos como S el conjunto que queda de S despu es de eliminar el elemento que es combinaci on lineal de los otros se tiene Gen(S ) = Gen(S ). Pero esta generaci on es imposible pues S tiene n 1 elementos. El siguiente resultado indica cuando se pueden extender conjuntos linealmente independientes o reducir conjuntos generadores para tener una base de un espacio vectorial. Teorema Sea V un espacio vectorial n dimensional, y S un conjunto con m elementos. Si S es linealmente independiente y m < n, entonces S se puede ampliar a una base. Si S genera a V , entonces S contiene una base. La aplicaci on referida en el primer inciso se obtiene primeramente eligiendo una base y despu es simulando el proceso del intercambio de un elemento de la base por uno del conjunto linealmente independiente. Una base puede ser obtenida de un conjunto generador primero identicando aquellos vectores que sean combinaci on lineal de los restantes y posterioremente elimin andolos. El siguiente resultado indica c omo deben ser las dimensiones de los subespacios respecto a la dimensi on del espacio que los contiene. Teorema 6

Sea W un subespacio de un espacio vectorial V de dimensi on n. Entonces dim(W ) n. Es decir, la dimensi on de un subespacio no puede exceder la dimensi on del espacio que lo contiene. dim(W ) = n si y s olo si W = V Es decir, el subespacio es el total del espacio cuando su dimensi on alcanza la dimensi on del espacio que lo contiene.

15.7.
tes:

Procesos de C alculo

Nuestros principales procesos referentes a la dimensi on de un espacio o subespacio vectorial son los sigueinEn el caso de espacios generados: El n umero de pivotes en la matriz reducida es la dimensi on del espacio generado. En el caso de sistemas de ecuaciones lineales homog eneos: El n umero de variables libres es la dimensi on del espacio lineal. Note que en sistemas no homog eneos el concepto de dimensi on no aplica pues el conjunto de soluciones no es un espacio vectorial.

15.8.

Ejemplos sobre teor a

Veamos algunos ejemplos donde participa directamente la teor a: Ejemplo 15.1 Suponga que en un espacio vectorial V existe un conjunto linealmente independiente B1 con 4 elementos, entonces la dimensi on del espacio ser a ... A B C D E mayor o igual que 4 menor o igual que 4 igual a 4 menor que 4 mayor que 4

Soluci on La respuesta correcta es A : Sea B2 una base para V , as dim(V ) = #(B2 ). Como B2 una base para V , B2 genera a V . Siendo B1 linealmente independiente el teorema del intercambio arma que 4 = #(B1 ) #(B2 ) = dim(V ). Por tanto, la dimensi on de V es mayor o igual que 4 Ejemplo 15.2 Suponga que en un espacio vectorial V con dimensi on 7 el subconjunto B tiene 7 elementos diferentes, se puede decir que B es base? A B Falso Cierto 7

Soluci on La respuesta correcta es A : hay mucha distancia entre un conjunto con vectores diferentes entre si y un conjunto que es base. Por ejemplo, si v = 0, entonces son diferentes todos los vectores del conjunto {v, 2 v, 3 v, 4 v, . . .} y este es linealmente dependiente. Ejemplo 15.3 Suponga que en un espacio vectorial V existe un conjunto generador B1 con 8 elementos, entonces la dimensi on del espacio ser a ... A B C D E igual a 8 mayor que 8 menor o igual que 8 mayor o igual que 8 menor que 8

Soluci on La respuesta correcta es C : Sea B2 una base para V , as dim(V ) = #(B2 ). Como B2 una base para V , B2 es linealmente independiente. Siendo B1 un conjunto generador para V , el teorema del intercambio arma que dim(V ) = #(B2 ) #(B1 ) = 8. Por tanto, la dimensi on de V es menor o igual que 8 Ejemplo 15.4 Suponga que en un espacio vectorial V con dimensi on 8, un subespacio W tiene un conjunto linealmente independiente con 8 elementos, entonces A B C W V (Contenido con la posibilidad de la igualdad) W =V W V (Contenido pero sin la posibilidad de la igualdad)

Soluci on Se deduce que 8 dim(W ) dim(V ) = 8. Por tanto, dim(W ) = dim(V ) y as W =V

15.9.

Ejemplos de c alculo

Veamos algunos ejemplos donde participa directamente la teor a: Ejemplo 15.5 Determine la dimensi on del subespacio: 6 4 42 16 5 40 10 5 Gen 1 , 2 , 1 , 8 2 11 0 1 Soluci on Formando la matriz aumentada y aplicando Gauss-Jordan tenemos: 6 4 42 16 1 0 5 0 1 5 40 10 1 2 1 8 0 0 1 2 11 0 0 0 8

5 4 3 2 0 0 0 0

Qu e signica el c alculo anterior? Si hubieramos puesto armado la cientes hasta el segundo vector quedar a: 6 4 42 16 1 0 5 0 1 5 40 10 1 2 1 8 0 0 1 2 11 0 0 0

matriz aumentada con la parte de coee 5 4 3 2 0 0 0 0

Lo cual dir a que los vectores 3 y 4 son combinaci on lineal de los vectores 1 y 2. Por tanto, Gen {v1 , v2 , v3 , v4 } = Gen {v1 , v2 } El mismo c alculo indica que el conjunto formado por los vectores 1 y 2 son linealmente independientes. Por lo tanto, los vectores 1 y 2 son una base para el espacio. Por tanto, la dimensi on es 2 Ejemplo 15.6 Determine la dimensi on del subespacio que generan las polinomios: {2 x 2 x2 , 1 + 5 x + x2 2 x3 , 2 + x x3 , 3 3 x 3 x2 x3 } Soluci on Formando la matriz aumentada de los polinomios vectorizados y aplicando Gauss-Jordan tenemos: 2 1 2 3 1 0 0 1 1 5 1 3 0 1 0 1 2 0 0 1 3 1 0 3 0 0 0 0 0 2 1 1 Por la nota anterior, la dimensi on es el n umero de pivotes de la matriz reducida. Por tanto, la dimensi on es 3 Ejemplo 15.7 Determine la dimensi on del subespacio que generan las matrices: 2 2 2 1 , 1 1 0 1 , 1 2 2 1 , 2 1 1 1

Soluci on Formando la matriz aumentada de las matrices vectorizadas y aplicando Gauss-Jordan tenemos: 2 1 1 2 1 0 0 0 2 1 2 1 0 1 0 0 2 0 0 1 0 0 2 1 0 0 0 1 1 1 1 1 Por la nota anterior, la dimensi on es el n umero de pivotes de la matriz reducida. Por tanto, la dimensi on es 4 Ejemplo 15.8 Determine la dimensi on para el subespacio de R3 formado por las soluciones al sistema: 6x 5y 3z = 0 12 x + 10 y + 6 z = 0 36 x 30 y 18 z = 0 9

Soluci on Al formar la aumentada y al aplicar Gauss-Jordan: 6 5 3 0 1 5/2 1/2 0 12 10 6 0 0 0 0 0 36 30 18 0 0 0 0 0 Por tanto, x 5/2 1/2 y =y 1 +z 0 z 0 1 Por tanto, la dimensi on del espacio lineal es 2 Ejemplo 15.9 Extienda el siguiente conjunto de vectores a una base para R3 : 1 1 B = v1 = 1 , v2 = 1 1 1 Soluci on En este caso tenemos la libertad de escoger una base de donde tomar vectores para completar la base. Elijamos entonces la base can onica: 1 0 0 e1 = 0 , e2 = 1 , e3 = 0 0 0 1 Para determinar adecuadamente la selecci on de vectores formamos y reducimos la matriz: 1 [v1 v2 |e1 e2 e3 ] 0 0 0 1/2 1 1/2 0 0 0 1/2 0 1 /2 1 1

Por consiguiente una base que extiende a B es B {e2 }.

10

Transformaciones Lineales
Departamento de Matem aticas, CCIR/ITESM 14 de enero de 2011

Indice
16.1. Introducci on . . . . . . . . . . . . . . . . . . . 16.2. Idea . . . . . . . . . . . . . . . . . . . . . . . 16.3. Transformaci on Lineal . . . . . . . . . . . . . 16.4. Geometr a de las transformaciones lineales . . 16.5. Linealidad en una condici on . . . . . . . . . . 16.6. Hechos que cumple una transormaci on lineal 16.7. Conceptos relativos a funciones . . . . . . . . 16.8. Im agenes de espacios generados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 7 7 8 9 10

16.1.

Introducci on

En esta lectura se presentan las funciones entre espacios vectoriales que preservan las cualidades de los espacios vectoriales. Es decir, de funciones que preservan la suma y la multiplicaci on por escalares.

16.2.

Idea

En los cursos b asicos relativos a ecuaciones vimos que la soluci on a la ecuaci on f (x) = 0 podr a entenderse como los puntos donde la gr aca de la funci on f (x) corta el eje de las xs:

1 1 2

esta forma de ver a una ecuaci on permite entonces resolver ecuaciones de la forma: f (x) = a en este caso lo que se busca son los valores de x de aquellos puntos donde la gr aca de la funci on f (x) corta la l nea horizontal y = a:

1 1 2

Esta idea de corte de la gr aca de f (x) con la recta y = a da pie a m etodos gr acos de soluci on de ecuaciones y tambi en permite obtener conclusiones cualitativas a ciertas ecuaciones. Por ejemplo, se deduce f acilmente on: que 3 sen(20 x) cos(x) = 1 tiene innitas soluciones, mientras que 3 sen(20 x) cos(x) = 3.5 no tiene soluci 3 2 1 1 1 2 3 1 2

En el caso anterior, 3 sen(20 x) cos(x) = 1 tiene soluci on debido a que 1 est a en el rango de la funci on; mientras que 3 sen(20 x) cos(x) = 3.5 no tiene soluci on porque 3.5 no lo est a. El rango de la funci on est a marcado en el nea magenta. En general, el siguiente resultado se tiene: eje y como un segmento de l Teorema La ecuaci on f (x) = a tiene soluci on si y s olo si a est a en el rango de f (x). Nosotros usaremos el concepto de la funci on para darle un tratamiento a los sistemas de ecuaciones lineales. La restricci on que haremos ser a sobre el tipo de funciones: s olo estaremos interesados en funciones que preserven las operaciones en el espacio vectorial. Este tipo de funciones ser an llamadas funciones lineales. Primeramente las deniremos, veremos algunas propiedades generales y despu es veremos c omo se aplican estos resultados a sistemas de ecuaciones.

16.3.

Transformaci on Lineal

Denici on 16.1 Sean V y W dos espacios vectoriales posiblemente iguales. Una transformaci on lineal o mapeo lineal de V a W es una funci on T : V W tal que para todos los vectores u y v de V y cualquier escalar c: T (u + v ) = T (u) + T (v ) T (c u) = c T (u)

Ejemplo 16.1 Demuestre que la tranformaci on T : R2 R2 denida por T es lineal. Soluci on Sean u = Entonces T (u + v ) = T x1 y1 yv= x2 y2 . x1 y1 + x2 y2 =T x1 + x2 y1 + y2 x y = x + 3y x + 2y

( x 1 + x 2 ) + 3 ( y1 + y2 ) ( x 1 + x 2 ) + 2 ( y1 + y2 ) x 1 + 3 y1 x 1 + 2 y1 x1 y1 +T + x2 y2 c x1 c y1 c x 1 + 3 c y1 c x 1 + 2 c y1 x 1 + 3 y1 x1 + 2y1 x1 y1 x 2 + 3 y2 x 2 + 2 y2 = T (u) + T (v )

= T Por otro lado, para todo escalar c,

T (c u) = T = = c = cT

= c T (u) Como se cumplen las dos condiciones: T (u + v ) = T (u) + T (v ) T (c u) = c T (u) T es lineal Ejemplo 16.2 Demuestre que la transformaci on T : R3 R2 es lineal: T ((x, y, z ) ) = (x + z, y z )

Soluci on Sean u = (x1 , y1 , z1 ) y v = (x2 , y2 , z2 ) . Entonces T (u + v) = T ((x1 + x2 , y1 + y2 , z1 + z2 ) ) = ((x1 + x2 ) + (z1 + z2 ), (y1 + y2 ) (z1 + z2 )) = ( x 1 + z 1 , y1 z 1 ) + ( x 2 + z 2 , y 2 z 2 ) = T (u) + T (v ) Por otro lado, para todo escalar c, T (c u) = T ((c x1 , c y1 , c z1 ) ) = ( c x 1 + c z 1 , c y1 c z 1 ) = c ( x 1 + z 1 , y1 z 1 ) = c T ((x1 , y1 , z1 ) ) = c T (u) Como se cumplen las dos condiciones: T (u + v ) = T (u) + T (v ) T (c u) = c T (u) T es lineal Ejemplo 16.3 Sea A una matriz m n. Demuestre que la transformaci on T : Mnk Mmk denida como T ( B) = A B es lineal. Soluci on Sean B y C dos matrices n k cualquiera y c un escalar cualquiera: T ( B + C ) = A ( B + C ) = A B + A C = T( B ) + T( C ) T ( c B) = A ( c B) = c ( A B) = c T ( B) Como se cumplen las dos condiciones: T ( B + C ) = T ( B) + T ( C ) T ( c B) = c T ( B) T es lineal Ejemplo 16.4 Es lineal la transformaci on f : RR, denida por f (x) = x + 1 ?

Soluci on No, la parte 1 de la denici on no se cumple porque f (x + y ) = (x + y ) + 1 y f (x) + f (y ) = x + 1 + y + 1 = x + y + 2 no son iguales Ejemplo 16.5 Sea D : P P denida como D(p(x)) =

d (p(x)) dx

Entonces D es una transformaci on lineal. Soluci on Sean p(x) y q (x) dos polinomios en x cualquiera y c un escalar cualquiera: D(p(x) + q (x)) = D(c p(x)) =
d dx d dx

(p(x) + q (x)) = D(p(x)) + D(q (x)) (c p(x)) = c D(p(x))

Ejemplo 16.6 Indique la opci on que mejor describe la posible funci on lineal T que opera de acuerdo a la gura: T 6 6  @ T (b) b
a  T (a )  -

A B

La imagen no da informaci on suciente para determinar si existe o no T lineal que realice eso. No es posible que exista una funci on lineal as : la proporci on entre a y b y entre T (a) y T (b) debe ser la misma. S es posible que exista una funci on lineal as . No es posible que exista una funci on lineal as : T (a) y T (b) no deben ser colineales.

C D

Soluci on Del dominio (gura a la izquierda) se observa que b = 2a, sin embargo en la imagen (gura a la derecha) se observa que T (b) = 3 T (a). Si T fuera lineal de b = 2 a se obtendr a T (b) = T (2 a) = 2 T (a), lo cual no se cumple, por tanto la respuesta correcta es B Ejemplo 16.7 Indique la opci on que mejor describe la posible funci on lineal T que opera de acuerdo a la gura:  T (b) T 6 6 b @ T (a ) a * 
* -

A B C

No es posible que exista una funci on lineal as : T (a) y T (b) deben ser colineales. S es posible que exista una funci on lineal as : T (a) y T (b) pueden no ser colineales. La imagen no da informaci on suciente para determinar si existe o no T lineal que realice eso.

Soluci on Del dominio (gura a la izquierda) se observa que b = 2a. Si T fuera lineal de b = 2 a se obtendr a T (b) = T (2 a) = 2 T (a), es decir T (b) y T (a) deber an tener la misma direcci on. Es decir, T (b) y T (a) deber an ser colineales. Lo cual no se cumple en la imagen (gura derecha); por tanto, la respuesta correcta es A Ejemplo 16.8 Indique la opci on que mejor describe la posible funci on lineal T que opera de acuerdo a la gura: T T (c )
6 @ 6

T (b) 
T (a) *

b6
c

A B C

S es posible que exista una funci on lineal as . No es posible que exista una funci on lineal as . La imagen no da informaci on suciente para determinar si existe o no T lineal que realice eso.

Soluci on Del dominio (gura a la izquierda) se observa que c = a + b, sin embargo, en la imagen (gura a la derecha) se observa que T (c) = T (a) + T (b): Pues T (c) no corresponde a la diagonal del paralelogramo construido con lados en T (a) y T (b) Ejemplo 16.9 Indique la opci on que mejor describe la posible funci on lineal T que opera de acuerdo a la gura: T T (a )
6

b6
c

T (b) 
T (c) *

A B C

S es posible que exista una funci on lineal as . No es posible que exista una funci on lineal as . La imagen no da informaci on suciente para determinar si existe o no T lineal que realice eso.

Soluci on Del dominio (gura a la izquierda) se observa que c est a entre a y b. Sin embargo, en la imagen (gura a la derecha) se observa que T (c) no est a entre T (a) y T (b): T no puede ser lineal. (Recuerde que si c est a entre a y b, entoces los valores de d1 y de d2 para que c = d1 a + d2 b deben ser positivos) 6

16.4.

Geometr a de las transformaciones lineales

De los ejemplos anteriores podemos concluir que: Una transformaci on lineal preserva colinealidad: b = c a T ( b ) = c T ( a) proporcionalidad: b = c a T ( b ) = c T ( a) la relaci on entre: d = c 1 a + c 2 b T ( d ) = c 1 T ( a) + c 2 T ( b )

16.5.

Linealidad en una condici on

El siguiente resultado formula las dos condiciones para ser lineal en s olo una. Teorema T : V W es una transformaci on lineal si y s olo si para todos los vectores v1 y v2 V , y todos los escalares c1 y c2 , se cumple T (c 1 v 1 + c 2 v 2 ) = c 1 T (v 1 ) + c 2 T (v 2 ) Demostraci on Por la armaci on si y s olo si, se requiere demostrar las dos implicaciones: Suciencia (): Supongamos que T es lineal: Si v1 y v2 son dos elementos cualquiera de V y c1 u c2 son dos escalares cualquiera por la propiedad 1 de transformaci on lineal: T (c 1 v 1 + c 2 v 2 ) = T (c 1 v 1 ) + T (c 2 v 2 ) ahora por la propiedad 2 se cumple: T (c 1 v 1 ) + T (c 2 v 2 ) = c 1 T (v 1 ) + c 2 T (v 2 ) de estas dos igualdades se tiene: T (c 1 v 1 + c 2 v 2 ) = c 1 T (v 1 ) + c 2 T (v 2 ) que es la igualdad a demostrar. Necesidad (): Supongamos que la propiedad T (c 1 v 1 + c 2 v 2 ) = c 1 T (v 1 ) + c 2 T (v 2 ) se cumple para todos los vectores v1 y v2 V , y todos los escalares c1 y c2 . En particular se cumple para c1 = 1 y c2 = 1 lo cual queda: T (1 v1 + 1 v2 ) = 1 T (v1 ) + 1 T (v2 ) por el axioma M5 de espacios vectoriales aplicado a V y a W se tiene T (v 1 + v 2 ) = T (v 1 ) + T (v 2 )

lo caul es precisamente la condici on 1 para que T sea lineal. Por otro lado, si tomamos v1 = v, c1 = c y c2 = 0 entonces la propiedad establece T (c v + 0 v 2 ) = c T (v ) + 0 T (v 2 ) como para todo espacio vectorial 0 v = 0, lo anterior queda T (c v ) = c T (v ) lo cual es precisamente la condici on 2 para que T sea transformaci on lineal Ejemplo 16.10 Sean a y b n umeros tales que a < b, y sea I : P R denida como
b

I (p(x)) =
a

p(x) dx

Entonces I es una transformaci on lineal. Soluci on Sean p(x) y q (x) dos polinomios en x cualquiera y c1 y c2 escalares cualquiera: I (c1 p(x) + c2 q (x)) =
b a ( c 1 p( x )

+ c2 q (x)) dx + c2
b a q (x) dx

= c1

b a p(x) dx

= c1 I (p(x)) + c2 I (q (x))

16.6.

Hechos que cumple una transormaci on lineal

Una transformaci on lineal debe cumplir las siguiente condiciones: Teorema Sea T : V W una transformaci on lineal. Entonces a) T (0V ) = 0W . Es decir, el neutro se envia al neutro. b) T (v) = T (v). Es decir, envia inversos aditivos en inversos aditivos. c) T (u v) = T (u) T (v). Es decir, envia restas en restas. Demostraci on Para demostrar a): T (0V ) = T (0 0V ) = 0 T (0V ) = 0W Para demostrar b): T ( v ) = T ( 1 v ) = 1 T (v ) = T (v ) 8

Para demostrar c): T (u v) = T (u + (1) v) = T (u) + (1) T (v) = T (u) T (v ) El anterior resultado se podr a haber utilizado para ver que la funci on f : R R denida por f (x) = x + 1 no puede ser lineal pues f (0) = 0 + 1 = 1 = 0. Debe entenderse el teorema anterior, dice que si la funci on es lineal debe enviar el cero en el cero, pero no lo contrario; es decir, que se requiere para ser lineal enviar el cero en el cero. Con ejemplos se puede ver que no es suciente. Es decir, que habr a funciones que envien el cero en el cero pero que no son lineales. Por ejemplo, la funci on g : R R denida por g (x) = x2 env a el 2 cero en el cero pero no es lineal pues 1 = (1) = g (1) = g (1) = 1 Recuerde el concepto de rango o contradominio: Denici on 16.2 Sea F : X Y una funci on del conjunto X al conjunto Y . El rango de F es el conjunto de elementos de Y que son imagen de un valor en X : rango(F ) = {y Y |x X, F (x) = y } Son sin onimos rango o imagen de una funci on.

16.7.

Conceptos relativos a funciones

Conceptos a recordar Considere la funci on: as bs c s Dominio de f = Codominio de f = f (a ) = 1, f (b) = {a, b, c} {1, 2, 3, 4} 2, f ({a, b}) = {1, 2} {a, c} {b} {} {(a, 1), (b, 2), (c, 1)} {1, 2}
s4 s3 s2 s1

Rango de f =

Imagen inversa de 1 = Imagen inversa de 2 = Imagen inversa de 3 = Parejas que forman f =

16.8.

Im agenes de espacios generados

El siguiente resultado arma que la imagen de un espacio generado es precisamente el espacio generado por las im agenes individuales de los vectores del generador. Teorema Sea T : V W una transformaci on lineal y sea B = {v1 , . . . , vn } el generador de V . Entonces el conjunto T (B ) = {T (v1 ), . . . , T (vn )} genera a la imagen de T . Y por lo tanto, el conjunto imagen de una transformaci on lineal es un subespacio lineal. Demostraci on Sea w un elemento de W en la imagen de T , por tanto debe existir un vector v en V tal que T (v) = w. Como B genera a V y v V deben existir escalares c1 ,c2 ,. . . ,cn tales que: v = c1 v1 + + cn vn si aplicamos T a la igualdad anterior T (v ) = T (c 1 v 1 + + c n v n ) como T es lineal T (c 1 v 1 + + c n v n ) = c 1 T (v 1 ) + + c n T (v n ) de donde w = T (v ) = c 1 T (v 1 ) + + c n T (v n ) lo cual dice que w es combinaci on lineal de T (B ). Es decir, w est a en el generado por T (B ). Hemos probado que: si w est a en la imagen de T , entonces w est a en el generado por T (B ). Por otro lado, si w est a en el generador por T (B ), entonces deben existir c1 , c2 , . . . ,cn tales que w = c 1 T (v 1 ) + + c n T (v n ) siendo T lineal lo anterior queda: w = T (c 1 v 1 + + c n v n ) siendo v = c1 v1 + + cn vn un elemento de V , se concluye que w est a en la imagen de T . Hemos probado que: si w est a en el generado por T (B ), entonces w est a en la imagen de T. De los dos hechos demostrados se deduce que el conjunto imagen de T es igual al espacio generado por T (B ) Ejemplo 16.11 Sea F : R3 R3 la transformaci on lineal denida por: F ((x, y, z ) ) = (2 x 4 z, x 2 z, 3 x + y + 6 z ) Indique en qu e se transforma La l nea L1 : x/2 = y/(3) = z El plano P1 : x 2 y + 3 z = 0 El plano P2 : x 2 y + 2 z = 0

10

Soluci on Al pasar por el origen, la l nea x/2 = y/(3) = z corresponde al espacio generado por su vector de direcci on que es d =< 2, 3, 1 > . Por el resultado anterior, la imagen de la l nea ser a el espacio generado por T (d) = (2(2) 4(1), (2) 2(1), 3(2) + (3) + 6(1)) = (8, 4, 9) El generado por un vector corresponde a una l nea que pasa por el origen, por tanto, la imagen de la l nea es la l nea: y z x = = 8 4 9 El plano P1 : x 2 y + 3 z = 0 corresponde al conjunto: x 2y 3z 2 3 y = =y 1 +z 0 y z z 0 1 Es decir, corresponde al espacio generado por los vectores v1 = (2, 1, 0) y v2 = (3, 0, 1) . Por tanto, la imagen del plano P1 corresponder a al generado por T (v1 ) = (4, 2, 7) y T (v2 ) = (2, 1, 3) . En R3 el generado por dos vectores no colineales corresponde a un plano que pasa por el origen. Su vector normal ser a: n = T (v1 ) T (v2 ) = (1, 2, 0) Por tanto el plano P1 se transforma en el plano: 1 x + 2 y + 0 z = 0 El plano P2 : x 2 y + 2 z = 0 corresponde al conjunto: 2 2 2y 2z x =y 1 +z 0 y = y 1 0 z z Es decir, corresponde al espacio generado por los vectores u1 = (2, 1, 0) y u2 = (2, 0, 1) . Por tanto, la imagen del plano P2 corresponder a al generado por T (u1 ) = (4, 2, 7) y T (u2 ) = (0, 0, 0) . En R3 el generado por tales vectores corresponde a el espacio generado s olo por T (u1 ) que corresponde a la l nea con vector de direcci on (4, 2, 7) . Por tanto el plano P2 se transforma en la l nea: x y z = = 4 2 7 Ejemplo 16.12 Sea T : R2 R3 una transformaci on lineal tal que 1 1 T = 3 , T 1 1 Calcule T Soluci on Como 9 6 yT x y .

1 2

8 = 6 5

9 6

= 4

1 1 11

+5

1 2

si aplicamos T en ambos lados de la ecuaci on, obtemos T 9 6 = T ( 4 1 ) = 4 T 2 36 8 1 3 + 5 6 = 42 = 4 21 5 1 1 1 +5 1 1 + 5T 1 2

La segunda igualdad permanece porque T es lineal. Es f acil observar que 2 1 x 1 = ( x + y) y 1 3 3 Por consiguiente T x y

1 1 + ( x + y ) 3 3

1 2

1 8 2x 3y 2 1 1 1 y = ( x + y ) 3 + ( x + y ) 6 = 4 x 3 3 3 3 1 5 x + 2 y

12

N ucleo e Imagen de una Transformaci on Lineal


Departamento de Matem aticas, CCIR/ITESM 14 de enero de 2011

Indice
17.1. N ucleo de una transformaci on lineal . . . . . 17.2. El n ucleo de una matriz y la tecnolog a . . . 17.3. Inyectividad de transformaciones lineales . . . 17.4. El Rango de una transformaci on . . . . . . . 17.5. Suprayectividad de transformaciones lineales 17.6. N ucleo e Imagen son subespacios . . . . . . . 17.7. Nulidad y Rango de una Transformaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 6 6 7 10 11 11

17.1.

N ucleo de una transformaci on lineal

Denici on 17.1 Sea T : V W una transformaci on lineal. El n ucleo T es el subconjunto formado por todos los vectores en V que se mapean a cero en W . Ker(T ) = {v V | T (v) = 0 W }

Ejemplo 17.1 Indique cu ales opciones contienen un vector en el n ucleo de la transformaci on de R3 en R3 denida como x 2 x + 3 z T y = 23 x 15 y 18 z z 5 x 3 y 3 z dentro de las opciones: 1. 2. 3. 4. 5. 6. v1 v2 v3 v4 v5 v6 = (0, 0, 0) = (12, 28, 8) = (1, 2, 1) = (3, 7, 2) = (2, 4, 4) = (9, 18, 15)

Soluci on Antes de pasar a la vericaci on, es conveniente observar que es posible encontrar una matriz A tal que T (x) = A x. Es decir, aplicar T a un vector x es equivalente a multiplicar por una cierta matriz A al vector x. Empecemos con la dimensi on de A: como A se multiplica por la izquierda de x y x R3 entonces el n umero

de columnas de A es 3. Por otro lado, como el resultado A x es un vector de R3 , entonces el n umero de renglones de A es 3. Si requerimos que 2 x + 3 z x 23 x 15 y 18 z = y 5 x 3 y 3 z z No es dif cil ver 0 3 2 x 2 x + 3 z 23 x 15 y 18 z = 23 15 18 y z 5 x 3 y 3 z 5 3 3 2 0 3 A = 23 15 18 5 3 3 El vector v1 est a en el n ucleo de T debido a que 2 0 3 0 0 T (v1 ) = Av1 = 23 15 18 0 = 0 = 0 5 3 3 0 0 El vector v2 est a en el n ucleo de T debido a que 2 0 3 12 0 28 0 =0 T (v2 ) = Av2 = 23 15 18 = 5 3 3 8 0 El vector v3 no est a en el n ucleo de T debido a que 2 0 3 1 1 T (v3 ) = Av3 = 23 15 18 2 = 11 = 0 5 3 3 1 2 El vector v4 est a en el n ucleo de T debido a que 2 0 3 3 0 7 0 =0 T (v4 ) = Av4 = 23 15 18 = 5 3 3 2 0 El vector v5 no est a en el n ucleo de T debido a que 2 0 3 2 16 T (v5 ) = Av5 = 23 15 18 4 = 86 = 0 5 3 3 4 14 El vector v6 no est a en el n ucleo de T debido a que 2 0 3 9 63 T (v6 ) = Av6 = 23 15 18 18 = 333 = 0 5 3 3 15 54

es decir que

Ejemplo 17.2 Determine el n ucleo de la transformaci on de R3 en R3 denida como x 2 x + 3 z T y = 23 x 15 y 18 z z 5 x 3 y 3 z Soluci on Un vector v = (a, b, c) pertenece al n ucleo de T si T (v) = 0, es decir si: 2 a + 3 c T ((a, b, c) ) = 23 a 15 b 18 c = 0( en R3 ) 5 a 3 b 3 c Por lo tanto, para pertenecer al n ucleo debe cumplirse 2 a + 3 c = 0 23 a 15 b 18 c = 0 5 a 3 b 3 c = 0 Reduciendo tenemos: a 3/2 c = 0 b + 7 /2 c = 0 Es decir a 3/2 c 3/2 b = 7/2 c = c 7/2 c c 1

Observe que el n ucleo de T en este caso es un espacio generado: 3/2 Ker(T ) = Gen 7/2 1 Adem as, la dimensi on de Ker(T ) es 1, lo cual coincide con el n umero de columnas sin pivote en la reducida de A (La matriz que dene a la transformaci on T ). Geom etricamente en R3 este generado corresponde a la l nea que pasa por el origen y con vector de direcci on (3/2, 7/2, 1) que es: y z x = = 3/2 7/2 1 Ejemplo 17.3 Determine el n ucleo de la transformaci on de R3 en R2 denida como x x+y+z T y = 2x + 2y + 2z z Soluci on Un vector v = (a, b, c) pertenece al n ucleo de T si T (v) = 0, es decir si: a a+b+c 1 1 1 T (v) = = b = 0 ( en R2 ) 2a + 2b + 2c 2 2 2 c 3

Por lo tanto, para pertenecer al n ucleo debe cumplirse a+b+c = 0 2a + 2b + 2c = 0 Reduciendo tenemos: a+b+c = 0 Es decir a b c 1 1 b = =b 1 +c 0 b c c 0 1

Es decir, que el n ucleo de T en este caso es un espacio generado: 1 1 Ker(T ) = Gen 1 , 0 0 1 Adem as, la dimensi on de Ker(T ) es 2, lo cual corresponde al n umero de columnas sin pivote de la reducida de la matriz que dene a T . Geom etricamente, en R3 este generado corresponde a un plano que pasa por el origen y con vector normal n = u1 u2 = (1, 1, 1) que es: 1x + 1y + 1z = x + y + z = 0 Ejemplo 17.4 Determine el n ucleo de T : R3 R2 .

x T = y = z

xz y+z

Soluci on Sabemos que Ker(T ) es el conjunto de todos los vectores v =< x, y, z > de R3 tal que T (v) = 0 (en R2 ): x 0 1 0 1 xz y = = T (v) = 0 0 1 1 y+z z Para resolver el sistema 1 0 1 0 0 1 1 0 Cuya soluci on general es x 1 y = z 1 z 1 De ah que, z 1 Ker(T ) = z , z R = Gen 1 z 1 Vemos que la dimensi on de Ker(T ) es 1, lo cual corresponde al n umero de columnas sin pivote en la matriz 3 que dene a T . Geom etricamente, en R esto corresonde a la recta x y z = = 1 1 1 4 1 0 1 0 0 1 1 0

Ejemplo 17.5 Determine el n ucleo de T : R3 R3 .

x xz T = y = y+z z xy

Soluci on Sabemos que Ker(T ) es el conjunto de todos los vectores v =< x, y, z > de R3 tal que T (v) = 0 (en R3 ): xz 1 0 1 x 0 1 1 y = 0 T (v) = y + z = 0 xy 1 1 0 z 0 Para resolver el sistema 1 0 1 0 1 0 0 0 0 1 1 0 0 1 0 0 1 1 0 0 0 0 1 0

El sistema tiene soluci on u nica y es 0. Por tanto, Ker(T ) = {0}

Ejemplo 17.6 Indique la opci on que describe adecuadamente al conjunto B = < 0, 0, 3, 2 > , < 0, 1, 0, 0 > respecto al n ucleo de la transformaci on de R4 en R4 denida 0 3w 2z x y 3w 2z 0 T z = 12 w 8 z = 0 0 15 w 10 z w A B C D E Es base para el n ucleo. Est a en el n ucleo; pero no es LI ni no lo genera. Genera al n ucleo pero no es LI. Est a en el n ucleo; es LI pero no lo genera. No es comparable con el n ucleo. como x 0 2 3 y 0 2 3 0 8 12 z w 0 10 15

Soluci on Determinemos el n ucleo de T :

0 0 0 0

0 2 3 0 0 0 0 2 3 0 rref 0 0 0 8 12 0 0 0 0 10 15 0 0 0 5

1 3/2 0 0 0 0 0 0

0 0 0 0

Por lo tanto, los vectores del n ucleo tienen la forma 1 x 0 y z =x 0 +y 0 w Es decir,

0 1 +w 0 0

0 0 3/2 1

0 1 0 , 1 Ker(T ) = Gen 0 0 0 0 Comparemos ahora Gen{B} con a) Gen{B} Ker(T )? 1 0 0 0 Ker(T ): 0 0 1 0 0 3 /2 0 1 0 0 3 2 1 0 1 rref 0 0 0 0 0

0 0 3/2 1

0 1 0 0

0 0 1 0

0 0 2 0

0 1 0 0

Concluimos que s :Gen{B} Ker(T ). b)Ker(T ) Gen{B}? 0 0 1 0 1 0 3 0 0 2 0 0

1 0 0 1 0 rref 0 0 3/2 0 0 1 0

0 1 0 0

0 0 1 0

0 1/2 1 0 0 0 0 0

Concluimos que no:Ker(T ) Gen{B}. De estos c alculos (los que llevan B primero) tambi en se deduce que: c) B es linealmente independiente. Por lo tanto, la opci on correcta es D: est a contenido en el n ucleo (a) no genera al n ucleo (b); y B es li (c)

17.2.

El n ucleo de una matriz y la tecnolog a

Pr acticamente la totalidad de los sistemas computacionales que manejan matrices vienen acompa nados de funciones para manejar el kernel de una matriz. En el caso de Maple la instrucci on nullspace(A) entrega una base para el n ucleo de la transformaci on lineal T (X) = A X. Desafortunadamente, para la TI Voyage 200 no aparece un comando similar.

17.3.

Inyectividad de transformaciones lineales

Una pregunta importante sobre funciones es si una funci on dada es inyectiva, o tambi en dicho 1 a 1. Recuerde que una funci on es inyectiva si no hay dos elementos diferentes del dominio que tienen la misma evaluaci on. Es decir, es f es inyectiva si y s olo si f (x1 ) = f (x2 ) implica que x1 = x2 . Este concepto en las funciones lineales en espacios vectoriales tiene un comportamiento simple: f (x1 x2 ) = 0 implica x1 x2 = 0. Es decir: Teorema

Sea T : V W una transformaci on lineal. T es inyectiva si y s olo si Ker(T ) = {0}. Note que en los ejemplos anteriores, s olo la u ltima funci on fue inyectiva. Notas En resumen: Para ver si un vector est a en el n ucleo de una transformaci on lineal se debe aplicar la transformaci on. El vector x est a en el n ucleo de T si y s olo si T (x) = 0. Para determinar el n ucleo de una transformaci on, debe encontrar la matriz que dene a la transformaci on lineal y resolver [A|0]. Hay dos alternativas: el sistema tiene s oluci on u nica o el sistema tienen innitas soluciones. En el caso de innitas soluciones, la f ormula general muestra al n ucleo como un espacio generado donde el n umero columnas sin pivote es la dimensi on del n ucleo como subespacio. En caso de tener soluci on u nica, el n ucleo de T es el conjunto formado por el vector cero. Para determinar si una transformaci on lineal es inyectiva, todas las columnas de la reducida de la matriz que dene a la transformaci on lineal deben de tener pivote.

17.4.

El Rango de una transformaci on

Denici on 17.2 Sea T : V W una transformaci on lineal. El rango o imagen de T es el conjunto de todas las im agenes de T en W. R(T ) = {w W |w = T (v) para alg un v V } Es decir, el rango es el subconjunto de W formado por aquellos vectores que provienen de alg un vector de V . Ejemplo 17.7 Indique cu ales opciones contienen un vector en la imagen de la transformaci on de R3 en R3 denida como 2x + 5y + z x T y = 8 x + 12 y + 6 z 4 x 2 y 4 z z dentro de las opciones: 1. 2. 3. 4. 5. v1 v2 v3 v4 v5 = (0, 0, 0) = (2, 8, 4) = (23, 52, 6) = (5, 12, 2) = (3, 1, 1)

Soluci on El vector v1 = (0, 0, 0) de R3 est a en la imagen de T si existe un vector (a, b, c) en R3 tal que T ((a, b, c) ) = v1 . Es decir, si es consistente el sistema 2a + 5b + c = 0 8 a + 12 b + 6 c = 0 4 a 2 b 4 c = 0 Pero este sistema por ser homog eno es consistente. Por tanto el vector v1 s est a en la imagen de T . El vector v2 = (2, 8, 4) de R3 est a en la imagen de T si existe un vector (a, b, c) en R3 tal que T ((a, b, c) ) = v2 . Es decir, si es consistente el sistema: 2a + 5b + c = 2 8 a + 12 b + 6 c = 8 4 a 2 b 4 c = 4 7

Al reducir la matriz aumentada se obtiene: 1 0 9/8 1 0 1 1/4 0 0 0 0 0 por ser consistente el sistema, el vector v2 s est a en la imagen de T . 3 El vector v3 = (23, 52, 6) de R est a en la imagen de T si existe un vector (a, b, c) en R3 tal que T ((a, b, c) ) = v3 . Es decir, si es consistente el sistema: 2a + 5b + c = 23 8 a + 12 b + 6 c = 52 4 a 2 b 4 c = 6 Al reducir la matriz aumentada se obtiene: 1 0 9 /8 1 0 1 1/4 5 0 0 0 0 por ser consistente el sistema, el vector v3 s est a en la imagen de T . El vector v4 = (5, 12, 2) de R3 est a en la imagen de T si existe un vector (a, b, c) en R3 tal que T ((a, b, c) ) = v4 es decir si es consistente el sistema: 2a + 5b + c = 5 8 a + 12 b + 6 c = 12 4 a 2 b 4 c = 2 Al reducir la matriz aumentada se obtiene: 1 0 9/8 0 0 1 1/4 1 0 0 0 0 por ser consistente el sistema, el vector v4 s est a en la imagen de T . 3 El vector v5 = (3, 1, 1) de R de est a en la imagen de T si existe un vector (a, b, c) en R3 tal que T ((a, b, c) ) = v5 es decir si es consistente el sistema: 2a + 5b + c = 3 8 a + 12 b + 6 c = 1 4 a 2 b 4 c = 1 Al reducir la matriz aumentada se obtiene: 1 0 9/8 0 0 1 1/4 0 0 0 0 1 por ser inconsistente el sistema, el vector v5 no est a en la imagen de T

Ejemplo 17.8 Determine la imagen de la transformaci on lineal de R3 en R3 denida como x 2x + 5y + z T y = 8 x + 12 y + 6 z z 4 x 2 y 4 z 8

Soluci on El vector v1 = (a, b, c) de R3 de est a en la imagen de T si existe un vector (x, y, z ) en R3 tal que T ((x, y, z ) ) = v1 es decir si es consistente el sistema 2x + 5y + z = a 8 x + 12 y + 6 z = b 4 x 2 y 4 z = c Al formar la matriz aumentada y escalonar se obtiene: 2 5 1 a 0 8 2 4 a + b 0 0 0 2 a + b + c Por tanto, (a, b, c) est a en la imagen de T ssi el sistema anterior es consistente ssi 2 a + b + c = 0. Esto ocurrir a si y s olo si a = 1/2 b + 1/2 c. Es decir, (a, b, c) est a en la imagen de T si y s olo si 1/2 1/2 1/2 b + 1/2 c a =b 1 +c 0 b = b 1 0 c c Por tanto, 1/2 1/2 R(T ) = Gen 1 , 0 0 1 Geom etricamente, R(T ) es el plano 2 a b c = 0 (o 2 x y z = 0) en R3 Ejemplo 17.9 Determine la imagen de la transformaci on lineal de R3 en R4 denida como x + y + 2z x xy T y = 2 x + y z z xy Soluci on El vector v = (a, b, c, d) de R4 est a en la imagen de T si existe un vector (x, y, z ) en R3 tal que T ((x, y, z ) ) = v . Es decir, si es consistente el sistema x + y + 2z = a 1 1 2 a 1 1 0 b xy = b o 2 1 1 c 2 x + y z = c 1 1 0 d xy = c En este ejemplo ilustraremos el uso de una t ecnica m as eciente que la usada en el problema anterior. La idea es que manejaremos s olo los coecientes de a, b, c y d. De esta manera una expresi on en estas variables la podemos representar por medio de un vector rengl on con cuatro componentes. As 2a + 3b c + 8d a 3a 3b 3d c se se se se representa representa representa representa por por por por (2, 3, 1, 8) (1, 0, 0, 0) (3, 3, 0, 3) (0, 0, 1, 0)

Con esta idea, el sistema cuya matriz nos 1 1 2 1 1 1 0 0 2 1 1 0 1 1 0 0

interesa revisar nos 0 0 0 1 1 0 0 0 0 0 1 0 0 0 1 0

queda: 0 1 0 0 1 1 0 0 0 0 1 0 0 1 1 0 1 2 0 2 3 1 0 1

Por tanto, la matriz aumentada representa un sistema consistente si y s olo si a = 2 c 3 d b = d Resumiendo, (a, b, c, d) est a en la imagen de T si y s olo si a 2 b =c 0 +d c 1 d 0 para c y d escalares. Por tanto 3 2 0 1 R(T ) = Gen 1 , 0 1 0

3 1 0 1

Nota Observe que tanto Ker(T ) como R(T ) de una transformaci on lineal T son conjuntos no vac os T (0V ) = 0W implica que 0V Ker(T ) y 0W R(T ).

17.5.

Suprayectividad de transformaciones lineales

Una pregunta importante sobre funciones es si una funci on dada es suprayectiva, o tambi en dicho sobre. Recuerde que una funci on es suprayectiva si para todo elemento en el codominio hay un elemento en el dominio que bajo la funci on se transforma en el. Es decir, es f es suprayectiva si y s olo si f (x) = a es consistente para todo a en el codominio de f . en espacios vectoriales tiene un comportamiento simple: Teorema Sea T : V W una transformaci on lineal y B = {v1 , v2 , . . . , vm } un conjunto generador para V . T es suprayectiva si y s olo si Gen(T (v1 ), T (v2 ), . . . , T (vm )) = W . No que lo anterior implica que: Si T es suprayectiva, entonces dim(V ) dim(W ).

10

En particular, si por ejemplo T : R3 R4 es lineal, entonces T no puede ser sobre! Notas En resumen: Para ver si un vector est a en la imagen de una transformaci on lineal se debe ver si un sistema es consistente. Para determinar el rango de una transformaci on, debe encontrar la matriz que dene a la transformaci on lineal y reducir [A|I]. Si todo rengl on tiene pivote la funci on es suprayectiva. Es decir, todo vector del codominio es imagen de un vector en el dominio. Si hay renglones sin pivote en la parte izquierda se debe forzar la consistencia igualando a cero los elementos en la parte derecha de la reducida. El rango entonces queda como un espacio generado, el cual es precisamente el espacio generado por las columnas. Su dimensi on ser a el n umero de pivotes en la reducida de la matriz A. Para determinar si una transformaci on lineal es suprayectiva, todos los renglones en la reducida de A deben de tener pivotes.

17.6.

N ucleo e Imagen son subespacios

La propiedad fundamental del n ucleo y del contradominio es que ambos son espacios vectoriales: Teorema Sea T : V W una transformaci on lineal. Entonces Ker(T ) es un subespacio de V . R(T ) es un subespacio de W . Demostraci on El n ucleo de T es subespacio Sean v1 y v2 elementos del n ucleo de T y c un escalar cualquiera. As T (v1 ) = 0 = T (v2 ), y por tanto: T (c1 v1 + c2 v2 ) = c1 T (v1 ) + c2 T (v2 ) = c1 0 + c2 0 = 0 probando que c1 v1 + c2 v2 est a tambi en en el n ucleo de T . Lo cual a su vez prueba que el n ucleo de T es un subespacio de V . La imagen de T es subespacio Sean w1 y w2 elementos de la imagen de T y c un escalar cualquiera. As T (v1 ) = w1 y T (v2 ) = w2 para algunos v1 y v2 en V , y por tanto: T (c1 v1 + c2 v2 ) = c1 T (v1 ) + c2 T (v2 ) = c1 w1 + c2 w2 probando que c1 w1 + c2 w2 es imagen de c1 v1 + c2 v2 y por consiguiente c1 w1 + c2 w2 est a tambi en en la imagen de T . Lo cual a su vez prueba que la imagen de T es un subespacio de W

17.7.

Nulidad y Rango de una Transformaci on

Debido al resultado anterior el n ucleo y la imagen de una transformaci on lineal son espacios vectoriales. Como espacios vectoriales, ellos tienen una dimensi on asociada. Estas dimensiones tienen nombre espec cos: Denici on 17.3 Sea T : V W una transformaci on lineal. La nulidad de T es la dimensi on de Ker(T ). 11

El rango de T es la dimensi on de R(T ). El siguiente resultado permite calcular f acilmente la nulidad y el rango de una transformaci on matricial. Teorema Sea T : V W una transformaci on lineal. Suponga que T corresponde a la transformaci on matricial asociada a A. Entonces: Ker(T ) = V(A) = Espacio nulo de A R(T ) = C(A) = Espacio generado por las columnas de A Nulidad(T ) = Nulidad(A) = N umero de columnas sin pivote en A reducida. Rango(T ) = Rango(A) = N umero de columnas con pivote en A reducida. Note que el resultado anterior indica que para cualquier transformaci on lineal T : V W , dim(V ) = dim(Ker(T )) + dim(R(T )) dim(R(T )) dim(W ) As por ejemplo: T : R4 R3 lineal no puede ser inyectiva pues 4 = dim(Ker(T )) + dim(R(T )) dim(Ker(T )) + 3 por tanto, dim(Ker(T )) 1 probando que Ker(T )) = {0}. T : R4 R8 lineal no puede ser sobre pues 4 = dim(Ker(T )) + dim(R(T )) por tanto, dim(R(T )) 4 probando que R(T ) = R8 (1)

Ejemplo 17.10 Calcule las bases para el n ucleo y la imagen y determine la nulidad y el rango de T : R4 R3 , T ((x, y, z, w) ) = (x + 3z, y 2z, w) Soluci on De acuerdo con el teorema previo, basta expresar a T como transformaci on matricial y obtener las bases para las columnas y el espacio nulo de su matriz est andar A. A se expresa con 1 0 3 0 A = 0 1 2 0 0 0 0 1 Como ya est a en forma escalonada reducida por operaciones de rengl on, los vectores {(1, 0, 0) , (0, 1, 0) , (0, 0, 1) } forman una base para Col(A) = R(T ) = R3 . Por otra parte, {(3, 2, 1, 0) } es una base para V (A) = Ker(T ). De modo que el rango de T es 3 y la nulidad es 1. Ker(T ) = {0} Ax = 0 s olo tiene la soluci on trivial y R(T ) = Rm las columnas de A generan a Rm 12

Ejemplo 17.11 Resuelva la siguiente ecuaci on diferencial: (2 x 1) y (x) + 2 y (x) = 4 x2 + 4 x pensando el lado izquierdo de la ecuaci on como una transformaci on lineal de P2 en P3 . Soluci on Denamos T de P2 en P3 por T (p(x) = a x2 + b x + c) = (2 x 1)p (x) + 2 p(x) = 2 a x2 2 a x b + 2 c Viendo los polinomios como vectores tenemos tenemos que la transformaci on anterior queda: b + 2 c 2 1 0 c c 2 a 0 0 2 b b T = = 2 a 0 0 2 a a 0 0 0 0 El problema de resolver la ED se transforma encontrar un p(x) que cumpla: T (p(x)) = 4 x2 + 4 x. Es decir, en encontrar (c, b, a) tal que 0 2 1 0 c 4 0 0 2 b = 4 0 0 2 a 0 0 0 0 Formando la aumentada y reduciendo tenemos: 2 1 0 0 0 0 2 4 0 0 2 4 0 0 0 0

1 1/2 0 0 0 1 2 0 0 0 0 0 0 0 0 0 soluci on en P2 . Tambi en vemos que hay c 1/2b b = b a 2

Como el sistema es consistente, la primera conclusi on es que s existe innitas soluciones las cuales podemos calcular: c = 1/2b c 1/2b = 0 b = b a = 2 a = 2 Y separando vectores

c 0 1/2 b = 0 + b 1 a 2 0 La soluci on general de la ED en P2 queda: y (x) = 2 x2 + b (1/2 + x), b escalar libre

13

Valores y vectores propios


Departamento de Matem aticas, CCIR/ITESM 14 de enero de 2011

Indice
18.1. Denici on de valor y vector propio . . . . . 18.2. Determinaci on de los valores propios . . . . 18.3. Multiplicidad algebraica de un valor propio 18.4. Multiplicidad geom etrica de un valor propio 18.5. Resultados te oricos . . . . . . . . . . . . . . 18.6. Procesos operativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 3 6 7 10 10

18.1.

Denici on de valor y vector propio

Los vectores propios de una matriz son vectores invariantes bajo la multiplicaci on por ella. Veamos la denici on matem atica: Denici on 18.1 Sea A una matriz cuadrada, un n umero real se dice que es un valor propio o un eigenvalor o un valor caracter stico de A si existe un vector, diferente del vector cero, xo tal que: Axo = xo Es decir, es un vector que al transformarlo mediante la multiplicaci on por A el vector resultante mantiene la direcci on, posiblemente s olo su longitud y/o sentido se modique. El vector xo se llama vector propio o eigenvector asociado al valor propio . Ejemplo 18.1 Para la matriz A A= Indique cu ales vectores son vectores propios: v1 = 1 1 , v2 = 2 3 , v3 = 1 1 , v4 = 0 2 1 2 2 1

Soluci on: Veamos si v1 es vector propio de A: Av1 = Ahora veamos si Av1 es un m ultiplo de v1 : Av1 = 3 3 =3 1 1 = 3 v1 1 2 2 1 1 1 = 3 3

Por tanto, v1 s es vector propio de A y est a asociado al valor propio 3. Veamos si v2 es vector propio de A: Av2 = Ahora veamos si Av2 es un m ultiplo de v2 : Av2 = Por tanto, v2 no es vector propio de A. Veamos si v3 es vector propio de A: Av3 = Ahora veamos si Av3 es un m ultiplo de v3 : Av3 = 1 1 = 1 1 1 1 2 2 1 1 1 = 1 1 8 7 =k 2 3 1 2 2 1 2 3 = 8 7

Por tanto, v3 s es un vector propio de A y est a asociado al valor propio -1. Veamos si v4 es vector propio de A: Av4 = Ahora veamos si Av4 es un m ultiplo de v4 : Av4 = por tanto, v4 no es vector propio de A Ejemplo 18.2 Indique cu ales de los siguientes valores 1 = 1, 2 = 1, 3 = 2, 4 = 2 son valores propios de la matriz A: A= 5 3 6 4 4 2 =k 0 2 1 2 2 1 0 2 = 4 2

Soluci on 1 es valor propio ssi existe un vector x diferente de cero tal que: A x = 1 x Es decir, ssi (A 1 I) x = A x 1 I x = A x 1 x = 0 no tiene soluci on u nica: [A 1 I|0] = 5 (1) 3 6 4 (1) 2 0 0 1 1/2 0 0 0 0

Como el sistema tiene una variable libre, el sistema tiene innitas soluciones: por tanto adem as de la soluci on x = 0, existen muchos vectores x diferentes del vector cero tales que Ax = 1 x. Por tanto, 1 s es valor propio de la matriz A. De hecho, podemos encontrar la soluci on general al sistema anterior: 1 1/2 0 0 0 0 {x 1/2y = 0 x = 1 /2 y y = y

Por tanto, todos los vectores propios asociados a 1 se obtienen: x=y Veamos si 2 es valor propio de A: [A 2 I|0] = 5 (1) 3 6 4 (1) 0 0 1 0 0 0 1 0 1/2 1 , con y = 0

Como el sistema tiene soluci on u nica x = 0, por tanto no existe un vector diferente de cero x que cumpla A x = 2 x. Por tanto, 2 no es un vector propio de A. La regla es : es valor propio de A ssi al reducir [A I|0] se tiene al menos una variable libre. Veamos si 3 es valor propio de A: [A 3 I|0] = 5 (2) 3 6 4 (2) 0 0 1 1 0 0 0 0

Una variable libre; por tanto, 3 s es valor propio de A. Veamos si 4 es valor propio de A: [A 4 I|0] = 3 5 (2) 6 4 (2) 0 0 1 0 0 0 1 0

Ninguna variable libre; por tanto, 4 no es valor propio de A

18.2.

Determinaci on de los valores propios

Sea o un valor propio de la matriz cuadrada A, esto ser a cierto si y s olo si existe un vector xo (xo = 0) tal que: Axo = o xo = o In xo Por tanto: Axo o In xo = (A o In ) xo = 0 Si B = A o In , esto ser a cierto si y s olo si el sistema homog eneo n n Bx = 0 tiene, adem as de la soluci on trivial, otra soluci on (x = xo = 0). Es decir, si y s olo si no tiene soluci on u nica. Y esto ser a cierto, si y s olo si el determinante de la matriz B es cero: det(B) = det (A o In ) = 0 3

es decir, que todo escalar o es valor propio de A si y s olo si es ra z del polinomio caracter stico asociado a A: pA () = det (A In ) y un vector propio asociado a o debe ser soluci on al sistema homog eneo (A o In ) x = 0 Note al ser pA (t) un polinomio de grado igual que n, habr a a lo m as n valores propios. Ejemplo 18.3 Determine los valores y los vectores propios correspondientes a la matriz: A= Soluci on Determinemos el polinomio caracter stico de A: pA () = det (A I2 ) = det 1 2 2 1 0 0 1 2 2 1 = det 1 0 0 1 1 2 2 1

pA () = det

1 2 2 1

pA () =

1 2 2 1

= (1 )2 4

pA () = 2 2 3 = ( 3) ( + 1) Por tanto, los u nicos valores propios son 1 = 3 y 2 = 1. Vector propio para 1 = 3 Debe ser soluci on al sistema homog eneo: (A I2 ) x = 0 Es decir: 1 2 2 1 (3) 1 0 0 1 x=0

Desarrollando y nalmente aplicando Gauss-Jordan: 13 2 2 13 x=0 2 2 0 2 2 0 1 1 0 0 0 0

Convirtiendo en ecuaci on y poniendo en la notaci on vectorial: xy =0x=y Lo anterior indica que cualquier vector de la forma: y 1 1 , y=0 x y =y 1 1 , y=0

es un vector propio asociado a 1 = 3. Es importante se nalar que la variable libre y no puede ser cero, pues de otra manera el vector que obtendr amos ser a el vector cero, el cual por denici on no puede ser vector propio. Nosotros nos conformaremos con un vector propio: digamos el que se obtiene para y = 1: 1 1 Vector propio para 2 = 1 Debe ser soluci on al sistema homog eneo: (A I2 ) x = 0 Es decir: 1 2 2 1 (1) 1 0 0 1 x=0

Desarrollando y nalmente aplicando Gauss-Jordan: 1+1 2 2 1+1 x=0 2 2 0 2 2 0 1 1 0 0 0 0

Convirtiendo en ecuaci on y poniendo en la notaci on vectorial: x + y = 0 x = y Lo anterior indica que cualquier vector de la forma: y 1 1 , y=0 x y =y 1 1 , y=0

es un vector propio asociado a 2 = 1; nosotros nos conformaremos con uno: digamos el que se obtiene para y = 1: 1 1 Ejemplo 18.4 Determine los valores y los vectores propios correspondientes de la matriz: A= Soluci on Para la matriz A: pA () = det 1 1 0 1 pA () = 0 0 = det 1 1 0 1 1 1 0 1

1 1 0 1

= (1 )2

Por tanto, el u nico valor propio de A es 1 = 1. Vector propio para 1 = 1 Debe ser soluci on al sistema homog eneo: (A I2 ) x = 0 Es decir: 1 1 0 1 (1) 5 1 0 0 1 x=0

Desarrollando y nalmente aplicando Gauss-Jordan: 11 1 0 11 x=0 0 1 0 0 0 0 0 1 0 0 0 0

Convirtiendo en ecuaci on y poniendo en la notaci on vectorial: y=0 x y =x 1 0 , x=0

Lo anterior indica que cualquier vector de la forma: x 1 0 , x=0

es un vector propio asociado a 1 = 1; nosotros nos conformaremos con uno: digamos el que se obtiene para x = 1: 1 0 Ejemplo 18.5 Determine los valores y los vectores propios correspondientes de la matriz: A= Soluci on Obtengamos el polinomio carcter stico: pA () = det El polinomio caracter stico queda: pA (t) = t2 3 t + 4 Como este polinomio tiene ra ces complejas, A no tiene valores ni vectores propios. 1 2 1 2 0 0 = det 1 2 1 2 1 2 1 2

18.3.

Multiplicidad algebraica de un valor propio

Sea A una matriz cuadrada y o un valor propio. Como hemos visto debe ser ra z del polinomio caracter stico de A pA () as : ( o ) | pA () Al mayor exponente m que cumple pA () = ( o )m q () le llamaremos la multiplicidad algebraica o dimensi on algebraica de o . Ejemplo 18.6 Determine los valores propios y sus multiplicidades algebraicas para la matriz: 2 3 6 5 6 A= 0 0 3 4

Soluci on Primeramente determinemos el polinomio caracter stico: pA (t) = det(A t I) = desarrollado sobre la primer columna queda: pA (t) = (2 t) 5t 6 3 4 t = (2 t) ((5 t) (4 t) (3)(6)) = 4 + 3 t2 t3 pA (t) = (t (1)) (t 2)2 Por lo tanto: Los u nicos valores propios de la matriz A son t = 1 y t = 2. La multiplicidad algebraica de t = 1 es 1. La multiplicidad algebraica de t = 2 es 2. 2 t 3 6 0 5t 6 0 3 4 t

factorizando tenemos:

18.4.

Multiplicidad geom etrica de un valor propio

Un resultado importante es que el conjunto de vectores invariantes asociados a un escalar es un espacio lineal: Teorema Sea A una matriz cuadrada n n y un escalar cualquiera entonces E = {x Rn |Ax = x} es un espacio lineal de Rn . Demostraci on E = Efectivamente, como A 0 = 0 = 0, entonces 0 E . E es cerrado bajo la suma Sean x1 y x2 en E . Por tanto, A x1 = x1 y A x2 = x2 . Por consiguiente, A (x1 + x2 ) = A x1 + A x2 = x1 + x2 = ( x1 + x2 ) Por tanto, x1 + x2 E . E es cerrado bajo el producto Sean x en E y c R. Por tanto, A x = x. Por consiguiente, A (c x) = c A x = c x = (c x) Por tanto, c x E . 7

Lo anterior prueba que E es un espacio lineal Siendo un valor propio, el anterior conjunto que se llama el espacio invariante o espacio propio o eigenespacio asociado a y es un espacio lineal diferente de {0} as tiene dimensi on mayor que cero: la dimensi on del espacio anterior se llamar a multiplicidad geom etrica o dimensi on geom etrica del valor propio . Note que E corresponde al espacio nulo de la matriz A I. As pues la dimensi on geom etrica de es el n umero de columnas sin pivote en la matriz reducida que se obtiene de A I. Ejemplo 18.7 Determine los valores propios y sus multiplicidades geom etricas para la matriz: 1 1 3 7 0 3 4 4 A= 0 2 3 2 0 0 0 1 Soluci on Primeramente determinemos el polinomio caracter stico: pA (t) = det(A t I) = 1 2 t2 + t4 = (t 1)2 (t (1))2 De lo anterior concluimos que los u nicos valores propios son t1 = 1 y t2 = 1 y que ambos tienen multiplicidad algebraica 2. Determinemos ahora sus multiplicidades geom etricas: Para t1 = 1 Al resolver [A t1 I|0] tenemos: 0 1 0 0 0 0 0 1 0 0 [A t1 I|0] 0 0 0 1 0 0 0 0 0 0 Al haber una columna sin pivote hay una variable libre, concluimos es 1. Para t2 = 1 Al resolver [A t2 I|0] tenemos: 1 0 1 3 0 1 1 1 [A t2 I|0] 0 0 0 0 0 0 0 0 que la dimensi on geom etrica de t1 = 1

0 0 0 0

Al haber dos columnas sin pivote hay dos variables libres, concluimos que la dimensi on geom etrica de t2 = 1 es 2

Ejemplo 18.8 Determine la multiplicidad algebraica y geom etrica 3 1 0 4 1 2 A= 1 2 2 4 3 6

de cada uno de los valores propios de la siguiente matriz 5 5 0 0 5 5 0 0 0 4 0 0 1 3 0 0 2 8 1 0 3 8 12 0 1

Soluci on El polinomio caracter stico de A es: pA (t) = det(A t I) = 48 104 t 35 t2 + 40 t3 + 10 t4 8 t5 + t6 y sus ra ces son t1 = 3, t2 = 4, t3 = 4, t4 = 1, t5 = 1, t6 = 1 An alisis de t = 3 Como t = 3 aparece como ra z una sola vez, entonces multiplicidad geom etrica analicemos 1 0 0 1 0 0 [A (3) I|0] 0 0 0 0 0 0 su multiplicidad algebraica es 1. Para determinar su 0 0 1 0 0 0 0 0 0 1 0 0 0 1/3 0 0 0 1/3 0 1/3 1 2/3 0 0 0 0 0 0 0 0

de donde todos los vectores propios asociados a t = 3 son de la forma: c < 1/3, 0, 1/3, 1/3, 2/3, 1 > , c = 0 Por tanto, la multiplicidad geom etrica de t = 3 es 1. An alisis de t = 4 Como t = 4 aparece como ra z dos veces, entonces su multiplicidad algebraica es 2. Para determinar su multiplicidad geom etrica analicemos 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 1/3 0 [A (4) I|0] 0 0 0 1 0 1/3 0 0 0 0 0 1 2/3 0 0 0 0 0 0 0 0 de donde todos los vectores propios asociados a t = 4 son de la forma: c < 0, 0, 1/3, 1/3, 2/3, 1 > , c = 0 Por tanto, la multiplicidad geom etrica de t = 4 es 1. An alisis de t = 1 Como t = 1 aparece como ra z tres veces, entonces multiplicidad geom etrica analicemos 1 0 0 [A (1) I|0] 0 0 0

su multiplicidad algebraica es 3. Para determinar su 0 1 1 1 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

de donde todos los vectores propios asociados a t = 1 son de la forma: c1 < 1, 1, 1, 0, 0, 0 > +c2 < 0, 0, 0, 0, 1, 0 > +c3 < 0, 0, 0, 0, 0, 1 > , c1 , c2 , c3 = 0 Por tanto, la multiplicidad geom etrica de t = 1 es 3. 9

18.5.

Resultados te oricos

Los principales resultados te oricos adicionales al hecho de que el subespacio invariante es efectivamente un subespacio vectorial son los siguientes: Teorema La dimensi on geom etrica de un valor propio es menor o igual que la dimensi on algebraica: 1 dimensi on geom etrica multiplicidad algebraica de Teorema Si los vectores x1 , x2 , . . . , xk son vectores propios asociados a valores propios diferentes entonces el conjunto formado por ellos es linealmente independiente. Demostraci on Digamos que el vector xi es vector propio asociado al valor propio i . Supongamos que el conjunto formado por los vectores xi es linealmente dependiente. Como el vector cero no es vector propio, los vectores dados no son cero. Por tanto, la suposici on de que sea linealmente dependiente indica que existe un vector xi que es combinaci on de los anteriores en la lista. Tomemos el primero xi que es combinaci on de los anteriores. As , xi es combinaci on de B = {x1 , x2 , . . . , xi1 } y el conjunto B es linealmente independiente al no ser ninguno de sus elementos combinaci on lineal de los anteriores. De todo esto tenemos que existen c1 ,c2 ,. . . ,ci1 tales que xi = c1 x1 + c2 x2 + + ci1 xi1 multiplicando por A lo anterior y aprovechando que los xj son valores propios asociados a j tenemos: i xi = c1 1 x1 + c2 2 x2 + + ci1 i1 xi1 Multiplicando primera relaci on por i y restando a la segundo se tiene: 0 = c1 (i 1 )x1 + c2 (i 2 )x2 + + ci1 (i i1 )xi1 Como el conjunto B es linealmente independiente, se deduce que todos los coecientes de la relaci on anterior son cero: cj (i j ) = 0, para 1 j < i como los valores propios son todos diferentes debe cumplirse cj = 0 para 1 j < i. Por tanto, xi = 0. Imposible. Esta contradicci on indica que el conjunto no puede suponerse linealmente dependiente: debe ser linealmente independiente. (1)

18.6.

Procesos operativos

A continuaci on listamos los procesos de c alculos referentes a valores y vectores propios: 1.- C omo saber si v es vector propio de A Calcule vector u = A v v es vector propio si y s olo si u es un m ultiplo escalar de v. Esto se puede hacer formando la aumentada [u|v] y reduciendo: v es vector propio si y s olo si tal sistema es consistente. 10

2.- C omo saber si es valor propio de A Forme y reduzca el sistema [A I|0]. es valor propio si y s olo el sistema tiene al menos una variable libre. 3.- C omo saber si v es vector propio asociado al valor propio de A Calcule vector u = A v v es vector propio asociado al valor propio si y s olo si u = u. 4.- C omo determinar todos los valores propios de una matriz A Calcule el polinomio caracter stico de A, pA (t) = det(A t I). Obtenga todas las ra ces de pA (t): S olo las ra ces reales de pA (t) son los valores propios de A. 5.- C omo determinar todos los vectores propios de un valor propio de A Forme y resuelva el sistema [A I|0]. Un vector v es vector propio asociado al valor propio de A si y s olo si no es el vector cero y es soluci on al sistema anterior. Alternativamente, utilice su equipo computacional y determine el espacio nulo de la matriz [A I]. 6.- C omo determinar la multiplicidad algebraica de un valor propio de A Calcule el polinomio caracter stico de A, pA (t) = det(A t I). Aplique divisi on repetidamente para determinar cu antas veces divide t a pA (t). El n umero mayor de veces es la multiplicidad algebraica de . 7.- C omo determinar la multiplicidad geom etrica de un valor propio de A Forme y reduzca el sistema [A I|0]. El n umero de variables libres es la dimensi on o multiplicidad geom etrica de .

11

Diagonalizaci on de una Matriz


Departamento de Matem aticas, CCIR/ITESM 9 de febrero de 2011

Indice
19.1. Introducci on . . . . . . . . . . . . . . 19.2. Matriz diagonalizable . . . . . . . . . 19.3. Condiciones para la diagonalizaci on . 19.4. Uso de la Factorizaci on PDP1 . . . 19.5. Aplicaci on: Cadenas de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 5 6

19.1.

Introducci on

En esta lectura veremos uno de los temas m as importantes del Algebra Lineal que tiene aplicaciones fundamentales en Ingenier a. Este es el tema de la diagonalizaci on de una matriz cuadrada. Se revisar a la denici on, algunos resultados te oricos y algunas aplicaciones. Se requieren los conceptos de valor y vector propio, polinomio caracter stico y bases de un espacio lineal.

19.2.

Matriz diagonalizable

Denici on 19.1 Una matriz cuadrada A n n se dice matriz diagonalizable si existe existe una matriz P n n invertible que cumple P1 AP = D donde D es una matriz diagonal. El siguiente resultado indica qu e signica que una matriz A sea diagonalizable. Teorema Sea A una matriz cuadrada n n, entonces son equivalentes: A es una matriz es diagonalizable, Rn posee una base formada por vectores propios de la matriz A. Demostraci on Supongamos que A es diagonalizable. Por tanto, existen matrices P invertible y D diagonal tal que P1 AP = D o A = PDP1 Si pi es la i-esima columna de P y dj el j - esimo elemento de la diagonal de D, veamos que B = {p1 , p2 . . . , pn }

es base para Rn y que A pi = di pi . Como P 1 P = I n n = [ e1 e2 en ] = P 1 [ p 1 p 2 p n ] = P 1 p 1 P 1 p 2 P 1 p n Por tanto, P1 pi = ei . As mismo, Dei = di ei y Pei = pi As Api = = = = = = = PDP1 pi (PD) P1 pi (PD) ei P (Dei ) P ( d i ei ) di Pei di pi

Por tanto, pi es un vector propio asociado al valor propio di de A. Siendo P es invertible, P se reduce a Inn . Por tanto, B es linealmente independiente y genera a Rn . Por tanto, B es una base para Rn formada por vectores propios. Supongamos ahora que se tiene una base para Rn B = {p1 , p2 . . . , pn } formada por vectores propios de A y que Api = di pi . Denamos P = [p1 pn ] y D = diag (d1 , d2 , . . . , dn ) As , P es invertible y P1 AP = = = = = = = P1 (A [p1 p2 pn ]) P1 [Ap1 Ap2 Apn ] P 1 [d 1 p 1 d 2 d 2 d n d n ] P 1 d 1 p 1 P 1 d 2 p 2 P 1 d n p n d 1 P 1 p 1 d 2 P 1 p 2 d n P 1 p n [ d 1 e1 d 2 e2 d n n n ] D

por tanto, A es diagonalizable.

19.3.

Condiciones para la diagonalizaci on

Reglas b asicas para saber si una matriz es diagonalizable: Si tiene alg un valor propio complejo, no es diagonalizable. Efectivamente, si A es diagonalizable pA ( t ) = = = = = = = = det (A tI) det PDP1 tI det PDP1 tIPP1 det PDP1 P (tI) P1 det P (D tI) P1 det(P) det(D tI) det P1 det (D tI) n i=1 (di t)

por tanto, pA (t) tiene todos sus valores propios reales. La contrapositiva de esta armaci on es que si el polinomio caracter stico de A al menos una ra z compleja, entonces A no puede ser diagonalizable. 2

Si tiene todos sus valores propios reales y son diferentes, s es diagonalizable. Supongamos que sea el caso. Como pA (t) tiene grado n entonces tendr a n ra ces reales y diferentes. Por tanto, si B = {x1 , x2 , . . . , xn } es un conjunto formado por vectores propios asociados a valores propios diferentes entonces, B es un conjunto linealmente independiente. Como tiene n elementos B , es base para Rn . Por el resultado ya probado A es diagonalizable. Si tiene todos sus valores propios reales, y si para cada valor propio que apareci o repetido como ra z de la ecuaci on caracter stica el n umero de veces que apareci o repetido (multilicidad algebraica) es igual a la multiplicidad o dimensi on geom etrica entonces s es diagonalizable. Un resultado importante es: Teorema Toda matriz cuadrada sim etrica es diagonalizable. M as a un: A es sim etrica si y s olo si es ortogonalmente diagonalizable. A = PDP Esto es, la matriz P se puede cambiar por otra ortogonal (PP = I).

Ejemplo 19.1 Determine si la matriz es diagonalizable A= Soluci on El polinomio caracter stico de A es pA ( t ) = 4 3 t + t 2 y sus ra ces son: t1 = 3/2 + i 7/2 y t1 = 3/2 + i 7/2. Por tanto, tiene ra ces complejas y por tanto no es diagonalizable Ejemplo 19.2 Determine si la matriz es diagonalizable A= 1 1 0 1 El espacio 1 2 1 2

Soluci on: El polinomio caracter stico de A es pbf A (t) = (t 1)2 . Y por tanto, el u nico valor propio es t = 1. nulo de [A (1)I] es precisamente el espacio invariante de t = 1 de A y es: kernel([A (t = 1) I]) = Gen (1, 0) El conjunto B = {(1, 0) } no alcanza para una base para R2 . Por tanto, A no es diagonalizable. Ejemplo 19.3 Determine si la matriz es diagonalizable y calcule una factorizaci on: A= 1 2 2 1

Soluci on: El polinomio caracter stico de A es pA ( t ) = 3 2 t + t2 y sus ra ces son t1 = 1 y t2 = 3. Por tanto, sus ra ces son reales y diferentes. Por tanto, A es diagonalizable. Deteminemos bases para los espacios nulos. Para t = 1 Directo de Maple: (A (1)I) = Gen (1, 1) Para t = 3 Directo de Maple: Por tanto una base para R2 con vectores propios es: (A (3)I) = Gen (1, 1) B = (1, 1) , (1, 1) Por consiguiente, P= 1 1 1 1 , P 1 = 1/2 1/2 1/2 1/2 ,D= 1 0 0 3

Ejemplo 19.4 Determine si la matriz es diagonalizable y calcule una factorizaci on: 1 1 1 2 4 A = 1 1 4 2 Soluci on: El polinomio caracter stico de A es pA (t) = 18 t + 3 t2 t3 y sus ra ces son t1 = 0, t2 = 3 y t3 = 6. Por tanto, sus ra ces son reales y diferentes. Por tanto, A es diagonalizable. Deteminemos bases para los espacios nulos. Para t1 = 0 Directo de Maple: (A (0)I) = Gen (2, 1, 1) Para t2 = 3 Directo de Maple: (A (3)I) = Gen (1, 1, 1) Para t3 = 6 Directo de Maple: Por tanto una base para R3 con vectores propios es: (A (6)I) = Gen (0, 1, 1)

B = (2, 1, 1) , (1, 1, 1), (0, 1, 1) Por consiguiente, 2 1 0 P = 1 1 1 1 1 1 4

P 1

1/3 1/6 1/6 = 1/3 1/3 1/3 0 1/2 1/2 0 0 0 D = 0 3 0 0 0 6

Ejemplo 19.5 Determine todos los valores del par ametro real c para los cuales no es diagonalizable la matriz. 4 0 0 A = 0 3 1 0 0 c Soluci on Tenemos que pA (t) = det (A t I) = (4 t) (3 t) (c t) Por consiguiente, los u nicos valores propios son t1 = 4, t2 = 3 y t3 = c. Como se tiene que: Si todos los valores propios son reales y diferentes, entonces es diagonalizable. Por tanto, para cualquier real c diferente de 4 y de 3 se garantiza tres valores propios reales y diferentes. Por tanto, para cualquier real c diferente de 4 y de 3 ser a diagonalizable. Por tanto, los u nicos valores donde puede no ser diagonalizable son c = 4 y c = 3. Para c = 4 Los valores propios son t1 = 4, t2 = 3 y t3 = 4. Por tanto, el u nico valor propio que debemos revisar para la posible diagonalizaci on es t = 4: 0 1 1/7 0 rref 0 0 [A (4) I|0] 0 0 0 0 0 0

Por tanto, la dimensi on geom etrica de t = 3 es 1 y no coincide con la dimensi on algebraica (2). Por tanto, la matriz A no esdiagonalizable para c = 3. Por tanto, c = 3 es el u nico n umero real para el cual A no es diagonalizable

Por tanto, la dimensi on geom etrica de t = 4 es 2. Por tanto, la dimensi on geom etrica de t = 4 coincide con la dimensi on algebraica (2). Por tanto, para todos los valores propios la dimensi on dimensi on algebraica coincide con la geom etrica. Por tanto, para c = 4 la matriz A s es diagonalizable. Para c = 3 Los valores propios son t1 = 4, t2 = 3 y t3 = 3. Por tanto, el u nico valor propio que debemos revisar para la posible diagonalizaci on es t = 3: 1 0 0 0 rref [A (3) I|0] 0 0 1 0 0 0 0 0

19.4.

Uso de la Factorizaci on PDP1

Si A es diagonalizable entonces: P1 AP = D A = PDP1 5

Y por tanto: A2 = AA = PDP1 PDP1 = PD2 P1 De igual manera se obtiene: Ak = PDk P1 La gran ventaja de esto es que debido a que D es diagonal: k 0 1 0 2 k Dk = . .. . . . 0 0

Se considera ventaja pues el n umero de FLOPs usados para calcular Ak por la manera tradicional es (k 1) n2 (2 n 1), es decir O(2 k n3 ) mientras que para calcular PDk P1 es n2 (2 n 1) + n (k 1) + k n2 . Es decir, es O(2 n3 + k n2 ). Dando un ahorro sustancial de FLOPs en el c alculo de potencias de una matriz cuando ya se posee una factorizaci on diagonal.

0 0 0 n k

19.5.

Aplicaci on: Cadenas de Markov

Veamos algunas aplicaciones del uso de la diagonalizaci on de una matriz. En la siguiente lectura se ver a su aplicaci on a sistemas de ecuaciones diferenciales lineales. Ejemplo 19.6 Supongamos que la probabilidad de que un fumador siga fumando al a no siguiente es %65, mientras que la probabilidad de que un no fumador continue sin fumar es de %85. Determine los porcentajes de fumadores y no fumadores a la larga. Describiremos el estado de la situaci on en el a no i por medio de un vector columna: Xi = xi yi

donde xi representa el porcentaje de no fumadores en el a no i y yi representa el porcentaje de fumadores. Se supondr a que para calcular el estado en el a no i + 1 habr a que multiplicar el vector de estado en el a no i por la matriz de transici on A: pas o un a no xi xi+1 xi =A yi yi+1 yi Soluci on La matriz de transici on es A=

0.65 0.15 0.35 0.85

El elemento (2, 1) 0.35 indica que un fumador tiene un 35 % de dejar de fumar un a no despu es, mientras que el elemento 0.15 quiere decir que un no fumador tiene un 15 % de probabilidades de volverse fumador. Esta matriz puede ser utilizada para determinar el porcentaje en el a no siguiente dados los porcentajes de fomadores y no fumadores en el presente a no. Por ejemplo, si en el a no actual la relaci on fumadores no fumadores es 50 % y 50 % entonces en el a no siguiente ser a: 0.65 0.15 0.35 0.85 0.50 0.50 = 0.40 0.60

En forma an aloga, si por porcentajes actuales para los fumadores y no fumadores son xo % y yo % respectivamente, al a no siguiente ser an: 0.65 0.15 xo 0.35 0.85 yo 6

Y dentro de k a nos ser an: Xk = Ak Xo = 0.65 0.15 0.35 0.85

xo yo

Los valores propios para la matriz A son 1 = 1 y 2 = 1/2 y vectores propios correspondientes son: v1 = Por tanto, A= Ak = Por tanto
k

3 7

, v2 =

1 1 3 1 7 1 0
)k 1

3 1 7 1 3 1 7 1

1 0 0 1/2 1k 0 (1/2 1 0 0 0 xo yo

3 1 7 1
1

l m Ak =

3 1 7 1

3 1 7 1 =

0.3 0.3 0.7 0.7 = 0.3 0.7

As X = l m Ak Xo =
k

0.3 0.3 0.7 0.7

0.3xo + 0.3yo 0.7xo + 0.7yo

Por consiguiente, a largo plazo, los fumadores ser an el 30 % de la poblaci on en comparaci on con el 70 % de no fumadores. Recuerde que xo + yo = 1. Ejemplo 19.7 Suponga que s olo existen tres lecher as en el mercado Leche Lola, Leche Los Puentes, y Leche ParmaLac. Suponga que de un mes a otro Lola retiene el 80 % de sus clientes, atrae 20 % de los clientes de Los Puentes, y atrae 10 % de los clientes de ParmaLac, Los puentes retiene 70 % de sus clientes, atrae 10 % de los clientes de Lola, y atrae 30 % de los clientes de ParmaLac, y ParmaLac retiene 60 % de sus clientes, atrae el 10 % de los clientes de Lola, y atrae el 10 % de los clientes de Los puentes. Suponga el tama no de la poblaci on no cambia y se mantiene jo en 1000000 de consumidores. Determine si existe los porcentajes a largo plazo de la distribuci on de clientes de Lola, Los puentes, y ParmaLac. Soluci on La matriz de transici on queda: .80 .20 .10 A = .10 .70 .30 .10 .10 .60 pA (t) = (t3 2.1 t2 + 1.40 t .300) Usando los c alculos reportados en las guras 1 y 2, los valores propios son: 1 = 1.00, 2 = 0.60, 3 = 0.50

El polinomio caracter stico de A es:

Figura 1: Ejemplo 3: c alculo de vectores propios de A.

Figura 2: Ejemplo 3: Matriz l mite de A. y los vectores propios correspondientes son: v1 = (.744845, .579324, .331042) v2 = (.707107, +.707107, 0.) v3 = (+.408248, .816497, +.408248) Por tanto 0.744845 0.707107 P = 0.579324 +0.707107 0.331042 0. 1.0 0 0 D = 0 .60 0 0 0 .50 +0.408248 0.816497 +0.408248

Por tanto,

Por tanto la ditribuci on del mercado de leche a largo plazo sin importar la distribuci on actual es: 45 % 35 % 20 %

1 0 0 k A = l m A = P 0 0 0 k 0 0 0 .45 .45 A = l m Ak = .35 .35 k .20 .20

.45 .35 .20

P 1

Soluci on de Sistemas de Ecuaciones Diferenciales Lineales


Departamento de Matem aticas, CCIR/ITESM 9 de febrero de 2011

Indice
20.1. Introducci on . . . . . . . . . . . . . . . . . 20.2. Ejemplo 1 . . . . . . . . . . . . . . . . . . 20.3. Ejemplo 2 . . . . . . . . . . . . . . . . . . 20.4. Motivaci on a la formalizaci on del m etodo 20.5. Formalizaci on del m etodo de soluci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 3 6 7

20.1.

Introducci on

En esta lectura veremos una aplicaci on del a lgebra lineal a la soluci on de sistemas de ecuaciones diferenciales. Los conceptos involucrados son valores y vectores propios de una matriz, as como el concepto de diagonalizaci on de una matriz. La lectura est a organizada de la siguiente manera. Primeramente, se ver an dos ejemplos de la aplicaci on del m etodo. En estos ejemplos se muestra c omo utilizar una calculadora avanzada de las que obtienen valores y vectores propios de una matriz. Seguidamente, viene una secci on donde se motiva el m etodo de soluci on. Finalmente, la lectura termina con una secci on donde se formaliza el m etodo.

20.2.

Ejemplo 1

Veamos un primer ejemplo que ilustra el m etodo de soluci on. En este todos los valores propios son diferentes y as la matriz que resulta es diagonalizable. Ejemplo 20.1 Determine la soluci on al sistema x = 2x + 3y y = 2x + y Sujeto sujeto a las condiciones iniciales: x(0) = 3 y y (0) = 2. Soluci on:(y m etodo de soluci on) 1. El sistema se escribe en forma matricial: x y = 2 3 2 1 x y

2. Se determinan los valores propios de la matriz de coecientes. El polinomio caracter stico es: pA () = 2 3 4 Los valores propios son entonces: 1 = 1, 2 = 4 3. Se determinan los vectores propios correspondientes son: v1 = 1 1 , v2 = 3/2 1

Figura 1: Ejemplo 1: Matriz del sistema y sus valores y vectores propios. El m etodo que describiremos aplica cuando todos los valores caracter sticos son reales y cuando la totalidad de los vectores propios determinados es n: v1 , v2 , . . . , vn , siendo la matriz de coecientes n n. En este caso la soluci on general se escribe:
n

x=
i=1

C i v i e i t

4. Se forma la soluci on general al sistema: x ( t) y ( t) = C1 1 1 e 1 t + C 2 3/2 1 e4 t

5. Se determina la soluci on particular: determinaci on de C1 y C2 usando x(0) = 3 y y (0) = 2: 3 2 = C1 1 1 e10 + C2 3/2 1 e40

Para determinar las constantes resolvemos el sistema cuya matriz aumentada es: 1 3/2 3 1 1 2 x y O bien: x y = 12 5 1 1 12/5 12/5 1 0 12/5 0 1 2/5 et + 2 5 3/2 1 3/5 2/5 e4t

e t +

e4t

Hag amos los c alculos con una calculadora TI Voyage. En la gura 1: se dene la matriz del sistema A; se determinan los valores propios; se obtienen los vectores propios correspondientes; y se introducen las condiciones iniciales. Cabe observar que debe respetarse el orden de aparici on de cada valor propio y de cada vector propio: Para el valor propio 4, el vector < 0.832, 0.554 > genera el espacio invariante. Para el valor propio 1, el vector < 0.707, 0.707 > genera el espacio invariante. As la soluci on general quedar a: x y = C1 0.832 0.554 e4 t + C 2 0.707 0.707 e t

La constantes C1 y C2 de la soluci on particular pueden ser determinadas resolviendo el sistema: VC = Ci donde V es la matriz formada por los vectores propios y Ci es el vector de condiciones iniciales. Para obtener 2

Figura 2: Ejemplo 1: c alculos para las condiciones iniciales.

Figura 3: Ejemplo 1: c alculos para x(t = 1.2) y y (t = 1.2). ci Vi hacemos el truco del producto V diag(c1 , c2 ). Estos c alculos se ilustran en la gura 2. Por tanto, la soluci on particular es: x 0.6 2.4 = e4 t + et y 0.4 2.4 Suponga que se desea determinar x(1.2) y y (1.2). En este caso, las operaciones pueden hacerse en forma sencilla utilizando la matriz V diag(c1 , c2 ) y el vector con los datos, como se ilustra en la gura 3.

20.3.

Ejemplo 2

Ahora veamos un ejemplo donde la matriz tiene valores propios diferentes pero la matriz es diagonalizable debido a que la dimensi on algebraica coincide con la dimensi on geom etrica. Ejemplo 20.2 Determine la soluci on al sistema x = x 2y + 2z y = 2x + y 2z z = 2x 2y + z Sujeto sujeto a las condiciones iniciales: x(0) = 3, y (0) = 2 y z (0) = 1. Soluci on: 1. El sistema se escribe en forma matricial: x 1 2 2 x y = 2 1 2 y z 2 2 1 z 2. Se determinan los valores propios de la matriz de coecientes. El polinomio caracter stico es: pA () = (3 32 9 5) = ( + 1)2 ( 5) Los valores propios son entonces: 1 = 1, 2 = 1, 3 = 5 3

3. Se determinan los vectores propios correspondientes a 1 = 1: 1 0 v1 = 1 , v2 = 1 0 1 y a 3 = 5: 1 v3 = 1 1 4. La soluci on general al sistema es entonces: x ( t) 1 0 1 y (t) = C1 1 e1t + C2 1 e1t + C3 1 e5t z ( t) 0 1 1 5. Determinaci on de la soluci on particular usando las condiciones iniciales x(0) = 3, y (0) = 2 y z (0) = 1: 1 0 1 3 2 = C1 1 e10 + C2 1 e10 + C3 1 e50 1 0 1 1 Para determinar las constantes resolvemos el sistema cuya matriz aumentada es: 1 0 1 3 1 1 0 0 1 1 1 2 0 1 0 1 0 1 1 0 0 1 1 2 Por tanto, la soluci on particular es: x 1 0 1 y = 1 et 1 et + 2 1 e5t z 0 1 1 O simplemente, 2 1 x y = 0 et + 2 e5t 2 1 z La gura 4 ilustra los valores y vectores propios propios de la matriz de coecientes. La gura 5 muestra los valores de las constantes C1 , C2 y C3 relativas a las condiciones iniciales. La gura 6 muestra los vectores que acompa nan a las exponenciales en las conidiciones iniciales y la gura 7 muestra los valores de x(1.5) y de y (1.5). De los c alculos de la gura 6 se deduce que la soluci on particular es: x 2 1.004 0.004 y = 2 e5 t + 0.502 et + 0.502 e1t z 0.498 2 0.502 2 1.0 = 2 e5 t + 0.0 et 2 1.0 Para determinar los valores de x(t = 1.5), y (t = 1.5) y z (1.5) podemos recurrir de nuevo a c alculos cons matrices como se ilustra en la gura 7. 4

Figura 4: Ejemplo 2: vectores propios para la matriz de coecientes.

Figura 5: Ejemplo 2: c alculo referente a las condiciones iniciales.

Figura 6: Ejemplo 2: c alculo referente a las condiciones iniciales.

Figura 7: Ejemplo 2, Posici on en t = 1.5.

20.4.

Motivaci on a la formalizaci on del m etodo

Veamos dos ejemplos de sistemas de ecuaciones: uno f acil de resolver y uno m as complejo que puede reducirse a uno f acil. La transformaci on est a relacionada con el concepto de diagonalizaci on como veremos posteriormente. Suponga que x(t) y y (t) son dos funciones dependientes de t consideradas como funciones inc ognitas y supongamos que ellas satisfacen un sistema que tiene la forma: x ( t) y ( t) = a 1 x ( t) a 2 y ( t)

el sistema estar a representando a las dos ecuaciones diferenciales x ( t) = a 1 x ( t) y y ( t) = a 2 y ( t) Estas ecuaciones son ecuaciones diferenciales lineales de primer orden cuyas soluciones generales son: x ( t ) = C 1 ea 1 t y y ( t ) = C 2 ea 2 t Si ahora queremos regresar a la forma de vector lo anterior, lo podr amos escribir como: x ( t) y ( t) y de all a: x ( t) y ( t) = C1 1 0 ea1 t + C 2 0 1 ea 2 t = C 1 ea 1 t C 2 ea2 t

El sistema anterior es un sistema muy f acil de resolver comparado con un sistema en apariencia m as dif cil como: x ( t) 5 x ( t) 6 y ( t) = y ( t) 3 x ( t) 4 y ( t) Suponga que se nos ocurre genialmente combinar las ecuaciones en la siguiente forma: La ecuaci on 1 menos la ecuaci on 2: x ( t) y ( t) = 2 x ( t) 2 y ( t) La cual podemos escribir como: (x(t) y (t)) = 2 (x(t) y (t)) Dos veces ecuaci on 2 menos la ecuaci on 1: x ( t) + 2 y ( t) = x ( t) 2 y ( t) La cual podemos escribir como: (x(t) + 2 y (t)) = 1 (x(t) + 2 y (t)) Si ahora hacemos el cambio de variables: z ( t) = x ( t) y ( t) w ( t) = x ( t) + 2 y ( t)

y esto transforma al sistema en: z ( t) w ( t) = 2 z ( t) 1 w ( t)

Este sistema se resuelve como el primero d andonos como soluci on general: z ( t) w ( t) = C1 1 0 e2 t + C2 0 1 e t

Para regresar a las variables originales el cambio de variables hecho lo describimos en forma matricial como: z ( t) w ( t) Digamos que A = x = as la soluci on queda: Ax = C1 al multiplicar por A1 la soluci on queda x = C1 A1 Como A1 = la soluci on nalmente queda: x = C1 1 1 e2 t + C 2 1 2 e t 1 0 e2 t + C 2 A 1 0 1 e t 1 0 e2 t + C 2 0 1 e t 1 1 1 2 x ( t) y ( t) = 1 1 1 2 x ( t) y ( t)

1 1 1 2

Hay varios comentarios sobre estos c alculos. El primer tipo de sistema de ecuaciones es uno muy simple debido a que el sistema representa varias ecuaciones diferenciales en una funci on inc ognita y son f aciles de resolver. Este tipo de sistemas se llaman sistemas desacoplados: cuando cada ecuaci on est a en una funci on inc ognita y las restantes inc ognitas no aparecen en ella. Mientras que el segundo tipo de sistemas de ecuaciones diferenciales lineales son llamados sistemas acoplados: cuando hay al menos una ecuaci on diferencial donde aparencen dos o m as funciones inc ognitas. Este u ltimo ejemplo muestra que cuando el sistema puede desacoplarse, puede resolverse f acilmente. Por otro lado, la sustituci on que permite desacoplar las ecuaciones no es fruto de un golpe de inspiraci on sino resultado de un m etodo.

20.5.

Formalizaci on del m etodo de soluci on

Veamos ahora la formalizaci on de un m etodo de soluci on de sistemas de ecuaciones diferenciales lineales. Este m etodo requiere los conceptos de valor y vector propio asociado as como el concepto de diagonalizaci on. Supongamos un sistema de ecuaciones diferenciales lineales de primer orden de la forma x = Ax

donde

x=

x 1 ( t) x 2 ( t) . . . x n ( t)

es el vector de funciones inc ognitas y A es la matriz de transferencia del sistema. Suponga que la matriz A es diagonalizable y que A = PDP1 donde D es una matriz diagonal diag(1 , 2 , . . . , n ) y P es una matriz cuadrada cuyas columnas forman una base de vectores propios vi asociados a los valores propios i de A. As , el sistema podr a escribirse como x = PDP1 x si multiplicamos por P1 y asociamos obtenemos P 1 x = P 1 x = D P 1 x si denimos el nuevo vector de inc ognitas y = P1 x entonces el sistema queda: y = Dy el cual representa al sistema desacoplado:
( t) = y ( t) y1 1 1 ( t) = y ( t) y2 2 2 . . . ( t) = y ( t) yn 1 n

al resolver cada una de estas ecuaciones se obtiene: y1 ( t ) = C 1 e 1 t y2 ( t ) = C 2 e 2 t . . . yn ( t ) = C n e n t que escrita en forma vectorial queda y = C 1 e1 e 1 t + C 2 e2 e 2 t + + C n en e n t donde ei representa al vector de ceros con un 1 en la coordenada i. Si multiplicamos por P: x = Py = C1 Pe1 e1 t + C2 Pe2 e2 t + + Cn Pen en t recordando que Pei es la i- esima columna de P o sea vi , la soluci on general queda:
n

x=
i=1

Ci v i e i t

Conjuntos de Vectores y Matrices Ortogonales


Departamento de Matem aticas, CCIR/ITESM 9 de febrero de 2011

Indice
21.1. Introducci on . . . . . . . . . . . . . . . 21.2. Producto interno . . . . . . . . . . . . 21.3. Propiedades del producto interno . . . 21.4. Norma de un vector . . . . . . . . . . 21.5. Distancia entre dos vectores . . . . . . 21.6. Vectores ortogonales . . . . . . . . . . 21.7. Conjunto ortogonal de vectores . . . . 21.8. Ortogonalidad e independencia lineal . 21.9. Ortogonalidad y bases . . . . . . . . . 21.10. Ortogonalidad y descomposici on de un 21.11. Conjunto ortonormal de vectores . . . 21.12. Matriz ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 5 5 5 6 6 7 7 7 8 9

21.1.

Introducci on

En esta lectura veremos conjuntos y matrices ortogonales. Primero veremos algunas deniciones alternativas a los productos internos.

21.2.

Producto interno

Un producto interno en un espacio vectorial es una funci on : V V F , donde F es el conjunto de los escalares utilizados (F = R o F = C), y que tiene que cumplir los siguientes axiomas: Para todos los vectores x, y y z de V y para todo escalar c de F 1. (x + y) z = x z + y z es decir, se distribuye a la izquierda. 2. (c x) y = c (x y) es decir, los factores escalares a la izquierda pueden salir. 3. x y = y x. 4. x x > 0 para todo x = 0. En el axioma 3, la l nea horizontal encima de una expresi on indica que se debe tomar el conjugado complejo: El conjugado comple de un n umero se obtiene cambiando el signo de la parte imaginaria. As 3 + 3i = 3 3i 5 = 5 + 0 i = 5 0 i = 5, es decir: el conjugado de un real es el mismo. 3 i = 0 3 i = 0 + 3 i = 3 i

Figura 1: El producto interno est andar de Rn en la TI. Daremos sin comprobaci on algunos ejemplos de productos internos en los espacios vectoriales que nos ocupan. Ejemplo 21.1 Si V = Rn y x = (xi ) y y = (yi ) el producto punto est andar es:
n

xy = Si n = 3, x =< 1, 2, 1 > y y =< 1, 1, 3 >, entonces

i=1

x i yi

x y = (1)(1) + (2)(1) + (1)(3) = 4 Observe que el producto interno est andar en Rn concide con una operaci on entre matrices: x y = xT y Aqu los vectores x y y se consideran como una matrices n 1; as xT quedar a una matriz 1 n y al hacer el producto matricial con y quedar a una matriz 1 1 que ser a un escalar. Este ejemplo puede realizarse en la calculadora TI utilizando la funci on dotP ya programada como se ilustra en la gura 1.

Ejemplo 21.2 Mientras que si V = Cn con escalares C el producto punto est andar es
n

xy =

i=1

x i yi

Si n = 3, x =< 1, 2 + 2 i, i > y y =< 1, 1 + i, 3 i >, entonces xy = = = = = = (1)(1) + (2 + 2 i)(1 + i) + (i)(3 i) (1)(1) + (2 + 2 i)(1 i) + (i)(3 i) 1 2 2 i 2 i 2 i2 + 3 i2 1 4 i + i2 1 4 i + (1) 2 4 i

Es importante comentar que este producto interno est andar en Cn esta implementado en la calculadora TI y coincide con el producto est andar en Rn . Esto se ilustra en la gura 2. Note la diferencia entre el n umero imaginario i y el s mbolo i en su calculadora; en la voyage 200 i se obtiene con la combinaci on 2ND i mientras que en la TI 89 con la combinaci on 2ND catalog . No notar la diferencia le puede traer verdaderos dolores de cabeza. 2

Figura 2: El producto interno est andar de Cn en la TI.

Ejemplo 21.3 Si V = C [a, b] es el conjunto de las funciones continuas de valor real el producto interno est andar es:
b

f g =

f (t) g (t) dt

Si [a, b] = [0, 1], f (x) = x + 1 y g (x) = x2 1 entonces f g = =


1 0 (x

+ 1) (x2 1) dx + x2 x 1) dx

1 3 0 (x

= 11/12 Ejemplo 21.4 Si Si V = C [0, 2 ] es el conjunto de las funciones continuas complejas un producto interno es: f g = 1 2
2 0

f (t) g (t) dt

Ejemplo 21.5 Si Mnm es el conjunto de las matrices reales con n renglones y m columnas el producto interno est andar es: A B = tr A B donde A representa la transpuesta de la matriz A y tr(X) representa la traza de la matriz cuadrada X que es la suma de los elementos de la diagonal. Por ejemplo, si A= Entonces 1 2 3 1 2 3 yB = 1 2 3 0 2 3 1 4 6 0 0 = 2 3 12 18

y por tanto

1 1 2 AT B = 2 3 3

1 2 3 0 2 3

Para realizar esto en la calculadora TI debemos programar la funci on traza puesto que en la conguraci on inicial no viene tal funci on. Una implementaci on posible para esta funci on viene ilustrada en la gura 3. Una vez programada la funci on traza, la gura 4 ilustra el c alculo del producto interno de dos matrices. 3

1 4 6 0 0 = 1 + 0 + 18 = 19 A B = tr 2 3 12 18

Figura 3: Programando la funci on traza en la TI.

Figura 4: Producto interno est andar de Mnm (R) en la TI.

Ejemplo 21.6 Si Mnm es el conjunto de las matrices complejas con n renglones y m columnas el producto interno est andar es: A B = tr (A B)

donde A representa la adjunta de la matriz A es decir la transpuesta conjugada o tambi en conocida como transpuesta hermitiane.y tr(X) representa la traza de la matriz cuadrada X que es la suma de los elementos de la diagonal. Por ejemplo, si 1 + i 2 3i i 3 1 + 2 i 2 A= y B= 1 2 i 3 i 0 2 i 3 + i y as 1i 1 A = 2 + 3 i 2 + i i 3i 3+i 2 6 4i A B = 4 + 7 i 6 2 i 1 + 8 i 2 i 6 + 2 i 3 12 i A B = (3 + i) + (6 2 i) + (3 12 i) = 6 13 i

y por tanto

de donde

Es importante comentar que la transpuesta conjugada de una matriz en Maple se obtiene como el comando htranspose, por el nombre alternativo de transpuesta hermitiana. Por otro lado, en la calculadora TI la transpuesta siempre representa la transpuesta hermitiana de una matriz. Esto se puede ejemplicar repitiendo los c alculos del ejemplo como se ilustra en la gura 5.

Figura 5: Producto interno est andar de Mnm (C) en la TI.

21.3.

Propiedades del producto interno

Propiedades que satisfacen todos los productos internos: Teorema Sea V es espacio vectorial con producto interno , x, y y z vectores de V y c un escalar: 2. x (c y) = c (x y) 1. x (y + z) = x y + x x

3. x x = 0 si y s olo si x = 0.

4. x y = 0 si y s olo si y x = 0.

5. Si x V se cumple x y = x x, entonces y = z.

21.4.

Norma de un vector

Teniendo denido un producto interno, el siguiente paso es denir una norma o longitud de vectores. Denici on 21.1 Sea V un espacio vectorial con producto interior , para todo vector x de denimos la norma o longitud de x como x = xx Propiedades que se deducen de la norma: Teorema 1. 2. c x = |c| x x = 0 si y s olo si x = 0. En cualquier caso, x 0.

4. Desigualdad del tri angulo: x + y x + y .

3. Desigaldad de Cauchy-Schwarz: |x y| x y .

21.5.

Distancia entre dos vectores

Ahora, habiendo denido la magnitud de un vector es posible denir una distancia en un espacio vectorial. Denici on 21.2 Sea V un espacio vectorial con producto interior , para cualesquier dos vectores x y y denimos la distancia de x a y como d(x , y ) = x y Propiedades que se deducen de la funci on distancia: Teorema 5

1. d(x, y) = d(y, x) es decir, la distancia medida desde x a y es la misma que la distancia medida desde y a x. 2. d(x, y) = 0 si y s olo si x = y es decir, si la distancia entre dos puntos es cero entonces los puntos son iguales. 3. Desigualdad del tri angulo: d(x, y) d(x, z) + d(z, y)

21.6.

Vectores ortogonales

Denici on 21.3 Dos vectores x y y en Rn se dicen ortogonales si x y = 0. Si esto pasa se expresar a como x y. Ejemplo 21.7 Indique si los vectores x =< 1, 0, 2 > y y =< 2, 2, 1 > son ortogonales. Directamente de la denici on: requerimos hacer x y = (1)(2) + (0)(2) + (2)(1) = 2 + 0 + 2 = 0 Por tanto, x y. Ejemplo 21.8 Determine el valor del par ametro a para que x =< 1, 1, 2 > y y =< 3, a, 1 > sean ortogonales. Directamente de la denici on: requerimos hacer x y = (1)(3) + (1)(a) + (2)(1) = 3 + a + 2 = a 1 Por tanto, x y si y s olo si x y = 0 si y s olo si a = 1.

21.7.

Conjunto ortogonal de vectores

Denici on 21.4 Un conjunto de vectores {v1 , v2 , . . . , vm } se dice conjunto ortogonal o simplemente ortogonal si se cumple vi vj = 0 para i = j y i, j = 1, . . . , m Ejemplo 21.9 Indique si el conjunto formado por los siguientes vectores es ortogonal 2 2 1 v1 = 0 , v2 = 2 , v3 = 5/2 1 1 2 Soluci on Calculando todos los productos punto entre vectores diferentes tenemos v1 v2 = (1)(2) + (0)(2) + (2)(1) = 0 v1 v3 = (1)(2) + (0)(5/2) + (2)(1) = 0 v2 v3 = (2)(2) + (2)(5/2) + (1)(1) = 0 as concluimos que es conjunto es ortogonal. (1)

21.8.

Ortogonalidad e independencia lineal

Teorema Cualquier conjunto ortogonal S = {v1 , ...., vk } de vectores distintos de cero es linealmente independiente. Demostraci on: Si suponemos que c1 v1 + c2 v2 + + ck vk = 0 Entonces, haciendo producto punto por vi obtenemos que: c1 v1 vi + c2 v2 vi + + ck vk vi = 0 vi Observe que siendo el conjunto ortogonal todos los productos punto en el lado izquierdo se hacen cero, excepto uno: el correponiente a vi vi . Mientras que en el segundo miembro el producto punto al ser uno de los vetores cero queda cero. As lo anterior se resume a: ci vi vi = 0 como vi vi = 0 al ser todos los vectores vi diferentes del vector cero, concluimos que ci = 0.

21.9.

Ortogonalidad y bases

Teorema Cualquier conjunto generador ortogonal S = {v1 , ...., vk } de vectores distintos de cero es base para Gen(S ). on de Gen(S ), S genera a Gen(S ); y por el teorema anterior S es linealmente Demostraci on: Por denici independiente. Por tanto, S es base para Gen(S ).

21.10.

Ortogonalidad y descomposici on de un vector

Teorema Sea S = {v1 , ..., vk } un conjunto ortogonal de vectores distintos de cero. Si u est a en Gen(S ) y u = c1 v1 + + ck vk entonces ci = u vi para i = 1, . . . , k vi vi

A las expresiones u vi /vi vi se les llama los coecientes de Fourier de u respecto a S . Demostraci on: Si u = c1 v1 + + ck vk haciendo el producto punto con vi y considerando la ortogonalidad obtenemos: u vi = ci vi vi Al ser los vectores vi = 0, se tiene que vi vi = 0 y por tanto se tiene: ci = u vi vi vi 7

Nota: Lo importante del teorema anterior es indica que para bases ortonormales no es necesario resolver sistemas de ecuaciones lineales para determinar los coecientes de cada vector es sucientes calcular los coecientes de Fourier. Ejemplo 21.10 Utilizando el conjunto ortogonal S del primer ejemplo de esta lectura y el vector u = (1, 3, 2) , determine los coecientes de Fourier u respecto a S y compruebe que se obtienen los mismos valores resolviendo el sistema de ecuaciones lineales correspondientes. Soluci on: Calculemos u v1 = (1)(1) + (2)(0) + (3)(2) = 7 u v2 = (1)(2) + (2)(2) + (3)(1) = 5 u v3 = (1)(2) + (2)(5/2) + (3)(1) = 4 v1 v1 = (1)(1) + (0)(0) + (2)(2) = 5 v2 v2 = (2)(2) + (2)(2) + (1)(1) = 9 v3 v3 = (2)(2) + (5/2)(5/2) + (1)(1) = 45/4 y al aplicar las f ormulas obtenermos: c1 = 7/5, c2 = 5/9, c3 = 16/45 Si por otro lado armamos la matriz aumentada 1 2 2 0 2 5/2 2 1 1 [ v 1 , v 2 , v 3 | u] 1 1 2 0 3 0 y la reducimos: 0 0 7/5 1 0 5/9 0 1 16/45

de donde observamos que los valores de las constantes ci coinciden con los valores dados por los coecientes de Fourier.

21.11.

Conjunto ortonormal de vectores

Denici on 21.5 Un conjunto de vectores {v1 , v2 , . . . , vm } se dice conjunto ortonormal o simplemente ortonormal si se cumple vi vj = 0 para i = j y vi vi = 1 para i, j = 1, . . . , m (2)

Note que en caso de una base ortonormal S para un espacio las f ormulas de Fourier para un u simplican a ci = u vi , por ello es que es deseable tener una base ortonormal a un espacio. Si ya se posee una base ortogonal dividiendo cada vector entre su norma se obtiene una ortonormal: {v1 , . . . , vm } ortogonal 1 1 v1 , . . . , vm ortonormal ||v1 || ||vm || (3)

Ejemplo 21.11 Ortonormalize el conjunto ortogonal ejemplo de esta lectura: 2 2 1 v1 = 0 , v2 = 2 , v3 = 5/2 1 1 2 8

Soluci on: Tenemos ya realizados los siguientes c alculos v1 v1 = 5 ||v1 || = 5 v2 v2 = 9 ||v1 || = 3 v3 v3 = 45/4 ||v1 || = 45/2 Por tanto, el conjunto ortonormalizado queda 2 1 2 2 1 1 0 , 2 , 5/2 3 5 45 1 2 1

21.12.

Matriz ortogonal

Denici on 21.6 Una matriz A se dice matriz ortogonal o simplemente ortogonal si es una matriz cuadrada y las columnas de A forman un conjunto ortonormal. Teorema A n n: A es ortogonal ssi AT A = I. Observe que el teorema anterior se deduce de que para dos vectores x y y en Rn , x y = x y: y1 y1 x1 y2 x 2 y2 . = x 1 y1 + + x n yn = x 1 x 2 x n . . . . . . . . yn yn xn Con lo anterior se deduce que cuando se hace AT v se calcula un vector donde cada componente es el producto punto de la columna correspondiente de A con el vector v. Con lo anterior se deduce que cuando se calcula AT A la matriz resultante tiene en la posici on (i, j ) justo ai aj es decir, el producto punto de la columna i de A con la columna j de A. De esta forma: AT A = I si y s olo si se tiene que las columnas de A son ortogonales y que tienen norma 1. Con la observaci on anterior presente podemos hacer el ejemplo 1 m as f acilmente. Ejemplo 21.12 Indique si el conjunto formado por los siguientes vectores es ortogonal 1 2 2 v1 = 0 , v2 = 2 , v3 = 5/2 2 1 1 Soluci on Formamos la matriz A cuyas columnas son los vectores: Y calculamos AT A:

1 2 2 2 5/2 A = [v1 v2 v3 ] = 0 2 1 1 5 0 0 0 AT A = 0 9 0 0 45/4 9

que sean cero los elementos que est an fuera de la diagonal principal indica que el conjunto es ortogonal. Ejemplo 21.13 Determina los valores de x, y y z para que el conjunto de vectores 4 x 2 v1 = 6 , v2 = 6 , v3 = y z 4 3 4 x 2 A = [v1 v2 v3 ] = 6 6 y z 4 3 Y calculamos AT A: 52 + z 2 4 x + 36 + 4 z 8 + 6 y + 3 z x2 + 52 2 x + 6 y + 12 AT A = 4 x + 36 + 4 z 8 + 6 y + 3 z 2 x + 6 y + 12 13 + y 2 4 x + 36 + 4 z = 0 8 + 6y + 3z = 0 2 x + 6 y + 12 = 0 de donde, los u nicos valores que hacen ortogonal al conjunto son x = 31/5, y = 1/15 y z = 14/5 Ejemplo 21.14 Determine el vector de coordenadas de v =< 2, 2, 4 > respecto a la base ortonormal 1/3 2/3 2/3 B = u1 = 2/3 , u2 = 2/3 , u3 = 1/3 2/3 1/3 2/3

sea ortogonal. Formamos la matriz A cuyas columnas son los vectores:

Por tanto, para que el conjunto se ortogonal debe cumplirse que:

Recordemos que el vector de coordenadas de un vector respecto a una base son los coecientes de la combinaci on lineal de la base que da tal vector. Si la base es ortonormal entonces los coecientes de la combinaci on lineal son los coecientes de Fourier, es decir los productos punto del vector con cada uno de los elementos de la base. Veriquemos primero que el conjunto es ortonormal. Para ello, formamos la matriz A cuyas columnas son los vectores de B : 1/3 2/3 2/3 1/3 A = [u1 u2 u3 ] = 2/3 2/3 2/3 1/3 2/3 y calculamos AT A: 1 0 0 AT A = 0 1 0 0 0 1

Por tanto, dando la matriz diagonal el conjunto es ortogonal; dando la identidad el conjunto es ortonormal. Para calcular los productos punto de los elemento de B con v recurrimos al producto: 1/3 2/3 2/3 2 2/3 1/3 2 = 4/3 AT v = 2/3 2/3 2/3 1/3 2/3 4 14/3 10

Por tanto, c1 = v u1 = 2/3, c2 = v u2 = 4/3, y c3 = v u3 = 14/3 y el vector de coordenadas de v respecto a la base B es < 2/3, 4/3, 14/3 >. Teorema Sea A una matriz n n, y u y v dos vectores en Rn . Entonces (Au) v = u AT v Demostraci on (Au) v = (Au)T v = uT AT v = uT AT v = u AT v Teorema Sea A una matriz n n. Son equivalentes las siguientes armaciones: (1) A es ortogonal. (2) A preserva los productos punto: (Au) (Au) = u v u, v (3) A preserva norma: ||Av|| = ||v|| v Demostraci on (1) implica (2) Si A es ortogonal, AT A = I. As ( A u) ( A v ) = ( A u )T A v = uT AT A v = uT ( AT A) v = uT I v = uT v = u v (2) implica (3) Se tiene

||A v||2 = (A v) (A v) = v v = ||v||2

tomando ra z cuadrada se tiene la igualdad de (3). (3) implica (1)

11

Proyecciones Ortogonales y Proceso de Gram-Schmidt


Departamento de Matem aticas, CCIR/ITESM 9 de febrero de 2011

Indice
22.1. Introducci on . . . . . . . . . . . . . . . . . . . 22.2. Ortogonalidad a un espacio . . . . . . . . . . 22.3. Proyecci on ortogonal . . . . . . . . . . . . . . 22.4. Proceso de ortogonalizaci on de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 1 3

22.1.

Introducci on

En esta lectura veremos el proceso para ortogonalizar un conjunto de vectores. Este proceso es conocido como el proceso de Gram-Schmidt.

22.2.

Ortogonalidad a un espacio

Teorema Sea V un espacio vectorial con producto interno . El vector u es ortogonal a todo vector de W = Gen{v1 , . . . , vk } si y s olo si u vi = 0, para todo i = 1, 2 . . . , k Demostraci on Si u es ortogonal a todo W , entonces es ortogonal a todo elemento de W . Los elementos vi son tambi en elementos de W . Por tanto, para cada i = 1, 2, . . . , k se cumple u vi = 0. Supongamos que para cada i = 1, 2, . . . , k se cumpla u vi = 0, y sea v un elemento cualquiera de W . Como W est a generado por los vi , deben existir ci tales que: v = c1 v1 + + ck vk Haciendo el producto interno con u: u v = c1 u v1 + + ck u vk = c1 0 + + ck 0 = 0 por tanto, u es ortogonal a todo elemento de W .

22.3.

Proyecci on ortogonal

Nuestro principal resultado referente a ortoginalidad es el siguiente. Teorema

Suponga que V es un espacio vectorial con producto interno. Y sea b un vector de V y W un subespacio lineal de V . Si W posee una base ortogonal, entonces 1. Existe z W tal que b z W .

2. El vector z que cumple lo anterior es u nico. 3. Para todo y de W : d(z, b) d(y, b). Demostraci on

Sea B = {a1 , a2 , . . . , ak } una base ortogonal para W . Denamos z= b a1 a 1 a1 a1 + b a2 a2 a2 fi = a2 + + b ak ak a k ak

Por conveniencia representaremos

Veamos que z cumple el requisito 1. De acuerdo al resultado previo debemos probar que (b z) ai = 0 para cada i = 1, 2, . . . , k . Si utilizamos las propiedades del producto interno y la ortogonalidad de B tenemos: ( b z ) ai = = = = = b
k j =1 fj aj ai k ai j =1 fj aj k ai j =1 fj aj ai

b ai ai ai

= b

ai

b b a i fi a i ai bai ai ai b ai a i ai b a i b ai = 0

Por lo anterior y el teorema previo concluimos que b z W . Supongamos que el vector y de W tambi en cumple la condici on 1. Es decir, que b y es ortogonal a todo vector de W . Para probar que y = z, veamos que la magnitud de y z es cero. (y z) ( y z) = (y z + b b) ( y z) = ((b y) + (b z)) (y z) = (b y ) (y z) + (b z) (y z) Como z y y son elementos de W y W es un subespacio lineal, y z est a en W . y como los vectores b z y b y son perpendicuales a todo vector de W se obtiene que: ( b y ) (y z) = 0 y (b z) (y z) = 0 de esta manera tenemos que (y z) (y z) = 0. Por tanto y z que y = z. Ahora, sea y un vector cualquiera de W , as :
2

= 0. Y as y z = 0; de donde concluimos

(b y ) ( b y ) = (b y + z z) ( b y + z z) = ((b z) + (z y)) ((b z) + (z y)) = (b z) (b z) + (b z) (z y)+ (z y ) (b z) + (z y ) (z y ) = (b z) (b z) + (z y ) (z y ) 2

Por tanto d(y , b)2 = d(z, b)2 + d(y , z)2 De donde concluimos que d(x, b) d(y, b) para todo y de W . Denici on 22.1 Sea V un espacio vectorial con producto interno. Sea u un vector y sea W un subespacio con una base ortogonal on ortogonal de u sobre W es el vector B = {v1 , . . . , vk }. Entonces, la proyecci upr = u v1 u vk v1 + + vk v1 v1 vk vk u v1 u vk v1 vk v1 v1 vk vk u = upr + uc El vector upr es el vector de W lo m as cercano a u y la distancia de u a W es la magnitud del vector uc .

La diferencia uc = u up r se llama la componente de u ortogonal a W . uc = u

22.4.

Proceso de ortogonalizaci on de Gram-Schmidt

Sea V un espacio vectorial con producto interno. Todo subespacio W con una base tiene al menos una base ortogonal y una base ortonormal. Si B = {v1 , . . . , vk } es cualquier base de V , entonces B = {u1 , . . . , uk } es una base ortogonal, donde u1 = v 1 v2 u1 u2 = v 2 u u1 1 u1 v3 u1 u1 u3 = v 3 u 1 u1 . . . uk = v k y Una Base ortonormal B se obtiene normalizando B . B =

v3 u2 u2 u2 u2 vk u2 u 2 u 2 u2

vk u1 u 1 u 1 u1

v2 uk 1 u k 1 u k 1 uk 1

Gen{v1 , . . . , vi } = Gen{u1 , . . . , ui },

i = 1, . . . , k

u1 uk ,..., u1 uk

El proceso anterior es conocido como proceso de Gram-Schmidt. Ejemplo 22.1 Determine una base ortogonal y una ortonormal de R3 aplicando el proceso de Gram-Schmidt a la base B = {v1 , v2 , v3 } , en la cual 1 2 1 v1 = 1 , v2 = 3 , v3 = 2 4 1 1 Soluci on Por razones de conveniencia, denamos v j ui ui uj 3

xij =

(1)

Figura 1: Captura de los vectores del ejemplo 1. Se toma u1 = v1 . Como v2 u1 = 6 y u1 u1 = 3 se tiene x12 = 6/3 y por tanto se tiene: u2 = v2 x12 u1 2 6 = 3 3 1 0 = 1 1

1 1 1

Ya que v3 u1 = 5, v3 u2 = 2, y u2 u2 = 2, se tiene que x13 = 5/3 y x23 = 1 y entonces u3 = v3 x13 u1 x23 u2 1 0 1 5 1 (1) 1 = 2 3 4 1 1 8 As , la base ortogonal es B = {u1 , u2 , u3 } donde 8 1 0 3 u1 = 1 , u2 = 1 , u3 = 4 3 4 1 1 3 Por u ltimo, normalizamos para obtener una base 1 3 1 B = 3 1 3 ortonormal B : 2 0 6 1 1 , 2 , 1 6 1 2 6 =
3 4 3 4 3

Los c alculos anteriores pueden llevarse a cabo en la TI 89 o Voyage. La gura 1 contiene la captura de los vectores. Las guras 2 y 3 contienen los pasos del algoritmo sobre el conjunto de vectores inicial. Las guras 3 y 4 contienen la normalizaci on de los vectores resultantes del proceso de Gram-Schmidt. La gura 5 4

Figura 2: Seguimiento del algoritmo en el ejemplo 1.

Figura 3: Conclusi on del algoritmo GS e inicio del ortonormalizaci on.

Figura 4: Ortonormalizaci on del conjunto.

Figura 5: Resultado del ejemplo 1.

Figura 6: Formaci on de la matriz para el ejemplo 1.

Figura 7: QR en el ejemplo 1. contiene la matriz cuyas columnas son el resultado del proceso del ortonormalizaci on completo. El proceso de Gram-Schmidt combinado con el de ortonormalizaci on est a implementado en la TI mediante la rutina llamada factorizaci on QR. El conjunto de entrada debe estar en las columnas de una matriz. En la gura 6 se ilustra la formaci on de la matriz cuyas columnas son el conjunto inicial. Note en ella, el uso de la funci on augment con punto y coma para la separaci on de los vectores y el uso de la transpuesta debido a que ellos inicialmente fueron denidos como vectores rengl on. En la gura 7 se ilustra el uso del comando QR. Note que no se usan par entesis debido a que es una rutina y no una funci on. El primer argumento es la matriz y el segundo y tercero son variables d onde se depositar an los c alculos. Note que la matriz q resultante contiene en sus columnas el mismo resultado de nuestro proceso completo. Ejemplo 22.2 Determine la m nima distancia de v3 al espacio V que generan v1 y v2 con los datos del problema anterior. Soluci on Para este c alculo debemos cambiar a {v1 , v2 } por una base ortogonal y poder utilizar el resultado sobre la descomposici on. Por los resultados del problema previo tenemos que una base ortonormal es: B = {u1 , u2 } donde 1 0 u1 = 1 , u2 = 1 1 1 Ya que v3 u1 = 5, v3 u2 = 2, y u2 u2 = 2, entonces v3 c = v3 1 = 2 4 8 =
3 4 3 4 3

v 3 u1 v 3 u2 u1 u2 u1 u1 u2 u2 1 0 2 5 1 1 3 2 1 1

Figura 8: Datos y ortonormalizaci on del ejemplo 2.

Figura 9: C alculos nales del ejemplo 2. Por lo tanto la distancia de v3 a V es ||v3 c || = (8/3)2 + (4/3)2 + (4/3)2 = 4 6 3

En la gura 8 se ilustra la forma de realizar los c alculos del ejemplo 2 en la TI. Note que el vector v3 se deni o como rengl on, y por ello el uso de v3 T . Aplicando el concepto de multiplicaci on de una matriz por un vector, la expresi on qT v3 T calcular a < u1 v3 , u2 v3 > (Recuerde que ui ui = 1). la expresi on q qT v3 T calcular a pr = (u1 v3 ) u1 + (u2 v3 ) u2 En la gura 9 se obtiene la distancia m nima de v3 al espacio generado por v1 y v2 : d = v3 pr = 4 32 = 6 3 3

Ejemplo 22.3 Calcule una base ortogonal y una ortonormal de R3 aplicando el la cual 0 2 B = 1 , 3 , 1 1 Soluci on Utilizando

proceso de Gram-Schmidt a la base B , en 1 2 0

2 0 1 v1 = 1 , v2 = 3 , v3 = 2 1 1 0 7

Iniciemos con u1 = v1 .

Como v2 u1 = 4 y u1 u1 = 6 en ese caso v 2 u1 u1 u2 = v 2 u1 u1 0 4 = 3 6 1 4 =


3 7 3 1 3

2 1 1

Ya que v3 u1 = 1, v3 u2 = 6, y u2 u2 = u3 = v 3

22 3 ,

entonces

v 3 u1 v 3 u2 u1 u2 u1 u1 u2 u2 2 1 1 6
22 3

As la base ortogonal es B = {u1 , u2 , u3 } donde 4 14 2 33 3 , u3 = 17 u1 = 1 , u2 = 7 3 66 7 1 1 3 66 O sea 4 14 2 33 3 7 17 1 , B = , 3 66 1 7 1 3 66

1 1 = 2 6 0 14 33 17 = 66 7 66

4 3 7 3 1 3

Ejemplo 22.4 Calcule una base ortogonal y una ortonormal de R3 aplicando el proceso la cual 1 4 B = v1 = 2 , v2 = 3 , v3 = 1 5

Por u ltimo normalizamos para obtener una base ortonormal B : 4 28 1 66 1122 2 7 17 1 , B = 4 , 66 1122 1 7 1 4 66 1122 de Gram-Schmidt a la base B , en 1 2 3

Soluci on Iniciamos con u1 = v1 .

Como v2 u1 = 7 y u1 u1 = 6 en ese caso


v2 u1 u1 u2 = v 2 u 1 u1 1 4 7 2 = 3 6 1 5 31 13 2 ,

6 2 3 23 6

Ya que v3 u1 = 0, v3 u2 =

y u2 u2 =

251 6 ,

entonces

u3 = v 3

v 3 u2 v 3 u1 u1 u2 u1 u1 u2 u2
0 6

As la base ortogonal es B = {u1 , u2 , u3 } donde 1 B = 2 , 1

1 = 2 3 99
502 476 251 1805 502

1 2 1

13 2 251 6

31 6 2 3 23 6

7 6 2 3 1 6

99 502 476 251 1805 502

Por u ltimo, normalizamos para obtener una base ortonormal 7 1 66 4 1 2 B = 2 , 66 , 1 1


4 66

B :

99 3494402 952 3494402 1805 3494402

Factorizaci on QR
Departamento de Matem aticas, CCIR/ITESM 9 de febrero de 2011

Indice
23.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23.2. Factorizaci on QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23.3. Algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2

23.1.

Introducci on

En esta lectura veremos el proceso para obtener la factorizaci on QR de una matriz. Esta factorizaci on es utilizada para la soluci on por m nimos cuadrados y da un algoritmo num erico para determinar los valores propios de una matriz cuadrada.

23.2.

Factorizaci on QR

Teorema Si A es una matriz m n con columnas linealmente independientes, entonces A puede factorizarse en la forma A = QR (1) en la que Q es una matriz con columnas ortonormales y R es una matriz triangular superior. Demostraci on Sean a1 ,a2 ,. . . ,an las columnas de A y sean q1 ,q2 ,. . . ,qn los vectores obtenidos al ortonormalizarlas seg un el proceso de Gram-Schmidt. As , Gen(a1 , a2 , . . . , an ) = Gen(q1 , q2 , . . . , qn ) Denamos Q = [q 1 q2 qn ] Como cada ai es combinaci on lineal de q1 ,. . . ,qn deben existir escalares rij tales que r1i . ai = r1i q1 + + rni qn = Q . . para i = 1, . . . , n rni siendo rji = 0 para j = i + 1, . . . , n y para i = 1, . . . n, de acuerdo r11 . A = [ a1 an ] = Q . . Q 0 al proceso de Gram-Schmidt. As , r1n . . . = QR

rnm

Figura 1: Ejemplo 1: c alculo de la factorizaci on QR de A. donde R es la matriz cuyo elemento (i, j ) es rij . Las matrices buscadas son las matrices Q y R: Q tiene sus columnas ortonormales y R es triangular superior. Asimismo R debe ser invertible pues en caso contrario Rx = 0 tendr a innitas soluciones y por ende tambi en QRx = Ax = 0 contradiciendo el hecho de que las columnas de A son linealmente independientes. Nota En la pr actica la matriz R se calcula mediante la f ormula: R = QT A Ejemplo 23.1 Determine una factorizaci on QR para la matriz 1 2 1 3 2 A = 1 1 1 4 Soluci on Al aplicarle el proceso de Gram-Schmidt a las columnas de A obtenemos: 1 2 0 3 6 1 1 1 , q = q1 = , q = 2 3 2 3 6 1 1 1 2 3 6 Por tanto
1 3 1 3 1 3

0
1 2 1 2

Q=

2 6 1 6 1 6

R = QT A =

5 3 2 3 3 3 0 2 2 3 1 0 0 3 96

Los c alculos anteriores pueden hacerse en la calculadora TI. Si seleccionamos el modo exacto, denimos la matriz A y aplicamos la rutina de factorizaci on QR tendremos la salida de la gura 1 La gura 2 despliega la matriz Q calculada. La gura 3 despliega la matriz R calculada. y la comprobaci on de que el producto efectivamente da A. La gura 4 muestra la comprobaci on de que el producto efectivamente da A.

Figura 2: Ejemplo 1: Matriz Q de la factorizaci on QR de A.

Figura 3: Ejemplo 1: Matriz R de la factorizaci on QR de A.

Figura 4: Ejemplo 1: Comprobaci on de la factorizaci on QR de A.

23.3.

Algoritmo QR

Para una matriz A n n invertible, cuyos valores propios 1 , . . . , n son tales que | 1 | < | 2 | < < | n | Hacer: 1. Tomar A0 = A. 2. Para i = 0, 1, 2, . . . , k 1 hacer: a ) Determinar la descomposici on QR de Ai = Qi Ri . b ) Tomar Ai+1 = Ri Qi Resultado: Ak se aproxima a una matriz triangular cuyos elementos diagonales son todos los valores propios de A. Ejemplo 23.2 Aplique el algoritmo QR a la matriz: A= 8 7 1 2

Soluci on Tomamos A0 = A. Determinamos una factorizaci on QR de A0 : A 0 = Q 0 R0 = Por tanto, A 1 = R0 Q 0 = Determinamos una factorizaci on QR de A1 : A 1 = Q 1 R1 = Por tanto, A 2 = R1 Q 1 = Determinamos una factorizaci on QR de A2 : A 2 = Q 2 R2 = Por tanto, A 3 = R2 Q 2 = 8.9986 6.0107 0.0017 1.0013 0.9999 0.0017 0.0017 0.9999 8.9881 6.0175 0.0000 1.0013 8.9881 6.0157 0.0157 1.0118 0.9998 0.1556 0.0155 0.9998 8.8933 6.1549 0.0000 1.0119 8.8923 6.1384 0.1384 1.1076 0.9922 0.1240 0.1240 0.9922 8.0622 7.1940 0.0000 1.1163

Concluimos que los valores propios de A son aproximadamente 9 y 1. Las guras 5,6 y 7 muestran la sucesi on de c alculos del algorimto QR para aproximar los valores propios de A.

Figura 5: Ejemplo 2: Iteraci on 1 del algoritmo QR.

Figura 6: Ejemplo 2: Iteraciones 2 y 3 del algoritmo QR.

Figura 7: Ejemplo 2: Iteraciones 4 y 5 del algoritmo QR.

M nimos Cuadrados
Departamento de Matem aticas, CCIR/ITESM 9 de febrero de 2011

Indice
24.1. Introducci on . . . . . . . . . . . . . . . . . . 24.2. Error Cuadr atico . . . . . . . . . . . . . . . 24.3. M nimos Cuadrados y Proyecci on Ortogonal 24.4. Ejemplo de Soluci on . . . . . . . . . . . . . 24.5. Aplicaciones de M nimos Cuadrados . . . . 24.6. Ejemplos modelado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 3 5 5

24.1.

Introducci on

En esta secci on veremos c omo se trabaja un sistema inconsistente. Esta situaci on es muy frecuente en el ajuste de datos a un modelo matem atico: cuando se tiene un conjunto de datos y un modelo con par ametros a ajustar se conduce a un sistema de ecuaciones que rara vez tiene soluci on. Entonces, lo que procede es encontrar los valores de los par ametros que mejor ajustan el modelo a los datos. Primero veremos el concepto de error al asumir una sustituci on como si fuera soluci on a un sistema de ecuaciones. Posteriormente veremos el procedimiento para encontrar la soluci on que minimiza el error cuadr atico. Por u ltimo, veremos algunas aplicaciones del m etodo de m nimos cuadrados a ajuste de modelos.

24.2.

Error Cuadr atico

Denici on 24.1 Sea A x = b un sistema de ecuaciones (A m n). El error cuadr atico cometido al asumir la sustituci on x = xo , simbolizado por xo se dene por
xo

= b Axo

Un vector x se dice soluci on de m nimos cuadrados de Ax = b si x es tal que minimiza el error cuadr atico entre todos los vectores en Rn . Note que el error no se mide contra la soluci on que de momento no se tiene y que posiblemente no exista. Se mide en el efecto de si al sustituirla en la ecuaci on da b y qu e tal lejos qued o de b. Ejemplo 24.1 Determine el error de cuadr atico cometido por x = xo = (1, 2) como soluci on del sistema: 1 2 1 2 1 x = 2 3 3 3

Figura 1: Ejemplo 1: Captura de datos.

Figura 2: Ejemplo 1: c alculo del error cuadr atico. Soluci on Directo de la denci on:

xo

= =

5 1 1 2 1 1 2 2 1 = 2 0 2 9 3 3 3 3 (4)2 + (2)2 + (12)2 = 2 41

Las guras 1 y 2 muestran loc c alculos realizados en la TI.

24.3.

M nimos Cuadrados y Proyecci on Ortogonal

El siguiente resultado indica que efectivamente existe soluci on al problema de m nimos cuadrados y lo que la soluci on representa. Teorema Para cualquier matriz A m n y cualquier vector m b existe una soluci on x de m nimos cuadrados para Ax = b. Adem as, si bpr es la proyecci on ortogonal de b sobre el espacio generado por las columnas de A, entonces Ax = bpr La gura 3 pretende ilustrar el teorema anterior. Bajo el supuesto de A x = b inconsistente, el vector b est a fuera de C(A). La proyecci on de b sobre C(A) simbolizada por bpr es el elemento de C(A) lo m as cercano posible a b. El vector b bpr resulta perpendicular a todo C(A). M nimos cuadrados no resuelve Ax = b, sino Ax = bpr . Claro, el problema ahora es calcular bpr . El siguiente resultado indica lo que debe satisfacer la soluci on al problema de m nimos cuadrados y da el m etodo para obtenerla. Teorema 2

Figura 3: La proyecci on de b sobre C(A). x es una soluci on por m nimos cuadrados de Ax = b si y s olo si x es una soluci on de las ecuaciones normales: AT A x = AT b El sistema anterior, podr a tener innitas soluciones en algunos casos. El siguiente teorema indica las circunstancias en las cuales es u nica la soluci on al problema y c omo determinar la soluci on de m nimos cuadrados. Teorema A tendr a columnas linealmente independientes si y s olo si AT A es invertible. En este caso, la soluci on por m nimos cuadrados es u nica y puede calcularse con x = ( AT A) 1 AT b En el teorema anterior, la matriz A A podr a ser mal condicionada y ocasionar problemas num ericos. El siguiente resultado da el m etodo que usan los profesionales para resolver el problema de m nimos cuadrados a partir una factorizaci on QR de la matriz de coecientes. Teorema Si A es una matriz de m n con columnas linealmente independientes, y si A = Q R es una factorizaci on QR, la u nica soluci on x de A x = b por m nimos cuadrados se expresa te oricamente con x = R 1 Q T b y puede calcularse resolviendo el sistema Rx = QT b

24.4.

Ejemplo de Soluci on

Ejemplo 24.2 Resuelva el siguiente problema de m nimos sistema: 1 1 1

cuadrados y calcule el error de m nimos cuadrados para el 1 2 x1 2 = 4 x2 3 3 3

Figura 4: Ejemplo 2: Captura de datos.

Figura 5: Ejemplo 2: soluci on por m nimos cuadrados usando QR..


Soluci on Basta resolver las ecuaciones normales AT Ax = AT b 1 1 1 1 1 1 2 3 1 quedando las ecuaciones normales 3 6 6 14 formando la matriz aumentada y reduciendo: 3 6 6 14 9 19 1 0 0 1 2 1/2 x= 9 19

mutiplicando por AT por la izquierda ambos lados del sistema: 1 2 1 1 1 4 2 x = 1 2 3 3 3

La soluci on del sistema normal es la soluci on por m nimos cuadrados: x= cuyo error de m nimos cuadrados es: = 2 1 1 b Ax = 4 1 2 3 1 3 1 2 1 = 6 2 1 2 2
1 2

2
1 2

El problema puede hacerse tambi en utilizando la factorizaci on QR de A, estos c alculos se muestran en las guras 4 y 5.

24.5.

Aplicaciones de M nimos Cuadrados

Uno de los usos frecuentes de los m nimos cuadrados ocurre en el a rea de la modelaci on. El problema en general consiste en ajustar un conjunto de datos a un cierto modelo matem atico. El modelo contiene ciertos par ametros constantes que deben determinarse para que este se ajuste lo m as posible al conjunto de datos muestreados. En la pr actica, el conjunto de datos es grande y variado y no existe un modelo matem atico que se ajuste perfectamente a los datos encontrados y lo que se hace es determinar las constantes del modelo que minimizan el error cuadr atico datos-modelo.

24.6.

Ejemplos modelado

Veamos ahora algunos problemas de modelado mediante la t ecnica de m nimos cuadrados. Ejemplo 24.3 Determina la recta de m nimos cuadrados para el porcentaje de calicaciones por encima del 80 que ha reunido el profesor de algebra lineal. Adem as, calcule el porcentaje esperado despu es del d ecimo semestre.
Semestre Porcentaje 1 0.20 2 0.25 3 0.20 4 0.35 5 0.45 6 0.40

e1

e2

e3

e4

e5

e6

Meta: Encontrar un modelo que minimice el error total


6

Etotal =
i=1

ei 2

En este caso se desea ajustar los puntos proporcionados a un modelo lineal que en general tiene la forma: y = mx + b Los par ametros constantes a determinar en este modelo son m y b. Las variables en este modelo representan: x el semestre y y el porcentaje de calicaciones por encima del 80. Es importante observar que nuestras inc ogitas son las constantes del modelo no las variables: las variables tomar an sus valores de los datos muestreados As , el primer dato (semestre=1, porcentaje de calicaci on=0.20) se convierte en la ecuaci on:
m (semestre 1) + b = porcentaje 0.20 es decir b + m = 0.20

El segundo dato (semestre=2, porcentaje de calicaci on=0.25) se convierte en la ecuaci on:


m (2) + b = 0.25, es decir: b + 2 m = 0.25

El tercer dato (semestre=3, porcentaje de calicaci on=0.20) se convierte en la ecuaci on:


m (3) + b = 0.20, es decir: b + 3 m = 0.20

El cuarto dato (semestre=4, porcentaje de calicaci on=0.35) se convierte en la ecuaci on:


m (4) + b = 0.35, es decir: b + 4 m = 0.35

Continuando con este proceso nos lleva el sistema de ecuaciones: b + 1m b + 2m b + 3m b + 4m b + 5m b + 6m Este sistema se escribe en la notaci on matricial A Siendo b m 1 2 3 4 5 6 =b = = = = = = 0.20 0.25 0.20 0.35 0.45 0.40

A = Por tanto,

1 1 1 1 1 1

,b = 1 1 1 1 1 1

0.20 0.25 0.20 0.35 0.45 0.40 1 2 3 4 5 6

AT A =

1 1 1 1 1 1 1 2 3 4 5 6

= =

6 21 21 91

AT b = 1 1 1 1 1 1 1 2 3 4 5 6 =

0.20 0.25 0.20 0.35 0.45 0.40 1.85 7.35

1.85 7.35

As , las ecuaciones normales son 6 21 21 91 Resolviendo este sistema 6 21 1.85 21 91 7.35 b m

1 0 0.13333 0.05 0 1

Por consiguiente, m = 0.05 y b = 0.13333. De manera que la recta es y = 0.13333 + 0.05x Para x = 10 se obtiene y = 0.13333 + 0.05 10 = 0.63333. Esto signica que m as o menos esperar amos 63.3 % de calicaciones estar an por encima del 80 en el d ecimo semestre, si contin ua esta tendencia de calicaciones. El problema puede hacerse tambi en utilizando la factorizaci on QR de A, estos c alculos se muestran en las guras 6 y 7. 6

Figura 6: Ejemplo 3: Captura de datos.

Figura 7: Ejemplo 3: soluci on por m nimos cuadrados usando QR. Ejemplo 24.4 Encuentre la ecuaci on de la recta y = m x + b que se ajusta mejor, en el sentido de m nimos cuadrados, a los datos de la siguiente tabla: x 40 45 50 55 60 y 481 466 453 435 420

Hint: Forme el sistema para m y b sustituyendo los puntos en el modelo, por ejemplo al sustituir el primer punto queda la ecuaci on : 40m + b = 481
Soluci on Convirtiendo cada dato en ecuaci on, obtenemos el sistema: 40 m + b 45 m + b 50 m + b 55 m + b 60 m + b As , el sistema queda A x = b con 40 45 50 55 60 1 1 1 1 1 = = = = = 481 466 453 435 420 481 466 453 435 420

A=

y b=

As AT A = Por tanto, las ecuaciones normales quedan:

12750 250

250 5

y AT b =

111985 2255

AT A x = AT b Al formar la aumentada y reducir obtenemos: 12750 250 250 5

12750 250

250 5

x =

111985 2255

111985 2255

1 0

0 3.06 1 604.0

= 604.0. Por tanto, el modelo del m De donde m = 3.06 y b nimo error cuadr atico es: y = 3.06 x + 604.0

Ejemplo 24.5 Una poblaci on de conejos en una gran isla se estim o desde 1981 hasta 1984 y se obtuvieron los datos: a no 1981 1982 1983 1984 N 2960 4540 8080 17060

Se espera que los datos se ajusten a una funci on exponencial N (t) = No ek (t1981) Use el m etodo de m nimos cuadrados para hacer este ajuste. Usando esto determine la poblaci on en 1985. Hint: Tome logaritmos para convertir el ajuste a un modelo lineal. Soluci on Tomando logaritmo natural al modelo propuesto N (t) = No ek (t1981) tenemos: ln (N ) = k (t 1981) + ln (No ) Si y = ln (N ) y b = ln (No ) el modelo buscado es: y = k (t 1981) + b siendo los par ametros inc ognitas k y b. Al a nadir a la tabla de datos la columna ln (N ) queda: a no 1981 1982 1983 1984 N 2960 4540 8080 17060 ln (N ) 7.992944547 8.420682291 8.997147152 9.744491821

Al sustituir los datos en el modelo, obtenemos las ecuaciones: 0k + b 1k + b 2k + b 3k + b = = = = 7.992944547 8.420682291 8.997147152 9.744491821 8

Figura 8: Ejemplo 5: Captura de datos.

Figura 9: Ejemplo 6: logaritmo de un vector y factorizaci on QR. As , el sistema tiene la forma A x = b con 0 1 A= 2 3 De donde: AT A =

1 1 y b= 1 1

7.992944547 8.420682291 8.997147152 9.744491821 55.64845205 35.15526581

14 6 6 4

y AT b =

Por tanto, la matriz aumentada de las ecuaciones normales y su reducci on quedan 14 6 55.64845205 6 4 35.15526581 1 0 0.583110664 0 1 7.914150457

Concluimos que k = 0.583110664 y No = eb = e7.914150457 = 2735.72143 . Por tanto, el modelo que minimiza el error cuadr atico bajo el logaritmo natural es: N (t) 2735.72143 e.583110664 (t1981) Por tanto el estimado de la poblaci on para t = 1985 ser a: N (1985) 2735.72143 e.583110664 (19851981) = 28186.35046 El problema puede hacerse tambi en utilizando la factorizaci on QR de A, estos c alculos se muestran en las guras 8, 9 y 10. En la gura 9 se ilustra c omo tomar el logaritmo natural a un vector columna. En la gura 10 se muestra la soluci on por m nimos cuadrados utilizando la factorizaci on QR.

Figura 10: Ejemplo 6: soluci on de m nimos cuadrados por QR.

10

Matrices Elementales
Departamento de Matem aticas, CCIR/ITESM 9 de febrero de 2011

Indice
25.1. Matriz Elemental . . . . . . . . . . . . . . . . . 25.2. Matrices y operaciones elementales . . . . . . . 25.3. Las matrices elementales son invertibles . . . . 25.4. Matrices elementales en la equivalencia de matrices 25.5. Resultado Clave . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 3 4 4

25.1.

Matriz Elemental

Denici on 25.1 Una matriz n n se llama matriz elemental si puede obtenerse de la matriz identidad Inn por medio de s olo una operaci on elemental de rengl on, es decir: intercambiando los renglones i y j , multiplicando el rengl on i por una constante c diferente de cero, o sumando al rengl on i el rengl on j multiplicado por la constante c. Ejemplo 25.1 Son matrices elementales de intercambio: E1 = Porque E1 corresponde a R1 R2 sobre I22 ; E2 corresponde a R1 R2 sobre I33 ; y E3 corresponde a R2 R3 sobre I33 . Ejemplo 25.2 Son matrices elementales de multiplicaci on: 5 0 0 1 1 0 0 1 0 0 0 , E5 = 0 7 0 , E6 = 0 1 0 0 1 0 0 2 /5 0 1 1 0 0 1 0 1 0 0 , E2 = 1 0 0 , E 3 = 0 0 1 0 0 1 0 1 0

E4 = Porque

E4 corresponde a R1 5 R1 sobre I22 ; E5 corresponde a R2 7 R2 ; sobre I33 y E6 corresponde a R3


2 5

R3 sobre I33 .

Ejemplo 25.3 Son matrices elementales de eliminaci on: E7 = Porque E7 corresponde a R1 R1 + 1/3 R2 sobre I22 ; E8 corresponde a R2 R2 5 R3 sobre I33 ; y E9 corresponde a R3 R3 + 7 R2 sobre I33 . Notas Las operaciones elementales sobre los renglones de una matriz son reversibles, es decir es posible retornar a la matriz inicial haciendo otra operaci on elemental. En general: Operaci on Elemental Ri Rj Ri c Ri Ri Ri + c Rj Ejemplo 25.4 La inversa de R1 R4 es R1 R4 , La inversa de R2 R3 es R2 R3 , La inversa de R1 2 R1 es R1 1/2 R1 , La inversa de R4 2/3 R4 es R4 3/2 R4 , La inversa de R4 2/3 R4 es R4 3/2 R4 , La inversa de R3 R3 + 5 R1 es R3 R3 5 R1 ,y La inversa de R2 R2 4 R3 es R2 R2 4 R3 . Operaci on inversa correspondiente Ri Rj Ri (1/c) Ri Ri Ri c Rj 1 1/3 0 1 1 0 0 1 0 0 , E8 = 0 1 5 , E9 = 0 1 0 0 0 1 0 7 1

25.2.

Matrices y operaciones elementales

Si E corresponde a la operaci on elemental Op entonces: Si A A1 , entonces EA = A1 Es decir que 2


Op

El resultado de aplicarle a la matriz A la operaci on elemental Op equivale a multiplicar la matriz A por la izquierda por la matriz elemental asociada a Op. Ejemplo 25.5 Una operaci on del m etodo de eliminaci on gaussiana es 3 3 3 6 9 3 6 9 R2 R3 0 0 2 2 1 0 1 2 0 1 2 1 0 0 2 2 Esta corresponde a 3 3 1 0 0 3 6 9 3 6 9 0 0 1 0 0 2 2 = 0 1 2 1 0 1 2 1 0 0 2 2 0 1 0 Ejemplo 25.6 Una operaci on del m etodo de eliminaci on 3 6 0 0 1 0 0 0 1 Esta corresponde a 3 0 0 6 1 6 0 3 6 0 12 0 3 1 0 0 1 0 3 = 0 1 0 0 0 1 1 0 0 1 1 0 0 1 Ejemplo 25.7 Una operaci on del m etodo de eliminaci on gaussiana es 3 0 0 6 1 0 0 2 R1 1/3 R1 0 1 0 3 3 0 1 0 0 0 1 0 0 1 1 1 Esta corresponde a 0 0 3 0 0 6 1 0 0 2 0 1 0 0 1 0 3 0 1 0 3 0 0 1 0 0 1 1 0 0 1 1
1 3

gaussiana es 12 3 0 0 6 R1 R1 6 R2 3 3 0 1 0 0 0 1 1 1

25.3.

Las matrices elementales son invertibles

Toda matriz elemental es matriz invertible. M as a un, si E es una matriz elemental, E 1 se obtiene al invertir la operaci on elemental que produjo a E a partir de la identidad I.
operaci on elemental operaci on elemental

matriz elemental

matriz elemental

operaci oasociada n inversa matriz inversa matriz

Ejemplo 25.8 Si E1 = entonces: E1 1 = 1 3 0 1 , E 2 1 = 0 1 1 0 , E 3 1 = 1 0 0 1 4 1 3 0 1 , E2 = 0 1 1 0 , E3 = 1 0 0 4

25.4.

Matrices elementales en la equivalencia de matrices

1. A B si y s olo si existen matrices elementales E1 ,...,Ek tales que: B = Ek Ek1 . . . , E1 A 2. La forma escalonada de una matriz cuadrada A es Inn o bien tiene un rengl on de ceros. 3. Sean A y B matrices n n, si A o B no son invertibles entonces A B tampoco es invertible.

25.5.

Resultado Clave

Sea A una matriz n n. Las siguientes armaciones son equivalentes: 1. A es invertible 2. A es el producto de matrices elementales. 3. Al reducir A, en cada columna queda un pivote. 4. Al reducir A, en cada rengl on queda un pivote. 5. Las columnas de A son linealmente independientes. 6. Las columnas de A generan a Rn . 7. El sistema A x = b tiene al menos una soluci on para todo vector b Rn . 8. El sistema A x = b tiene solamente una soluci on para todo vector b Rn . 9. El sistema homog eneo A x = 0 tiene s olo la soluci on trivial x = 0.

Factorizaci on LU
Departamento de Matem aticas, CCIR/ITESM 9 de febrero de 2011

Indice
26.1. Introducci on . . . . . . . . . . . . . . 26.2. Factorizaci on LU . . . . . . . . . . . 26.3. Uso de la factorizaci on LU . . . . . . 26.4. Obtenci on de la factorizaci on LU con 26.5. Factorizaci on LU: ejemplo clave . . . 26.6. Complejidad . . . . . . . . . . . . . . 26.7. Factorizaci on de P A = L U . . . . . 26.8. Notas generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 3 4 5 5 13

26.1.

Introducci on

La factorizaci on LU de una matriz es una factorizaci on que resume el proceso de eliminaci on gaussiana aplicado a la matriz y que es conveniente en terminos del n umero total de operaciones de punto otante cuando se desea calcular la inversa de una matriz o cuando se resolver a una serie de sistemas de ecuaciones con una misma matriz de coecientes. En la lectura, primeramente consideraremos la factorizaci on LU sin intercambio basada en matrices elementales y que es conocida como de Doolittle y posteriormente veremos el algoritmo que da la factorizaci on PA = LU.

26.2.

Factorizaci on LU

Suponga que la matriz A es una matriz m n se puede escribir como el producto de dos matrices: A = LU donde L es una matriz triangular inferior m m y U es una matriz escalonada m n. Entonces para resolver el sistema: A x = b, escribimos A x = (L U) x = L (U x) . Una posible estrategia de soluci on consiste en tomar y = U x y resolver para y: L y = b. Como la matriz L es triangular superior este sistema puede resolverse mediante sustituci on hacia abajo, lo cual se hace f acilmente en m2 FLOPS. Una vez con los valores encontrados de y, las inc ognitas al sistema inicial se resuelve despejando x de U x = y.

Nuevamente, como U es escalonada, este sistema puede resolverse en caso de tener souci on mediante sustituci on hacia atr as, lo cual es sencillo. Estas observaciones nos dan la pauta para ver la conveniencia de una factorizaci on como la anterior, es decir factorizar A como el producto de una matriz L triangular superior, por otra U la cual es escalonada. Esta factorizaci on se llama usualmente Descomposici on LU.

26.3.

Uso de la factorizaci on LU

Ejemplo 26.1 Use la factorizaci on LU de A:

4 2 1 1 0 0 4 2 1 3 7 = LU A = 20 7 12 = 5 1 0 0 8 13 17 2 3 1 0 0 2 11 A x = 70 = b 17

para despejar x del sistema:

Soluci on Sea y = (y1 , y2 , y3 ) un nuevo vector de inc ognitas. Primero resolveremos el sistema triangular inferior L y = b: 1 0 0 11 5 1 0 y = 70 2 3 1 17 Este sistema escrito en su forma de ecuaciones queda: y1 = 11 5 y1 + y2 = 70 2 y1 + 3 y2 + y3 = 17 Por eliminaci on directa de la: primera ecuaci on: y1 = 11, segunda ecuaci on: y2 = 70 5 y1 = 70 5 (11) = 15, y de la tercera: y3 = 17 + 2y1 3 y2 = 17 + 2 (11) 3 (15) = 6. Ahora el sistema U x = y: 4 2 1 11 0 3 7 x = 15 0 0 2 6 El cual escrito en su forma de ecuaciones queda: 4 x1 2 x2 + x3 = 11 3 x2 + 7 x3 = 15 2 x3 = 6 El cual al ser resuelto por sustituci on hacia atr as queda: 2

de la u ltima ecuaci on: x3 = 3, segunda ecuaci on: x2 = 5 7/3 x3 = 5 7/3 (3) = 2, y de la primera: x1 = 11/4 + 1/2x2 1/4 x3 = 11/4 + 1/2 (2) 1/4 (3) = 1

26.4.

Obtenci on de la factorizaci on LU con elementales

Ejemplo 26.2 Determine una factorizaci on LU de la matriz: 2 3 1 6 6 5 A= 4 18 6 2 9 3 Soluci on La idea del m etodo es ir acumulando las inversas de las operaciones hechas sobre los renglones la matriz para irla trasnformando en una matriz escalonada. Y m as que propiamente las inversas de las operaciones sobre los renglones, las matrices elementales involucradas. As por ejemplo el primer c alculo que se realiza es hacer un cero debajo de el elemento (1, 1) que es el elemento 2, para ello debemos realizar la operaci on R2 R2 + 3R1 , esta operaci on tiene como matriz elemental la matriz: 1 0 0 0 3 1 0 0 E1 = 0 0 1 0 0 0 0 1 As la situaci on est a: 2 3 1 0 3 3 = B1 E1 A = 4 18 6 2 9 3

En el siguiente paso del proceso de eliminaci on es R3 R3 2R1 , esta operaci on tiene como matriz elemental la matriz: 1 0 0 0 0 1 0 0 E2 = 2 0 1 0 0 0 0 1 As la situaci on est a: 2 3 1 0 3 2 = B2 E2 E1 A = 0 12 8 2 9 3

En el siguiente paso del proceso de eliminaci on es R4 R4 + R1 , esta operaci on tiene como matriz elemental la matriz: 1 0 0 0 0 1 0 0 E3 = 0 0 1 0 1 0 0 1 3

As la situaci on est a:

2 3 1 0 3 2 = B3 E 3 E 2 E1 A = 0 12 8 0 6 4

Observamos que el hipot etico caso de que en E3 E2 E1 A = B3 La matriz B3 ya fuera escalonada, es decir la U buscada, entonces: A = E1 1 E2 1 E3 1 U Lo cual indica que lo que debemos acumular son las inversas de las matrices elementales utilizadas. La forma sistem atica de ir acumulando las inversas de las Ei s es ir contruyendo la matriz L: 1 0 0 0 3 1 0 0 L= 2 ? 1 0 1 ? ? 1 As , en el avance de la conversi on a escalonada de A: 2 3 1 0 3 2 , A 0 12 8 0 6 4 2 0 0 0

1 3 L= 2 1

0 1 ? ?

0 0 1 ? 0 0 1 ?

0 0 0 1 0 0 0 1

1 0 3 1 3 1 3 2 = U, L = 2 4 0 0 1 2 0 0

En este caso la matriz U est a en la forma escalonada y por consiguiente el proceso se detiene haciendo cero aquellos valores desconocidos. Por consiguiente una factorizaci on de A ser a: 1 0 0 0 2 3 1 3 1 0 0 2 0 3 A = LU = 2 4 1 0 0 0 0 1 2 0 1 0 0 0

26.5.

Factorizaci on LU: ejemplo clave

Ejemplo 26.3 Determine una factorizaci on LU de la matriz: 2 3 1 6 6 5 A= 4 18 6 2 9 3 Soluci on El m etodo procede as . 4

La matriz L inicialmente es la matriz identidad con el mismo n umero de renglones de A. Si se utiliz o la operaci on Ri Ri + c Rj entonces en la posici on (i, j ) de L se coloca c. La matriz U es la matriz que queda en al escalonar A. Si hubo necesidad de intercambiar renglones para escalonar, A NO admite una factorizaci on L U. Digamos que con las operaciones siguientes 1. R2 R2 + 3 R1 2. R3 R3 2 R1 3. R4 R4 + 1 R1 4. R3 R3 4 R2 5. R4 R4 + 2 R2 la matriz A se escalona y que queda: 2 0 A 0 0 Entonces 1 0 (3) 1 L= (2) (4) (1) (2) 0 0 1 0 3 1 3 2 0 0 0 0 0 0 1 0 0 0 y U= 0 1 2 0 0 0 3 1 3 2 0 0 0 0

0 1 0 0 3 1 = 0 2 4 1 1 2

26.6.

Complejidad

Observe que para la obtenci on de la factorizaci on LU se realiza la fase 1 del m etodo de eliminaci on gaussiana. Por consiguiente, la complejidad del algoritmo de factorizaci on LU ser a O(2/3 n3 ). Teniendo la factorizaci on 2 LU, la aplicaci on de la sustici on hacia atr as o hacia adelante toman cada uno n . Por ello es que para resolver un solo sistema de ecuaciones no hay ventaja en utilizar la factorizaci on LU. La ventaja aparece cuando se desean resolver varios sistemas de ecuaciones con la misma matriz de coecientes. En la primera soluci on se determina la factorizaci on LU, y en las siguientes bastar a sustituci on hacia adelante y hacia atr as. O sea que cada siguiente soluci on tomar a s olo 2 n2 FLOPs contrario a los 2/3 n3 de eliminaci on gaussiana.

26.7.

Factorizaci on de P A = L U

Frecuentemente, no es posible escalonar una matriz s olo con operaciones de eliminaci on. En estos casos se requiere realizar intercambio de renglones. Para este tipo de matrices no existe la factorizaci on LU. Lo que aplica es la factorizaci on P A = L U. Donde la matriz P es una matriz de permutaci on. Estas matrices de permutaci on se obtienen de la matriz identidad intercambiando renglones. La factorizaci on P A = L U se obtiene de forma an aloga a la factorizaci on LU pero se lleva un registro de los renglones que se intercambian y se efectuan los intercambios en una matriz que registra los inversos de las operaciones de eliminaci on. Algoritmo de P A = L U Entrada: Matriz A n m 5

Salida: P matriz de permutaci on n n, L matriz triangular superior unitaria n n (lii = 1), U matriz escalonada n m que cumplen: PA = LU 1. Tome P = In , L = 0, y U = A. 2. Mientras que U no sea escalonada hacer 2.1. Aplicar una operaci on R de eliminaci on o de intercambio a U. 2.2. Si R es de la forma Ri Rj , entonces aplicar R a P y a L. 2.3. Si R es de la forma Ri Ri a Rj ,entonces modicar L haciendo lij = a. 3. Tome L = L + In . Ejemplo 26.4 Determine una factorizaci on P A = L U de la matriz 1 2 2 1 4 5 7 6 A= 5 25 15 3 6 12 6 22

Soluci on Tomemos U0 = A, P0 = I4 y L0 = 0. 1. Si aplicamos sobre U0 las operaciones de eliminaci on R2 R2 4 R1 ,R3 R3 5 R1 y R4 R4 6 R1 se obtiene a la nueva matriz U1 : 1 2 2 1 0 3 1 2 U1 = 0 15 5 8 0 24 6 16 Estos cambios se registran en L1 y hasta el momento 0 0 4 0 L1 = 5 0 6 0 se tiene: 0 0 0 0 ,P = I 0 0 0 0

2. Si aplicamos sobre U1 las operaciones de eliminaci on R3 R3 + 5 R2 y R4 R4 8 R2 se obtiene a la nueva matriz U2 : 1 2 2 1 0 3 1 2 U2 = 0 0 0 2 0 0 2 0

Estos cambios se registran en L1 y hasta el momento 0 0 4 0 L2 = 5 5 6 8

se tiene: 0 0 0 0 , P = P1 0 0 2 0 0

3. Si aplicamos sobre U2 la operaci on de intercambio R3 R4 se obtiene la nueva matriz U3 : 1 2 2 1 0 3 1 2 U3 = 0 0 2 0 0 0 0 2 Aplicando la operaci on de intercambio a L2 y 0 0 4 0 L3 = 6 8 5 5 a P2 , se tiene: 0 0 0 0 , P3 = 0 0 0 0

1 0 0 0

0 1 0 0

0 0 0 1

0 0 1 0 nalizamos haciendo L = L3 + I y 0 0 0 0 1 0 0 1

4. Puesto que la matriz U3 ya es escalonada, el procedimiento termina y se tiene: 1 2 2 1 1 0 0 3 1 2 4 1 U = U3 = ,L = 0 6 0 2 0 8 0 0 0 2 5 5 1 0 0 0 0 1 0 0 P = P3 = 0 0 0 1 0 0 1 0 Como ejercicio, compruebe que P A = L U Ejemplo 26.5 Determine una factorizaci on P A = L U de la matriz 0 3 1 2 2 0 0 0 0 2 2 2 1 1 A= 1 4 2 8 8 9 5 1 5 13 11 Soluci on Tomemos U0 = A, P0 = I5 y L0 = 0. 1. Si aplicamos sobre U la operaci on de intercambio R1 R3 se 1 2 2 1 0 0 0 0 1 2 U1 = 0 3 4 2 8 8 5 1 5 13

obtiene la nueva matriz U: 1 2 2 9 11

Aplicando la operaci on de intercambio 0 0 L1 = 0 0 0

a L0 y a P0 , se tiene: 0 0 0 0 0 0 0 0 0 0 0 0 , P1 = 0 0 0 0 0 0 0 0

0 0 1 0 0

0 1 0 0 0

1 0 0 0 0

0 0 0 1 0

0 0 0 0 1

2. Si aplicamos sobre U1 las operaciones de eliminaci on R4 nueva matriz U2 : 1 2 2 0 0 0 1 U2 = 0 3 0 6 0 0 9 5

R4 4 R1 y R5 R5 5 R1 se obtiene a la 1 0 2 4 8 1 2 2 5 6

Estos cambios se registran en L1 y hasta el momento se tiene: 0 0 0 0 0 0 0 0 0 0 L2 = 0 0 0 0 0 , P2 = 4 0 0 0 0 5 0 0 0 0

0 0 1 0 0

0 1 0 0 0

1 0 0 0 0

0 0 0 1 0

0 0 0 0 1

3. Si aplicamos sobre U2 la operaci on de intercambio R2 R3 se obtiene la nueva matriz U3 : 1 2 2 1 1 0 3 1 2 2 0 0 0 2 U3 0 0 6 0 4 5 0 9 5 8 6 Aplicando la operaci on de intercambio 0 0 L3 = 0 4 5 a L2 y a P2 , se tiene: 0 0 0 0 0 0 0 0 0 0 0 0 , P3 = 0 0 0 0 0 0 0 0

0 1 0 0 0

0 0 1 0 0

1 0 0 0 0

0 0 0 1 0

0 0 0 0 1

Si aplicamos sobre U3 las operaciones de eliminaci on R4 R4 2 R2 y R5 R5 3 R2 se obtiene a la nueva matriz U4 : 1 2 2 1 1 0 3 1 2 2 0 0 0 2 U4 = 0 0 0 2 0 1 0 0 2 2 0 Estos cambios se registran en L3 y hasta el momento se tiene: 0 0 0 0 0 0 0 0 0 0 L4 = 0 0 0 0 0 , P4 = 4 2 0 0 0 5 3 0 0 0 8

0 1 0 0 0

0 0 1 0 0

1 0 0 0 0

0 0 0 1 0

0 0 0 0 1

5. Si aplicamos sobre U4 la operaci on de intercambio R2 R3 1 2 2 1 0 3 1 2 0 2 0 U5 = 0 0 0 0 0 0 0 2 2 Estos cambios se registran en L4 y hasta el momento se tiene: 0 0 0 0 0 0 0 0 0 0 L5 = 4 2 0 0 0 , P5 = 0 0 0 0 0 5 3 0 0 0

se obtiene la nueva matriz U5 : 1 2 1 2 0

0 1 0 0 0

0 0 0 1 0

1 0 0 0 0

0 0 1 0 0

0 0 0 0 1

6. Si aplicamos sobre U5 la operaci on de eliminaci on R5 R5 + 1 R3 se obtiene a la nueva matriz U6 : 1 2 2 1 1 0 3 1 2 2 0 2 0 1 U6 = 0 0 0 0 0 2 0 0 0 2 1 Estos cambios se registran en L6 y hasta el momento se tiene: 0 0 0 0 0 0 0 0 0 0 0 0 0 , P6 = L6 = 4 2 0 0 0 0 0 5 3 1 0 0 7. Si aplicamos sobre U6 la operaci on de intercambio R4 R5 1 2 2 1 0 3 1 2 0 0 2 0 U7 = 0 0 0 2 0 0 0 0 Estos cambios se registran en L6 y hasta el momento se tiene: 0 0 0 0 0 0 0 0 0 0 0 0 0 , P7 = L7 = 4 2 5 3 1 0 0 0 0 0 0 0

0 1 0 0 0

0 0 0 1 0

1 0 0 0 0

0 0 1 0 0

0 0 0 0 1

se obtiene la nueva matriz U7 : 1 2 1 1 2

0 1 0 0 0

0 0 0 0 1

1 0 0 0 0

0 0 1 0 0

0 0 0 1 0

8. Puesto que la matriz U7 ya es escalonada, el procedimiento termina y nalizamos haciendo L = L7 + I y se tiene: 1 0 0 0 0 1 2 2 1 1 0 3 0 1 1 2 2 0 0 0 0 2 0 1 , L = 4 2 1 0 0 U = U7 = 0 0 5 3 1 1 0 0 0 2 1 0 0 0 0 2 0 0 0 0 1 9

P = P7 = Como ejercicio, compruebe que P A = L U Ejemplo 26.6 Determine una factorizaci on P A = L U de la 0 8 9 A= 1 0 10

0 1 0 0 0

0 0 0 0 1

1 0 0 0 0

0 0 1 0 0

0 0 0 1 0

matriz 18 0 14 16 7 16 18 8 9 16 3 13 21 20 14 2 2 1 1 2 3 1 2 2 1 1 21 28 32 12

Soluci on Tomemos U0 = A, P0 = I5 y L0 = 0. 1. Si aplicamos sobre U la operaci on de intercambio 1 2 8 16 9 3 U1 = 0 18 0 3 10 1 Aplicando la operaci on de intercambio 0 0 0 0 0 0 L1 = 0 0 0 0 0 0

R1 R4 se obtiene la nueva matriz U: 2 1 1 2 18 8 9 16 13 21 20 14 0 14 16 7 1 2 2 1 21 28 32 12

a L0 y a P0 , se tiene: 0 0 0 0 0 0 0 0 0 0 0 0 , P = 1 0 0 0 0 0 0 0 0 0 0 0

0 0 0 1 0 0

0 1 0 0 0 0

0 0 1 0 0 0

1 0 0 0 0 0

0 0 0 0 1 0

0 0 0 0 0 1

2. Si aplicamos sobre U1 las operaciones de eliminaci on R2 R2 8 R1 , R3 R3 9 R1 y R6 R6 10 R1 se obtiene a la nueva matriz U2 : 1 2 2 1 1 2 0 0 2 0 1 0 0 15 5 12 11 4 U2 = 0 18 0 14 16 7 0 3 1 2 2 1 0 21 1 18 22 8 Estos cambios se registran en L1 y hasta el 0 0 0 8 0 0 9 0 0 L2 = 0 0 0 0 0 0 10 0 0 momento se tiene: 0 0 0 0 0 0 0 0 0 , P2 = 0 0 0 0 0 0 0 0 0 10

0 0 0 1 0 0

0 1 0 0 0 0

0 0 1 0 0 0

1 0 0 0 0 0

0 0 0 0 1 0

0 0 0 0 0 1

3. Si aplicamos sobre U2 la operaci on de intercambio R2 1 2 2 0 3 1 0 15 5 U3 = 0 18 0 0 0 2 0 21 1 Aplicando la operaci on de intercambio a L2 y 0 0 0 0 0 0 0 0 9 0 0 0 L3 = 0 0 0 0 8 0 0 0 10 0 0 0

R5 se obtiene la nueva matriz U3 : 1 1 2 2 2 1 12 11 4 14 16 7 0 1 0 18 22 8

a P2 , se tiene: 0 0 0 0 0 0 , P3 = 0 0 0 0 0 0

0 0 0 1 0 0

0 0 0 0 1 0

0 0 1 0 0 0

1 0 0 0 0 0

0 1 0 0 0 0

0 0 0 0 0 1

4. Si aplicamos sobre U3 las operaciones de eliminaci on R3 R3 5 R2 , R4 R4 6 R2 y R6 R6 7 R2 se obtiene a la nueva matriz U4 : 1 2 2 1 1 2 0 3 1 2 2 1 0 0 0 2 1 1 U4 = 0 0 6 2 4 1 0 0 2 0 1 0 0 0 8 4 8 1 Estos cambios se registran en L3 y hasta el 0 0 0 0 0 0 9 5 0 L4 = 0 6 0 8 0 0 10 7 0 momento se tiene: 0 0 0 0 0 0 0 0 0 , P = 4 0 0 0 0 0 0 0 0 0

0 0 0 1 0 0

0 0 0 0 1 0

0 0 1 0 0 0

1 0 0 0 0 0

0 1 0 0 0 0

0 0 0 0 0 1

5. Si aplicamos sobre U4 la operaci on de intercambio R3 R5 se obtiene la nueva matriz U5 : 1 2 2 1 1 2 0 3 1 2 2 1 0 0 2 0 1 0 U5 = 0 6 2 4 1 0 0 0 0 2 1 1 0 0 8 4 8 1 Aplicando la operaci on de intercambio a L4 y 0 0 0 0 0 0 0 0 8 0 0 0 L5 = 0 6 0 0 9 5 0 0 10 7 0 0 a P4 , se tiene: 0 0 0 0 0 0 , P5 = 0 0 0 0 0 0 11

0 0 0 1 0 0

0 0 1 0 0 0

0 0 0 0 1 0

1 0 0 0 0 0

0 1 0 0 0 0

0 0 0 0 0 1

6. Si aplicamos sobre U5 las operaciones de eliminaci on R4 nueva matriz U6 : 1 2 2 1 0 3 1 2 0 0 2 0 U6 = 0 0 0 2 0 0 0 2 0 0 0 4 Estos cambios se registran en L6 y hasta el 0 0 0 0 0 0 8 0 0 L6 = 0 6 3 9 5 0 10 7 4

R4 3 R3 y R6 R6 3 R3 se obtiene a la 1 2 2 1 1 0 1 1 1 1 4 1

momento se tiene: 0 0 0 0 0 0 0 0 0 , P6 = 0 0 0 0 0 0 0 0 0

0 0 0 1 0 0

0 0 1 0 0 0

0 0 0 0 1 0

1 0 0 0 0 0

0 1 0 0 0 0

0 0 0 0 0 1

7. Si aplicamos sobre U6 las operaciones de eliminaci on R5 nueva matriz U7 : 1 2 2 1 0 3 1 2 0 0 2 0 U7 = 0 0 0 2 0 0 0 0 0 0 0 0 Estos cambios se registran en L7 y hasta el 0 0 0 0 0 0 8 0 0 L7 = 0 6 3 9 5 0 10 7 4

R5 1 R4 y R6 R6 2 R4 se obtiene a la 1 2 2 1 1 0 1 1 0 2 2 1

momento se tiene: 0 0 0 0 0 0 0 0 0 , P7 = 0 0 0 1 0 0 2 0 0

0 0 0 1 0 0

0 0 1 0 0 0

0 0 0 0 1 0

1 0 0 0 0 0

0 1 0 0 0 0

0 0 0 0 0 1

8. Si aplicamos sobre U7 la operaci on de intercambio R5 R6 se obtiene la nueva matriz U8 : 1 2 2 1 1 2 0 3 1 2 2 1 0 0 2 0 1 0 U8 = 0 0 2 1 1 0 0 0 0 0 2 1 0 0 0 0 0 2 Aplicando la operaci on de intercambio a L7 y 0 0 0 0 0 0 0 0 8 0 0 0 L8 = 0 6 3 0 10 7 4 2 9 5 0 1 a P7 , se tiene: 0 0 0 0 0 0 , P8 = 0 0 0 0 0 0 12

0 0 0 1 0 0

0 0 1 0 0 0

0 0 0 0 0 1

1 0 0 0 0 0

0 1 0 0 0 0

0 0 0 0 1 0

9. Puesto que la matriz U8 ya es escalonada, se tiene: 1 2 2 0 3 1 0 0 2 U = U8 = 0 0 0 0 0 0 0 0 0

el procedimiento termina y 1 1 2 1 0 0 1 2 2 1 0 1 0 ,L = 8 0 0 6 2 1 1 10 7 0 2 1 0 0 2 9 5 0 0 0 1 0 0 0 0 0 0 1 0 0 1 0 0 0 0 P = P8 = 1 0 0 0 0 0 0 0 0 0 0 1 0 0 1 0 0 0

nalizamos haciendo L = L8 + I y 0 0 0 0 0 0 0 0 1 0 0 0 3 1 0 0 4 2 1 0 0 1 0 1

Como ejercicio, compruebe que P A = L U

26.8.

Notas generales

A continuaci on hacermos algunos comentarios generales sobre la factorizaci on LU y su uso. Nota 1 Existen maneras de programar el algoritmo anterior de forma tal que la matriz U y la matriz L queden en una misma matriz cuadrada. Un truco radica en que siendo todos los elementos de la diagonal de U unos, no se requiere el espacio para almacenarlos. Tambi en hay forma de programar el algoritmo para que la matriz de permutaciones P se represente por un s olo vector con n valores, con n umeros de 1 al n, que indican c omo deben permutarse los renglones de la identidad. Esto es muy conveniente pues la matriz P es tal que de sus n2 valores todos son cero excepto n que son 1. Usando estas ideas el almacenamiento requerido por el algoritmo de factorizaci on LU puede reducirse de 3 n2 a n2 + n n umeros de punto otante. Signicando un ahorro de espacio aproximandamente 66 %. Nota 2 Si se posee una factorizaci on A = L U de una matriz cuadrada invertible, entonces la inversa de A puede calcularse mediante A1 = U1 L1 El costo de invertir una matriz triangular es de n3 FLOPs lo cual es m as econ omico que invertir una matriz 8 3 1 n n cualquiera que es de 3 n FLOPs. Adem as de los costos para calcular L y U1 , habr a que calcular el 3 producto el cual tiene un costo de n FLOPs. Esto nos hace llegar a la conclusi on de que el c alculo u nico de 8 3 1 3 A haciendo uso de la factorizaci on LU toma 3 n FLOPs que es m as grande que los 3 n FLOPs que toma el procedimiento tradicional. Por ello es que no es conveniente esta estrategia de c alculo. Nota 3 Si se desea calcular A1 B y se posee una factorizaci on LU de A entonces puede aplicarse eliminaci on gaussiana en la reducci on [L|B] [I|D] aqu D = L1 B lo cual tiene un costo computacional de n3 FLOPs utilizando que L es triangular. Seguido de esto, se aplica tambi en eliminaci on gaussiana en la reducci on [U|D] [I|E] aqu E = U1 D = U1 L1 B = A1 B lo cual tiene un costo computacional de n3 FLOPs utilizando que U es triangular. Esto da como resultado un proceso de c alculo para A1 B con un costo 2 n3 FLOPs teniendo disponible una factorizaci on LU. 13

Nota 4 Las matrices de permutaci on P son f acilmente invertibles al cumplir la relaci on: P1 = PT Adem as, normalmente no es conveniente realizar el producto P B que tiene un costo de n3 FLOPs sino m as bien realizar el movimiento de renglones correspondiente. Y m as que realizar el movimiento de renglones, se hacen trucos de programaci on para evitar tales movimientos teniendo un vector que reere a los renglones de diferentes posiciones.

14

Vectores de Coordenadas y Cambio de Base


Departamento de Matem aticas, CCIR/ITESM 9 de febrero de 2011

Indice
27.1. Introducci on . . . . . . . . . . . . . 27.2. Vector de coordenadas . . . . . . . 27.3. Vector de Coordenadas y Rm . . . 27.4. Matriz de transici on: Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 4 5

27.1.

Introducci on

En este tema se presenta el concepto de vector de coordenadas. Este concepto surge de la necesidad de introducir nuevos sistemas coordenados o sistemas coordenados que mejor se adapten a una situaci on.

27.2.

Vector de coordenadas

Sea V un espacio vectorial de dimensi on nita con base B = {v1 , . . . , vn }. Seg un un teorema anterior, para cada v V existen escalares u nicos c1 ,. . . ,cn tales que: v = c1 v1 + + cn vn Denici on 27.1 El vector en Rn cuyas componentes son los coecientes de v, expresado como [v]B , se llama vector de coordenadas o vector coordenado de v con respecto a B : c1 . [v ]B = . . cn Nota Observe que [v]B se modica cuando cambia la base B . Tambi en [v]B depende del orden de los elementos de a a una base que B . Mantendremos jo este orden usando siempre una base ordenada: este concepto se referir a pesar de ser conjunto se considerar a en un orden determinado. Recuerde que en la denici on matem atica de conjunto, el orden de los elementos no afecta el conjunto, sin embargo, en la denici on de base ordenada el orden es importante. Teniendo disponible una gr aca a veces es posible determinar con relativa facilidad los vectores de coordendas.

0 -6 -4 -2 -2 0 2 4 6

-4

Figura 1: Nuevo Sistema Coordenado Ejemplo 27.1 Si B= Se tiene 3 3 2 1

2 1 ,

1 1 3 0 =
B

=
B

1 1

Para ello vea la gura 1. Ejemplo 27.2 Determine el polinomio p(x) sabiendo que su vector de coordenadas respecto a la base B = {v1 = 1 7 x, v2 = 5 4 x} es [p(x)]B = 6 2

Soluci on Recuerde que el vector de coordenadas se forma con los coecientes de la combinaci on lineal de los elementos de la base para dar el vector: por tanto p( x ) = 6 v 1 + 2 v 2 , es decir p(x) = 6 (1 7 x) + 2 (5 4 x) , por tanto p(x) = 6 + 42 x 10 8 x = 16 + 34 x Ejemplo 27.3 Determine la matriz m sabiendo que su vector de coordenadas respecto a la base B= 3 5 1 7 , 7 0 5 6 2 , 1 1 1 4 , 7 3 3 2

es [m]B

1 2 = 4 3

Soluci on Directamente de la denici on de vector de coordenadas: m = 1 desarrollando los productos m= por tanto m= 28 18 4 3
3 1 5 7
3 1 5 7

7 5

0 6

+4

1 1

1 4

+3

7 3

3 2

14 10

0 12

4 4 4 16

21 9

9 6

Ejemplo 27.4 En P1 , determine el vector de coordenadas del polinomio p( x ) = 2 5 x respecto a la base ordenada B = {v1 = 2 4 x, v2 = 4 + x} Soluci on Buscamos escalares c1 y c2 tales que: 2 5 x = p(x) = c1 (2 4 x) + c2 (4 + 1 x) Es decir 2 5 x = (2 c1 + 4c2 ) + (4 c1 + 1 c2 )x Esto se convierte en el sistema 2 c1 + 4 c2 = 2 4 c1 + 1 c2 = 5

Formando la matriz aumentada y reduci endola 2 4 2 4 1 5 Por tanto, c1 = 1 y c2 = 1 y [p(x)]B = 1 1 1 0 1 0 1 1

Ejemplo 27.5 En M22 , determine el vector de coordenadas de la matriz m= 4 1 5 4

respecto a la base ordenada B=


4 0 4 5

3 1

0 5

5 1

2 2

5 4 5 1

Soluci on Buscamos c1 , c2 , c3 , y c4 tales que: 4 1 5 4 Es decir, tales que: 4 1 5 4 = 4c1 3 c2 5 c3 + 5 c4 4c1 + 0 c2 2 c3 4 c4 0c1 5 c2 1 c3 + 5 c4 5c1 2 c2 2 c3 + 1 c4 = c1 4 4 0 5 + c2 3 0 1 5 + c3 5 2 1 2 + c4 5 4 5 1

Igualando cada entrada se convierte en el sistema: + + 4 c1 4 c1 0 c1 5 c1 + 3 c2 0 c2 5 c2 2 c2 5 c3 2 c3 1 c3 2 c3 + + + 5 c4 4 c4 5 c4 1 c4 = 4 = 1 = 5 = 4

Al formar la matriz aumentada y reducirla: 4 3 5 5 4 0 1 0 0 4 0 2 2 1 0 5 1 5 5 0 0 1 0 5 2 2 1 4 0 0 0 1 Por tanto, =


13 12 1 6 5 4 17 12

13 1 0 0 0 12 1 6 5 4 17 12

[m]B

27.3.

Vector de Coordenadas y Rm

Los siguiente resultado permite trasladar los conceptos de dependencia lineal y espacios generados a cualquier base. Tambi en justica nuestro proceso de vectorizaci on para operar los conceptos de espacios generados y dependencia lineal. Teorema Sea B una base ordenada de un espacio vectorial V de dimensi on nita. Sean u, u1 , u2 , . . . , um vectores en V . Entonces, u es una combinaci on lineal de u1 , ...., um en V , si y s olo si [u]B es una m combinaci on lineal de [u1 ]B , . . . , [um ]B en R . Adem as, para los escalares c1 ,. . . ,cm u = c 1 u1 + + c m um si y s olo si [ u] B = c 1 [ u1 ] B + + c m [ um ] B 4

Figura 2: M ultiples Sistemas Coordenados Teorema Sea B una base ordenada de un espacio vectorial n dimensional V . Entonces, {u1 , . . . , um } es linealmente independiente en V si y s olo si {[u1 ]B , . . . , [um ]B } es linealmente independiente en Rn .

27.4.

Matriz de transici on: Introducci on

Sean B = {v1 , . . . , vn } y B = {v 1 , . . . , v n } dos bases ordenadas de un espacio vectorial de dimensi on nita. Sea P la matriz n n cuyas columnas son [v1 ]B , . . . , [vn ]B : P = [[v1 ]B [v2 ]B [vn ]B ] Entonces P es invertible y esta es la u nica matriz en la que para todo v V : [v ]B = P [v ]B

Denici on 27.2 La matriz P del resultado anterior se denomina matriz de transici on o matriz de cambio de base de B a B . Teorema Si P es la matriz de transici on de B a B , entonces P1 es la matriz de transici on de B a B . Ejemplo 27.6 En R2 , determine la matriz de transici on de la base: B= 0 1 , 1 0

a la base: B =

6 7

0 5

Soluci on Lo que debemos hacer es determinar el vector de coordenas de cada uno de los elementos de la base vieja en funci on de la base nueva. Aunque la versi on ocial consiste en trabajar con los vectores uno por uno. Es posible trabajarlos un solo paquete combo: Se forma la matriz aumentada: [Basenueva |BaseV ieja ] Y se aplica a esta matriz aumentada el proceso de Gauss-Jordan. Al aplicar Gauss-Jordan quedar an en el lugar adecuado los vectores de coordenadas de cada un de los vectores de la base vieja respecto a la base nueva: es decir, Basenueva |BaseVieja [I|P] Aplicando esta idea al problema: 6 0 0 1 7 5 1 0 Por tanto, P= 0 1/6 1/5 7/30 1 0 0 1/6 0 1 1/5 7/30

Matriz de una Transformaci on Lineal


Departamento de Matem aticas, CCIR/ITESM 9 de febrero de 2011

Indice
28.1. Matriz de una Transformaci on Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28.2. Toda transformaci on Lineal es Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28.3. Operativa del Trabajo con Transformaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 4 5

28.1.

Matriz de una Transformaci on Lineal

Sea T : V W una transformaci on lineal entre dos espacios vectoriales V y W de dimensiones nitas. Sea B = {v1 , . . . , vn } una base de V y B = {v1 , . . . , vn } una base de W . La matriz A m n cuyas columnas son: [T (v1 )]B , . . . , [T (vn )]B es la u nica matriz que satisface [T (v )]B = A[v ]B para todo v V . Denici on 28.1 La matriz A de la armaci on anterior se llama matriz de T con respecto a B y a B . Si V = W y B = B , A se llama matriz de T con respecto a B . Ejemplo 28.1 Suponga que T : R3 R3 0 0 0 0 1 1 B = 0 , 1 , 0 , B = 0 , 1 , 0 , 0 0 1 0 0 1 y que [T ]B B Determine 3 0 2 = 3 3 3 1 3 2 3 T 1 4

Soluci on B Tenemos que la matriz [T ]B B cumple [T (v )]B = [T ]B [v ]B . Si hacemos: 1 0 0 3 [B |v ] = 0 1 0 1 0 0 1 4

v =< 3, 1, 4 >, entonces para obtener [v ]B 3 1 0 0 0 1 0 1 0 0 1 4

Por tanto, [v ]B =< 3, 1, 4 > y de all que 3 0 2 3 17 [T (v )]B = 3 3 3 1 = 24 1 3 2 4 14 Por tanto, 1 0 0 17 T (v ) = 17 0 24 1 14 0 = 24 0 0 1 14 Ejemplo 28.2 Suponga que B= y que [T ]B B Si 5 4 1 4 = 1 2 0 4 3 4 [x]B = 0 1 T : R3 R3 0 3 2 4 4 4 2 , 2 , 0 , B = 2 , 5 , 0 , 5 0 5 3 3 2

Determine [T (x)]B . Soluci on Directamente de la denici on de [T ]B B : [T (x)]B = [ T ]B B [x]B 5 4 1 4 4 0 = 1 2 4 3 1 0 21 0 = 3

Ejemplo 28.3 Suponga que T : R3 R3 4 4 5 2 5 1 B = 4 , 5 , 4 , B = 5 , 5 , 1 , 3 3 1 2 2 3 2

y que [T ]B B Si 5 4 1 3 3 = 3 3 1 0

3 [x]B = 3 5

Determine T (x). Soluci on Directamente de la denici on de [T ]B B : [T (x)]B = [ T ]B B [x]B 5 4 1 3 3 3 3 = 3 1 0 5 3 32 = 15 12

Por tanto, 82 2 5 1 T (x) = 32 5 + 15 5 + 12 1 = 97 2 3 2 2 Ejemplo 28.4 Suponga que T : R3 R3 1 0 1 3 4 1 B = 1 , 5 , 0 , B = 4 , 2 , 1 , 0 1 2 2 2 2 y que


B [T ]B

1 0 0 = 4 1 3 0 0 5 4 x = 2 0

Si

Determine T (x). Soluci on Si x =< 4, 2, 0 >, entonces para obtener 1 [B |x] = 1 0

[x]B hacemos: 1 0 4 1 0 0 11/2 5 0 2 0 1 0 3/2 1 2 0 0 0 1 3/4

Por tanto, [x]B =< 11/2, 3/2, 3/4 > y de all que 1 0 0 11/2 11/2 4 1 3 3/2 = 73/4 [T (x)]B = [T ]B B [x]B = 0 0 5 3/4 15/4 Por tanto, 1 3 4 257/4 T (x) = 11/2 4 + 73/4 2 15/4 1 = 73/4 2 2 2 18 Notas Observe que si [B ] representa la matriz cuyas columnas son los vectores de B : Para obtener [x]B dados B y x, se realiza el c alculo [B ]1 x. Para obtener y dados [y]B y B , se realiza [B ] [y]B . Ejemplo 28.5 Suponga que T : R3 R3 se dene como 3x 2z x T y = x + y z 5x + 4z z B= 0 3 4 2 0 0 1 , 1 , 4 , B = 1 , 4 , 0 . 1 4 1 5 0 5 se puede representar como: x 3 0 2 1 1 1 y z 5 0 4

y adem as

Determine la matriz [T ]B Soluci on B . Por las notas anteriores a este ejemplo y como tenemos que T 3x 2z x T y = x + y z = z 5x + 4z De donde tenemos que [T ]B B Realizando los c alculos anteriores: [T ]B B

3 0 2 = [B ] 1 1 1 [B ]1 5 0 4 3/2 0 3 /5 = 9/2 5 4/5 5 6 2

28.2.

Toda transformaci on Lineal es Matricial

A pesar de que las transformaciones matriciales son las transformaciones lineales m as sencillas, en Rn son las u nicas. Esto lo arma el siguente resultado. Teorema Toda transformaci on lineal T : Rn Rm es una transformaci on matricial. 4

28.3.

Operativa del Trabajo con Transformaciones

Lo que arma el siguiente resultado es que para trabajar con una transformaci on lineal (N ucleo, subsepacios, o imagen) es equivalente a trabajar con la matriz de la transformaci on. Teorema Sea T : V W una transformaci on lineal entre dos espacios vectoriales de dimensiones nitas, V y W . Sea A la matriz de T con respecto a las bases B = {v1 , ...vn } V y B = {v1 , ..., vm } W . Entonces, v est a en el n ucleo de T si y s olo si [v]B est a en el espacio nulo de A. Es decir, A[v]B = 0. w est a en el contradomio de T si y s olo si [w]B se encuentra en el espacio de columnas de A. Es decir, Ax = [w]B es consistente. T es biun voca si y s olo si la reducida de A tiene n pivotes. T es sobre si y s olo si la reducida de A tiene m pivotes. T es un isomorsmo si y s olo si A es invertible. Ejemplo 28.6 Suponga que T : P1 P1 se dene como T (p) = (1 + 6 x) p 6 p determine la matriz [T ]B B para las bases B = {5 + 5 x, 4 + 2 x} y B = {5 x, 4 4 x} Utilice lo anterior para calcular un polinomio en el n ucleo de la transformaci on T . Soluci on Si p = a + b x representa cualquier porlinomio de P1 , entonces T (a + b x) = (1 + 6 x) (b) 6 (a + b x) = b 6 a = (b 6 a) + 0 x As , T puede pensarse como: T (a + b x) = Por tanto, [T ]B B = 5 4 1 4 6 1 0 0 5 4 5 2
1

6 1 0 0

a b 17/6 19/6 17/30 19/30

El n ucleo de esta matriz se obtiene resolviendo [T ]B B x = 0: [T ]B B |0 Por lo tanto, el n ucleo de [T ]B B se genera por el vector: [v]B = 19/17 1 5 1 19/17 0 0 0 0

De all que el n ucleo de T se genere por: v = [B ]1 [v]B = 1/15 2/15 1/6 1/6 19/17 1 = 1/17 6/17

Por tanto, cualquier polinomio de la forma C (1/17 + 6/17 x) est a en el n ucleo de T El siguiente resultado relaciona la matriz de cambio de base con la matriz asociada a una transformaci on lineal. Teorema Sea T : V V una transformaci on lineal de un espacio vectorial V de dimensi on nita en s mismo. Sean B y B dos bases de V , y sea P la matriz de transici on de B a B . Si A es la matriz de T con respecto a B y si C es la matriz de T con respecto a B , entonces C = P 1 A P

Vous aimerez peut-être aussi