Académique Documents
Professionnel Documents
Culture Documents
UNLP
Matematica C
Modulo II
VI Transformaciones Lineales
2017
2
Temario:
1. Clase 1: Introduccion. Definicion. Ejemplos basicos. Proyeccion. Reflexion. Rotacion.
Casos especiales. Imagen y espacio nulo de una transformacion lineal. Propiedades
fundamentales. Isomorfismos.
6.1. Introduccion
Estudiaremos aqu una clase de funciones denominadas transformaciones lineales,
que transforman un vector v de un espacio vectorial V en otro vector w de un espacio
vectorial W , cumpliendo con ciertas condiciones. Es decir, son casos especiales de funciones
F : V W entre dos espacios vectoriales. Se las puede puede pensar como funciones de
una sola variable, donde el argumento de la funcion es un vector del espacio vectorial
V , y el valor de la funcion es un vector del espacio vectorial W .
Si V = W , de modo que transforma un vector v de V en otro vector w del mismo
espacio V , la transformacion lineal se denomina usualmente operador lineal.
Usaremos la notacion L : V W para describir una transformacion lineal:
L (v) = w, v V, w W
Veremos que una transformacion lineal L de un espacio vectorial n-dimensional V en
otro espacio vectorial m-dimensional W podra representarse por una matriz A de m n.
Esto permitira trabajar con la matriz A para discutir las caractersticas y propiedades de
la transformacion L, como as tambien, en ciertos casos, determinar las propiedades de la
matriz A a partir de las propiedades de la transformacion lineal que representa.
Definicion.
Una funcion L : V W de un espacio vectorial V en otro espacio vectorial W (ambos
sobre el mismo conjunto de escalares) es una transformacion lineal si satisface
V W
x LHxL
L:VW
4
LHxL = 3x
x
x1
x2
x1
LHxL = x1e1
x2
x1
LHxL
x2
LHxL
2 x
x1
con c un escalar fijo, es una transformacion lineal, como podra el lector probar
facilmente.
Si c > 0, Lc tiene el efecto de multiplicar la longitud del vector x por el factor de
escala c, dilatando el vector un factor c si c > 1 y contrayendo el vector un factor c
si 0 < c < 1, pero siempre conservando su direccion y sentido.
6.1. INTRODUCCION 7
Si c = 1, la transformacion resultante
L1 (x) = x
L0 (x) = 0
6. Inversion:
Corresponde a
x1
L (x) = x =
x2
La linealidad de L es inmediata:
(x1 + y1 ) x1 y1
L (x + y) = = +
(x2 + y2 ) x2 y2
= L (x) + L (y)
x2
x1
LHxL = -x
Observar que el operador de inversion puede obtenerse como caso particular de otras
transformaciones. Por ejemplo,
8
Esta ultima puede tambien lograrse mediante dos rotaciones sucesivas de angulo /2 (por
ejemplo, ambas en sentido antihorario): Si R rota al vector x en /2 antihorario, entonces
x2 x1
R (R (x)) = R = = x
x1 x2
L2 (x) L (L (x))
1. Si
x1 x2
F (x) = x1 x2 e1 + x2 e2 =
x2
obtenemos
x1 x2
F (x) = (x1 ) (x2 ) e1 + (x2 ) e2 =
x2
6= F (x) (excepto para = 0 o 1 o x1 x2 = 0)
2. Traslacion:
La traslacion Ta suma a todo vectir x un vector fijo a:
Ta (x) = x + a
Problemas 6.1.1
Ejemplos de Transformaciones de Rn en Rm
x1
1. Sea x = y L : R2 R1 , definida por
x2
L (x) = x1 + x2
L (x + y) = (x1 + y1 ) + (x2 + y2 )
= (x1 + x2 ) + (y1 + y2 ) = L (x) + L (y)
L (x + y) = A (x + y)
= Ax + Ay
= L (x) + L (y)
Por lo tanto, cualquier matriz A de m n puede verse como asociada a una trans-
formacion lineal L : Rn Rm . Mas aun, veremos luego que toda transformacion
lineal L : Rn Rm es de la forma anterior (para alguna matriz A de m n).
4. Sea L : C[a,b] R1 definida por
Z b
L (f ) = f (x) dx
a
D(f ) = f 0
D2 (f ) = D(D(f )) = D(f 0 ) = f 00
6.2. IMAGEN Y NUCLEO DE UNA TRANSFORMACION LINEAL 11
1. L (0V ) = 0W
2. Si v1 , . . . , vn V , entonces
L (1 v1 + + n vn ) = 1 L (v1 ) + + n L (vn )
3.
L (v) = L (v) v V
Problema 6.1.2
1. Sea L : V W una transformacion lineal y sean w1 = L(v1 ), . . . , wk = L(vk ) las
imagenes de k vectores v1 , . . . , vk de V .
a) Mostrar que si el conjunto de los vectores {v1 , . . . , vk } es linealmente dependiente
{w1 , . . . , wk } es linealmente dependiente.
b) Mostrar que si {v1 , . . . , vk } es linealmente independiente el conjunto {w1 , . . . , wk }
no es necesariamente independiente. Dar un ejemplo (considere proyecciones orto-
gonales sobre un cierto eje o la transformacion nula).
Notar que la imagen por L del Nu(L) es el vector nulo 0W de W : L(Nu(L)) = {0W }.
Cada uno de estos conjuntos de vectores es un subespacio en los respectivos
espacios vectoriales:
12
V W V W
NuHLL S LHSL
0V 0W 0V 0W
L:VW L:VW
Teorema.
Si L : V W es una transformacion lineal, entonces
1. Nu (L) es un subespacio de V
por lo que {L(v1 ), . . . , L(vk )} genera Im(L). Ademas, {L(v1 ), . . . , L(vk )} es linealmente
independiente, pues si 0W = 1 L(v1 ) + . . . + k L(vk ) = L(1 v1 + . . . + k vk )
1 v1 + . . . + k vk Nu(L) y entonces 1 v1 + . . . + k vk = 1 vk+1 + . . . + n vn . Pero por
ser los vi linealmente independientes, 1 = . . . = k = k+1 = . . . = n = 0. Por lo tanto,
Ejemplos 6.2
(operador
de proyeccion). Es obvio que L (x) = 0 si y solo si x1 = 0, es decir,
x1
x = Nu (L) si y solo si x1 = 0. Por lo tanto, Nu (L) es el subespacio
x2
0
1-dimensional de R2 generado por el vector e2 = , es decir, es el eje x2 , como
1
es obvio geometricamente (graficar!):
0
Nu(L) =
1
Por otra parte, dado que L(x) = x1 e1 , la imagen Im(L) = L(V ) es el conjunto de
vectores proporcionales a e1 , es decir, el subespacio 1-dimensional de R2 generado
por el vector e1 , que geometricamente es el eje x1 :
1
Im(L) =
0
Problemas 6.2
1. Verificar que las siguientes transformaciones L : R3 R2 son lineales, y determinar
Nu(L), la imagen
Im(L) y sus dimensiones,junto con una base de los mismos:
x x
x 2x + y
(a) L y =
(b) L y =
x+y+z 4x 2y
z z
2 2
2. Idem 1. para
las siguientes
L: R R :
transformaciones
x y x 0
(a) L = (b) L =
y x y y
Interpretelas geometricamente.
3. Importante: Sea L : Rn Rm la transformacion lineal definida por una matriz A
de m n:
L(x) = Ax
Probar que:
a) El nucleo Nu(L) es el espacio nulo de la matriz A.
b) La imagen Im(L) es el espacio generado por las columnas de la matriz A (o
sea, el espacio columna de la matriz).
c) La igualdad dim Im(L) +dim Nu(L) = dim V es equivalente a
rango (A) + nulidad (A) = n
d) Verifique estos resultados para las transformaciones del ejercicio 2., escribiendolas
en la forma L(x) = Ax.
4. Determinar si son lineales las siguientes transformaciones L : R22 R. En caso
de que lo seanhalle su nucleo e imagen.
a b
(a) L( ) = a + d (Traza de la matriz)
c d
a b
(b) L( ) = ad bc (Determinante de la matriz)
c d
5. a) Determine si la traza de una matriz cuadrada A de n n, definida por
n
X
T r(A) = aii = a11 + . . . + ann
i=1
u C, v C tv + (1 t)u C t [0, 1]
v = 1 v 1 + . . . + n vn
y por lo tanto
Notese, no obstante, que el conjunto {L(v1 ), . . . , L(vn )} puede ser linealmente de-
pendiente (por ej., algunos vectores L(vi ) puden ser nulos), en cuyo caso no sera
una base de L(V ).
Isomorfismos:
5. Si L : V W es una transformacion lineal biyectiva, es decir, que es a la vez
inyectiva (Nu(L) = {0V }) y sobreyectiva (L(V ) = W ) se dice que L es un
isomorfismo. Si V = W al isomorfismo se lo denota automorfismo.
Si L es un isomorfismo y dim V = n, con B = {v1 , . . . , vn } una base de V
{L(v1 ), . . . , L(vn )}
L(v) = w v = L1 (w)
cumpliendose que
L(L1 (w)) = L(v) = w w W
L1 (L(v)) = L1 (w) = v vV
es decir,
LL1 = IW , L1 L = IV
donde IW y IV son los operadores identidad en W y V .
La inversa L1 : W V de un isomorfismo L es tambien un isomorfismo
(probar!), es decir, una transformacion lineal biyectiva.
por lo que L es tambien sobreyectiva. Este resultado puede tambien obtenerse directa-
mente de
dim Im(L) = dim V dim Nu(L) = 2 0 = 2
L es entonces un automorfismo, es decir, un isomorfismo entre V y V , con V = R2 .
L tendra entonces inversa L1 : R2 R2 , dada por (verificar!)
1 x1 1 x1 + x2
L =
x2 2 x1 x2
y L1 (x) como
1 1 1 1 x1
L (x) =
2 1 1 x2
siendo la matriz que representa a L1 la inversa de la matriz que representa a L.
Problemas 6.3
L1 (x) = A1 (x)
v = x1 v 1 + . . . + xn v n
6. Mostrar que dos espacios V , W son isomorfos si y solo si tienen la misma dimension.
Ejemplos 6.4
3 2 x1 + x2
1. Sea L : R R , definida por L (x) = (ejemplo anterior). Tenemos
x2 + x3
1 0 0
1 1 0
a1 = L (e1 ) = L 0 =
, a2 = L 1 =
, a3 = L 0 =
0 1 1
0 0 1
Por lo tanto,
1 1 0
A = (a1 , a2 , a3 ) =
0 1 1
Verificacion:
x1
1 1 0 x1 + x2
Ax = x2 = = L (x)
0 1 1 x2 + x3
x3
a b
Por ejemplo, si A = ,
c d
a b x1 ax1 + bx2
L(x) = =
c d x2 cx1 + dx2
y entonces
a b 1 a
L(e1 ) = = = a1
c d 0 c
a b 0 b
L(e2 ) = = = a2
c d 1 d
por lo que (a1 , a2 ) = A.
El problema 6.2.3 implica entonces que la imagen Im(L) de una transformacion
lineal L : Rn Rm es el espacio columna de A = [L]B
Bc (es decir, el espacio generado
c
por los vectores columna de A) mientras que el nucleo Nu(L) es espacio nulo de A.
22
LHe2L
LHxL e2
LHe1L
x
x1
x1 e1
Tenemos
cos sin
L (e1 ) = y L (e2 ) =
sin cos
Por lo tanto
cos sin
A = (L (e1 ) , L (e2 )) =
sin cos
Entonces, para rotar un angulo un vector x de R2 en sentido antihorario, se debe
multiplicar A por x:
cos sin x1 x1 cos x2 sin
y = L(x) = Ax = =
sin cos x2 x1 sin + x2 cos
Problemas 6.4
1. Hallar la matriz que representa, respecto de las bases canonicas, las siguientes trans-
formaciones lineales y escribir la forma explcita de L(x):
(a) La aplicacion L : R2 R2 que representa una dilatacion con factor c1 a lo largo
del eje x y c2 a lo largo del eje y.
(b) La reflexion L : R2 R2 respecto de la recta y = x.
(c) La rotacion L : R2 R2 de angulo /4 antihorario.
(d) La rotacion L : R3 R3 de angulo antihorario alrededor del eje z.
(e) Idem anterior pero alrededor del eje y.
(f ) La proyeccion L : R3 R3 sobre
el plano
xy.
2 2 1 1 0 2
(g) L : R R lineal, definida por L = ,L = .
0 1 2 2
1 1 1
3 2 1 1 0
(h) L : R R lineal, definida por L 0 = , L 1 = , L 1 = .
1 1 0
0 0 1
(i) Determinar la imagen y nucleo de las transformaciones anteriores.
xn
Por lo tanto, para L lineal,
L(v) = x1 L(v1 ) + . . . + xn L(vn )
Si ahora escribimos L(v) y L(vj ) en terminos de los vectores de la base BW ,
L(v) = y1 w1 + . . . + ym wm
L(vj ) = a1j w1 + . . . + amj wm , j = 1, . . . , m
tal que sus vectores de coordenadas en la base BW son
y1 a1j
[L(v)]BW = ... = y , [L(vj )]BW = ... = aj
ym amj
obtenemos
y = [L(v)]BW = x1 [L(v1 )]BW + . . . + xn [L(vn )]BW
a11 a1n
= x1 ... + . . . + xn ...
am1 amn
a11 . . . a1n x1
.. . .. .
.. ...
= .
am1 . . . amn xn
= Ax
es decir,
[L(v)]BW = A[v]BV
donde A es la matriz de m n
a11 . . . a1n
A = ([L(v1 )]BW , . . . , [L(vn )]BW ) = ... .. ..
. .
am1 . . . amn
Esta matriz A se denomina representacion matricial de L respecto de las bases
BV de V y BW de W . La denotaremos tambien como A = [L]B BW .
V
V W
L:VW
v w=LHvL
x=@vDBV y=Ax
A Rmxn =@LHvLDBW
Rn Rm
Ejemplos 6.4.1
1. Sea L : R3 R2 la transformacion lineal definida por
L(x) = x1 b1 + (x2 + x3 ) b2
donde x = x1 e1 + x2 e2 + x3 e3 y
1 1
b1 = , b2 =
1 1
Tenemos
L (e1 ) = b1 = 1b1 + 0b2
L (e2 ) = L(e3 ) = b2 = 0b1 + 1b2
Por lo tanto, la representacion matricial de L con respecto a las bases Bc = (e1 , e2 , e3 )
de V = R3 y BW = (b1 , b2 ) de W = R2 es
Bc 1 0 0
A = [L]BW = ([L(e1 )]BW ), [L(e2 )]BW , [L(e3 )]BW ) =
0 1 1
As,
x1
1 0 0 x1
[L(x)]BW = x2 =
0 1 1 x2 + x 3
x3
que implica justamente L(x) = x1 b1 + (x2 + x3 )b2 .
En cambio, en la base canonica de R2 obtenemos (probar!)
Bc 1 1 1
Ac = [L]Bc = (L(e1 ), L(e2 ), L(e3 )) =
1 1 1
con
x1
1 1 1 x1 x2 x3
[L(x)]Bc = x2 =
1 1 1 x1 + x2 + x3
x3
es decir, L(x) = (x1 x2 x3 )e1 +(x1 +x2 +x3 )e2 , que coincide con x1 b1 +(x2 +x3 )b2 .
6.4. REPRESENTACION MATRICIAL DE TRANSFORMACIONES LINEALES 25
d
2. Sea D : P2 P2 el operador derivada D = dx en el espacio de polinomios de grado
2. Como base ordenada de P2 consideramos B = (1, x, x2 ). Tenemos
D(1) = 0, D(x) = 1, D(x2 ) = 2x
Por lo tanto, su representacion matricial en la base B es
0 1 0
A = [D]B 2
B = ([D(1)]B , [D(x)]B , [D(x )]B ) =
0 0 2
0 0 0
a0
2
Para p(x) = a0 + a1 x + a2 x P2 tenemos [p]B = a1 y entonces
a2
0 1 0 a0 a1
[D(p)]B = A[p]B = 0 0 2
a1 = 2a2
0 0 0 a2 0
que implica D(p) = a1 + 2a2 x + 0x2 = a1 + 2a2 x. Al ser P2 de dimension 3, todo
operador lineal en P2 puede entonces ser representado por una matriz de 3 3, tal
como un operador en R3 .
resulta equivalente a
rango (A) + nulidad (A) = n
26
Los vectores Rm de una base del espacio columna de A son las coordenadas en la
base BW de los vectores de una base de la imagen Im(L), mientras que los vectores Rn
de una base del espacio nulo de A son las coordenadas en la base BV de los vectores
de una base del nucleo Nu(L). Por lo tanto, pueden obtenerse bases de estos espacios
mediante los metodos ya conocidos para obtener bases de los espacios columna y nulo de
una matriz. Y la ecuacion L(v) = w es equivalente al sistema lineal A[v]BV = [w]BW .
0 0
Si A = [L]B B
B es la representacion de L en la base B y A = [L]B 0 su representacion en la
0 0
base B , las matrices A y A se relacionan por
A0 = S 1 AS
A = SA0 S 1
Podemos resumir el resultado en el siguiente esquema grafico:
L:VV
vV w=LHvL
x=@vDB y=Ax
Rn A Rnxn =@wDB
S S-1
x'=@vDB' y'=A'x'
Rn A' = S-1AS Rnxn =@wDB'
det(A0 ) = det(A)
En efecto,
Esto implica que el determinante det(A) es una propiedad del operador lineal L
representado por A, permaneciendo invariante frente a cambios de base.
As, comprobamos en el ejemplo 6.5.1 que det(A0 ) = det(A) = 1.
6.5. CAMBIO DE BASE 29
Tr A0 = Tr A
Pn
donde la traza Tr(A) = i=1 aii es la suma de los elementos diagonales.
Tr (AB) = Tr (BA)
Demostracion:
n
X n X
X m m X
X n m
X
TrAB = (AB)ii = ( aij bji ) = ( bji aij ) = (BA)jj = TrBA
i=1 i=1 j=1 j=1 i=1 j=1
Luego
Tr A0 = Tr (SAS 1 ) = Tr ((AS 1 )S) = Tr (A(S 1 S)) = Tr A
Este resultado implica que la traza es tambien una propiedad del operador L representado
por A, permaneciendo invariante frente a cambios de base.
As, comprobamos en el ejemplo 6.5.1 que Tr (A0 ) = Tr(A) = 0.
Problemas 6.5
1. Dada L : R3 R3 definida por
2 2 0
L(x) = Ax , A = 1 1 2
1 1 2
x1
a) Obtener la expresion explcita de L(x) para un vector x = x2 .
x2
1 2 1
b) Hallar su representacion A0 en la base B 0 =1 , 1 , 1.
0 1 1
Verificar que L(v10 ) = 0, L(v20 ) = v20 , y L(v30 ) = 4v30 , y que por lo tanto, A0 es
diagonal.
c) Usar esta representacion diagonal para hallar su nucleo e imagen.
d) Usar esta representaciondiagonal
para interpretar L geometricamente.
0
e) Indique si el vector v = 1 pertenece a la imagen de L.
1
f) Verifique que la traza y determinante permanecen invariantes frente al cambio de
base: Tr(A) =Tr(A0 ), det (A) = det (A0 ).
2. Si la matriz A del problema anterior representa ahora una transformacion L : P2 P2
en la base canonica de P2 , con P2 el espacio de polinomios reales de grado 2 (y su
base canonica dada por (1, x, x2 )), de una expresion para L(p) y determine la base
B 0 de P2 donde la representacion A0 es diagonal (utilice resultados previos).
3. Considere la reflexion L : R2 R2 respecto de una recta que pasa por el origen y
que forma un angulo con el eje x, dada por y = mx, con m = tan (graficar).
a) Determine, a partir
de consideraciones
geometricas, su representacion matricial
cos sin
A0 en la base B 0 = , formada por un vector perteneciente a la
sin cos
recta y otro perpendicular a dicha recta (verificar!). Muestre que A0 es diagonal.
b) Utilice a) y cambio de base para obtener la representacion matricial A en la base
canonica. Verifique que se obtiene el resultado del problema 6.4.2.
2 2 1 2 0 1
4. Sea L : R R definida por L = ,L = .
0 2 1 1
a) Encuentre su representacion matricial en la base canonica de R2 y de una expre-
sion para L(x).
1 1
b) Encuentre su representacion matricial en la base B 0 =( , ), y verifique
2 1
que es diagonal. c) Determine su nucleo e imagen.
5. a) Muestre que la representacion matricial A = [I]B
B del operador identidad I : V V
con respecto a una base arbitraria B de un espacio vectorial V de dimension n, es
siempre la matriz identidad In .
b) Muestre que la representacion matricial del operador nulo 0 : V V en cualquier
base B de V es la matriz nula de n n.
6.6. COMPOSICION DE TRANSFORMACIONES (OPERACIONES SUCESIVAS) 31
A0 = R1 AS
vwu
L G
Problemas 6.6.1
AGL = AG AL (6.2)
tal que
x x
1 1 0 x+y
L y
= y =
0 1 1 y+z
z z
x 1 1 x x+y
G = =
y 2 2 y 2x 2y
Por lo tanto,
x x
1 1 1 1 0
(GL) y = y
2 2 0 1 1
z z
x
1 2 1 y
=
2 0 2
z
x + 2y + z
= (6.3)
2x 2z
1 2 1
o sea, AGL = AG AL = , con (G L)(x, y, z) = (x + 2y + z, 2x 2z).
2 0 2
En el caso general, para representaciones matriciales en bases arbitrarias BV , BW y
BU de V , W , U , se obtiene tambien (se deja la demostracion para el lector)
[GL]B BV BW
BU = AG AL con AL = [L]BW , AG = [G]BU
V
y su representacion matricial es
AL1 = A1
L (6.6)
de forma que
2x 3 0 x 3x x
L = = =3
y 0 3 y 3y y
es decir, L2 (x) = 3x, lo que equivale a L2 = 3I, con I el operador identidad.
Problemas 6.6.2
2
v v
x1 x1
Por otro lado, la transformacion lineal L R, que primero rota un vector un angulo de
/2 en sentido antihorario y luego lo refleja respecto de la recta y = x, queda representa-
da por la matriz
0 1 0 1 1 0
A(L R) = AL AR = =
1 0 1 0 0 1
y por lo tanto,
x 1 0 x x
LR = =
y 0 1 y y
Esto representa una reflexion respecto del eje x (mostrar!).
x2 x2
v
RLHvL
v
x1
x1
LRHvL
Por lo tanto, vemos que el resultado final depende del orden de la composicion, lo
que se refleja en la no conmutatividad del producto matricial asociado.
Recordemos finalmente que la proyeccion ortogonal de un vector sobre el eje x esta dada
por (graficar!)
x 1 0 x x
Px = =
y 0 0 y 0
Problemas 6.6.3
3. Sea G : R2 R2 el operador lineal que primero proyecta todo vector sobre el eje
x y luego lo rota un angulo /2 en sentido antihorario. Hallar su representacion
matricial en la base canonica y una expresion para G(xy ).
a) Halle su determinante.
b) Muestre que la composicion de dos reflexiones es una rotacion.
a) Halle su determinante.
b) Muestre que la composicion de dos rotaciones es otra rotacion.
c) Muestre que la composicion de una reflexion con una rotacion es otra reflexion.
x2 x2
LHCL
LHCL
2
C
1
C
x1
x1
a) 1 1,5 b)
x2 x2
LHCL
C
1
d
LHCL
c
C
x1 x1
1
c) d)
Matematica C
Para transformar una gura, hay que cambiar de posicion de los vertices y \redibujar" la
gura. Si la \transformacion" es lineal, se puede hacer esto mediante una multiplicacion
de matrices (en R 2 ).
...
1
Animacion: Viendo una sucesion de estos dibujos, realizados de manera muy rapida
en tiempo real, produce el efecto de una \animacion".
;1 0
Ay = 0 1
T 00 = Ay :T
(3) Rotaciones: Para rotar un vector un angulo en sentido contrario a las agujas del
reloj, multiplicamos cada vector por la matriz
cos ; sin
A = sin cos (operador rotacion)
Para obtener la rotacion del triangulo...
cos ; sin 0 1 1 0
T0 = A :T = sin cos : 0 1 ;1 0
0 (cos ; sin ) (cos + sin ) 0
= 0 (sin + cos ) (sin ; cos ) 0
T 0 = A :T
3
Ahora, una transformacion muy usada, pero que \no es lineal" (vericar que no
cumple las propiedades de linealidad)...
(4) Traslaciones: L (x) = x + a
Si a 6= 0, sabemos que no es una transformacion lineal, y por tanto, no puede ser
representada mediante una matriz.
... Pero, a pesar de no ser lineal, se puede hacer un articio para poder usar una ma-
triz. Para eso se dene un \nuevo sistema" de coordenadas, denominadas \coordenadas
homogeneas" que permite el uso de una matriz...
Pero ...
x = B:x0 = B: (A:x) = B:A:x
=) B:A = I
... B es la inversa de A. De hecho
cos sin cos ; sin
B:A = ; sin cos : sin cos
cos2 + sin2 ; cos sin + sin cos
= ; sin cos + cos sin cos2 + sin2
1 0
= 0 1
4
Ejemplo 2 Para re
ejar x sobre el eje x2 , multiplicamos x por A
;1 0 x ;x
x = A:x =
0 : 1 =
0 1 x2
1
x2
... Si de nuevo re
ejamos x0 sobre el eje x2 , deberamos recobrar nuestro vector original
x.
Esto es ...
x = A:x0 = A: (A:x) = A2:x
=) A2 = I
la inversa de A es A
A;1 = A
Efectivamente ...
;1 0 ;1 0
A =
2
0 1 : 0 1
1 0
=
0 1
Ejemplo 3 Para invertir el sentido de x, multiplicamos x por la matriz A
;1
0 : x1
x0 = A:x = 0 ;1 x2
;x
= ;x2 = ;x
1
5
... o, rotamos x en sentido antithorario primero mediante =3, y luego rotamos me-
diante =6 ...
cos =6 ; sin =6 cos =3 ; sin =3
x0 = A2: (A1 :x) = sin =6 cos =6 : sin =3 cos =3 :x
p3=2 ;1=2 1=2 ;p3=2
p p :x
= 1=2 3=2 : 3=2 1=2
0 ;1 x ;x
= 1 0 : x1 = x 2
2 1
esto es
0 0 0 0 0 0
A = 0 1 : 0 1 = 0 1 =A
2
6
Todos los vectores que tengan la misma coordenada x2 tendran la misma proyeccion
sobre el eje x2 . O sea, seran transformados al mismo vector x0 .
El operador proyeccion no tiene inversa, debido a que el vector x0 no puede ser retor-
nado sobre un unico vector x.
De hecho ... 0 0
det A = det 0 1 = 0
... y por tanto A es singular (no invertible).
La matriz A que representa a un operador lineal es \singular" (no invertible) si la
operacion \ no puede deshacerse o invertirse" para recobrar el vector inicial unico .
De igual manera....
7
01 0 01
A la matriz de re
exion A : @0 ;1 0A
x
0 0 1
0cos ; sin 01
A la Matriz de rotacion A : @ sin cos 0A
0 0 1
Luego, por ejemplo, la aplicacion de una re
exion respecto del eje \x" a un vector
arbitrario (x,y):
01 0 01 0x1
Axx^ = @0 ;1 0A : @yA
00x 10 1 1 x
= @;yA !; al eliminar la tercer componente ..... ;y
1
Para las operaciones o transformaciones, Tipo: 1, 2 y 3, el agregado de una coordenada
"cticia" es super
uo, pues son lineales y tienen su matriz de representacion.
.... Pero, para la traslacion (que no es lineal), ahora s podremos construir una \matriz
de representacion con respecto a las coordenadas homogeneas" ...
Para eso, reemplazamos en la matriz I3, los dos primeros coecientes de la columna
"cticia" por los coecientes del vector de traslacion a ...
01 0 ax
1
Aa = @0 1 ay A
0 0 1
Se tiene entonces que la aplicacion de esa matriz a un vector arbitrario (x,y), con la
tercer componente 1 ...
01 0 a 1 0x1
Aa:x^ = @0 1 a A : @y A
x
y
00x +0a 11 1
= @y + a A ! eliminado la tercer componente se obtiene:
x
y
1
x + a
y + ay =x+a
x
8
En el ejemplo del triangulo, su aplicacion, a cada vector o vertice con la tercer compo-
nente agregada ...
00 1 1 0
1
T^ = @0 1 ;1 0A
1 1 1 1
y
01 0 a 1 00 1 1 01
Aa:T^ = @0 1 a A : @0 1 ;1 0A
x
T^0 = y
T 0 = A :T
T 00 = Aa:T 0 = Aa:A :T
10
Ahora ...
Traslaci
on... y luego rotacion :
T 0 = Aa:T
T 00 = A :T 0 = A :Aa:T
11
Facultad de Ingeniera
UNLP
Matematica C
PxyHvL
x
v v
p p
s s
x
2
Es decir, ha caminado sobre la recta {c~s, c R} hasta hallar el punto p~ = cp~s de-
terminado por un coeficiente cp , con la propiedad de que el vector ~v cp~s es ortogonal a cp~s.
v
v-c p s
cp s
x
Para determinar cp , basta con observar que la diferencia ~v cp~s debe ser ortogonal al
propio vector ~s (no nulo) que genera la recta. Por lo tanto, el producto escalar de estos
dos vectores debe ser nulo:
(~v cp~s) ~s = 0
De aqu obtenemos
~v ~s
cp =
~s ~s
|~v |
es decir, cp = |~s| cos , donde es el angulo entre ~v y ~s. Estas consideraciones son aplicables
tanto a R2 o R3 como tambien a Rn (y tambien a todo espacio vectorial en el que se ha
definido un producto escalar!), siendo el plano del dibujo el subespacio de dimension 2
generado por ~v y ~s.
~v ~s
P~s (~v ) = ~s
~s ~s
Es decir, P~s (~v ) = (|~v | cos ) |~~ss| . El resultado depende solo de la direccion de ~s y no de
su longitud (o sentido): P(~s) (~v ) = P~s (~v ) 6= 0. De esta forma, el vector ~v P~s (~v ) es
perpendicular a ~s:
[~v P~s (~v )] ~s = 0
3
Ejemplo En <3, la proyeccion ortogonal de un vector arbitrario
0x1
@y A
z
sobre el eje- y es
01
;x y z @01A 0 1 0 1
0 0
0001 @1A = @yA
;0 1 0 @1A 0 0
0
lo cual se corresponde con lo esperado por nuestra intuicion. Gracar.
Otra forma de pensar la proyeccion de v sobre la recta...
Desde el dibujo que precede a la denicion observamos que el vector ~v se ha descom-
puesto en dos partes:
(1) La parte sobre la recta: p~ = cp~s), que es el vector proyectado; y
...
(2) la parte que es ortogonal a la recta: ~v ; cp~s.
As la proyeccion ortogonal de ~v sobre la recta generada por ~s es la parte del ~v que
yace en la direccion del vector ~s.
Una forma util de pensar la proyeccion ortogonal de ~v sobre la recta indicada ...
... es pensar que la proyeccion de ~v es el vector o punto en la recta que esta mas cerca
a ~v . Es decir hallar en la recta el punto cuya distancia al v es mnima. Repasar el dibujo.
Problema.
Dada una recta que no pasa por el origen.
... La proyeccion de ~v sobre esa recta es el vector o punto en la recta que esta mas
cerca a ~v. Es decir, se debe hallar en la recta el punto cuya distancia al v es mnima.
Gracar.
... > Como puede hallar el punto sobre esa recta que esta mas cerca de v ?.
1.3 Aunque lo desarrollado ha sido guiado por representaciones graficas, no nos restrin-
gimos a espacios que podemos dibujar. Por ejemplo, en 4 , proyectar ~v sobre la recta ,
con
1
1
2
1
~v =
= c |c
1
1
3 1
2 1
1.4 Consideremos en la proyeccion ortogonal sobre la recta generada por ~s = .
3
1
(a) Proyectar ~v = sobre la direccion de ~s.
2
x
(b) Mostrar que la proyeccion de un vector general ~v = sobre la direccion de ~s es
y
x x + 3y
proj [~s] = /10
y 3x + 9y
(c) Encontrar la representacion matricial en la base canonica de esta proyeccion.
1.5 Al proyectar un vector ~v , la proyeccion separa a ~v en dos partes: proj [~s] (~v ) y
~v proj [~s] (~v ), que son vectores ortogonales.
(a) Mostrar que si son no nulos, forman un conjunto linealmente independiente.
(b) Que es la proyeccion ortogonal de ~v sobre una recta que pasa por el origen si ~v
esta contenido en esa recta? Como es ~v proj [~s] (~v ) en este caso?
(c) Mostrar que si ~v no esta en la recta y no es perpendicular a ~s entonces el conjunto
{~v , ~v proj [~s] (~v ) } es linealmente independiente.
1.6 Mostrar que la proyeccion de ~v en la recta generada por ~s tiene longitud igual al
valor absoluto del numero ~v ~s dividido por la longitud del vector ~s .
1.7 Encontrar la formula para la distancia de un punto a una recta que pasa por el origen.
1.8 Encontrar el escalar c tal que c~s = (cs1 , cs2 ) este a mnima distancia del punto (v1 , v2 ),
utilizando minimizacion de funciones. Generalizar a n .
1.9 Probar que la longitud de la proyeccion ortogonal de un vector ~v sobre una recta es
mas corta que la del vector ~v .
5
Denicion Los vectores ~v1; : : : ;~vk 2 <n son mutuamente ortogonales si todo par de
vectores son ortogonales: Si i =6 j entonces el producto escalar ~vi ~vj es cero, para todo
par i , j .
As ...
Teorema Si los vectores de un conjunto f~v1 ; : : : ;~vk g <n son no nulos y mutuamente
ortogonales entonces el conjunto es linealmente independiente.
Demostracion. Considerar la combinacion lineal c1~v1 + c2~v2 + + ck~vk = ~0. Si i 2 [1::k]
entonces tomando el producto escalar de ~vi a ambos lados de la igualdad
~vi (c1~v1 + c2~v2 + + ck~vk ) = ~vi ~0
ci (~vi ~vi) = 0
muestra, como ~vi es no nulo, que ci es cero. Vale para cada i = 1; :::k. Luego, los k
vectores son linealmente independientes.
Corolario Si hay p vectores no nulos que son mutuamente ortogonales en un espacio
p dimensional ) ese conjunto es una \base" para ese espacio.
Demostracion. Todo conjunto de p vectores linealmente independientes de un espacio
de dimension p es una base.
Por supuesto, la recproca del teorema no vale, ya que \ | No toda base de un sube-
spacio de dimension p de <n tiene sus p vectores mutuamente ortogonales".
Sin embargo, podemos alcanzar una recproca \parcial" en el sentido que \ para todo
subespacio de <n existe al menos una base de vectores mutuamente ortogonales".
Ejemplo Los vectores ~ 1 y ~ 2 de esta base de <2 no son ortogonales.
4 1
B=h 2 ; 3 i
... Sin embargo, podemos encontrar desde B una \ nueva base" para el mismo espacio
cuyos vectores sean \mutuamente" ortogonales. Para el primer vector de la nueva base
usamos el mismo de B , usamos ~ 1 . As
4
~1 = 2
Para construir el segundo de la \nueva" base, tomamos uno ortogonal al primero...
... tomamos desde ~ 2 la \parte" que es ortogonal a la direccion del ~1 ,
1 1 1 2 ;1
~2 =
3
; proj [~1 ] ( 3
)=
3
; 1
=
2
... y sera , ~2 (la parte del vector ~ 2 que es ortogonal a ~1 )
Notar que, por el corolario, f~1 ;~2 g es una base para <2.
6
Denicion Una base ortogonal para un espacio vectorial es una base de vectores \
mutuamente ortogonales".
Ejemplo Para pasar de una base de <3
011 001 011
h@1A ; @2A ; @0Ai
1 1 3
a una base ortogonal, como antes tomamos como primer vector el primer vector de la base
dada. 011
~1 = @1A
1
Para obtener el segundo ~2 , comenzamos con el segundo vector de la base dada ~ 2 y le
sustraemos la parte de el que es la proyeccion sobre ~1 .
001 001 001 02=31 0;2=31
~2 = @2A ; proj[~1 ](@2A) = @2A ; @2=3A = @ 4=3 A
0 0 0 2=3 ;2=3
Finalmente, para obtener ~3 tomamos el tercer vector dado y le sustraemos la parte de el
en la direccion de ~1 , y tambien la parte del mismo en la direccion de ~2 .
011 011 011 0;11
~3 = @0A ; proj[~1 ](@0A) ; proj[~2 ](@0A) = @ 0 A
3 3 3 1
... El corolario dice que ....
011 0;2=31 0;11
h@1A ; @ 4=3 A ; @ 0 Ai
1 ;2=3 1
es una base de <3 .
Para generalizar...
El resultado proximo verica que el procedimiento dado en los ejemplos genera una
base ortogonal, para un subespacio de <n, a partir de una base dada. Nos restringimos a
<n porque no hemos dado una denicion de ortogonalidad general para otros espacios.
...
Teorema ( Ortogonalizacion de Gram-Schmidt ) Si h~ 1 ; : : : ~ k i es una base para
un subespacio de <n entonces
~1 = ~ 1
~2 = ~ 2 ; proj[~1 ](~ 2 )
~3 = ~ 3 ; proj[~1 ](~ 3 ) ; proj[~2 ](~ 3)
...
~k = ~ k ; proj[~1 ](~ k ) ; ; proj[~ ;1](~ k )
k
Una vez que se tiene la base de vectores ortogonales, se puede pasar a una base donde
ademas cada vector tiene longitud unitaria. Para eso, cada vector de la base ortogonal se
divide por su propia longitud (se normalizan las longitudes).
8
Ejemplo Normalizar la longitud de cada vector de la base ortogonal del ejemplo previo
produce la base ortonormal .
01=p31 0;1=p61 0;1=p21
p p
h@1=p3A ; @ 2= p6 A ; @ 0p Ai
1= 3 ;1= 6 1= 2
Una base ortonormal simplica muchos calculos como se vera en algunos ejercicios.
Ejercicios
2.1 Realizar el procedimiento de Gram-Schmidt sobre cada base de <2 , para obtener
1 2
bases ortonormales. 0 ;1 0 ;1
(a) h ; i (b) h ;
1 1 1 i (c) h ;
3 i1 0
X 2.2 Idem0el ejercicio
1 0 1 1previo
001para las siguientes 001de0<21.
0 1 1bases 3
2
(a) h@2A ; @ 0 A ; @3Ai (b) h@;1A ; @1A ; @3Ai
2 ;1 1 0 0 1
Luego normalizar los vectores.
X 2.3 Encontrar una base ortonormal para el subespacio de <3: el plano x ; y + z = 0.
Ayuda: parametrizar
0x1 el plano usando los 0;1y1, z.
011parametros
f@y A x = y ; zg = f@1A y + @ 0 A z y; z 2 <g
z 0 1
Considerar esa base. 011 0;11
h@1A ; @ 0 Ai
0 1
2.4 Encontrar bases ortonormales
0 x 1 para el subespacio de <4.
B y CC x ; y ; z + w = 0 and x + z = 0g
fB
@z A
w
Reduciendo el sistema lineal
x ; y ; z + w = 0 ;;! 1 +2 x ; y ; z + w = 0
x +z =0 y + 2z ; w = 0
y parametrizando da la descripcion del subespacio, hallar una base.
2.5 Mostrar que cualquier subconjunto linealmente independiente de <n puede ser
ortonormalizado sin cambiar el subespacio 1generado.
3 Por ejemplo , con
S=f 2 ; 6 g
alcanzaramos 1 3 3 0
~1 = 2 ~2 = 6 ; proj[~1]( 6 ) = 0
2.6 Encontrar un vector en <3 que0es ortogonal
1 0a21ambos vectores dados:
1
@ 5 A @2 A
;1 0
9
X 2.7 Una ventaja de las bases ortonormales es que ellas simplican la representacion de
un vector con respecto a esa base.
(a) Representar el vector respecto 1 1de <2
2de la base indicada
~v = 3 B=h 1 ; 0 i
Primero representar el vector con respecto a la base. Luego proyectar el vector sobre
cada elemento de la base. [~ 1] y [~ 2].
(b) Con la base ortogonal dada para <2
K = h 11 ; ;11 i
representar el mismo vector ~v con respecto de esa base. Luego proyectar el vector
sobre cada elemento de esta base. Notar que los coecientes en la representacion y
en la proyeccion son los mismos.
(c) Dada una base ortogonal K = h~1; : : : ;~k i para un subespacio de <n. Probar
que para cualquier ~v en el subespacio, la i-th componente de la representacion de v
en esa base es el coeciente escalar (~v ~i)=(~i ~i ) de la proj[~ ](~v ).
(d) Probar que ~v = proj[~1](~v ) + + proj[~ ](~v ).
i
2.8 Mostrar que las columnas de una matriz n n forman una base ortonormal si y
k
12
Problema Si S es el subespacio dado por plano-xy de <3 , que es S ??
Un primer intento de respuesta es que S ? es el plano yz-plane, ...
... pero eso no es cierto !!!.
Algunos vectores del plano yz no son perpendiculares a todo vector del plano xy.
011 001
@1A 6? @3A = arccos(
p p ) 0:94 rad
1 0+1 3+0 2
2 13
0 2
15
1.4 Proyeccion ortogonal y aproximacion de cuadrados mnimos
La proyeccion ortognal de un vector ~v Rn sobre un subespacio S Rn puede
tambien verse como la mejor aproximacion al vector v basada en un vector de S. Si se
~ S S, la mejor aproximacion se lograra eligiendo
desea aproximar ~v mediante un vector w
w
~ S como el vector de S mas cercano a ~v , y tal vector es entonces la proyeccion ortogonal
~vS = projS (~v ) .
En efecto, la distancia al cuadrado de ~v a un vector arbitrario w
~ S de S es
D2 = |~v w~ S |2 = |(~v ~vS ) (w
~ S ~vS )|2
= |~v ~vS |2 + |~vS w~ S |2 2(~v ~vS ) (w
~ S ~vS )
2 2
= |~v ~vS | + |~vS w ~S|
donde |~u|2 = ~u ~u es la longitud al cuadrado de un vector ~u y en el ultimo paso hemos
utilizado que ~v ~vS es ortogonal a todo vector de S, por lo que (~v ~vS ) (w
~ S ~vS ) = 0.
Por lo tanto, el valor mnimo de D2 se obtiene para w ~ S = ~vS , con
2
Dmin = |~v ~vS |2 = |~v |2 |~vS |2
Si S es generado por un conjunto linealmente independiente de vectores (w ~ 1, . . . , w
~ k ),
k n, el resultado dado en la ultima seccion asegura que ~vS = c1 w
~ 1 + . . . ck w
~ k , con
~c = (c1 , . . . , ck )T dado por
~c = (AT A)1 AT ~v (1)
es decir, ~c es la solucion del sistema
(AT A)~c = AT ~v
donde A = (w ~ k ) es una matriz de n k y AT A de k k es no singular.
~ 1, . . . , w
Un ejemplo corriente de aplicacion es el ajuste de los valores f (xi ) de una funcion
f : R R para un conjunto de puntos (x1 , . . . , xn ), por un polinomio de grado k,
P (x) = c0 + c1 x + c2 x2 + . . . + ck xk
con k normalmente menor o mucho menor que n, y c0 , . . . , ck los coeficientes a ajustar.
Lo que se desea es elegir el polinomio que minimiza la suma de la diferencia de cuadrados
n
X
2
D = [f (xi ) P (xi )]2 (2)
i=1
16
El problema de encontrar los coeficientes c0 , . . . , ck que minimizan D2 es pues el mismo
problema de encontrar el vector w ~ S de S mas cercano a ~v , siendo S el subespacio de Rn
generado por los vectores w ~ k . La solucion para ~c = (c0 , c1 , . . . , ck )T estara entonces
~ 0, . . . , w
dada por (1), siendo ahora A una matriz de n (k + 1) de elementos Aij = xji para
j = 0, . . . , k, y AT A una matriz de (k + 1) (k + 1), con
Xn X n
j l
T
(A A)jl = T
xi xi , (A ~v )j = xji f (xi ) , j, l = 0, . . . , k .
i=1 i=1
f HxL f HxL
f HxiL f HxiL
8 8
c0+c1 xi+c2 x2i c0+c1 xi+c2 x2i +c3 x3i +c4 x4i
6 6
4 4
2 2
x x
-1.5 -1.0 -0.5 0.5 1.0 1.5 -1.5 -1.0 -0.5 0.5 1.0 1.5
Ejercicios
1. Verifique que la minimizacion de D2 (2) respecto de los coeficientes cj conduce a la
solucion (1).
2. Determine el polinomio P2 (x) = c0 + c1 x + c2 x2 que minimiza D2 si los datos son
f (1,5) = 8,5, f (0,9) = 2,5, f (0,3) = 1, f (0) = 0,5, f (0,3) = 0,6, f (0,9) = 1,5,
f (1,5) = 3 (Utilice PC). Estos corresponden a la posicion (en una cierta escala) en distintos
tiempos de un movil con aceleracion variable. Si la aceleracion fuese constante, como sera
el ajuste con este polinomio?
17
Facultad de Ingeniera
UNLP
Matematica C
2017
2
7.1.2. Definicion
Comenzamos por definir el numero i (unidad imaginaria), que satisface
i2 = 1
z = x + y i, x, y R
donde tanto x como y son numeros reales. La parte real de z es x, y la parte imaginaria
de z es y (tambien un numero real!):
Re(z) = x, Im(z) = y
Dos numeros complejos z1 = x1 + iy1 , z2 = x2 + iy2 , son iguales si y solo si tanto sus
partes reales como imaginarias son respectivamente iguales:
x1 + y 1 i = x2 + y 2 i x1 = x2 , y 1 = y 2 (x1 , x2 , y1 , y2 R)
ReHzL
0 x
7.1.3. Conjugacion
El conjugado de un numero complejo z = x + iy se lo denota como z o z , y se lo
define como
z = x iy
de forma que Re(z) = Re(z), Im(z) = Im(z). ImHzL
z=x+yi
y
Por ejemplo, i = i, 1 + 2i = 1 2i y 1 2i = 1 + 2i y .
-y
Obviamente, z = z (o sea, (z ) = z). z=x-yi
4
z1
ReHzL
0
La resta z1 z2 es la suma de z1 y el opuesto z2 = x2 y2 i
de z2 :
z1 z2 = (x1 x2 ) + (y1 y2 )i
Por ejemplo, (1 + 2i) (3 4i) = 2 + 6i, (1 + 2i) (1 + 2i) = 0.
Ejercicio: Indique el significado geometrico de z1 z2 .
Problema 1: Mostrar que el conjugado de una suma es la suma de los conjugados: y que
el conjugado de una resta es la resta de los conjugados:
z1 z2 = z 1 z 2
Por ejemplo,
z1 z2 = z 1 z 2
(x + yi) = x + yi
de donde
z x yi
z 1 = 2
= 2 , z 6= 0 (1.7)
|z| x + y2
1
resultado que puede obtenerse multiplicando numerador y denominador de z
por z. Por
i
ejemplo, 1i = i 2 = i:
1
= i
i
verificandose que i(i) = i2 = 1. Como segundo ejemplo,
1 1 1i 1i 1 1
= = = i
1+i 1+i1i 2 2 2
verificandose que (1 + i)(1 i)/2 = 1.
Los numeros complejos pueden ser tambien representados por matrices reales de 2 2 de
la forma
x y 1 0 0 1
z = =x +y (1.11)
y x 0 1 1 0
= xI + yR , x, y R (1.12)
1 0 0 1
donde I = es la matriz identidad y R = la matriz de rotacion
0 1 1 0
definida en (1.3). Obtenemos, con el producto matricial usual, I.I = I, I.R = R.I = R, y
0 1 0 1 1 0
R.R = = = I (1.13)
1 0 1 0 0 1
z1 + z2 = (x1 + x2 )I + (y1 + y2 )R
Como estructura algebraica, el conjunto de numeros complejos es, al igual que los
numeros reales o racionales, un cuerpo. Una estructura algebraica {F, +, }, donde F es
un cierto conjunto de numeros y +, son operaciones binarias cerradas entre ellos, es un
cuerpo (o campo) si:
i) La suma satisface las propiedades de asociatividad, conmutatividad, existencia de ele-
mento neutro (0, tal que z +0 = z z F ) y opuesto ( z F z tal que z +(z) = 0).
ii) El producto es tambien asociativo y conmutativo, con existencia de elemento neutro 1
(z 1 = z z F ) e inverso z 1 z 6= 0 (tal que z z 1 = 1)
iii) El producto es distributivo: z1 (z2 + z3 ) = z1 z2 + z1 z3 .
7.1. CONCEPTOS BASICOS 9
az 2 + bz + c = 0, (a 6= 0) (1.14)
Sabemos que las races estan dadas por la muy conocida formula
b b2 4ac
z = (1.15)
2a
Problema 13: Obtener la formula (1.15), completando cuadrados.
Problema 14: Probar que para a 6= 0,
Como las races pueden repetirse, esta igualdad suele escribirse como
Si los coeficientes ai del polinomio son todos reales, entonces las races complejas aparecen
siempre en pares conjugados.
Problema 15: Probar el enunciado anterior, mostrando primero que si los coeficientes son
reales Pn (z) = Pn (z).
7.1. CONCEPTOS BASICOS 11
7.1.11. Problemas
1) Realizar las siguientes operaciones, expresando el resultado como z = x + yi, con x, y R:
1 25
a) (1 2i)(3 + 4i) b) i + (2 + 4i)(2 ) c) 5 +
2i 3 + 4i
1+i 3 + 4i i 2+i 1+i
d) e) f) g) +
1i 3 4i 3i 1 + i 1 + 1/i
2) Determinar la parte real, la parte imaginaria y el modulo de los resultados de las operaciones
anteriores.
3) Hallar todas las races de las siguientes ecuaciones, y escribir el polinomio correspon-
diente en la forma factorizada (1.16) o (1.18)(1.19):
a) z 2 2z + 2 = 0 b) 2z 2 + 4 = 0 c) 2z 2 + 2z + 1 = 0
d) z 2 + 2iz = 0 e) z 2 + 2iz 1 = 0 f ) z4 1 = 0
ix + y = i
4) Resolver el sistema
x + iy = 2
p
5) Indicar el error en a) 1 = 1 1 = (1)(1) = 1=1
1
q
y b) 1i = 1 = 1 1
= 1 = i.
|z z0 | = r, r > 0
7) Mostrar que si z1 = x1 + y1 i, z2 = x2 + y2 i,
Re(z1 z2 ) = x1 x2 + y1 y2
z
donde
p
|z| = x2 + y 2
es el valor absoluto de z y es el angulo que forma z ReHzL
con el eje real en el plano complejo, denominado
0 x=z cos
argumento de z o arg(z).
Este angulo satisface
tan = y/x
Por ejemplo, si z = 1 + i |z| = 2 y tan = 1, con x > 0, y > 0, por lo que
= /4. Por lo tanto
1 + i = 2(cos /4 + i sen /4)
entonces
Y si z2 6= 0,
z1 |z1 |
= [cos(1 2 ) + i sen(1 2 )] (2.22)
z2 |z2 |
ImHzL
z3 =z1 z2
3 =1 +2
z3 =z1 z2
3 z2
2 z1
1
ReHzL
0
14
z = |z| ei (2.26)
donde = arg(z).
Por ejemplo,
i = ei/2
ya que |i| = 1 y arg(i) = /2. Se comprueba que ei/2 = cos /2 + i sen /2 = 0 + i = i.
Tambien,
1 = ei
ya que | 1| = 1, arg(1) = . Se comprueba que ei = cos + i sen = 1 + 0i = 1.
1 1 i
= e
z |z|
Dado que
ei1
ei1 ei2 = ei(1 +2 ) , = ei(1 2 )
ei2
resulta entonces obvio, utilizando la forma polar (2.26), que
y por lo tanto obtener las formulas (2.21)(2.22). Resulta tambien obvio que |z1 z2 | =
|z1 ||z2 |, arg(z1 z2 ) = arg(z1 )+arg(z2 ), y |z1 /z2 | = |z1 |/|z2 |, arg(z1 /z2 ) = arg(z1 )arg(z2 ).
Mediante la forma polar (2.23), resulta muy sencillo calcular cualquier potencia z n para
todo n natural o entero: Dado que (ei )n = ein , obtenemos
z n = (|z|ei )n
= |z|n ein (2.29)
= |z|n [cos(n) + i sen(n)] (2.30)
ImHzL ImHzL
3
z =1 z4 =1
z1 =i
z1 =ei23
z0 =1 z2 =-1 z0 =1
ReHzL ReHzL
0
0
z2 =ei43 z3 =-i
7.2. REPRESENTACION POLAR Y FORMULA DE EULER 17
z n = a + ib
vemos que
zk = r1/n ei(+2k)/n
satisface
zkn = rei(+2k) = rei = a + ib
para todo k entero. Por lo tanto, las n races distintas (asumiendo r 6= 0) son
+ 2k + 2k
zk = n
r ei(+2k)/n = n
r [cos( ) + i sen( )] , k = 0, . . . , n 1
n n
Las n races son pues de la forma
zk = n
r ei/n ei2k/n
z2 = i
donde t R y u(t) = Re[f (t)], v(t) = Im[f (t)] son funciones reales. Un ejemplo de especial
interes es la funcion exponencial compleja
f (t) = et , = + i C (2.33)
et = et eit
= et [cos(t) + i sen(t)] (2.34)
= et cos(t) + iet sen(t) (2.35)
Por lo tanto, la expresion (et )0 = et resulta valida tambien para complejo. Este
resultado sera esencial a la hora de resolver ecuaciones diferenciales, y puede obtenerse
de forma mas general por medio de la teora de funciones analticas de variable compleja,
que no trataremos en este curso.
De la misma forma, la integral de f se define como
Z Z Z
f (t)dt = u(t)dt + i v(t)dt
et
Z
et dt = +c
para C, 6= 0, donde c C es en general una constante compleja.
Problema: La potencia t para = + i C y t R+ se define como
t = e ln t = e ln t ei ln t
= t [cos( ln t) + i sen( ln t)] (2.37)
7.2. REPRESENTACION POLAR Y FORMULA DE EULER 19
donde ln t es el logaritmo natural. Por ejemplo ti = cos(ln t) + i sen(ln t). Se deja como
ejercicio probar que para C, tambien se obtiene
(t )0 = t1
tales como una corriente alterna o la posicion de una partcula en movimiento oscilatorio
armonico. Resulta en general mas conveniente expresar u(t) como
u(t) = Re[Aei(t+) ]
7.2.7. Problemas
1) Encontrar la representacion polar z = |z|ei de
3+i 1
a) z = 1 i b) z = c) z = 3i d) z = e) z = i
1+i 1 + 3i
2) Mediante la forma polar, evaluar z n en los casos anteriores, y hallar el valor explcito para
n = 6 y n = 3.
ei/3
a) z = ei/6 b) z = c) z = ei2/3 ei/3
ei/2
4) Determinar todos los z que satisfacen
a) z 2 = i b) z 3 = 1 c) z 4 = i d) z 6 = 1 e) z 2 = 1 i
a) z 2 + 2iz 1 + i = 0 b) z 2 + 2i = 0 c) z 4 + 2z 2 + 2 = 0
6) Escribir en la forma u(t) + iv(t), con u(t), v(t) funciones reales, las funciones
7) Determinar las derivadas de las funciones anteriores, y escribir su parte real y su parte
imaginaria.
Facultad de Ingeniera
UNLP
Matematica C
2017
Temario
Clase 1: Introduccion. Deniciones. Calculo de autovalores. Polinomio caracterstico.
Autoespacios asociados a los autovalores: calculo de autovectores. Estimacion de
autovalores y localizacion (Crculos de Gershgorin). Operadores geometricos y au-
tovalores. Casos particulares.
Clase 2: Multiplicidad algebraica y geometrica. Autovectores independientes. Bases
de autovectores. Matrices semejantes. Diagonalizacion de matrices. Matrices
simetricas y resultados relacionados, etc..
Clase 3: Algunas Aplicaciones.
2
1 Introduccion
Motivaremos este captulo sobre autovalores discutiendo la ecuacion
ax + 2hxy + by = 1
2 2
como
; a h x
ax + 2hxy + by = x y : h b : y = xT :A:x
2 2
x a h
donde x = yA= y . La matriz A se llama matriz de la forma cuadratica.
h b
Objetivo ... Queremos aplicar un cambio de variables apropiado, la rotacion necesaria
de los ejes x e y, para que las coordenadas de los puntos de esa gura geometrica
respecto de los nuevos ejes x e y satisfagan una ecuacion reducida a la forma canonica:
1 1
x + y = 1.
1
2
1 2
2
1
La forma canonica es facil de analizar. Reconocemos a una elipse si los coecientes
son positivos, o una hiperbola si tienen distinto signo, etc.
... Ahora rotamos los ejes x e y en sentido antihorario mediante el angulo hasta los
nuevos ejes x e y .
1 1
3
De igual manera se obtiene que y = x sin + y cos .
1 1
base nueva (los vectores que dirigen los ejes nuevos), a las coordenadas (x; y) respecto de
la base canonica sabemos que es la matriz S :
cos ; sin
S = sin cos
As, para cada (x ; y ) se tiene que ...
x cos ; sin x
1 1
y = sin cos : y
1
x = S:x~
... Notamos que las columnas de S dan las direcciones de los semiejes positivos de
los ejes x e y . La matriz S de rotacion tiene la propiedad especial que det(S ) = 1 (
1 1
vercarlo).
Sabemos, que para obtener las nuevas coordenadas en terminos de las viejas ...
x cos sin
y = x~ = S :x = ; sin cos :x
1 ; 1
y = ;x sin + y cos
1
Ademas ...
... si reemplazamos en la ecuacion dada
;
xT :A:x = (S:x~)T :A: (S:x~) = x~T : S T :A:S :x~
... Supongamos ahora, como veremos mas adelante, que es posible elegir un angulo
tal que S T :A:S sea una matriz diagonal, entonces ...
0
xT :A:x = x~T :
0 :x~
1
= x + y1
2
1 2
2
1
.
Las soluciones de esta ecuacion representan una curva simetrica respecto a los ejes x 1
ey. 1
4
Las columnas de S , las columnas s y s , dan las direcciones de los ejes de simetra.
1 2
As si S es la matriz adecuada para cumplir con nuestro objetivo, sus columnas s y 1
A:s = :s
1 1 1 y A:s = :s
2 2 2
s y s , no nulos.
1 2 s
Para determinar el vector s = s , la primer ecuacion se escribe como
1
11
21
a h s s
h b : s = : s (1)
11 11
1
21 21
o
a ; h
s 0
h
1
b; : = s
11
0
1 21
... Hemos planteado un sistema homogeneo de 2 2, que debe tener solucion no trivial
(s ; s ) (es el nuevo eje). Por tanto, el determinante de la matriz de ese sistema debe ...
a ;
11 21
det h
b; =0
1
h 1
cumplira ...:
a ; h
det h
2
b; =0 2
a ; h
det h =0 b;
... Expandiendo el determinante se obtiene ...
; (a + b) + ab ; h = 0
2 2
5
Esta ecuacion tiene las races
q
a + b (a + b) ; 4 (ab ; h )
2 2
=
q 2
a + b (a ; b) + 4h 2 2
= 2
Las races son reales, y son distintas si a 6= b o si h 6= 0.
El caso en que a = b y h = 0 no necesita investigacion porque representa la ecuacion
de una circunferencia.
La ecuacion encontrada ;(a + b) +ab;h = 0 se llama la ecuacion de los autovalores
2 2
de la matriz A.
... Si conocemos los valores y , podremos encontrar s y s , que son las
1 2 1 2
el valor de .
2
...
6
... Dado un operador (o matriz de representacion de n n) A , si podemos construir
una base del espacio compuesta enteramente por autovectores de A, ...
... fu ; : : : ; ung, entonces cualquier vector x puede escribirse como una combinacion
1
= c :u + c :u + + cnn:un
X
1 1 1 2 2 2
n
= (cii) :ui
i
=1
0C C B
B cC CC
1
... C : B
A @.A .
.
2
ncn 0 0 n cn
Conclusion ...(I) La matriz de representacion de un operador A con respecto a una
base de sus autovectores (si existe esa base) es una \matriz diagonal", cuyos coecientes
en la diagonal son \los autovalores" de A.
Ademas ...
...(II) el efecto de un operador A sobre cualquiera de sus autovectores es simplemente
\escalar al autovector" por el correspondiente autovalor (ui ;! i :ui ), expandiendo o
contrayendo kui k por el factor i (que tambien puede ser igual a cero).
Observacion: En una seccion proxima se vera que \no siempre" se puede tener una
base de autovectores (el lindo resultado (I)).
Ejemplo
4 ;2 2
A = 1 1 y x= 1
4 ;2 2 6
A:x = 1 1 : 1 = 3
2
= 3: 1 = 3:x
7
Observacion: (4; 2)T es tambien otro autovector para el mismo autovalor = 3, por
tanto
4 ;2 4 12 4
1 1 : 2 = 6 = 3: 2
... As cualquier multiplo escalar de (2; 1)T tambien sera un autovector ( asociado al
mismo ), ya que
A: (c:x) = c:A:x = c::x = : (c:x)
Ademas ...
Los autovectores asociados a un particular autovalor de A, con el agregado del vector
0, forman un subespacio de <n que se denomina \ autoespacio" de A asociado a .
Para ver eso ...
Dado un que es autovalor ...
Si A:x = :x, y si y tambien satisface
A:y = :y entonces
A: (:x + :y) = :A:x + :A:y = :x + :y = : (:x + :y)
esto es ...
(:x + :y) es tambien un autovector deAcon el mismo autovalor
... As el conjunto de los autovectores correspondientes a un mismo , con
el agregado del vector 0 es un subespacio.
Por ahora, consideramos que A es una matriz real n n, y x un vector de
<n
....> Como se obtiene el conjunto de \autovectores" asociados a un ?
La ecuacion de autovalores A:x = :x puede escribirse ...
A:x = :In:x (3)
(A ; :In ) :x = 0 (4)
As estamos buscando vectores \no nulos" x que satisfagan la ecuacion (3). Es decir,
... buscamos soluciones \no triviales" del sistema lineal homogeneo (4). El conjunto
de todas estas soluciones \no nulas" esta en ...
... el subespacio o espacio nulo de la matriz A ; :In : N (A ; :In). Este subespacio
es un subespacio de R n ).
El espacio nulo N (A ; :In) se llama el autoespacio de A correspondiente al autovalor
.
Ademas ...
... si es un autovalor de A implica que existe algun x no nulo en N (A ; :I ).
Cualquier vector no nulo en N (A ; :I ) es un autovector asociado a . La dimension
N (A ; :I ) 1 (por lo menos hay un autovector para ese valor ).
8
La ecuacion (4) tiene solucion x no nula \ si y solo si" la matriz A ; :In es singular.
Por tanto, debe ser ...
det (A ; :In) = 0
... Esta ecuacion se denomina la ecuacion caracterstica de la matriz A.
... tiene n races (contando las races multiples) entonces A tiene exactamente n auto-
valores.
Sin embargo, hay que tener en cuenta que ...
Algunas races pueden repetirse, por tanto A tendra a lo sumo n autovalores \dis-
tintos";
Algunas races pueden ser numeros complejos, por tanto A puede tener autovalores
complejos (y consecuentemente, autovectores complejos).
( ; 4) ( + 3) = 0
= 4 y = ;3
1 2
correspondientes autovectores.
Para hacer esto, resolvemos los correspondientes sistemas homogenos
(A ; i:I ) :x = 0 (i = 1; 2)
Si tomamos = 4, y resolvemos por eliminacion el sistema
;1 2 ;1 2
1
A ; :I = 3 6 ;! 0 0
1
se obtiene ...
2
u = : 1
1
esto es ...
... cualquier multiplo no nulo de este vector es un autovector asociado a = 4; y
este vector es una base para N (A ; 4:I ), que es el autoespacio de ese autovalor.
1
Si consideramos = ;3
6 2 6 2
2
A ; :I = 3 1 ;! 0 0
2
como autovector asociado a . As este vector forma una base de N (A + 3:I ).
2
10
10 ;9 1 2 0 3 0 0
(a) 4 ;2 (b) 4 3 (c) 7 0 (d) 0 0
1 0
(e) 0 1
X 3.2 Para cada matriz, encontrar la ecuacion caracterstica, los autovalores y los au-
3asociados
tovectores
0
a cadauno.
3 2
(a) 8 ;1 (b) ;1 0
Otro ejemplo ...
1 2 1 ; 2
Ejemplo A = ;2 1 ;! det ;2 1 ; = 0 ;! (1 ; ) + 4 = 0 2
... Esto tena que pasar tarde o temprano. No nos habituaremos a los autovalores o
autovectores complejos, aunque haremos algunos comentarios:
Si es un autovalor complejo de una matriz real A, y su correspondiente autovector es
z, entonces si es el complejo conjugado de y z es el complejo conjugado de z ...
z = A:z = :z = :z
A:z = A:
... Por tanto, z es tambien un autovector de A con autovalor .
As autovalores y autovectores \complejos de las matrices reales" de n n siempre
aparecen con su complejo conjugado, es decir aparecen en \pares".
Problema (1)Dada una matriz de dimension n n, con n impar, vericar que tiene
por lo menos un autovalor real.
Problema (2) Usando los comandos del MATLAB. Los comandos del MATLAB para
calcular autovalores (despues de haber entrado la matriz A = [fila1; fila2; fila3]) es
E = eig(A), dando en E los autovalores.
Para obtener los autovectores: [U; D] = eig (A), da en las columnas de U los autovec-
tores (no garantiza que las columnas de U sean linealmente independientes), y en D los
autovalores. 10 ;9
Aplicar a la matriz A: 4 ;2
(3) Con la ayuda del MATLAB, calcular los autovalores de la matriz de 5 5 cuyos
terminos son aij = i j; . 0
1
1
10 ;9 1
+ 1
11
3.2 Localizacion de los autovalores. Crculos de Gershgorin
Objetivo Despues de haber calculado los autovalores de una matriz, y haber visto las
dicultades en calcular las races de los polinomios caractersticos, sabiendo ademas lo
dicil de ese tema cuando las matrices son de dimension n > 4, es importante conocer
el Teorema de Gershgorin. Este teorema nos provee un procedimiento para estimar la
localizacion de los autovalores de cada matriz, y en muchas oportunidades permite sacar
conclusiones sobre los autovalores sin calcularlos.
llamamos x a ese vector tal que Ax = x, y tal que ahora sus componentes satisfacen que
jxj j 1 (equivale a decir que la kxk1 = 1 = xi ). Entonces,
X
n
ai;j xj = xi = :
j =1
Por tanto,
X
n
; ai;i = ai;j xj ;
j6 i
=
3
Ejemplo Estimar la localizacion de los autovalores de A = 3 ;22
j ; 3j 2, desde la la 1, y desde la la 2 se obtiene que j ; (;2)j 3. Si fuesen
reales, estaran ( dibujar la recta) entre [;5; 5].
12
3.3 Operadores geometricos y autovalores (para visualizar).
Este ejemplo explica visualmente el signicado de los autovectores de esta transforma-
cion y visualiza tambien porque los restantes vectores de < no pueden ser autovectores.
2
A = (L (e ) ; L (e )) = 1 0
1 2
2 1
13
Para el otro autovalor, resolvemos (A ; :I ) :x = 0
1 1 1 1
2
1 1 ;! 0 0
y ... ;1
... el autoespacio asociado ... u = : 1
2
Lo que sigue explica visualmente el signicado de los autovectores hallados y explica
tambien porque no hay otros autovectores en esta aplicacion.
Para u = (1; 1)T , el vector permanece sobre el eje de re
eccion, y al re
ejarlo a traves
del eje retorna al mismo vector u .
1
L (u ) = u = 1:u
1 1 1
L (u ) = ;u = ;1:u
2 2 2
14
Cualquier otra orientacion del vector x al re
ejarse a traves del eje \no produce" un
vector que sea multiplo escalar de x: L (x) 6= :x
Solo los dos tipos de vectores u y u tienen la propiedad de conservar la direccion
1 2
Casos especiales...
4 Matrices diagonales
Si A es una matriz diagonal, entonces
0 1
a ; 0 0
BB 0 a ;
11
0 CC
0 = det (A ; :I ) = det B .. ... ...
22
... CA
@ .
0 0 ann ;
= (a ; ) (a ; ) (ann ; )
11 22
15
Por tanto ...
= a ; = a ; ; n = ann
1 11 2 22
As los autovalores de una matriz diagonal son los coecientes de la diagonal faii g
(eso muestra tambien que son todos reales).
Ademas, en este caso los autovectores tambien tienen una forma particularmente sim-
ple. En este caso: son precisamente los vectores de la base canonica e ; e ; : : : ; en, ya 1 2
que
A:e = :e ; A:e = :e ; etc
1 1 1 2 2 2
En otros casos, se podran encontrar bases que se puedan usar para obtener
una representacion con una matriz diagonal ...?
Si A no es diagonal... pero podemos determinar cuales son sus autovalores y autovec-
tores fi g y fxi g.
... Y supogamos que los \autovectores de A son linealmente independientes", con lo
cual forman una base de R n (porque son n vectores).
Entonces considerando esa base, los vectores coordenadas fx^i g de los autovectores fxi g
con respecto a esta \ autobase" seran e ; e ; : : : ; en.
1 2
A=B
^
@ ... ... . . . ... CA
2
0 0 n
... Veremos mas adelante, que cualquier matriz A de n n con \n autovectores
linealmente independientes" puede ser diagonalizada en este sentido. Puede ser represen-
tada con respecto a una base de sus autovectores mediante una \ matriz diagonal", con
sus respectivos autovalores en la diagonal.
Ademas,
la traza de A o tr A, denida como la suma de los coecientes de la diagonal de A,
esta dada por
X
n X
n
tr A = aii = i
i=1 i =1
Estos dos resultado son validos tambien para matrices que no son diagonales.
...
16
5 En general - Producto y suma de autovalores
Si A es una matriz cualquiera de n n, entonces
Demostracion. Recordar que p () = det (A ; :I ) tiene n ra ces fig. Por lo
tanto, cuando expandimos el determinante y factorizamos el polinomio resultante
obtendremos
p () = ( ; ) ( ; ) ( ; n)
1 2
... Una mirada detallada a la estructura del determinante muestra que de hecho
p () = (;1)n ( ; ) ( ; ) ( ; n)
1 2
= ( ; ) ( ; ) (n ; )
1 2
es siempre un numero real, el producto de todos los autovalores sera un numero real.
Observacion ... Similarmente, dado que la traza de una matriz real es real, la suma
de los autovalores tambien debe ser real. Y esto es cierto, aun cuando haya autovalores
complejos, dado que ...
+ = 2 Re (es tambien real)
17
En un ejemplo previo ...
3
Ejemplo la matriz dada es A = 3 ;22 . Vimos que los autovalores son = 4 y 1
= ;3.
2
tr A = 1 + 1 = (1 + 2i) + (1 ; 2i) = 2
det A = 1 + 4 = (1 + 2i) (1 ; 2i) = 5
det B
B@ ... ... C
... ... A = (a ; ) (a ; ) (ann ; )
22 2
11 22
0 0 ann ;
Conclusion Los autovalores de una matriz triangular (superior o inferior) son los coe-
cientes de la diagonal (como en el caso de las matrices diagonales).
A; :A:x = :A; :x
1 1
o
1 :x = A; :x1
As si x es un autovector de A con autovalor ,
... entonces x tambien es un autovector de A; correspondiente al autovalor 1= (como
1
18
6 Potencia de matrices
>Como son los autovalores y autovectores de Ak ?
Si se conocen los autovalores de A
A:x = :x
entonces
A :x = A: (A:x) = A: (:x) = :A:x = :x
2 2
00 que la matriz
1 de representacion es :
2 3 2
1 0 0
T = RepB;B (d=dx) = B
B 0 0 2 0C
@0 0 0 3CA
0 0 0 0 B;B
19
Hallar los autovalores, planteando ; 1 0 0
0 ; 2 0
0 = detT ; I = 0 0 ; 3 = 4
0 0 0 ;
La aplicacion tiene el unico autovalor = 0. Para hallar los asociados autovectores,
se resuelve
0 0 1 0 0 1 0u 1 0u 1
BB0 0 2 0CC BBu CC = 0 BBu CC
1 1
=) u = 0, u = 0, u = 0
@ 0 0 0 3 A @u A 2
3
@u A
2
3
2 3 4
0 0 0 0 B;B u B 4 u B
4
As para
0u 1alcanzar su autoespacio
B 0 CC u 2 <g = fu + 0 x + 0 x + 0 x u 2 <g = fu u 2 <g
fB
1
@0A 1 1
2 3
1 1 1
0 B
6.6 Probar que los autovalores de una matriz triangular (superior o inferior ) son las
entradas de la diagonal.
X 6.7 Encontrar la formula del polinomio caracterstico de una matriz de 2 2.
? 6.8 Mostrar que si A es una n- matriz cuadrada y cada la suma c entonces c es un
autovalor de A.
X 6.9 (a) Puede cualquier vector no-~0 en un espacio vectorial ser un autovector ?
X 6.10 Mostrar que es un autovalor de T si y solo si la aplicacion representada por
T ; I es singular.
6.11 (a) Mostrar que si es un autovalor de A entonces k es un autovalor de Ak .
(b) > Que es lo erroneo en la demostracion siguiente ? \Si es un autovalor de A y
si es un autovalor de B , entonces es un autovalor de AB , ya que si A~x = ~x
y B~x = ~x entonces AB~x = A~x = A~x = ~x"? Cuidado !, con la obtencion de
resultados falsos. Observar si se puede armar que A y B tienen igual autovector?
(consultar).
20
7 Propiedad de Independencia lineal de los autovec-
tores. Bases de autovectores
Un resultado importante ...
Autovectores correspondientes a autovalores \distintos" son linealmente independientes.
entonces ...
A:(c :x + c :y) = 0
1 2
= c :A:x + c :A:y 1 2
= c :x + c :y 1 1 2 2
c :x + c :y = 0
1 1 2 2
c ( ; ) :y = 0
2 2 1
Conclusion ... As si una matriz tiene n autovalores distintos ) tiene n autovectores
linealmente independientes.
21
7.1 Autovalores multiples
...> Que ocurre cuando los autovalores son repetidos?
En este caso, > se puede armar que existen n autovectores independientes ?.
... La respuesta es ... \ no siempre existen n autovectores independientes", como se
puede ver en los dos ejemplos que siguen.
As nos interesara saber cuando existen y cuando no existen n autovectores lineal-
mente independientes de A.
Consideremos el ejemplo ...
0;2 2 ;31
A = @ 2 1 ;6 A
;;21; ;2 20 ;3
det (A ; :I ) =
2 1 ; ;6
;1 ;2 ;
= ; ; ; 21 + 45
3 2
= ( ; 5) ( + 3) 2
Para = 5, tenemos
1
x = (1; 2; ;1)T
1 ( Vericar!)
Para los autovalores repetidos ...
= = ;3, la matriz caracterstica
01 1
2 3
2 ;3
(A ; :I ) = A + 3:I = @ 2 4 ;6A
;1 ;2 3
se reduce por las a
01 2 ;3
1
@0 0 0A
0 0 0
que tiene rango igual a 1. De la ecuacion obtenida x + 2x ; 3x = 0, o x = ;2x + 3x ,
1 2 3 1 2 3
vemos que tenemos dos variables independientes (en este caso, x y x ). La solucion
2 3
general sera
0;2 + 3 1
x=@ A
22
As podemos generar dos soluciones linealmente independientes eligiendo (; ) =
(1; 0) y (; ) = (0; 1)
0;21 031
x =@ 1 A
2 y x = @0A
3
0 1
... Esto es coherente, ya que si el rango de la matriz A + 3:I es igual 1 y n = 3,
entonces la dimension del espacio nulo N ((A + 3:I )) es la diferencia n ; 1 = 2.
... Hay 3 autovectores linealmente independientes ya que para los repetidos hay 2
autovectores linealmente independientes pues dim(N (A + 3:I )) = 2
Denicion Sea un autovalor de una matriz A.
Se denomina ...
Multiplicidad algebraica de : al numero M que indica el orden de la multiplicidad
de como raz del polinomio caracterstico p ().
Multiplicidad geometrica de : al numero m de autovectores linealmente indepen-
dientes asociados a . Este numero indica la dimension del \autoespacio" corre-
spondiente a ( que es dimN (A ; :I ) ).
Observaci
P on Como el polinomio caracterstico tiene grado n se tiene que ...
... (multiplicidades algebraicas) = n
Observacion En general, sucede que ...
... m M . La diferencia se llama defecto: = M ; m .
Ejemplo Sea la matriz ...
0 1 ; 1
A= 0 0 para calcular sus autovalores...se plantea det (A ; :I ) = 0 ; = 2
=0
0
Por tanto, M = 2; m = 1; = 1.
0 0 0
... Este es un ejemplo donde la suma de las multiplidades geometricas es \ menor "
que n. Entonces, no existen n autovectores independientes para la matriz dada.
...
23
Conclusion Si hay autovalores repetidos ... la existencia o no de n autovectores inde-
pendientes...
... depende de la suma de las multiplicidades geometricas de los autovalores. Si la
multiplicidad geometrica es n ) hay n autovectoresPlinealmente independientes. Sino,
hay tantos independientes como el valor de la suma m.
Problema >Cuantos autovectores linealmente independientes tiene esa matriz?.
0;1 ;3 ;91
@0 5 18 A
0 ;2 ;7
(a) Usando el Matlab calcular los autovalores. (b)Hallar los autovectores resolviendo
(A ; i I )x = 0, para cada autovalor.
3
8 Matrices semejantes
Ya las hemos denido ...
... Recordemos que una matriz B de n n es semejante a una matriz A de n n si
existe una matriz no singular S tal que
B = S ; :A:S 1
= det (A ; :I )
= pA ()
... A y B semejantes, tienen precisamente el mismo polinomio caracterstico ...
... y por tanto el mismo conjunto de autovalores fig.
>Que pasa con los autovectores de B ?
Si x es una autovector de A con autovalor , entonces
A:x = :x
; S:B:S; : = :x 1
S ; S:B:S ; :x = S ; : (:x)
; ;
1 1 1
B: S ; :x = : S ; :x
1 1
24
... As el autovector de B correspondiente al autovalor es justamente S ; :x, donde 1
x es el autovector de A asociado a .
Conclusion ... Si A y B son matrices semejantes de n n, con B = S ; :A:S , entonces 1
9 Diagonalizacion
Denicion Una matriz A de n n es diagonalizable si existe una matriz no singular X
tal que
X ; :A:X = D
1
Entonces
A:X = (A:x ; A:x ; : : : ; A:xn)
1 2
= ( :x ; :x ; : : : ;0n:xn)
1 1 2 2
1
0 0
BB 0 1
0 C
C
= (x ; x ; : : : ; xn) : B .. .. 2
. . . ... C
1 2
@. . A
0 0 n
= X:D
Dado que los fxi g son linealmente independientes, X es no singular; y por tanto ...
A:X = X:D =) D = X ; :A:X 1
A:X = X:D...
... desde ah se llega a que las columnas de X son autovectores de A (linealmente
independientes, ya que X es no singular).
25
Conclusion Observacion Sea A un matriz de n n
Si A es diagonalizable, entonces los vectores columnas de la matriz de diagonal-
izacion X son autovectores de A, y los elementos de la diagonal de D son los
autovalores correspondientes.
La matriz de diagonalizacion X no es unica. Reordenando su columnas, o multipli-
candolas por un escalar no nulo, se obtiene una nueva matriz de diagonalizacion.
Si A tiene n autovalores \distintos", los autovectores correspondientes son lineal-
mente independientes, y por tanto A es diagonalizable.
Si los autovalores de A no son todos distintos, A puede ser o no diagonalizable.
Si A tiene menos de n autovectores linealmente independientes, no es diagonalizable.
As ...
... si hay autovalores repetidos se debe hallar la multiplicidad geometrica de los
autovalores repetidos (que coincide con la dimension del autoespacio, o sea con la
dim(N (A ; i I )), si el autovalor es i).
... Si la multiplicidad geometrica coincide con la multiplicidad algebraica de los
autovalores repetidos, entonces hay n autovectores linealmente independientes.
... Si la multiplicidad geometrica para un i repetido, es menor que su multiplicidad
P A no es diagonalizable (no hay n autovectores independientes,
algebraica, entonces
sino solo r = m ).
Ejercicios
9.1 Diagonalizar la matriz (hallar autovalores,
y una base de autovectores si es posible):
4 2
3 3
9.2 Para la misma matriz anterior, usando el MATLAB, si es diagonalizable hallar la
descomposicion A = XDX ; . 1
26
Otros resultados importantes ...
Si una matriz A es diagonalizable, puede ser factoreada en el producto X:D:X ; . 1
2
; 1
;
A = X:D:X ; : X:D:X ; = X:D :X ; 1
2 1
(8)
y en general,
Ak = X:D0k :X ; 1
1
k 0 0
B 0 k 0 C
= X: B C
1
B@ ... ... 2
. . . ... C
A :X ; 1
0 0 kn
Ejemplo Sea
2 ;3
A= 2 ;5
Entonces ...
det (A ; :I ) = (2 ; ) (;5 ; ) + 6 = + 3 ; 4 = ( ; 1) ( + 4)
2
3 1
X= 1 2
Entonces ...
X;
1
:A:X = 51 ;21 ;31 : 22 ;
;
3 : 3 1
5 1 2
1 0
= 0 ;4
= 0 0 = D 1
^
X= 2 1
Entonces ... 1 ;3 2 ;3 1 3
; 1
1
D^ = X^ :A:X^ = ; 5 ;2 1 : 2 ;5 : 2 1
;4 0
= 0 1
0
= 0 2
27
Conclusion ... Esto es, si A es diagonalizable, puede factorearse A = XDX ; , y los 1
X1 k
= exp(A) = I + A + A + + + : : : = A
A A 2 3
eA 2
2! 3! k k! =0
siendo A = In.
0
X1 k
eA = exp(A) = X (I + D + D + D2! + D3! + : : : )X ; = X ( Dk! )X ;
2 3
2 1 1
k =0
eD = limn;>1 2
.. . y usando (8)
0Pm k1
1 0 1
BB k =0 k Pm CC Be e
1
C
CC = BB C
!
k2
limm;>1 B
2
eD = B@ k k
... C
... A @ A
=0 !
Pm kn e n
k =0 k!
)
eA = XeD X ; : 1
28
Ejercicios
X 9.1 S i T es una matriz n n y c; d son escalares.
(a) Probar que si T tiene un autovalor con un asociado autovector ~v entonces ~v es
un autovector de cT + dIn asociado con el autovalor c + d.
(b) Probar que si T es diagonalizable entonces lo es cT + dIn.
9.2 Matrices equivalentes por las tienen iguales sus autovalores?.
La respuesta es no!. Vericar que las siguientes matrices son equivalentes y no
tienen los mismos autovalores. Estas matrices equivalentes tienen la misma magnitud,
igual rango y distintos autovalores.
1 0 1 0
0 1 0 2
9.3 Mostrar que una matriz cuadrada con coecientes reales y un numero impar de
las tiene siempre al menos un autovalor real.
9.4 Diagonalizar la matriz (hallar los autovalores, y autovectores, multiplicidad alge-
braica y multiplicidad geometrica):0 1
;1 2 2
@2 2 2A
;3 ;6 ;6
9.5 Es posible diagonalizar la matriz A siguiente?. Hallar autovalores. El autoespacio
para cada autovalor ( es N (A ; i In) ). Hallar la multiplicidad geometrica para
cada autovalor. >Cantos autovectores0;1linealmente 1independientes hay ?.
;3 ;9
@ 0 5 18 A
0 ;2 ;7
9.6 Diagonalizar la matriz (hallar autovalores, y una base de autovectores (si es posi-
ble): 4 2
3 3
9.7 Repetir el ejercicio anterior resolviendo con el MATLAB, usando: E=eig( A). Luego
con el comando : [U,D]= eig(A) (obtiene los autovectores de A en las columnas de U
(pueden ser dependientes), y en D los autovalores. Hallar el N (A ; lambda:I ), y una
base correspondiente a cada autoespacio de cada autovalor.
9.8 Es posible diagonalizar la matriz siguiente?. (a)Hallar autovalores y los autovec-
tores linealmente independientes (observar
03 2 que41es simetrica ):
@2 0 2A
4 2 3
29
Matrices simetricas: AT = A
Matrices ortogonales: las columnas de A forman un conjunto ortonormal de R n
(y por lo tanto, una base).
En cambio en el caso de las matrices complejas tenemos lo equivalente
... :
;
Matrices hermitianas: Son las que satisfacen M H = M T = M .
Matrices unitarias: las columnas de M forman un conjunto ortonormal de C n (y
por tanto, una base).
Luego ...
Una matriz real hermitiana es una matriz simetrica
Una matriz real unitaria es una matriz ortogonal
Resultados relacionados importantes:
Estos resultados se dan aqu sin demostracion (se recomienda ver la bibliografa S.
Grossman para conocer los fundamentos que conducen a ellos).
Los resultados siguientes son de gran importancia y de ellos depende la resolucion de
muchas aplicaciones importantes.
Conclusion ... Esto quiere decir que si A es una matriz simetrica \ existe siempre"
una base de autovectores ortogonales.
... Proviene esa conclusion de los resultados ...
(1) Si A es simetrica, los autovectores asociados a autovalores distintos son ortogonales.
(2) Si A es simetrica, los autovalores repetidos tienen la multiplicidad geometrica igual
a la multiplicidad algebraica. Es decir, si la multiplicidad algebraica de un i es r,
entonces la dimension dim(N (A ; i:I )) = r. Observar que, por ejemplo con el
comando del MATLAB null(A ; i :I ), puede siempre obtener una base ortogonal
de este autoespacio de i. As ...
(3) Existe una base ortogonal de autovectores si A es simetrica.
30
Ejercicios
10.1 Rehacer un ejercicio previo: > Es posible diagonalizar la matriz siguiente?. Hallar
autovalores y los autovectores ortogonales
03 2(Observar
1 que es simetrica).
4
@2 0 2A
4 2 3
10.2 Es posible diagonalizar la matriz ?
0 2 ;1 0 1
@;1 2 ;1A
0 ;1 2
10.3 Idem para 0 4 ;1 0 ;11
BB;1 4 0 0 CC
@ 0 0 4 ;1A
;1 0 ;1 4
OBSERVACIONES:
Hacemos una peque~na incursion en el mundo de los escalares complejos, los vectores
y matrices complejas ...
El conjunto C n es el espacio vectorial formado por las n-uplas de numeros complejos.
Seran los escalares a considerar :
= a + ib (con a y b numeros reales)
Recordemos que...
Conjugado de :
= a ; ib
Longitud o modulo de :
p p
jj = : = a + b 2 2
z=B C
@ ... A
2
= ( z ; z
1 ; :
2 : : ; z n ) T y
z = B
@ ... CA = (z ; z ; : : : ; zn)
2
1 2
T
zn zn
Longitud o modulo de un vector:
q
kzk = jz j + jz j + + jznj
2 2 2
;
1 2
= zT :z = 1 2
Notacion:
;
zT zH y kzk = zH :z = (conjugado transpuesto de z)
1 2
Producto interno:
hz; wi = wH :z
Propiedades:
31
1. hz; zi 0 ("=" si y solo si z = 0)
2. hz; wi = hw; zi para todo z y w en V
3. h:z + :w; ui = hz; ui + hw; ui
Matrices:
M = fmij g con mij = aij + ibij o,
M = A + iB con A = faij g y B = fbij g
y M H = M T
Para matrices complejas ...
los autovalores de una matriz hermitiana son todos reales.
La matriz conjugada transpuesta de una matriz unitaria U es su inversa: U ; = U H 1
11 Aplicaciones
Nos limitaremos a ver dos casos, mas adelante cuando veamos Ecuaciones Diferenciales
veremos otras aplicaciones interesantes.
punto de su dominio.
Sea un vector u = (u ; u )T , de longitud kuk = 1, que indica una direccion.
1 2
Ademas, si calculamos
32
la derivada segunda de g(t) en t = 0, nos da la curvatura de g(t) en t = 0, que
coincide con la de la funcion f en P , en la direccion indicada por u. 0
cadena, se obtiene:
g00(t) == @ f @xP02 tu (u ) + 2 @ f @xy
2 P
0 tu
u :u + @ f @y
2 P tu
(u ) .
2 ( + ) 0 2 ( + ) ( + )) 2
12 1 2 2
@ 2 f P0 (u ) .
( ) 2
@y2 2
H= @x2 @xy ,
@ 2 f P0( ) @ 2 f P0
( )
@yx @y2
... la curvatura de f (x; y) en P , en la direccion de u, coincide con ...
u 0
00
g (0) = (u ; u )H u 1 2
1
de f en P . 0
positiva en otra direccion. As f (x; y) tiene en P , curvatura negativa en alguna direccion 0
33
Problema (i) Dada una matriz real simetrica A (n n). Vericar que si tiene n
autovalores positivos equivale a que la forma cuadratica uT Au > 0, para todo u 2 <n, con
u=6 0.
Ayuda: considerar que existe una base de autovectores ortonormales fu ; u P ; :::; ung
1 2
tales que Aui = i ui . Luego usar esa base de autovectores para escribir: u = iui .
Reemplazar en uT Au, para ver que se obtiene un valor positivo para todo u, si cada
i > 0 ya que uTi Aui = i > 0.
Recprocamente, si para todo u 6= 0, uT Au > 0, entonces tambien para todo autovector
uTi Aui = i > 0. As tiene autovalores positivos.
(ii) Lo mismo se puede hacer cuando todos los autovalores son negativos.
Problema (i) Sea la funcion z = exy , en el punto (1; 2). Ver cual es la curvatura en
(1; 2) en cualquier direccion u, de acuerdo a los autovalores del Hessiano en ese punto.
(ii) Sea la funcion z = ;x + 4xy ; 2y + 1, analizar la curvatura en los puntos donde
3 2
el gradiente es cero. Puede obtener alguna conclusion sobre el tipo de puntos estacionarios
que tiene?.
Entonces, si denominamos
A a la matriz y ...
... ~vn al vector de componentes f (n + 1) y f (n),
tenemos que
~vn = A~vn; ; 1
~vn = AA~vn; ; 2
~vn = An~v : 0
1 0 = 1 ;p ; p 2 5 2 5
1
2 2
0 p p 1
2
5 1
5
1+
2 5
5
= 1 2
1
2 p
; n ;
p
2
f (0)
5 2 5
0 p p 1
2
5 1
5
1+
2 5
5
35
p
Notamos que f es dominada por su primer termino porque (1 ; 5)=2 es menor que 1,
as sus potencias tienden a cero.
En general, una relacion de recurrencia lineal tiene la forma
f (n) = a f (n ; 1) + a f (n ; 2) + + ak f (n ; k)
1 2
0 = ;f (n) + a f (n ; 1) + a f (n ; 2) + + ak f (n ; k):
1 2 (9)
Esta es una relacion de recurrencia de orden k. Esa relacion, con las condiciones iniciales
f (0); : : : ; f (k ; 1)
determina completamente la sucesion, para n k.
Por ejemplo, la relacion de Fibonacci es de orden 2, y con las condiciones inicales
f (0) = 1 y f (1) = 1, determina la secuencia de Fibonacci, para f (2), f (3)....
Veremos como se puede usar el Algebra Lineal para resolver relaciones de recurrencia
lineales.
Primero, denimos el espacio vectorial en el cual trabajamos.
Sea V el conjunto de funciones f denidas para los numeros naturales N = f0; 1; 2; : : : g
y con valores f (n) en los numeros reales. (Tendremos tambien funciones con dominio
f1; 2; : : : g, eso es , sin el 0, pero eso no cambia lo principal.)
Dejando de lado \las condiciones iniciales" por un momento, para cualquier relacion
de recurrencia, podemos considerar el
... subconjunto S (del espacio V ) de las funciones soluciones f (n) de una relacion
de recurrencia.
El subconjunto S de soluciones es un subespacio de V .
Es no vacio, ya que la funcion f (n) = 0, constante, satisface la relacion (9) (aunque
no las especcas condiciones iniciales).
Ademas, si dos funciones f y f son soluciones, tambien la suma de ellas f + f lo
1 2 1 2
es:
2 1 2 2
= 0:
36
Tambien, si se multiplica por un escalar rf , lo es : 1
= r0
1 1 1 1
= 0:
0a a a : : : a a 1
BB 1 0 0 : : : k0; 0k CC 0f (n ; 1)1 0 f (n) 1
1 2 3 1
BB 0 1 0 CC BBf (n ; 2)CC BB f (n ; 1) CC
BB 0 0 1 CC B@ ... CA = B@ ... CA
B@ ... ... ... ... C A f (n ; k) f (n ; k + 1)
0 0 0 ::: 1 0
37
Para encontrar la ecuacion caracterstica de la matriz, lo vemos primero para el caso
de una matriz de 2 2:
a ; a
1 ; = ; a ; a
1 2 2
1 2
1 ;
1 2 3
0
que muestra que la ecuacion caracterstica es la siguiente.
a ; a a : : : a k ; a k
1 ; 0 : : : 0 0
1 2 3 1
0 1 ;
0. 0. 1 . .
. .
. . . . .
.
0 0 0 : : : 1 ;
= (;k + a k; + a k; + + ak; + ak )
1
1
2
2
1
fr2 (n) = rn... hasta fr (n) = rkn, potencias de las races del polinomio.
1
2 k
Problema (i) Mostrar que cada una de esas funciones ees una solucion de la relacion
(9).
(ii) Ver que son linealmente independientes.
38
Sntesis Dada una relacion de recurrencia lineal homogenea f (n) = a f (n ; 1) + +
ak f (n ; k) (es decir, 0 = ;f (n)+ a f (n ; 1)+ + ak f (n ; k)) consideramos la ecuacion
1
p c + p c =1 1 2
(1 + 5=2)c + (1 ; 5=2)c = 1
1 2
p p
Resolviendo ese sistema, conduce a c = 1= 5 y c = ;1= 5, como se habia calculado
1 2
antes.
39
Ejercicios
Resolver la siguientes relaciones lineales de recurrencia:
(d) Escribir la solucion de las relaciones anteriores, para condiciones iniciales generales
f (0) = f0 , f (1) = f1 .
40
Apendices
1. Autovalores de matrices definidas por bloques
Consideremos la matriz
A 0
M=
0 B
donde A es una matriz de n n, B de m m y 0 denota matrices nulas, tales que M
es de (n + m) (n + m). Estas matrices aparecen frecuentemente en diversos problemas,
representando por ejemplo dos sistemas A y B independientes.
Es facil ver que para hallar los autovalores y autovectores de M , basta con obtener los
autovalores de A y de B por separado, y luego unir ambos conjuntos, completando con
ceros los autovectores correspondientes:
A A 0 X A X
AX = X =
0 B 0 0
B A 0 0 B 0
BY = Y =
0 B Y Y
Estas expresiones muestran que todo autovalor y autovector de A o B origina un autovalor
y autovector de M . Ademas, hemos visto antes que det M = det A det B y por lo tanto,
41
Los autovalores y autovectores de M seran entonces
1 1 0 0
1 1 0
, 4 = 1, V4 0
1 = 0, V1
0 , 2 = 2, V2 0 , 3 = 3, V3 1
1
0 0 1 1
Problemas:
1. En base a los resultados anteriores, determinar los autovalores y una base de los espacios
propios asociados de las matrices
2 2 0 0
2 2 0 1 1 0 0
a) M = 1 1 0 b) M = 0
0 1 3
0 0 3
0 0 3 1
2 2 0 0
1 1 2 0 2
0 0
c) M = d) M = 0 3 0
0 0 1 1
1 0 1
0 0 2 2
2. Para pensar: Discuta el caso en que
A C
M=
0 B
42
2. Polinomio de Taylor en varias variables. Forma diagonal
Consideremos un campo escalar F : Rn R, es decir, una funcion que asigna a
cada vector r = (x1 , . . . , xn ) Rn un numero real F (r) = F (x1 , . . . , xn ). Asumiendo
que poseea derivadas parciales de todo orden continuas en una region |r a| < R, con
a = (a1 , . . . , an ), se define el polinomio de Taylor de grado k como
X F 1 X 2F
Pk (r) = F (a) + (a)(xi ai ) + (a)(xi ai )(xj aj ) (1)
i
xi 2! i,j xi xj
1 X kF
+... + (a)(xi1 ai1 )(xi2 ai2 ) . . . (xik aik ) (2)
k!i ,i ,...,i xi1 xi2 . . . xik
1 2 k
F F
donde x i
(a) = xi
|r=a y las sumas sobre i, j, i1 , . . . ik corren entre 1 y n. Este polinomio
ajusta todas las derivadas parciales de F hasta orden k en r = a, reduciendose en el
caso de una dimension (n = 1) al polinomio Taylor ya estudiado. Para r cercano a a, la
diferencia F (r) Pk (r) es pequena, con |F (r) Pk (r)| = O(|r a|k+1 ).
Los tres primeros terminos (1) del desarrollo constituyen el polinomio de Taylor de
F F
segundo orden P2 (r). Mediante el gradiente F (r) = ( x 1
, . . . , x n
) y la matriz Hessiana
2F 2F 2F
. . . x1 x
x21 x1 x2 n
H(r) =
.. .. ... ..
(3)
. . .
2F 2F 2F
xn x1 xn x2
... x2 n
43
De esta forma, R satisface
1 0 ... 0
0 2 ... 0
R1 = RT , RT H(a)R = (5)
.. .. .. ..
. . . .
0 0 . . . n
donde 1 , . . . , n son los autovalores de H(a). Reemplazando ahora r a = R(r 0 a0 ),
(r a)T = (R(r 0 a0 ))T = (r 0 a0 )T RT , se obtiene la forma diagonal
1 1 0
(r a)T H(a)(r a) = (r a0 )T (RT H(a)R)(r 0 a0 )
2 2
n
1X
= i (x0i a0i )2 (6)
2 i=1
La forma diagonal (7) permite ver que si i > 0 i, F sera concava hacia arriba en
a en todas las direcciones, como en el caso en que a es un mnimo local, mientras que si
i < 0 i, F sera concava hacia abajo en a en todas las direcciones, como en el caso
en que a es un maximo local. En general, F sera concava hacia arriba en las variables
x0i asociadas a autovalores i > 0, y concava hacia abajo en las variables x0i asociadas a
autovalores i < 0. Si algun autovalor i es nulo, se deben utilizar derivadas de orden
superior u otros metodos para determinar la concavidad respecto de x0i .
1 = 2(2 + ), 2 = 2(2 )
con autovectores normalizados v1 = (11 )/ 2, v2 = (1
1 )/ 2.
3) Pruebe que si
1 1 1
R=
2 1 1
entonces
T 1 0 T 1 0
R R= , R H(0)R =
0 1 0 2
4) A partir de los resultados anteriores, muestre que el polinomio de Taylor de F de grado
2 alrededor de a = 0 es
donde
x0
T x x+y
=R = / 2
y0 y x + y
5) Muestre que R representa una rotacion de 45o en sentido antihorario, y que por lo tanto,
x0 , y 0 , son las coordenadas respecto de ejes rotados 45o en sentido antihorario respecto de
los ejes originales.
6) A partir de la forma diagonal (8) y la anulacion del gradiente, concluya que 0 = (0, 0)
es un maximo local de F si || < 2 y un punto silla de F si || > 2. En particular, si
> 2, F es en el origen concava hacia abajo en x0 y hacia arriba en y 0 . Que sucede en
el caso = 2?
7) Analice de la misma forma los otros puntos crticos de F . La figura muestra el grafico
de F cerca del origen para dos valores de .
45
3. Autovalores de operadores lineales
Un operador lineal o endomorfismo en un espacio vectorial V es una transformacion
lineal L : V V . Se dice que un vector no nulo v V es autovector de L si existe un
escalar , denominado autovalor, tal que
L(v) = v
Por lo tanto, el conjunto de todos los autovectores con autovalor , junto con el vector
nulo 0 (que satisface L(0) = 0 = 0 ) forma un subespacio de V , denominado espacio
propio o autoespacio asociado al autovalor :
S = {v V |L(v) = v}
ML X = X
donde
m11 . . . m1n x1
ML = .. , X = ...
.
mn1 . . . mnn xn
son, respectivamente, la matriz que representa a L en esta base y el vector columna de
coordenadas de v en esta base. Esto implica que es autovalor de L si y solo si es
autovalor de la matriz representativa ML , es decir, si y solo si Det[ML In ] = 0.
Esto es valido para cualquier base elegida, es decir, para cualquier representacion
matricial ML de L, por lo que todas las matrices que representan a L en alguna base
46
deben tener los mismos autovalores. Podemos comprobar esto recordando que si ML y
ML0 representan a L en bases B y B 0 respectivamente, entonces son matrices semejantes:
ML0 = S 1 ML S
donde S es la matriz no singular de cambio de base, cuyas columnas son las coordenadas
de los vectores de la base B 0 en la base original B:
s11 . . . s1n
b0i = s1i b1 + . . . + sni bn , i = 1, . . . , n S = ...
sn1 . . . snn
Por lo tanto, los polinomios caractersticos asociados a ML y ML0 son los mismos:
Det[ML0 In ] = Det[S 1 ML S In ] = Det[S 1 (ML In )S] = Det[ML In ]
ya que Det[S 1 AS] = Det(S)Det(A)Det(S) = Det(A). Los autovalores de ML y ML0 seran
entonces identicos.
Recordemos tambien que las coordenadas de v en estas bases se relacionan por
X 0 = S 1 X
por lo que si ML X = X ML0 X 0 = S 1 ML SS 1 X = S 1 ML X = S 1 X = X 0 . Esto
muestra que si X es autovector de ML con autovalor , X 0 = S 1 X es autovector de ML0
con el mismo autovalor .
47
1) s es autovector de Ps con autovalor 1 = 1
2) s es autovector de Ps con autovalor 2 = 0
Estos resultados fueron obtenidos de la definicion de Ps , sin utilizar ninguna representacion
matricial determinada. En la base B d = (s, s ) de R2 , la matriz representativa de Ps
sera entonces diagonal:
d 1 0
MPs =
0 0
Por otro lado, en la base canonica se obtiene
Ps (e1 ) = Ps (e2 ) = 12 s = 12 (e1 + e2 )
por lo que la matriz que representa a Ps en esta base es
1 1 1
MPs =
2 1 1
Se verifica (probar!) que sus autovalores son 1 = 1 y 2 = 0, con espacios propios
generados por los autovectores X1 = (11 ) y X2 = (1
1 ) respectivamente:
1 1 1 1 0 1
MPs = =1 , MPs = =0
1 1 1 1 0 1
siendo X1 y X2 las coordenadas de s y s en la base canonica. Se comprueba que
d 1 1 0 1 1 1 1 1 1
MPs = S MPs S = , con S = , S =
0 0 1 1 2 1 1
Ejercicios:
1. Hallar las matrices que representan a la reflexion R : R2 R2 respecto de la
recta y = x en i) la base canonica, ii) la base B 0 = ((1, 1), (1, 1)) y iii) la base
B 00 = ((1, 0), (1, 1)). Mostrar luego que poseen los mismos autovalores, y que B 0 es una
base de autovectores de R.
1
Referencias
[1] R.L. Burden, J.Douglas Faires, Analisis Numerico , Grupo Editorial
Iberoamericana, Mexico, 1985.
[2] J. Demmel, Applied Numerical Linear Algebra, SIAM,Philadelphia, 1997.
2
Hemos visto previamente que toda matriz simetrica A se puede descomponer A =
PDP T , siendo P una matriz ortogonal (P T = P ;1), D una matriz diagonal que contiene
los autovalores de A. Cuando A no es simetrica, pero si cuadrada, si A es diagonizable
existe una descomposicion de A = SDS ;1, siendo S no singular aunque no necesariamente
ortogonal. Pero, cualquier matriz no es diagonizable ! !.
.... Ahora veremos que toda matriz (cuadrada o no, simetrica o no) tiene una factor-
izacion de la forma:
A = PDQT ;
donde P y Q son matrices ortogonales y D una matriz diagonal. Este resultado se llama
\ descomposicion en valores singulares"(DVS), y es una de las mas importantes entre las
descomposiciones de matrices.
... Explicaremos como obtenerla y haremos consideraciones sobre sus aplicaciones.
Denicion Si A es una matriz mn, los valores singulares de A son las races cuadradas
de los autovalores de AT A, y se denotan mediante 1 ; : : : ; n. Es convencional acomodar
los valores singulares de modo que 1 2 : : : n.
Ejemplo 1: Encontrar los valores singulares de A:
Ejemplo
01 11
A = @1 0A
0 1
La matriz AT A
2 1
AT A =
1 2
p : 1 = 3, 2 = 1. En consecuencia los valores singulares de A son :
tiene pautovalores
1 = 3, 2 = 1.
3
Para comprender el signicado lde los valores singulares de A consideremos los autovec-
tores de AT A. Por ser simetrica sabemos que hay n autovectores ortogonales, que se
pueden considerar de longitud 1. As sean v1 ; v2; : : : ; vn esa base de autovectores ordena-
dos y correspondientes a los autovalores 1 2 : : : n. Estos autovectores satisfacen:
AT Avi = ivi;
o equivalentemente
kAvik2 = i;
por consiguiente
p
kAvik = i:
As los valores singulares de A son las longitudes de los vectores Av1 ; : : : ; Avn. Geomet-
ricamente esto tiene una importante interpretacion. Si consideramos el ejemplo 1, y si
consideramos x 2 fx : kxk2 = 1g, entonces kAxk2 = Ax Ax = xT AT Ax =
; 2 1 x
xTATAx = x1 x2 1 2 : 1 = 2x21 + 2x1 x2 + 2x22
x2
lo cual es una forma cuadratica.
... Es facil ver que los valores mnimos y maximos que toma una forma cuadratica en
los vectores x con kxk = 1, es
min xT AT Ax max
si min es el menor autovalor de AT A, y si max es el mayor autovalor de esa matriz.
p En
; 1=
el caso del ejemplo de arriba, el autovector correspondiente a min = 1 es 1=p22 , y
1=p2
el autovector de max = 3 es 1=p2 .
p p
Por tanto, kAvik2 = i, se tiene que 1 = 3 = kAv1k, 2 = 1 = kAv2 k, son
los valores maximo y mnimo de las longitudes kAxk, cuando x recorre la circunferencia
unitaria dada por : kxk = 1.
La transformacion lineal T con matriz A, T : <2 ; ;; > <3 transforma el crculo
unidad kxk = 1 en una \elipse" que esta sobre el plano de ecuacion: x ; y ; z = 0
(vericar que la imagen de la transformacion es ese plano en <3). Las longitudes 1 , y
2 son las longitudes de los semiejes mayor y menor respectivamente de esa elipse.
para cada i = 1; : : : ; r. Eso garantiza que [u1; : : : ; ur ] son ortonormales en <m . Si r < m
ese conjunto no es una base de <m. En ese caso hay que extender ese conjunto para tener
m vectores ortonormales de <m .
... Esa es la parte mas dicil de la factorizacion que queremos obtener: A = U V T .
5
La matriz U estara formada por las columnas ortonormales U = [u1; : : : ; ur ; ur+1; :::um].
...Veamos que con tales matrices V , U , y , se verica que
A = U V T
Como V T = V ;1 por ser una matriz ortogonal, vericar que vale A = U V T , es igual
a ver que ( multiplicando por V ):
AV = U
Sabemos que Avi = i ui, para i = 1; 2; : : : ; r, y que
kAvik = i = 0; para i = r + 1; : : : ; n:
Por tanto,
Avi = 0; para i = r + 1; : : : ; n:
Por consiguiente,
AV = A[v1 : : : vn] = [Av1 : : : Avn]
entonces
AV = [Av1 : : : Avr ; 0 : : : 0] = [1u1 : : : r ur ; 0 : : : 0]
0 1
; BB...1 :. :. .: 0... C
OC
AV = u1 u2 : : : um B @ 0 : : : r CA = U
O O
como se requiere para vericar que A = U V T .
Observacion Los vectores de las columnas de U se denominan vectores singulares por la
izquierda de A, mientras los vectores de las columnas de V se llaman vectores singulares
por la derecha de A. Las matrices U y V no estan determinadas en forma unica por A,
en cambio si, porque contiene los valores singulares de A.
Ejemplo Encontrar una descomposici
0 1 on de valor singular de las matrices
1
1 0
1 1
(i)A = 0 0 1 (ii)A = 1 0A
@
0 1 01 1
1 0
Solucion: (i) Consideramos AT A = @1 1 0A y hallamos los autovalores: 1 = 2,
0 0 1
2 = 1, 3 = 0, con sus autovectores:
011 001 0;11
@1A ; @0A ; @ 1 A
0 1 0
6
Estos vectores son ortogonales, de manera que los normalizamos para obtener:
01=p21 001 0;1=p21
p p
v1 = @1= 2A v2 = @0A v3 = @ 1= 2 A
0 1 0
p p p
Los valores singulares de A son 1 = 2,2 = 1 = 1,3 = 0 = 0.
As
01=p2 0 ;1=p21 p2 0 0
p p
V = @1= 2 0 1= 2 A y = 0 1 0
0 1 0
Para determinar U , calculamos
01=p21
p
1 = 1= 2 1 1 0 @ p A = 1
u1 = Av
0 0 1 1= 2 0
1 0
y
1 001
u2 = Av
2
2= 1
0 0
0 @0A = 0
1 1
1
1 0ya forman una base ortonormal de <2, de manera que tenemos la matriz
Estos vectores
U : U = 0 1 . Esto produce la descomposicion DVS de la matriz A:
1 1 0p2 0 1=p2 1=p2 01
A = 0 10 1 = 0 1
0 0
0 1
0 @ 0 A
0 ;1=p2 1=0p2 10 = U V
T
8
obteniendose ...
0 1 0v1T 1 0T 1
; 1 : : : 0 Bv T C ; ; vr+1
B
= u1 u2 : : : ur @ ... . . . ... C
A B@ ... CA + ur+1 : : : um O @ ... CA
B 2C B
0 : : : r vrT vnT
0 1 0v1T 1
; 1 : : : 0 Bv T C
B
= u1 u2 : : : ur @ ... . . . ... C
A BB@ ...2 CCA
0 : : : r vr T
0 T1
; v1
= 1u1 : : : r ur @ ... C
B A = 1u1v1T + : : : + r urvrT
vrT
Se ha justicado que...
Lema Sea A una matriz m ncon valores singulares 1 2 : : : r > 0 y
r+1 = : : : = n = 0. Sean u1; : : : ; ur vectores singulares por la izquierda, y sean v1; : : : ; vr
vectores singulares por la derecha de A correspondientes aesos valores singulares. entonces
A = 1u1v1T + 2 u2v2T + : : : + r ur vrT
Observacion La DVS de una matriz A da mucha informacion acerca de A como se
resalta en el siguiente teorema:
Teorema Sea A = U V T una descomposicion de valor singular de una matriz A de
m n. Sean 1; : : : ; r todos los valores singulares NO NULOS de A. Entonces
(i) el rango de A es r.
(ii)fu1; u2 ; : : : ; ur g es una base ortonormal de R(A)
(iii)fur+1; ur+2; : : : ; um g es una base ortonormal de N (AT )
(iv)fv1; v2; : : : ; vr g es una base ortonormal de R(AT )
(v)fvr+1; vr+2 ; : : : ; vng es una base ortonormal de N (A)
Demostracion.
(i)Como U y V T son matrices no singulares(ademas, ortogonales) se sabe que rango(A) =
rango(U V T ) coincide con = rango(V T ) = rango() = r.
(ii) Como Avi, con i = 1; : : : ; r son linealmente independientes (ortogonales), y como
ui = (1=i)Avi , i = 1; : : : ; r, entonces fu1; : : : ; ur forman una base ortonormal del
rango(A).
(iii) Como fu1; : : : ; ur ; : : : ; um forman una base ortonormal de <m, luego por (ii), y con-
siderando que fur+1; : : : ; um es una base del espacio complementario a R(A), se obtiene
que ese conjunto es una base ortonormal del subespacio N (AT ) o del R(A)?.
(v) Como Avr+1 = Avr+2 = : : : Avn = 0, se tiene que fvr+1; : : : ; vn, que es un conjunto
9
ortonormal de vectores contenido en el anulador de A, de dimension n ; r, por lo que es
una base ortonormal del N (A).
(iv) Esta propiedad se desprende de considerar (v) y que fv1; v2 ; : : : ; vr g es un conjunto
ortonormal complementario del de (v), por lo que es una base de R(AT ).
Otro resultado importante que se obtiene desde la descomposicion DV S ....
Lema Sea A = U V T la descomposicion de A de m n con rango r. Por consiguiente,
la imagen de la esfera unitaria en <n, bajo la transformacion matricial que aplica x 2 <n
en Ax 2 <m , es
(a)la supercie de un elipsoide en <m si r = n,
(b) un elipsoide solido en <m si r < n.
Demostracion: Sean u1; : : : ; um y v1 ; v2; : : : ; vn los vectores singulares por la izquierda y
por la derecha de A, respectivamente. En razon que rango(A) = r, los valores singulares
0 11 2 : : : r > 0, y r+1 = r+2 = : : : = n = 0.
de A satisfacen
x
BBx12 CC
Sea x = B .. C un vector unitario de <n. Ahora, como V es una matriz ortogonal,
@.A
xn
tambien lo es V T , por tanto V T x es un vector unitario(conserva longitudes), as
0T 1
v1 x
B
B v2T xCCC
V x=B
T
@.A .
.
vnT x
de manera que (v1T x)2 + (v2T x)2 + : : : + (vnT x)2 = 1.
Como A = 1 u1v1T + : : : + r ur vrT . Por tanto,
Ax = 1u1v1T x + : : : + r ur vrT x = (1 v1T x)u1 + : : : + (r vrT x)ur
Ax = (1v1T x)u1 + : : : + (r vrT x)ur = y1u1 + : : : + yr ur
donde denotamos con yi = (iviT x).
(a) Si r = n, entonces corresponde al caso n m, y
Ax = y1u1 + : : : + ynun = Uy
0y 1
BBy12 CC
donde y = B @ ... CA.Por consiguiente, como U es ortogonal, kAxk = kUyk = kyk. Como
yn
( y1 )2 + : : : + ( yn )2 = (v1T x)2 + : : : + (vnT x)2 = 1
1 n
lo que muestra que los vectores Ax forman la supercie de un elipsoide en <m.
(b) Si r < n, la unica diferencia en los pasos anteriores es que la ecuacion se convierte
en
( y1 )2 + : : : + ( yr )2 1
1 r
puesto que despreciamos algunos terminos. Esto corresponde a un elipsoide solido de <m.
10
Facultad de Ingeniera
UNLP
Matematica C
2017
Temario por clase:
Clase 1: Ecuaciones diferenciales lineales ordinarias de orden n. Generalidades. Propie-
dades fundamentales. Caso homogeneo. La ecuacion lineal homogenea de segundo
orden. El caso de coeficientes constantes. Aplicaciones.
Bibliografa:
1. E. Kreyszig, Matematicas Avanzadas para Ingeniera (2do.vol), Limusa.
2
1. Ecuaciones diferenciales lineales ordinarias
1.1. Introduccion
Estudiaremos en este captulo ecuaciones diferenciales lineales. Recordemos primero
que una ecuacion diferencial es una ecuacion donde la incognita es una funcion, y donde
esta aparece vinculada con sus derivadas. Si la funcion incognita depende de una sola
variable, que llamaremos t, la ecuacion diferencial se denomina ordinaria. Si la misma
contiene derivadas hasta de orden n de la funcion incognita, se dice que la ecuacion
diferencial es de orden n.
es un espacio vectorial.
Demostracion: Una solucion de (1.12) es una funcion y(t) que la satisface. El conjunto
de soluciones S = {y(t) | L[y] = 0}, es el nucleo del operador lineal L y la propiedad 1 es
entonces consecuencia directa de la linealidad de L:
a) La funcion nula y(t) = 0 t I es siempre una solucion de (1.12), denominada
solucion trivial, como puede verse facilmente (L[0] = 0).
b) Ademas, si y1 (t) e y2 (t) son soluciones de (1.12), la combinacion lineal
y(t) = c1 y1 (t) + c2 y2 (t)
es tambien solucion de (1.12), para cualquier valor de las constantes c1 y c2 , ya que
L[c1 y1 + c2 y2 ] = c1 L[y1 ] + c2 L[y2 ] = c1 0 + c2 0 = 0
Es decir, si y(t) es solucion, cy(t) tambien lo es, y si y1 (t) e y2 (t) son soluciones, y1 (t)+y2 (t)
tambien lo es. Por lo tanto, S es no vaco y cerrado bajo las operaciones usuales de suma
de funciones y multiplicacion por un escalar. Esto implica que S es un subespacio del es-
pacio vectorial de funciones derivables hasta orden n en I, y por ende un espacio vectorial.
El conjunto {y1 (t), . . . , yn (t)} es pues una base de S, y la expresion (1.13), con n constantes
de integracion arbitrarias c1 , . . . , cn , es la solucion general de (1.12).
5
Probaremos este teorema en las paginas siguientes. Como ejemplo, consideremos la
ecuacion lineal de segundo orden (n = 2)
y 00 + y = 0 (1.14)
que corresponde a k/m = 1 en (1.5) (en unidades apropiadas!). Podemos ver que
y1 (t) = cos t, y2 (t) = sen t
son soluciones de (1.14), ya que (cos t)00 = cos t, (sen t)00 = sen t. Por lo tanto, como
el conjunto {cos t , sen t} es linealmente independiente y la ecuacion (1.14) es de orden 2,
toda solucion de (1.14) es necesariamente de la forma
y(t) = c1 cos t + c2 sen t (1.15)
con c1 , c2 constantes. El conjunto {cos t, sen t} es pues una base del espacio S de soluciones.
con t0 I. Si todas las ai (t) son continuas para t I, existe una unica solucion y(t)
para t I que satisface (1.12) junto con las n condiciones iniciales (1.16), b0 , b1 , . . . , bn1 .
Este es un caso particular del teorema general de existencia y unicidad que se aplica,
bajo ciertas condiciones, tambien al caso no homogeneo e incluso al caso no lineal, como
veremos mas adelante. La solucion que satisface (1.12) junto con (1.16) es una solucion
particular de (1.12).
En el caso homogeneo, esto implica, utilizando la solucion general (1.13), que las n
constantes c1 , c2 , . . . , cn quedan completamente determinadas por las n condi-
ciones iniciales (1.16), para cualquier valor de b0 , b1 , . . . , bn1 . Las condiciones iniciales
conducen a un sistema de n ecuaciones lineales para c1 , . . . , cn :
c1 y1 (t0 )+ ... +cn yn (t0 ) = b0
c1 y10 (t0 )+
... +cn yn0 (t0 ) = b1
.. .. ..
. . .
(n1) (n1)
c1 y1 (t0 )+ . . . +cn yn (t0 ) = bn1
El presente teorema asegura que el sistema anterior posee solucion unica (es compatible
determinado) t0 I. Por lo tanto, el determinante de la matriz de coeficientes debe ser
no nulo t0 I, es decir,
y1 (t) y2 (t) ... yn (t)
y10 (t) y20 (t) ... yn0 (t)
W (t) = 6= 0 t I (1.17)
...
(n1) (n1) (n1)
y1 (t) y2 (t) . . . yn (t)
Este determinante se denomina Wronskiano.
6
Problema 3: Probar que si las funciones {y1 (t), . . . , yn (t)} fuesen linealmente depen-
dientes para t I, entonces W (t) = 0 t I (Sug.: Usar que una de las yi (t) sera en tal
caso combinacion lineal de las restantes!).
7
4. Soluciones complejas. Supongamos que t y las n funciones ai (t), i = 0, . . . , n 1,
son reales. Si y(t) es una solucion compleja de la ecuacion homogenea (1.12),
y1 (t) = Re[y(t)]
L[y1 ] = 0, L[y2 ] = 0
Esto es muy facil de probar, dado que L es lineal y real. La linealidad implica
0 = L[y] = L[y1 + iy2 ] = L[y1 ] + iL[y2 ]
y como L es real, L[y1 ] y L[y2 ] son ambos reales, por lo que la igualdad anterior implica
L[y1 ] = 0, L[y2 ] = 0
Ademas, la funcion conjugada y(t) = y1 (t) iy2 (t) es tambien solucion de (1.12), pues
L[y] = L[y] = 0 = 0.
Formula de Euler. El resultado anterior resulta util en conjunto con la formula de Euler
para la exponencial de un numero complejo, que se obtiene del desarrollo en serie de la
exponencial:
eibt = cos(bt) + i sin(bt) (1.21)
y en general,
e(a+ib)t = eat eibt = eat cos(bt) + ieat sin(bt) (1.22)
Por lo tanto, para a, b y t reales,
y 0 + p(t)y = 0 (1.24)
y 0 + yt = 0
2 /2 2 /2
es y(t) = cet , y que la unica solucion que satisface y(0) = 1 es y(t) = et .
Esta ecuacion juega un rol muy importante en diversas areas de la fsica e ingeniera. Por
ejemplo, la 2a ley de Newton (1.4) conduce a una ecuacion de este tipo cuando la fuerza
F en (1.4) es una funcion lineal de la posicion y velocidad: F (t) = y + y 0 .
En tal caso p(t) = /m, q(t) = /m.
Los resultados generales anteriores implican que si p(t) y q(t) son continuas en un intervalo
I, la ecuacion (1.28) posee siempre dos soluciones linealmente independientes y1 (t)
y y2 (t), tales que toda solucion de (1.28) puede escribirse en la forma
9
Ademas, el problema de condiciones iniciales
00
y + p(t)y 0 + q(t)y = 0
y(t0 ) = y0 (1.30)
y 0 (t0 ) = v0
que entonces posee t0 I una solucion unica para c1 y c2 , para cualquier valor de y0 y
v0 (sistema compatible determinado). Esto implica que el determinante (Wronskiano)
y1 (t) y2 (t)
W (t) = 0
= y1 (t)y20 (t) y2 (t)y10 (t) (1.32)
y1 (t) y20 (t)
y20 (t0 )y0 y2 (t0 )v0 y10 (t0 )y0 + y1 (t0 )v0
c1 = , c2 =
W (t0 ) W (t0 )
10
A diferencia de la ecuacion lineal de primer orden, para el caso general no es posible
dar una expresion de y1 e y2 en terminos de integrales de p(t) y q(t). Sin embargo, s es
posible encontrar la segunda solucion y2 (t) si se conoce una de las soluciones y1 (t):
y 00 + ay 0 + by = 0 (1.36)
y(t) = et (1.37)
et (2 + a + b) = 0 (1.38)
2 + a + b = 0 (1.39)
Esta ecuacion se denomina ecuacion caracterstica. Tiene a lo sumo dos races distintas:
a + a2 4b a a2 4b
1 = , 2 =
2 2
y(t) = c1 e1 t + c2 e2 t (1.41)
Caso II: 1 = 2 (a2 = 4b): La unica raz = a/2 origina la solucion y1 (t) = et .
La segunda solucion y2 (t) podemos hallarla con el metodo (1.33). Obtenemos aqu
R
e adt eat
Z Z Z
v(t) = dt = dt = 1dt = t
e2t eat
donde hemos descartado las constantes de integracion (ver pagina previa). Por lo tanto,
una segunda solucion linealmente independiente de y1 (t) es y2 (t) = v(t)y1 (t) = tet .
Obtenemos as el par de soluciones linealmente independientes
y la solucion general es
y(t) = c1 et + c2 t et (1.43)
12
Races complejas. Supondremos a y b reales. El caso I comprende dos subcasos:
I.1. a2 > 4b: Ambas races 1 , 2 son reales. Las soluciones son de tipo exponencial
(creciente o decreciente) o constante (si 1 o 2 es nulo).
El espacio generado por las soluciones (1.40) o (1.44) es el mismo cuando se consi-
deran escalares complejos: Se deja como ejercicio probar que
c1 et cos(t) + c2 et sen (t) = c+ e(+i)t + c e(i)t (1.46)
con
c1 ic2
c = (1.47)
2
Amplitud y fase. La solucion (1.45) suele escribirse en forma mas clara como
A cos = c1 , A sin = c2
13
yHtL yHtL yHtL
A =0 A =4 A =2
t t t
T 2T 3T 4T T 2T 3T 4T T 2T 3T 4T
-A -A -A
Grafico de la solucion (1.48), y(t) = Aet cos(t + ), para = /10 y distintos valores
de la fase . T = 2/ > 0 es el perodo de la funcion cos(t + ).
Ejemplo 1:
y 00 y = 0 (1.50)
Planteando una solucion de la forma y(t) = et , se obtiene la ecuacion 2 1 = 0, cuyas
races son 1 = 1, 2 = 1. Por lo tanto,
y(t) = c1 et + c2 et
Ejemplo 2:
y 00 + 2y 0 + y = 0 (1.52)
Planteando una solucion de la forma y(t) = et , se obtiene la ecuacion 2 + 2 + 1 = 0,
es decir ( + 1)2 = 0, cuya unica raz es = 1. Por lo tanto, utilizando (1.42),
y(t) = c1 et + c2 tet
Ejemplo 3:
y 00 + 2y 0 + 5y = 0 (1.54)
Planteando una solucion
de la forma y(t) = et , seobtiene la ecuacion 2 +2+5 = 0, cuyas
races son 1 = 2+ 2 420 = 1 + 2i, 2 = 2 2 420 = 1 2i. Por lo tanto, utilizando
(1.44),
Esta solucion general puede expresarse tambien como y(t) = c+ e(1+2i)t + c e(12i)t o
y(t) = Aet cos(2t + ), donde c y A, se relacionan con c1 , c2 mediante (1.47) y (1.49).
14
yHtL
yHtL yHtL
4 1 1
Exp@tD Exp@-tD Cos@2tD
3
Exp@-tD
2 Exp@-tD Sin@2tD
t Exp@-tD
1 0 t
Exp@-tD 1 2 3 4
0 t0 1 2 3 4
t
1 2 3 4
Problema
11: Halle las soluciones particulares de (1.50), (1.52) y (1.54) que satisfacen
y(0) = 1
. Grafique estas soluciones.
y 0 (0) = 0
y1 y2
Problema 12: Si W [y1 , y2 ] = 0
denota el wronskiano (1.32), muestre que
y1 y20
a) W [e1 t , e2 t ] = (2 1 )e(1 +2 )t
b) W [et , tet ] = e2t
c) W [et cos(t), et sen (t)] = e2t
Ejercicios I:
1) Hallar la solucion general de las siguientes ecuaciones diferenciales. Dar una expresion
real de la misma.
a) y 00 4y 0 + 4y = 0 b) y 00 3y 0 4y = 0 c) y 00 + 4y = 0
d) y 00 + 4y 0 = 0 e) y 00 + 4y 0 + 5y = 0 f ) y 00 = 0
000 0
g) y = y h) y 00 + 2y 0 + 2 y = 0, i) y 00 2 y = 0, 6= 0
2) Excepto en g), hallar las soluciones particulares de las ecuaciones anteriores que satis-
facen a) y(0) = 0, y 0 (0) = 1, b) y(0) = 1, y 0 (0) = 0. Grafquelas.
En g) considerar y(0) = y 0 (0) = y 00 (0) = 1.
15
1.7. Aplicaciones
Problema 13: El oscilador armonico. Determinar el mo-
vimiento de una masa m > 0 unida a un resorte de constante
k > 0, de modo que la fuerza neta sobre la masa es F = ky,
con y la posicion medida desde el punto de equilibrio.
M
a) Planteando una solucion y(t) = et , mostrar que = i y que por lo tanto, las
soluciones reales linealmente independientes son
y la solucion general es
y(t) = c1 cos(t) + c2 sen (t)
b) Usando (1.48), reescribir esta solucion como
y(t) = A cos(t + )
Esta expresion permite ver claramente que toda solucion corresponde a un movimiento
oscilatorio de amplitud A y frecuencia angular . La frecuencia de oscilacion es
f=
2
y el perodo r
1 2 m
T = = = 2
f k
ya que T = 2 y por lo tanto A cos((t + T ) + ) = A cos(t + ) (probar!). Observar
que el perodo es independiente de la amplitud A y la fase , es decir, de las condiciones
iniciales. Estas determinan A y , pero no .
c1 = y0 , c2 = v0 /
y por lo tanto q
A = y02 + v02 / 2 , tan = v0 /(y0 )
c) Analizar el caso = 0 en (1.56). Determinar la solucion general.
16
Problema 14: El oscilador armonico amortiguado.
Determinar el movimiento de una masa m > 0 unida a un resorte
de constante k > 0 en un medio viscoso (en el que la fuerza de
roce es proporcional a la velocidad), de modo que la fuerza neta
sobre la masa es F = ky y 0 , con y la posicion medida desde
el punto de equilibrio y > 0 un coeficiente de roce.
M
II. = : Amortiguamiento crtico. Probar que en este caso ambas races son
coincidentes: = < 0, y que la solucion general es
y(t) = c1 et + c2 tet
Describa en forma cualitativa el movimiento resultante.
III. < : Movimiento subamortiguado. Probar que en este caso las races son
complejas conjugadas,
p
= i , = 2 2 > 0
con real, y que la solucion general es entonces
y(t) = c1 et cos( t) + c2 et sen ( t) = Aet cos( t + )
Describa en forma cualitativa el movimiento resultante, mostrando que corresponde a un
movimiento oscilatorio con una amplitud que decrece exponencialmente al aumentar t, y
una frecuencia angular efectiva < . = 1/ es el tiempo de decaimiento (o relajacion).
c) Hallar la solucion en los casos I, II y III que satisface las condiciones iniciales:
i) Desplazamiento inicial A, velocidad inicial nula: y(0) = A, y 0 (0) = 0.
ii) Desplazamiento inicial nulo, velocidad inicial v0 : y(0) = 0, y 0 (0) = v0 .
17
yHtL yHtL
A =0 A =0
t t
T 2T 3T 4T T 2T 3T 4T
-A -A
yHtL yHtL
A =10 A =10
t t
T 2T 3T 4T T 2T 3T 4T
-A -A
yHtL yHtL
A = A =
t t
T 2T 3T 4T T 2T 3T 4T
-A -A
yHtL yHtL
A =2 A =2
t t
T 2T 3T 4T T 2T 3T 4T
-A -A
18
Problema 15: Circuito LCR en serie. i C
Determinar la descarga de un capacitor de capacitancia L
C en un circuito como el de la figura, con resistencia R
e inductancia L. R
b) Discutir los tres casos posibles de evolucion, indicando para que valores de L, C, R el
sistema sera sub y sobre-amortiguado, y en que caso sera crtico.
c) Determinar explcitamente la solucion para una carga inicial q0 y corriente inicial i0 = 0
(circuito inicialmente abierto, que se cierra en t = 0).
mL00 = mg sen
donde es el angulo que forma el hilo con la vertical, ya que la fuerza en la direccion
tangencial es mg sen . Podemos reescribir esta ecuacion como
00 + 2 sen = 0, 2 = g/L
Esta es una ecuacion diferencial de segundo orden no lineal, por lo que en principio no
podemos aplicar los metodos presentes. Sin embargo, para pequenos angulos || 1,
podemos escribir, utilizando el desarrollo de Maclaurin de sen ,
sen = + O(3 )
19
Despreciando los terminos O(3 ), obtenemos la aproximacion lineal sen , que con-
duce a la ecuacion diferencial lineal
00 + 2 = 0
Esta es exactamente igual a la del oscilador armonico. Por lo tanto, para pequenos angulos
el movimiento del pendulo es similar al de una masa unida a un resorte.
a) Mostrar, en base a la discusion anterior, que el perodo de oscilacion para pequenos
angulos iniciales sera independiente de la amplitud:
p
T = 2/ = 2 L/g
b) Determinar (t) para (0) = 0 , 0 (0) = 0.
Ejercicios II:
1) Determinar el movimiento de una masa m = 1kg sujeta a un resorte de constante
k = 1N/m, con un coeficiente de roce viscoso : Halle la solucion general, el perodo en
ausencia de roce, y el valor de a partir del cual el sistema cesa de exhibir oscilaciones.
2) Determine la solucion de la ecuacion diferencial
y 00 + 2y 0 2 y = 0
que corresponde a k < 0 en el problema 17, asumiendo > 0, > 0. Indique si el roce
( = 2m) logra evitar el alejamiento de la posicion de equilibrio.
20
Problema 18: Ecuacion de Euler de 2o orden.
Esta ecuacion es de la forma
y0 y
y 00 + b + a 2 = 0 (1.57)
x x
donde a y b son constantes y x (0, ) denota la variable independiente. Esta ecuacion
lineal puede resolverse exactamente y surge en diversas aplicaciones.
a) Mostrar que la funcion
y(x) = x
sera solucion de (1.57) si y solo si es raz de la ecuacion
2 + (b 1) + a = 0
b) Si dicha ecuacion posee dos races distintas 1 , 2 , justifique que la solucion general es
y(x) = c1 x1 + c2 x2 (1.58)
y(x) = c1 x + c2 x ln x (1.59)
21
1.8. Ecuacion lineal homogenea de orden n con coeficientes cons-
tantes
Los resultados anteriores se generalizan en forma inmediata a la ecuacion
y (n) + a(n1) y (n1) + . . . + a1 y 0 + a0 y = 0
donde a0 , . . . , an1 son constantes. Proponiendo una solucion y(t) = et , obtenemos
et [n + an1 n1 + . . . + a1 + a0 ] = 0, lo que conduce a la ecuacion caracterstica
n + an1 n1 + . . . + a1 + a0 = 0
Si esta ecuacion posee n races distintas i , i = 1, . . . , n, las n soluciones linealmente
independientes seran yi (t) = ei t y la solucion general sera
y(t) = c1 e1 t + . . . + cn en t
Por el contrario, si una raz tiene multiplicidad m, pueden obtenerse de ella m soluciones
linealmente independientes,
et , tet , . . . , tm1 et
P
Como la suma de todas las multiplicidades de las races distintas es n ( i mi = 1) se
obtienen as n soluciones linealmente independientes.
Las races complejas se tratan de forma similar. Si los ai , i = 1, . . . , n, son todos reales,
las races complejas aparecen en pares conjugados: = i. De cada par de multiplici-
dad m pueden obtenerse 2m soluciones reales tk et cos(t), tk et sen(t), k = 0, . . . , m1.
Importante: Todas las races, tanto reales como complejas, deben ser incluidas en la so-
lucion general.
es decir,
L[y] = f (t) (1.61)
donde a1 (t), . . . , an (t) y f (t) continuas en intervalo abierto I.
1. La solucion general de (1.60) esta dada por la suma de la solucion general yh (t) de la
ecuacion homogenea mas una solucion particular yp (t) de la ecuacion no homogenea:
donde
yh (t) = c1 y1 (t) + . . . + cn yn (t) (1.63)
es la solucion general (1.13) y satisface L[yh ] = 0, mientras que yp (t) satisface L[yp ] = f (t).
Demostracion: Dado que L[yh ] = 0 y L[yp ] = f (t), vemos que (1.62) es tambien
solucion de (1.60), pues al ser L lineal,
Ademas, toda solucion y(t) de (1.60) es de la forma (1.62), pues si L[y(t)] = f (t), entonces
lo que muestra que la diferencia y(t) yp (t) es una solucion yh (t) de la ecuacion
homogenea. Por lo tanto y(t) yp (t) = yh (t) y entonces y(t) = yh (t) + yp (t).
Para resolver la ecuacion (1.60) debemos pues resolver la ecuacion homogenea y luego
encontrar alguna solucion particular yp (t) de (1.60) mediante algun metodo.
2. Si yp1 (t), yp2 (t) son soluciones de (1.60) para f (t) = f1 (t) y f (t) = f2 (t) respectiva-
mente, una solucion particular de (1.60) para la combinacion lineal
f (t) = c1 f1 (t) + c2 f2 (t) es la combinacion lineal de soluciones particulares:
23
1.10. La ecuacion lineal no homogenea de primer orden
La ecuacion es
y 0 + p(t)y = f (t) (1.64)
Vimos previamente que la solucion general de la ecuacion homogenea es
R
yh (t) = cy1 (t), y1 (t) = e p(t)dt
Para hallar una solucion particular, utilizamos el metodo usualmente denominado varia-
cion de parametros: Como en (1.33), consiste en proponer una solucion de la forma
Problema 19: Probar que la solucion particular que se anula en t = t0 puede escribirse
como Z t Rt
yp (t) = g(t, t0 )f (t0 )dt0 , con g(t, t0 ) = y1 (t)/y1 (t0 ) = e t0 p(s)ds
t0
2 /2
y que la solucion general es entonces y(t) = cet + 1.
24
1.11. La ecuacion lineal no homogenea de segundo orden
Consideremos ahora
y 00 + p(t)y 0 + q(t)y = f (t) (1.68)
donde
y (t) y2 (t)
W (t) = 10 = y1 (t)y20 (t) y10 (t)y2 (t)
(1.70)
y1 (t) y20 (t)
es el wronskiano de las soluciones (hemos visto ya que W (t) 6= 0 t I).
La solucion general de (1.68) es entonces
Problema 21: Probar a partir de (1.69) que la solucion particular que satisface yp (t0 ) =
yp0 (t0 ) = 0 es
Z t
y1 (t)y2 (t0 ) + y2 (t)y1 (t0 )
yp (t) = g(t, t0 )b(t0 )dt0 , g(t, t0 ) =
t0 W (t0 )
siendo g(t, t0 ) la solucion de la ecuacion homogenea que satisface y(t0 ) = 0, y 0 (t0 ) = 1.
25
Ejercicios III. Halle la solucion general de las siguientes ecuaciones diferenciales.
Utilice resultados de ejercicios previos.
a) y 00 + y 0 /t 4y 0 /t2 = t b) y 00 y = et
y 00 + ay 0 + by = f (t) (1.73)
es decir,
L[y] = f (t), L[y] = y 00 + ay 0 + by
Metodo general:
Para obtener una solucion particular en el caso de una f (t) general, podemos aplicar el
metodo de variacion de parametros, cuyo resultado final es la ecuacion (1.69).
et
Z Z
yp (t) = [ cos(t) e sin(t)f (t)dt + sin(t) et cos(t)f (t)dt] (1.76)
t
Problema 25: Muestre que la solucion particular que satisface yp (t0 ) = yp0 (t0 ) = 0 puede
escribirse en todos los casos como
Z t
yp (t) = g(t t0 )b(t0 )dt0 ,
t0
26
Ejemplo : Resolver
y 00 + 4y 0 + 4y = f (t)
Proponiendo y(t) = et para la solucion de la ecuacion homogenea se obtiene 2 +4+4 =
( + 2)2 = 0, o sea = 2. La solucion general de la ecuacion homogenea es entonces
t2
Z Z
yp (t) = e [t dt tdt] = e2t [t2 t2 /2] = e2t
2t
2
La solucion general de la ecuacion
y 00 + 4y 0 + 4y = e2t
es entonces
t2 2t
y(t) = c1 e2t + c2 te2t + e
2
0 c1 + 0 = 0
Si las condiciones iniciales son y(0) = y (0) = 0, se obtiene el sistema
2c1 + c2 = 0
cuya unica solucion es c1 = c2 = 0. La unica solucion particular de la ecuacion anterior
2
que satisface esta condicion inicial es por lo tanto y(t) = t2 e2t .
a) y 00 + 2y 0 + y = et b) y 00 + 2y 0 + y = tet
c) y 00 + y = A cos(t) d) y 00 y = Aet
et
e) y 00 + 2y 0 + y = 1+t2
f ) y 00 y = et cos t
27
1.13. Metodo de coeficientes indeterminados para ecuaciones
con coeficientes constantes
En el caso de coeficientes constantes, este metodo facilita el calculo de una solucion
particular de L[y] = f (t) cuando f (t) es exponencial, seno, coseno, polinomio o producto
de estas funciones. Consiste en proponer una solucion particular yp (t) del mismo tipo que
f (t), si es que tal propuesta no contiene sumandos que sean soluciones de la ecuacion
homogenea. Damos a continuacion una tabla de propuestas basicas de solucion particu-
lar yp (t) de L[y] = f (t), validas para el caso general de orden n con coeficientes constantes.
Problema 28: Mostrar que una solucion particular de y 00 y = Aet es yp (t) = 21 Atet .
Ejemplo 2:
y 00 + ay 0 + by = A0 + A1 t + A2 t2 , A2 6= 0 (1.78)
Proponiendo
yp (t) = B0 + B1 t + B2 t2
se obtiene yp0 = B1 + 2B2 t, yp00 = 2B2 y reemplazando en (1.78),
(2B2 + aB1 + bB0 ) + (2aB2 + bB1 )t + bB2 t2 = A0 + A1 t + A2 t2
Igualando los coeficientes de igual grado, se llega al sistema
bB0 + aB1 + 2B2 = A0
bB1 + 2aB2 = A1
bB2 = A2
29
Ejemplo 3:
y 00 + ay 0 + by = A cos t (1.79)
Tenemos dos formas de resolverlo: 1) Se propone
yp (t) = B cos t + C sen t
Se obtiene yp0 = (C cos t B sen t), yp00 (t) = 2 yp y reemplazando en la ecuacion,
((b 2 )B + aC) cos t + ((b 2 )C aB) sen t = B cos t
que conduce al sistema
(b 2 )B + aC = A
aB + (b 2 )C = 0
Este posee solucion unica salvo que a = 0 y 2 = b > 0 (asumiendo real), caso en el
que cos t es solucion.
Problema 31: Probar que una solucion particular de y 00 + 2y 0 + y = A cos t
es yp (t) = 21 A sen t.
30
Problema 33: Mostrar que una solucion particular de y 00 + 2y 0 + y = Aeit es
yp (t) = 2i1 Aeit = 2i Aeit , y que por lo tanto,
a) yp (t) = 12 A sen t es solucion particular de y 00 + 2y 0 + y = A cos t
b) yp (t) = 12 A cos t es solucion particular de y 00 + 2y 0 + y = A sen t.
Determinar la diferencia de fase de la solucion particular con respecto a la entrada.
y 00 + 2 y = A cos(t),
a) y 00 + 2y 0 + y = e2t b) y 00 + 2y 0 + y = 4e2t + t + t2
c) y 00 + 4y = A cos(t), 2 6= 4 d) y 00 + 4y = A cos(2t)
g) y 00 4y = e2t + 1 h) y 00 + y = et cos t
i) y 00 = et + 1 j) y 000 + y 0 = et
k) y 0000 y = e2t i) y 00 + 2y 0 + y = et
2) Determine la solucion de las ecuaciones a), b), c) y d) que satisface i) y(0) = y 0 (0) = 0
ii) y(0) = 1, y 0 (0) = 0. iii) Determine la solucion de la ecuacion j) que satisface y(0) =
y 0 (0) = y 00 (0) = 0.
4) a) Muestre que en una ecuacion diferencial lineal de segundo orden, si f (t) f (t), la
solucion particular obtenida por el metodo general o por el de coeficientes indeterminados,
se multiplica por .
b) Es valida dicha propiedad para la solucion particular de la misma ecuacion que satis-
face condiciones iniciales fijas no nulas y(0) = y0 , y 0 (0) = v0 ? Que sucede si y0 = v0 = 0?
31
1.14. Aplicaciones
Problema 34. El oscilador armonico en presencia de una fuerza constante
Supongamos que se aplica una fuerza constante F , tal como la fuerza de gravedad
F = mg, sobre una masa unida a un resorte. Muestre que la ecuacion que describe la
posicion y (medida a partir de la posicion de equilibrio del resorte para F = 0) es
y 00 + 2 y = f , 2 = k/m > 0, f = F/m > 0
a) Muestre que una solucion particular de esta ecuacion es la constante
yp (t) = y0 , y0 = f / 2 = F/k
y que y0 representa la nueva posicion de equilibrio en presencia de la fuerza constante.
b) Escriba la solucion general de la ecuacion, y muestre que el unico efecto de la fuerza
constante fue desplazar el punto de equilibrio, es decir, el centro de las oscilaciones.
c) Muestre que la ecuacion diferencial que satisface y = y y0 (posicion medida a partir
del nuevo punto de equilibrio) es identica a la ecuacion que satisface y para F = 0.
Problema 35.
El oscilador armonico forzado. Resonancia.
32
d) Mostrar que si ex = (resonancia), la solucion general es
A
y(t) = c1 cos(t) + c2 sen (t) + sen (t) , ( ex = ) (1.81)
2
y la solucion que satisface y(0) = y 0 (0) = 0 es
A
y(t) = t sen (t), ( ex = ) (1.82)
2
Grafique e interprete esta solucion, y discuta el fenomeno de resonancia.
e) Muestre que el lmite de la solucion (1.80) para ex (y t fijo) es la solucion (1.81).
yHtL yHtL
e=0.8 e=0.9
10 A 10 A
t t
-10 A -10 A
10 T 20 T 10 T 20 T
yHtL yHtL
e=0.95 50 A e=
10 A
-10 A
t t
-10 A
-10 A
10 T 20 T -50 A 10 T 20 T
Problema 36.
Oscilador forzado amortiguado.
Examinemos ahora el sistema anterior en presencia
de una fuerza de roce viscosa Fr = y 0 .
a) Mostrar que la ecuacion que describe el movimiento
en presencia de una fuerza externa F (t) es M
y 00 + 2y 0 + 2 y = f (t) FHtL
33
b) Mostrar que para
f (t) = F cos( ex t)
una solucion particular es
10 A 10 A
t t
-10 A -10 A
10 T 20 T 10 T 20 T
yHtL AHeL
e=
10 A
10 A =20
-10 A
10 T 20 T e
1 2
Graficos de la solucion en presencia de roce viscoso con = /20 para y(0) = y 0 (0) = 0.
La ultima figura (1.80) muestra la amplitud de la solucion particular en funcion de la
frecuencia externa para = /20, /10 y /5. Es maxima para ex .
34
La ecuacion no homogenea de orden n.
El metodo (1.33) para obtener una solucion particular se puede extender al caso general
35
2. Sistemas de ecuaciones diferenciales ordinarias
Un sistema de ecuaciones diferenciales ordinarias de primer orden es un sistema con
n funciones incognitas y1 (t), y2 (t), . . . , yn (t), que deben satisfacer las n ecuaciones
0
y1 = f1 (t, y1 , . . . , yn )
.. (2.1)
.
y 0 = f (t, y , . . . , y )
n n 1 n
Toda ecuacion diferencial ordinaria de orden superior puede expresarse como un sistema
de ecuaciones ordinarias de primer orden.
y 00 = f (t, y, y 0 )
36
es equivalente al sistema de dos ecuaciones de primer orden
0
y1 = y2
y20 = f (t, y1 , y2 )
donde y1 = y y y2 = y 0 . Si y(t) representa una posicion, y2 (t) = y 0 (t) es la velocidad.
Problema 1: Escribir la ecuacion y 00 + y = t como un sistema de primer orden.
37
2.1. Sistemas lineales de primer orden
Un sistema de n ecuaciones diferenciales de primer orden es lineal si las n funciones fi (t, Y )
son funciones lineales de y1 , y2 , . . ., yn (aunque no necesariamente de t). Un sistema lineal
de primer orden puede escribirse en la forma
0
y1 = a11 (t)y1 + . . . a1n (t)yn + f1 (t)
.. (2.8)
.
y 0 = a (t)y + . . . + a (t)y + f (t)
n n1 1 nn n n
es decir,
Y 0 = A(t)Y + F (t) (2.10)
con Y (t), F (t) vectores columna de 1 n y A(t) una matriz de n n.
y1 a11 (t) . . . ann (t) f1
Y = ... , A(t) = ... .
, F (t) = .. (2.11)
yn an1 (t) . . . ann (t) fn
En este caso el teorema de existencia y unicidad asegura, si todos los elementos aij (t)
y fi (t) son funciones continuas en un intervalo I, que el problema de condiciones iniciales
Y 0 = A(t)Y + F (t)
(2.12)
Y (t0 ) = Y0
tendra solucion unica Y0 Rn , t0 I.
Problema 2: Mostrar que la unicidad implica que si Y1 (t), Y2 (t) son dos soluciones de
(2.10) y cumplen Y1 (t0 ) 6= Y2 (t0 ), entonces Y1 (t) 6= Y2 (t) t I.
Ejemplo: El sistema 0
x = xy
(2.13)
y 0 = x + y + 2t
es un sistema de dos ecuaciones diferenciales lineales de primer orden para las funciones
incognitas x(t), y(t). Podemos escribirlo en forma matricial como
0
x 1 1 x 0
= + (2.14)
y0 1 1 y 2t
o sea, Y 0 = AY + F (t), con
x 1 1 0
Y = , A= , F =
y 1 1 2t
38
2.2. Sistema lineal homogeneo de primer orden
Consideremos ahora el sistema homogeneo
Y 0 = A(t)Y (2.15)
Asumiremos que todos elementos aij (t) de A(t) son funciones continuas para t I.
M 0 = A(t)M (2.21)
Como los vectores {Y1 (t), . . . , Yn (t)} son linealmente independientes t I, M (t) es no
singular: det[M (t)] 6= 0 t I. La solucion general (2.16) puede as escribirse como
c1
Y (t) = M (t)C , C = ...
cn
Y 0 = AY (2.23)
o en forma explcita,
0
y1 = a11 y1 + . . . + a1n yn
..
.
y0 = a y + . . . + a y
n n1 1 nn n
et V = Aet V
lo que conduce a
AV = V
Si exigimos V 6= 0 (solucion no trivial) esta igualdad implica que debe ser autovalor
de A (Det[A I] = 0) y V un autovector asociado.
Si buscamos ahora la solucion general, tenemos dos casos:
41
a) La matriz A es diagonalizable. En este caso existen n autovectores linealmente inde-
pendientes V1 , . . . , Vn , asociados a n autovalores 1 , . . . , n (no necesariamente distintos):
AVi = i Vi , i = 1, . . . , n
Y1 (t) = e1 t V1 , . . . , Yn (t) = en t Vn
Y (t) = c1 e1 t V1 + . . . + cn en t Vn (2.25)
Autovalores complejos.
Los autovalores pueden ser complejos, aun si la matriz A es real! Si
= + i
Y (t) = et V , Y (t) = et V
Para obtener un par de soluciones reales linealmente independientes, basta con tomar
las partes real e imaginaria de una de las dos, por ejemplo
Problema 8: Probar que si A es real y Y (t) es una solucion compleja del sistema ho-
mogeneo Y 0 = AY , las partes real Re[Y (t)] e imaginaria Im[Y (t)] son tambien soluciones
de dicho sistema.
Problema 9: Probar que si Y (t) y Y (t) son soluciones linealmente independientes, en-
tonces Re[Y (t)] y Im[Y (t)] son tambien linealmente independientes.
43
Ejemplo: Consideremos el sistema,
0
x = xy
(2.27)
y0 = x + y
que corresponde a
1 1
A=
1 1
Esta matriz es real antisimetrica, y por lo tanto diagonalizable aunque con autovalores
complejos. Los autovalores y autovectores asociados son
1 1
1 = 1 + i, V1 = , 6= 0, 2 = 1 i, V2 = , 6= 0
i i
es decir, x(t) = et (c1 cos t + c2 sin t), y(t) = et (c1 sin t c2 cos t).
Problema 10: Mostrar que la solucion general puede expresarse tambien como
(1+i)t 1 (1i)t 1
Y (t) = c+ e + c e
i i
44
2.4. Representacion diagonal y desacoplamiento
El caso diagonalizable puede tambien tratarse pasando a una representacon diagonal
del sistema. En este caso la matriz A es semejante a una matriz diagonal D, de modo
que existe una matriz S de n n no singular tal que
1 0 . . . 0
0 2 . . . 0
1
S AS = D, D= , S = (V1 , . . . , Vn )
. .
.
0 0 . . . n
S 1 Y 0 = S 1 AY = (S 1 AS)(S 1 Y )
o sea,
z1
Z 0 = DZ, con Z = S 1 Y = ...
zn
Por ser D diagonal, las n funciones z1 (t), . . . , zn (t) satisfacen un sistema de n ecua-
ciones diferenciales de primer orden desacopladas:
0
z1 = 1 z1
Z0 = D Z ..
.
z0 = z
n n n
z1 (t) = c1 e1 t , . . . , zn (t) = cn en t
45
Ejemplo: Consideremos nuevamente el sistema (2.26),
0
x =xy
y 0 = x + y
1 1
En este caso 1 = 2, 2 = 0 y S = (V1 , V2 ) = (1 1 ). Entonces S
1
= (11 1
1 )/2 y el vector
x
de coordenadas de Y = (y ) en la base de autovectores de A es
z1 1 1 1 x 1 xy
= =
z2 2 1 1 y 2 x+y
o sea, z1 = (x y)/, z2 = (x + y)/2. Estas variables satisfacen el sistema desacoplado
0
z1 = 2z1
z20 = 0
x0 y 0 x0 +y 0
ya que z10 = 2
= x y = 2z1 , z20 = 2
= 0. La solucion de este sistema es
z1 (t) = c1 e2t , z2 (t) = c2
y entonces, se obtiene el resultado previo
x(t) 2t 1 1
= z1 (t)V1 + z2 (t)V2 = c1 e + c2
y(t) 1 1
Ejercicios VI.
1) Determinar la solucion general de los siguientes sistemas de primer orden homogeneos.
Dar una expresion real de la solucion y escribir la matriz fundamental. Identificar tambien
las variables en las que el sistema queda desacoplado.
0 0
x = 2x + y x = 2x + y
a) 0 b)
y = x 2y y 0 = x 2y
0 0
x = x 2y + z x =y
c) y 0 = 2x 2z d) y 0 = y + z
0 0
z = x 2y + z z = y z
2) Hallar la solucion de 1 a) y de 1 b) que satisface x(0) = 1, y(0) = 0, y la solucion de 1
c) y de 1 d) que satisface x(0) = 1, y(0) = 0 = z(0) = 1.
Indique tambien si alguno de los sistemas del ej. 1) tiene soluciones constantes no nulas.
2.5. Aplicaciones
1. Evolucion de la concentracion de un soluto.
Considere los tanques A, B, C de volumenes 10, 20 y 30 litros, inicialmente llenos con
agua salada. Si entra agua pura (sin sal) a razon de 10 lts por hora en el tanque A, saliendo
agua por el orificio inferior de C tal que el volumen de agua en cada uno de los tanques
permanece constante, muestre que la cantidad de sal x, y, z, en A, B y C (asumiendo
distribucion uniforme en c/tanque) satisface el sistema lineal (t medido en horas)
dx/dt = x
dy/dt = x y/2 A
dz/dt = y/2 z/3
B
Encuentre la solucion general de este sistema y halle la
solucion para concentracion inicial uniforme c.
Grafique la concentracion en cada tanque. C
47
cos(t + ) 0
= A sin(t + )
+ c3 0
(2.30)
0 1
Interpretar esta solucion, mostrando que corresponde a velocidad constante en la direc-
cion z, y movimiento circular uniforme en el plano x, y, de frecuencia angular .
48
4. Utilizando el metodo anterior, resuelva el problema de dos masas iguales (m) unidas
cada una a una pared por un resorte de constate k1 y unidas entre s por un resorte de
constante k2 .
a) Muestre que si y1 , y2 denotan las posiciones de las masas a partir de los respectivos
puntos de equilibrio, las ecuaciones de movimiento son
k1 k2 k1
my100 = k1 y1 + k2 (y2 y1 )
my200 = k2 (y1 y2 ) k1 y2
M M
ambos negativas, y que por lo tanto, las frecuencias de oscilacion del sistema (asumiendo
k1 > 0, k2 > 0, m > 0) son
r r
k1 + 2k2 k1
1 = , 2 =
m m
c) Muestre que la solucion general del sistema es
y1 (t) + i 1 t i 1 t 1 + i 2 t i 2 t 1
= (c1 e + c1 e ) + (c2 e + c2 e )
y2 (t) 1 1
1 1
= A1 cos( 1 t + 1 ) + A2 cos( 2 t + 2 ) (2.32)
1 1
5. Resuelva el problema anterior pero considerando que la segunda masa no esta uni-
da a la pared. Determine las frecuencias y los modos normales de vibracion.
d2 r
m = kr
dt2
con r = (x, y), que es nuevamente un sistema lineal homogeneo de segundo orden. Deter-
mine su solucion e identifique las trayectorias posibles.
49
7. Importante: Trayectorias en el plano de fase
Considere el sistema lineal homogeneo de primer orden,
0
x = ax + by
a, b, c, d R (2.33)
y 0 = cx + dy
Las soluciones reales x(t), y(t) del sistema pueden visualizarse graficando las trayecto-
rias (x(t), y(t)) para t R, en el plano x, y, denominado plano (o espacio) de fase.
a) Muestre que las trayectorias correspondientes a soluciones distintas no pueden cruzarse
para tiempos t finitos.
dy cx+dy
b) Pruebe que la ecuacion que define las trayectorias es dx = ax+by .
x(0)
c) Muestre que si (y(0) ) coincide con un autovector de la matriz asociado a un autovalor
real 6= 0, la trayectoria es recta. Indique en que casos se alejara, y en que casos se
acercara al origen.
d) Considere ahora el caso a = d = , b = c = . Muestre que los autovalores de la matriz
son = y grafique e interprete las trayectorias para:
i) = 1, = 1/2, ii) = 1, = 1/2, iii) = 1, = 2. Identifique los casos en que el
origen (x, y) = (0, 0) es un punto de equilibrio estable y aquellos en que es inestable.
e) Considere ahora el caso a = d = , c = b = , en el que los autovalores de la matriz
son = i. Grafique e interprete las trayectorias para:
i) = 1, = 1, ii) = 1, = 1, iii) = 0, = 1. Muestre que en este ultimo caso las
trayectorias son crculos centrados en el origen.
y y y
4 4 4
2 2 2
x x x
-4 -2 2 4 -4 -2 2 4 -4 -2 2 4
-2 -2 -2
-4 -4 -4
1 y
2 y
3 y
4 4 4
2 2 2
x x x
-4 -2 2 4 -4 -2 2 4 -4 -2 2 4
-2 -2 -2
-4 -4 -4
4 5 6
Graficos de las soluciones del sistema (2.33) para a = d, || = ||. Las flechas indican
el sentido del movimiento. Los graficos corresponden a: 1) Ambos autovalores reales y
positivos, 2) Ambos reales y negativos, 3) Uno positivo y uno negativo, 4) Complejos con
parte real negativa, 5) Complejos con parte real positiva, 6) Imaginarios.
50
2.6. El caso no diagonalizable
Tratemos ahora en detalle este caso. Existe al menos un autovalor repetido de la
matriz A cuya multiplicidad algebraica m (multiplicidad como raz del polinomio ca-
racterstico) es mayor que su multiplicidad geometrica l (dimension del espacio propio
correspondiente).
Los l autovectores linealmente independientes asociados proveen l < m soluciones
linealmente independientes del sistema Y 0 = AY . Para obtener las soluciones restantes,
tenemos el siguiente teorema general:
para algun entero positivo no nulo ki m, siendo I la matriz identidad. Estos m vectores
originan m soluciones linealmente independientes del sistema Y 0 = AY , de la forma
tki 1
Yi (t) = et [Vi + t(A I)Vi + . . . + (A I)ki 1 Vi ] (2.35)
(ki 1)!
y que formen, junto con los l autovectores previos, un conjunto linealmente indepen-
diente. Cada uno de estos nuevos vectores (que a lo sumo seran l) genera una solucion
adicional de la forma
Y (t) = et [V + t(A I)V ]
51
Estas nuevas soluciones formaran, junto con las anteriores, un conjunto ampliado de so-
luciones linealmente independientes.
Si aun no se tienen m soluciones linealmente independientes, se determinan todos los
vectores V linealmente independientes que satisfacen
y que formen, junto con todos los anteriores, un conjunto linealmente independiente. Cada
uno de estos nuevos vectores (a lo sumo habra l) aportara una solucion adicional
t2
Y (t) = et [V + t(A I)V + (A I)2 V ]
2!
generandose as un nuevo conjunto ampliado de soluciones linalmente independientes.
Este proceso se continua hasta obtener m soluciones linealmente independientes.
Y1 (t) = et V1 (2.36)
Y2 (t) = et [V2 + t(A I)V2 ] (2.37)
(A I)2 V2 = 0, (A I)V2 6= 0
V1 = (A I)V2 (2.38)
Y (t) = et (V + tW )
que indica precisamente que W debe ser autovector de A con autovalor y V un vector
que satisface (A I)V = W (y por lo tanto (A I)2 V = 0).
52
Y en general, si es un autovalor de multiplicidad algebraica m > 1 y multiplicidad
geometrica l = 1, las m soluciones linealmente independientes son
Y1 (t) = et V1 (2.39)
Y2 (t) = et [V2 + t(A I)V2 ] (2.40)
t2
Y3 (t) = e [V3 + t(A I)V3 + (A I)2 V3 ]
t
(2.41)
2!
..
.
tm1
Ym (t) = et [Vm + t(A I)Vm + . . . + (A I)m1 Vm ] (2.42)
(m 1)!
donde Vk , k = 1, . . . , m, satisface
Vk = (A I)mk Vm , k = 1, . . . , m 1 (2.44)
es 1 y por lo tanto la nulidad es 1. Esto indica que existira un solo autovector linealmente
independiente, V1 (10 ). Eligiendo V1 = (10 ), se obtiene la solucion
t 1
Y1 (t) = e
0
(A I)2 V2 = 0, (A I)V2 6= 0.
53
Como en este caso (A I)2 = (00 00 ), basta con encontrar un vector V2 linealmente
independiente de V1 , por ejemplo V2 = (01 ), que satisface, dado que b 6= 0,
0 b 0 b
(A I)V2 = = 6= 0
0 0 1 0
ab
Observacion: Si b 6= 0, la matriz
A = ( a ) es diagonalizable 6= 0, ya que tendra
dos autovalores distintos = a b.
El caso no diagonalizable ocurre unicamente cuando = 0. Los autovalores seran
ambos reales si b 0, y complejos si b < 0. Por lo tanto, el caso no diagonalizable
corresponde al punto crtico = 0, en el que se produce la transicion de autovalores
reales (b > 0) a autovalores complejos (b < 0), es decir, de soluciones Y (t) de tipo
exponencial a soluciones de tipo oscilatorio.
54
Ejercicios VII
1) Mostrar que la solucion general del sistema
0
x = x y
y 0 = x 3y
es
x(t) 2t 1 2t 1 2
= c1 e + c2 e +t
y(t) 1 1 2
es decir, x(t) = c1 e2t + c2 e2t (1 + 2t), y(t) = c1 e2t + c2 e2t (1 + 2t).
y0 = x y
que satisface x(0) = 1, y(0) = 1.
5) Mostrar que si la ecuacion de segundo orden con coeficientes constantes y 00 +ay 0 +by = 0
tiene races iguales (a2 = 4b) el sistema lineal de primer orden asociado
0
z1 = z2
z20 = bz1 az2
donde z1 = y, z2 = y 0 , corresponde necesariamente a una matriz no diagonalizable.
55
2.7. Matriz fundamental
Tanto para el caso (a) (A diagonalizable) como para el caso (b) (A no diagonalizable),
la matriz
X Ak tk
exp[At] =
k=0
k!
es una matriz fundamental del sistema Y 0 = AY con A independiente de t, y es la matriz
fundamental que satisface M (0) = I, con I la matriz identidad.
56
por lo que exp[At] puede evaluarse directamente. En el caso no diagonalizable, la evalua-
cion se realiza mediante la denominada forma canonica de Jordan de la misma, que es la
representacion en la base de autovectores generalizados.
Pruebe que
1 2t 1 + e2t 1 e2t
exp[At] = S exp[Dt]S = S(e0 10 )S 1
= 1
1 e2t 1 + e2t
2
1 1 + e2t 1 1 e2t
Por lo tanto, las columnas Y1 (t) = 2 , Y2 (t) = 2 , son soluciones
1 e2t 1 + e2t
linealmente independientes del sistema, que satisfacen Y1 (0) = (10 ), Y2 (0) = (01 ).
57
2.8. Sistema lineal no homogeneo general de primer orden
Consideremos ahora el sistema no homogeneo
Y 0 = A(t)Y + F (t) (2.46)
que podemos escribir como L[Y ] = F (t), con L[Y ] = Y 0 A(t)Y .
Al igual que en el caso de la ecuacion lineal de orden n, es valido el siguiente teorema:
Teorema 2. La solucion general de (2.46) esta dada por la suma de la solucion general
Yh (t) del sistema homogeneo mas una solucion particular Yp (t) del sistema no homogeneo:
donde Yh (t) = c1 Y1 (t) + . . . cn Yn (t) es la solucion general (2.16) (satisface Yh0 = A(t)Yh )
mientras que Yp (t) satisface Yp0 = A(t)Yp0 + F (t).
Teorema 3. Si M (t) es la matriz fundamental (2.20) del sistema homogeneo, una solucion
particular de (2.46) es Z
Yp (t) = M (t) M 1 (t)F (t)dt (2.48)
58
que conduce a la solucion (2.48). La solucion general (2.47) puede pues escribirse como
Z
Y (t) = M (t)C + M (t) M 1 (t)F (t)dt (2.49)
4. Superposicion: Si Yp1 (t) e Yp2 (t) son soluciones de (2.46) para F1 (t) y F2 (t), una
solucion particular para la combinacion lineal F (t) = c1 F1 (t) + c2 F2 (t) es la combinacion
lineal de soluciones Yp (t) = c1 Yp1 (t) + c2 Yp2 (t):
0
Yp1 = A(t)Yp1 + F1 (t)
(c1 Yp1 + c2 Yp2 )0 = A(t)(c1 Yp1 + c2 Yp2 ) + c1 F1 (t) + c2 F2 (t)
Yp20 = A(t)Yp2 + F2 (t)
59
Aplicando (2.48), obtenemos
Z 2t
e2t
R 2t
1 e f (t) 1 eR (f (t) g(t))dt
Yp (t) = M (t) dt = M (t)
2 1 1 g(t) 2 (f (t) + g(t))dt
(2.51)
Definiendo las funciones
Z Z
1 2t 2t 1
v(t) = e e (f (t) g(t))dt, w(t) = (f (t) + g(t))dt
2 2
la solucion general es entonces
2t
e 1 v(t) + w(t)
Y (t) = c1 + c2 + (2.52)
e2t 1 v(t) + w(t)
Problema 5: Mostrar que a solucion general de (2.50) para f (t) = 0, g(t) = 1 es
x(t) = c1 e2t + c2 + 1/4 + t/2
y(t) = c1 e2t + c2 1/4 + t/2
Determinar tambien la unica solucion que cumple x(0) = 0, y(0) = 0.
Problema 6:
a) Mostrar que la ecuacion lineal de segundo orden no homogenea
b) Justificar que el teorema 2.1 asegura que existen dos soluciones linealmente indepen-
dientes y1 (t), y2 (t), de (2.53).
c) Mostrar que el determinante de la matriz fundamental M (t) de soluciones del sistema
y1 y2
homogeneo asociado a (2.54), es el Wronskiano: det M (t) = W (t) = 0 .
y1 y20
d) Mostrar que la solucion particular (2.48) para el sistema (2.54) implica la solucion
particular Z Z
y2 (t) y1 (t)
yp (t) = y1 (t) f (t)dt + y2 (t) f (t)dt
W (t) W (t)
de (2.53).
60
2.9. Sistema lineal no homogeneo con coeficientes constantes.
Metodo general y representacion diagonal.
Consideremos ahora el caso no homogeneo de primer orden con A independiente de t,
Y 0 = AY + F (t) (2.55)
Si conocemos una matriz fundamental M (t), podemos aplicar directamente el resultado
general (2.48) para determinar la solucion particular Yp (t):
Z
Yp (t) = M (t) M 1 (t)F (t)dt (2.56)
que es completamente analoga! a la solucion general y(t) = eat c + eat eat f (t)dt de la
R
61
Ejemplo: Resolver el sistema
0
x x 1 1 f (t)
=A + F (t) , con A = , F (t) =
y0 y 1 1 g(t)
Este sistema ya fue resuelto en 2.8 mediante la aplicacion de la ecuacion (2.56). Para
1
aplicar el metodo (2.61), en la base de autovectores de A formada por V1 = (1 ), V2 = (11 ),
g1 (t) f (t) f (t)g(t)
con 1 = 2, 2 = 0, tenemos (g2 (t) ) = S 1 (g(t ) = 12 (f (t)+g(t) ) y por lo tanto
f (t) g(t) 1 f (t) + g(t) 1
F (t) = g1 (t)V1 + g2 (t)V2 = + ,
2 1 2 1
donde v(t) y w(t) son las funciones definidas en (2.28). La solucion general es entonces
2t
1 1 e 1 v(t) + w(t)
Y (t) = z1 (t) + z2 (t) = c1 + c2 +
1 1 e2t 1 v(t) + w(t)
62
donde V , V1 , V2 , etc. son vectores con coeficientes a determinar e independientes de t.
Si no se cumple la condicion se debe multiplicar la propuesta por un polinomio en t (con
coeficientes vectores). Nuevamente es mas efectivo trabajar en forma compleja cuando
F (t) es seno o coseno. La propuesta debe ser completa, aun cuando F tenga componentes
no nulas solo en ciertas filas.
Yp (t) = et V
(I A)V = F
que es un sistema lineal no homogeneo para el vector V . El sistema tendra solucion unica
F sii I A es no singular, es decir, si no es autovalor de A (Det (A I) 6= 0),
lo que justifica la condicion requerida. En tal caso,
V = (I A)1 F
Ejemplo. Consideremos
x0 = x y + et
y 0 = x + y
1 1 1
que corresponde a A = , F = . Proponemos una solucion particular
1 1 0
63
de la forma
t v1
Yp (t) = e V , con V =
v2
Reemplazando, obtenemos el sistema (I A)V = F , es decir,
1 1 v1 1
=
1 1 v2 0
et
1
Yp (t) = ( 6= 2, 6= 0)
( 2) 1
Y 0 = AY + F0 + F1 t + F2 t2 , (2.65)
Yp (t) = V0 + V1 t + V2 t2
V2 = A1 F2 , V1 = A1 (2V2 F1 ), V0 = A1 (V1 F0 )
64
x0 = x + y + t
Ejemplo. Consideremos
y 0 =x y +1
1 1 0 1
que corresponde a A = , F = +t .
1 1 1 0
Proponemos una solucion particular
a0 a1
Yp (t) = V0 + tV1 = +t
b0 b1
Reemplazando, obtenemos
V1 = A(V0 + tV1 ) + (01 ) + t(10 )
que conduce al sistema
AV0 = V1 (01 )
AV1 = (10 )
Como A es no singular, A1 = 21 (11
11 ) y
1 1 1/2 1 0 1/2
V1 = A = , V0 = A (V1 )=
0 1/2 1 1
La solucion general del sistema es entonces (probar!)
x(t) t cos t t sen t (1 + t)/2
= c1 e + c2 e +
y(t) sen t cos t 1 t/2
Caso Periodico. Consideremos ahora una fuente de frecuencia angular , tal que
Y 0 = AY + F eit
Yp (t) = V eit
(iI A)V = F
V = (iI A)1 F
Y 0 = AY + F cos t
como
Ypr (t) = Re[(iI A)1 F eit ]
Las componentes de esta solucion oscilan con la frecuencia de la fuente F (t) con una
amplitud que depende de la frecuencia, y pueden presentar un desfasaje respecto de F (t).
65
Si en cambio i es autovalor (resonancia!) entonces debemos proponer una solucion
Yp (t) = eit (V1 + tV2 ).
Ejemplo. Resolver
x0 = y + eit
2 6= 1
y 0 = x
01 it
que corresponde a A = (1 0 ), F (t) = F e , con F = (10 ). Proponiendo una solucion
particular Yp (t) = V eit obtenemos, siguiendo el metodo anterior (probar!)
1 1 i
V = (iI A) F = 2
1 1
Por lo tanto,
1 i
Yp (t) = 2 eit
1 1
es una solucion particular del sistema anterior, y la parte real
r 1 sin t
Yp (t) = Re[Yp (t)] = 2
1 cos t
x0 = y + cos t
y 0 = x
Ejercicios VIII
66
3) Determine la solucion general de los sistemas
0 0
0 x = 2x + z x = x + y
x = 2y + A sen t
a) b) y 0 = x + z c) y 0 = x y + t
y 0 = 2x 0
z = x 2z + e2t
0
z = x z + e2t
2.11. Aplicaciones
5) Resolver el problema de una partcula de carga q en un campo magnetico B constante
y campo electrico E. La fuerza es q(v B + E) y la ecuacion
mdv/dt = q(v B + E)
6) Determinar las corrientes i1 (t), i2 (t) i3 (t) en el circuito de la figura. Plantear el sistema
de ecuaciones lineales de primer orden correspondiente y resolverlo para a) un fem cons-
tante 0 y b) una fem alterna = V0 cos t, para condicion inicial i1 (0) = i2 (0) = i3 (0) = 0.
Grafique las soluciones. Muestre que el sistema es
= Ldi1 /dt + R(i1 i3 )
0 = Ldi3 /dt + 2R i3 R i1 L R
R
con i1 = i2 + i3 . L
i1 i2 i3
67
Facultad de Ingeniera
UNLP
Matematica C
1
Temario por clase:
Clase 1: Normas de vectores y matrices (norma 1, norma 2 y norma infinito). Condicionamiento
de sistemas lineales. Nmero de condicin.
Bibliografa:
1. R.L. Burden, J.Douglas Faires, Anlisis Numrico , Grupo Editorial Iberoamericana,
Mxico.
2
1. Normas de vectores y matrices
Las normas son usadas para medir errores en los calculos con vectores y matrices,
as es importante conocer como calcularlas y manipularlas.
Definicion: Dado <n , una norma es una funcion k..k: <n <, que satisface las
siguientes propiedades:
Ejercicio 1:
P
i) Verificar que el producto escalar xT x = n 2 2
i=1 xi = kxk2 .
ii) Verificar que la norma k..k2 es invariante por la multiplicacion por matrices ortog-
onales. Es decir, si Q es una matriz (n n) ortogonal (sus columnas son ortogonales y
normalizadas (kf ilai k2 = 1, i = 1, . . . , n) entonces
kQxk2 = kxk2 . (Usar: kQxk22 = xT QT Qx = xT x).
Ejemplo:
i)la norma- de [1, 1, 1, 1] es 1.
ii) la norma- de [1, 1, 1, . . . , 1] <n es 1.
iii) la norma- de [1, 0, 0, . . . , 0] <n es 1.
3
n
X
kxk1 = |xi |
i=1
Ejemplo:
i) la norm-1 de x = [1, 1, 1, 1]T es 4.
ii) la norma-1 de x = [1, 1, 1, . . . , 1]T <n es n
iii) la norma-1 de x = [1, 0, 0, . . . , 0]T <n es 1
kxkC = kCxk
Observacion Es importante saber elegir la norma apropiada para medir los errores.
Ejemplo: Sean los vectores v = [1, 2, 3]T , y w = [1,01, 2,10, 2,99]T expresados en
metros. Vemos que w es una buena aproximacion al v ya que el error relativo
kv wk
,0033
kvk
En cambio el vector u = [10, 2,01, 2,99]T es una mala aproximaci on pues
kv uk
=3
kvk
Supongamos ahora que la primer componente esta medida en kilometros (en lugar de
metros), as tendramos
v = [,001, 2, 3]T , y u = [,01, 2,01, 2,99]T
ahora en la norma-infinito ambos vectores parecen cercanos al calcular
kv uk
= ,0033
kvk
Sin embargo, deberamos haber considerado iguales unidades en cada componente, o
sino considerar la norma (que las conduce a eso) multiplicando por la matriz C
1000
1
1
Se puede demostrar que valen la siguientes relaciones entre las normas definidas:
i) kxk2 kxk1 nkxk2
ii) kxk kxk2 nkxk
4
Ejercicio 2: Representar en un grafico (plano) si x <2 el conjunto de puntos que
satisfacen:
i) kxk2 1
ii) kxk 1
iii) kxk1 1
d(u, v) = ku vk.
3 1
Ejemplo: Dado los vectores u = yv= . Calcular la d(u, v) relativa
2 1
a (a) la norma-2,(b) norma infinito.
3. kA + Bk kAk + kBk
Tambien una propiedad util, denominada de consistencia, es
4. kABk kAkkBk
Tal propiedad no la cumplen todas las normas de matrices, pero en particular la
satisfacen todas las normas inducidas por las normas de vectores (que veremos).
Tambien existen las normas inducidas por las de los vectores (k..k2 ,k..k1 ,
k..k ), que se definen:
5
Dada A <mn :
kAxkp
kAkp = max , x <n
x6=0 kxkp
Si se consideran los vectores con kxkp = 1, una definicion equivalente es:
kAxk
kAk
kxk
kAxmax k
kAk =
kxmax k
Observar que satisfacen la propiedad de compatibilidad:
kAxkp
kAkp
kxkp
Como el vector
6
P
... cada |aTi x| n
j=1 |aij |.
Entonces, sabemos que kAxk , para todo x esta acotada por:
Xn
kAxk max { |aij |}
i=1,m
j=1
Entonces ... n
X
kAk = max kAxk max { |aij |}
kxk =1 i=1,m
j=1
Veamos ahora que hay un x para el cual kAxk alcanza la cota superior:
Si
Pnpara A es imax el ndice de la fila tal que la suma:
j=1 |aimax j | es maxima, se puede lograr un
b) En forma similar al caso previo, se puede demostrar que la norma-1, kAk1 coincide
con:
kAk1 = max kaj k1 ,
j=1,...,n
7
Ejercicios
1 2
1. Dado los vectores u = 4 y v = 2 (i) Calcular la norma-2 (Eucldea), la
5 0
norm-1 y la norma infinito de u y v.
8
2. Sistemas Lineales. Resolucion
2.1. Numero de condicion. Perturbacion
Dado un sistema lineal
Ax = b
donde A <nn no singular(existe A1 ). Sea la solucion exacta (unica) x = A1 b.
Supongamos que el lado derecho del sistema se perturba por un vector b, mientras A
permanece igual.
Queremos analizar cuantopuede cambiar la solucion del nuevo sistema.
A(x + x) = b + b (1)
Nuestro interes es conocer la magnitud de x en relacion a b.
Desde la igualdad 1, como Ax = b, se obtiene simplificando :
A(x) = b
Luego, multiplicando por A1 ambos miembros
x = A1 b
Luego, kxk = kA1 bk kA1 kkbk
Dividiendo por kxk ambos miembros de la desigualdad anterior. Ademas, usando que
kbk = kAxk kAkkxk (pues kAk kAxk/kxk
por definicion de la norma de A), se obtiene
kxk kbk/kAk.
As reemplazando el denominador kxk por kbk/kAk se obtiene:
kxk kbk
kAkkA1 k (2)
kxk kbk
El termino o cantidad de la derecha da el maximo valor que puede alcanzar el el cambio
relativo en la solucion exacta. Aunque muchas veces esa cota es grande, sin embargo hay ejemplos
(veremos a continuacion para ciertas A, b y b) donde el error relativo iguala a esa cota maxima.
Planteamos ahora el error relativo en la solucion del sistema cuando se perturba la ma-
trizdel sistema, manteniendo fijo el termino independiente b.
As estamos interesados en la solucion exacta x de A + Ax = b.
Si x es la solucion de Ax = b, la solucion del sistema perturbado sera x = x + xA .
Entonces satisface:
A + A(x + xA ) = b
donde el subndice A indica la asociacion con la modificacion de A. Asumimos que A es
sufientemente pequena tal que A + A continua siendo no singular.
Haciendo calculos similares a los previamente realizados,se obtiene aplicando una norma (por
ejemplo, la norma infinito tanto en los vectores como en las matrices).
9
kxA k kAk
kAkkA1 k (3)
kx + xA k kAk
Observacion La cantidad kAkkA1 k aparece en ambas expresiones de los errores. Tal can-
tidad refleja el maximo cambio relativo posible en la solucion exacta de un sistema causado por
un cambio en los datos (A, o b).
condp (A) 1
Por tanto, una matriz bien condicionada es una cuyo numero de condicion sea proximo a
1. Por otro lado, se dice mal condicionada si cond(A) es muy grande, es decir si es mucho mas
grande que 1.
Una matriz es mal condicionada cuando su aplicacion a vectores de igual magnitud da como
resultado vectores transformados de magnitud extremadamente diferente.
... Si kAxk es grande para un vector de kxk = 1, y pequena para otro de igual longitud,
entonces A es mal condicionada(justamente esa diferencia de magnitudes conduce al mal
condicionamiento).
10
Usando la norma infinito sabemos kAk = 1, kA1 k = 106 ,
k b k = 106 , kbk = 1. Ademas kx k = 1, y kxb k = 1
Usando la formula (2) sabemos que el cambio relativo en la solucion del sistema es:
kxb k kbk
kAkkA1 k ,
kx k kbk
reemplazando se obtiene
kxb k
kx k
1,106 ,106 /1.
As en este ejemplo hemos visto que el error relativo de x alcanza la cota superior, dada por
la formula (2). Tal error relativo es 106 veces mas grande que el cambio relativo kbk /kbk =
106 del termino independiente del sistema dado.
es
perfectamente
bien condicionadapues su cond(A) = 1. Por otra parte, la matriz A =
104 0
tiene determinante = 1, y tiene Cond(A) = 108 .
0 104
Ejercicios:
1. Hallar el numero de condicion: cond (A) y cond1 (A), si A:
3 1 1 0,99 150 200
(i)A = (ii)A = (iii)A =
4 2 1 1 3001 4002
1 1 1
(iv) A = 5 5 6 .
1 0 0
10 10 100
2. Sea A = ,yb= (a)Calcular cond (A).
10 9 99
0 100
(b)Suponga que b cambia a b =
101
Que tan grande puede ser el cambio relativo que producira ese cambio en la solucion de
Ax = b?. Utilizar la formula (2).
(c) Resuelva en forma directa el sistema Ax = b0 , y compare con la solucion de Ax = b,
y calcule la diferencia relativa entre ambas soluciones.
11
3. Metodos directos para resolver sistemas lineales
Un problema fundamental de algebra lineal es la resolucion de Ax = b para una matriz A
de m n y un vector b de conveniente dimension.
Los algoritmos que presentamos aqu son variaciones del metodo de Eliminacion de Gauss.
Ellos se llaman metodos directos, porque en ausencia de los errores de redondeo ellos daran la
solucion exacta de Ax = b despues de un numero finito de pasos. En contraste a estos metodos
veremos mas adelante metodos iterativos, los que calculan una sucesion de {x0 , x1 , . . . , xk , . . .}
de soluciones aproximadas del sistema (que converge hacia la verdadera solucion), que termina
cuando se halla una aproximacion aceptable(de acuerdo a algun criterio). Uno u otro metodo
puede ser mas rapido o mas exacto dependiendo del problema y tipo de metodo. Por ahora,
diremos que un metodo directo se elige cuando el problema no es demasiado grande, cuando no
se conoce la estructura o caractersticas particulares de la matriz, o si se sabe que la solucion
aportada por esa metodologa tiene garanta de estabilidad y un tiempo aceptable de calculo .
Objetivo Repasar o recordar el ultimo tem del modulo sobre Algebra de Matrices, donde se
planteo la factorizacion LU a partir de la Eliminacion Gaussiana .
Vimos que la transformacion de A en una matriz triangular U ( y el sistema Ax = b en
un sistema triangular), puede formalizarse como un producto de transformaciones o matrices
elementales aplicadas al sistema dado originalmente.
Ahora usaremos esa factorizacion y ampliaremos ese tema....
12
Necesitamos ver para A de n n que existen matrices unicas L y U , dos vectores unicos l
y u de n 1 1, y un
unico
escalar
tal que
:
An1 b L 0 U u
A= = =
cT lT 1 0
LU Lu
=
lT U lT u +
Por induccion existen L y U unicas tal que An1 = L.U . Luego, considerando u = L1 b,
lT = cT U 1 , y = b lT u son unicos. Las entradas de la diagonal de U son no nulas,
as 6= 0 pues det(A) = det(U ) 6= 0. c.q.d
0 1 0
Ejemplo: La matriz P = 0 0 1 (es no singular, ortogonal, (P ) = 1 ), sin embargo
1 0 0
no se puede factorizar sino se permutan sus filas.
Observar que : Los menores principales 1 1 , y 2 2 son singulares.
Ese ejemplo demuestra la necesidad de hacer permutaciones de filas ( pivoteo parcial).
13
(Lo aceptamos sin demostracion. Ver referencia libro de Burden).
14
a1
a2 m21 a1
M1 A = A (2)
= a3 m31 a1
..
.
an mn1 a1
Luego, a partir de A(2) se llevaran a 0los elementos de la 2da. columna, que estan por
debajo de la diagonal, y as se seguira el proceso.
La transformacion M2 para anular los elementos de la 2da. columna ( debajo de la diagonal)
esta dada por
:
1
0 1
(2) (2)
M2 = 0 a 32 /a22 1
.. .. ..
.
. .
(2) (2)
0 an2 /a22 0 ... 1
(2) (2)
Denotamos mi2 = ai2 /a22 , para todo i > 2
Se obtendra M2 A(2) = A(3 ) que tiene tambien los elementos de la segunda columna en
0( debajo de la diagonal).
La matriz transformada que se obtiene : M2 A(2) = A(3) , mantiene la 1ra. y 2da. fila iguales
a las de A(2) , y transforma todas las siguientes filas:
(3) (2) (2)
aij = aij mi2 a2j
para cada fila i = 3, . . . , n, y para las columnas j = 3, . . . , n.
En general, para llevar a 0 los elementos de una columna j es necesario multiplicar la fila
(j) (j)
j por el numero : aj+1j /ajj , y sumar a la fila (j+1) para anular el termino j + 1 de esa
(j) (j)
columna j. Luego, por aj+2j /ajj a la fila j, y sumar a la fila (j+2)( que anula el elemento
(j) (j)
j + 2). Se continua hasta multiplicar por anj /ajj , y sumar a la fila n para anular el ultimo
elemento de esa columna j.
As la transformacion Mj es igual a la matriz identidad In salvo por la columna j que tiene
la forma:
0
..
.
1
(j) (j)
columj (Mj ) = aj+1j /ajj
(j) (j)
aj+2j /ajj
..
.
(j) (j)
anj /ajj
donde el 1.esta en la fila j.
(j) (j)
Denotamos con mij = aij /ajj , para toda fila i con i > j.
15
Ejercicio: Ver que el producto de Mn1 .Mn2 . . . M3 .M2 .M1 es una matriz triangular
inferior unitaria (no singular).
0 si i = 1, . . . , j
vj = { (j) (j) }
aij /ajj si i > j
16
k = maxik kakik k (4)
Denominamos rk al ndice para el que se da tal maximo, y denominamos elemento de
pivote al ark k . Luego se intercambia la fila rk con la k ( se permuta el orden ). Tal estrategia
se denomina pivoteo parcial.
(k) (k)
Esa estrategia asegura que los elementos mik = aik /akk (se corresponden con las columnas
de L) usados en cada paso k, k = 1, . . . , n 1 del proceso cumplen:
(k) (k)
|mik | = |aik |/|akk | 1 , para i = k+1, . . . , n ya que debido a la permutacion realizada
ahora el denominador es que cualquier numerador.
Entonces el proceso de Eliminacion, si denominamos Pk a la matriz de permutacion que
corresponde a la permutacion realizada en el paso k , se simboliza:
For j = k + 1, . . . , n
aij = aij wj
End For;
End For;
End For.
17
Algoritmo basico para resolver Ax = b utilizando la descomposicion LU obtenida
por eliminacion Gaussiana:
El sistema
b1
y1
1 0 ...
l21 1 0 ... y2 b2
y3
l31 l32 1 0 ...
=
b3
... ... ... ... .. ..
. .
ln1 ln2 ln3 . . . lnn1 1 yn bn
18
Ejercicios:
19
4. Norma-2 de Matrices
4.1. Matrices simetricas
Si A <nn es simetrica (A = AT ), sabemos que existe una base de vectores
reales ortogonales con norma = 1 que son autovectores de A. Es decir, existen vecto-
res {v1 , v2 , . . . , vn } ortonormales, tales que
Avi = i vi
para cada autovector vi .
xT Ax max kxk22
min kxk22 xT Ax
ya que P
xT Ax = ni=1 yi2 i ni=1 yi2 min = min kxk22
P
Ejercicios de repaso:
a) Verificar que si Au = i u entonces A2 u = (i )2 u (los autovalores de A2 son los
{(i (A))2 }).
c) Dada A <nn , no singular. Verificar que los autovalores de At A coinciden con los
de AAT .
20
Observar que si A <mn , con n < m y rango(A) = n, AT A sera de n n no singular.
Pero AAT sera singular de m m, con m n autovalores nulos y los restantes iguales a
los de AT A.
Observacion 3 Por lo tanto, kA1 k2 = maxi |i (A1 )| = maxi 1/|i (A)| = 1/ mni |i (A)|
y entonces
maxi |i (A)|
cond2 (A) = kAk2 kA1 k2 =
mni |i (A)|
El N de condicion para la norma 2 es pues el cociente entre el autovalor mas grande y
el autovalor mas chico (ambos en valor absoluto) de A.
21
5. Descomposicion triangular de Matrices simetricas
definidas Positivas
Cuando A es una matriz simetrica, es decir A = AT , es natural pensar que una
factorizacion como la LU debera existir, que retenga la propiedad de simetra de A, y
cuyos calculos requieran la mitad del costo del caso no simetrico.
Para matrices simetricas definidas positivas tal factorizacion se denomina descompo-
sicion de Cholesky. Para el caso indefinido existe otro procedimiento de Bunch y Parlett.
22
(iv) Toda submatriz seleccionada simetrica desde las filas y columnas de A debe ser
definida positiva. En particular, todos las matrices menores principales( 1 1,2
2,. . .,n n1) son no singulares con determinante positivo.
As como
A = LDLT = LD1/2 D1/2 LT .
Si denominamos
R = D1/2 LT , y RT = LD1/2 ,
entonces
A = RT R.
Esta factorizacion se llama de Cholesky, y R es el factor de Cholesky, la que es una matriz
triangular superior con elementos positivos en la diagonal.
El elemento a11 debe ser igual al producto de la primer fila de RT con la primer
columna de R. As debe igualarse
2
a11 = r11 . Luego, se obtiene r11 = a11 ( se elige el signo positivo por convencion).
Ahora continuando con los elementos de la 1er. fila de A (multiplicando la 1er.
fila de RT por las columnas de R), se tendra :
r11 r12 = a12 , . . .,r11 r1n = a1n , despejando se obtiene:
r1j = a1j /r11 , j = 2, . . . , n
Luego, se continua con la 2da. fila de R ...
23
2 2
como r12 se conoce,
p se despeja r22 = a22 r12 , que es positivo de acuerdo a (v).
2
Luego, r22 = a22 r12 .
Para calcular los restantes elemntos de la fila 2 se considera el producto de la
2da. fila de RT con cada columna de R desde la j = 3, . . . , n, resultando
donde todos son conocidos salvo r2j . As, despejando r2j se obtiene
Luego hay que continuar con la fila 3 de R, y continuar con una fila por vez.
Se despeja: q
2 2 2
rkk = akk r1k r2k . . . r(k1)k .
(unicamente estan involucrados los elementos de la columna j por arriba del ele-
mento k, por tanto se conocen, entonces ...
... cada elemento j desde k + 1, . . . , n, se obtiene
For k = 1, . . . , n
q
rkk = akk k1 2
P
i=1 rik (**)
For j = k + 1, . . . , P
n
rkj = (akj k1 i=1 rik rij )/rkk
End For
End For
24
Observacion 5 En (**) la sumatoria incluye los elementos anteriores de la columna
k anteriores al k (para k=1, es 0). Esta factorizacion requiere n3 /6 operaciones que es
aproximadamente la mitad de las operaciones requeridas por la LU .
Ejercicio:
a) Verificar que son ciertas las propiedades : i), ii), iii) enunciadas arriba.
b) Operaciones:
Xn Xn
(2k + 2k) = n3 /3 + O(n2 )
k=1 i=k+1
Ejercicio: Factorizar:
2 1 0 ...
1 2 1 0 ...
0 1 2 1 0 . . .
A=
.. .. .. ..
. . . .
... 0 1 2 1
0 1 2
si n = 2, 8, 20.
25
5.3. Resolucion de RT Rx = b
Para obtener la solucion x se deben resolver dos sistemas triangulares. Si en RT (Rx) =
b, denominamos y = Rx, entonces...
... primero se plantea RT y = b.
Se resuelve por sustitucion hacia adelante (triangular inferior) para obtener y.
Luego, se resuelve Rx = y, usando que R es una matriz triangular superior, por
sustitucion hacia atras.
6. Matrices bandas
Una matriz A se llama banda, con ancho de banda inferior bL y ancho de banda
superior bU , si aij = 0 cuando i > j + bL , o si j > i + bU :
a11 ... a1,(bU +1) 0
..
. a2,bU +2
a ...
A= b +1,1
L
abL +2,2 anbU ,n
.. ..
. .
0 an,nbL ... ann
(ii) Si se hace pivoteo parcial para hallar P A = LU , como en cada paso k puede ser
necesario permutar la fila k de la matriz reducida A(k) con otra que le sigue, entonces U
sera un matriz con una banda a lo sumo bU + bL (hacer dibujo).
26
Ejemplo: La matriz TN , tridiagonal TN <N N aparece en problemas de ecuaciones
diferenciales discretizados.
2 1
. .
1 . . . .
TN =
.. ..
. . 1
0 1 2
Ejercicios
2. ().
T
Si A es simetrica definida positiva, con factorizacion
de Cholesky LDL , L triangular
2 1
. .
1 . . . .
inferior unitaria, verificar sobre la matriz TN =
. .
. . . . 1
0 1 2
que cond2 (A) dmax /dmin , que es el cociente entre el mayor y menor elemento de
la diagonal de D de la descomposicion de Cholesky.
27
Resumen
Metodos directos para la resolucion de
sistemas lineales
1 Factorizacion LU
Definicion 1.1 Se dice que una matriz A admite una factorizacion LU si
dicha matriz puede escribirse como el producto de una matriz triangular infe-
rior, L, cuyos elementos en la diagonal sean iguales a la unidad y una matriz
triangular superior U. Es decir A = LU
Definicion 1.2 Se dice que una matriz A admite una factorizacion LU in-
directa si existe una matriz de permutacion P tal que la matriz P A admita
una factorizacion LU . Es decir, P A = LU
E1 E2 ... En A = U
1
A = (E1 E2 ... En )1 U = L U
1
con L=En1 En1 ... E11 matriz triangular inferior.
Para matrices 3 3,
esto
es:
a11 a12 a13 1 0 0 u11 u12 u13
A = a21 a22 a23 = l21 1 0 0 u21 u23
a31 a32 a33 l31 l32 1 0 0 u33
2 Factorizacion de Cholesky
Definicion 2.1 Una matriz A nxn simetrica se define definida positiva si
se verifica que xt Ax > 0 x <n , x 6= 0.
Definicion 2.2 Se dice que una matriz A real admite una factorizacion de
Cholesky si dicha matriz puede escribirse como el producto de una matriz
triangular inferior, R, cuyos elementos en la diagonal son positivos, por la
matriz traspuesta de esta, Rt . Es decir: A = RRt .
2
2.1 Calculo de factorizacion de Cholesky con Matlab
>> [U]=chol(A)
Si la matriz A admite una factorizacion de Cholesky, la funcion chol
devuelve en U la matriz triangular superior Rt .
3 Aplicaciones
3.1 Resolviendo sistemas lineales
Dada la ecuacion matricial
Ax = b
Primero, resolvemos Ly = b
Segundo, resolvemos U x = y y obtenemos x.
Es decir que resolvemos dos sistemas triangulares. Este metodo es com-
putacionalmente eficiente. Observar que la factorizacion es independiente del
vector b.
En el caso A admita una factorizacion de la forma P A = LU, entonces
para resolver el sistema lineal Ax = b,calculamos primeramente: P Ax = P b.
det(A) = det(L)det(U ).
3
Recordando que el determinante de una matriz triangular es simplemente
el producto de los elementos de la diagonal, y que en este caso en particular,
L es una matriz triangular donde los elementos de la diagonal son todos unos,
entonces: det(L) = 1,y por lo tanto:
4 Ejemplos
2 1 3 1
1. Dada la matriz A = 4 1 3 y el vector b = 0
2 5 5 2
a) Factorizar la matriz A como LU
Realizamos operaciones elementales para llevar a la matriz A a una matriz
triangular
superior U.
2 1 3 2 1 3
f ila2 (2) f ila1
A = 4 1 3 0 3 3
f ila3 (1) f ila1
2 5 5 0 6 8
2 1 3
f ila3 (2) f ila2 0 3 3 = U
0 0 2
2 1 3 1 0 0
Entonces U = 0 3 3 y L = 2 1 0
0 0 2 1 2 1
b) Usando la factorizacion hallar el determinante de A
det(A) = det(LU ) = det(L) det(U ) = (1) (2 (3) 2) = 12
c) Resolver el sistema Ax = b usando la factorizacion LU .
Primero resolvemos el sistema triangular Ly = b. Es decir:
1 0 0 y1 1
2 1 0 . y2 = 0
1 2 1 y3 2
4
y obtenemos como solucion
1 2 1
2. Factorizar la matriz A = 3 6 2
1 1 4
Hacemos operaciones elementales para reducir A a una matriz triangular
superior:
1 2 1 1 2 1
f ila2 (3) f ila1
A= 3 6 2 0 0 5
f ila3 (1) f ila1
1 1 4 0 3 3
5
1 1 0 1 0 0 1 1 0
A = 1
2 2 = LU = 1
1 0 0 1 2 = LDLt =
0 2 20 0 2 1 0 0 16
1 0 0 1 0 0 1 1 0
= 1 1
0 0 1 0
0
1 2 =
0 2 1 0 0 16 0 0 1
1 0 0 1 0 0 1 0 0 1 1 0
= 1 1
0 0 1 0 0
1 0 0 1 2 =
0 2 1 0 0 4 0 0 4 0 0 1
1 0 0 1 1 0
= 1 1
0 0 1 2
0 2 4 0 0 4
5 Ejercicios
Dados las siguientes sistemas de ecuaciones Ax = b, factorizar la matriz y
resolver usando la factorizacion.
3 1 1
1. A = , b=
9 5 3
1 1 1 0
2. A = 2 3 1 , b= 1
1 1 2 1
0 1 4 0
3. A = 1 2 1 , b= 1
1 3 3 1
4 2 1
4. A = , b= (factorizar Cholesky)
2 10 4
6
Facultad de Ingeniera
UNLP
Matematica C
1
Temario
Clase 1: Luego de Autovalores y Autovectores, se pueden estudiar los mtodos iterativos
numericos para resolver sistenmas lineales. Se estudiaran aqu solo los muy basicos: metodo de
Jacobi y Gauss- Seidel. Para ampliar el tema se puede ver la bibliografa recomendada por los
docentes, como por ejemplo [1].
Clase de Laboratorio.
Referencias
[1] R.L. Burden, J.Douglas Faires, Anlisis Numrico, Grupo Editorial Iberoamericana, Mxico.
Matematica C .
Metodos Iterativos para resolver Sistemas Lineales
Introduccion
Los metodos iterativos se usan en lugar de los metodos directos, como Eliminacion Gaussiana (LU),
cuando estos requieren demasiado tiempo de calculo o demasiado guardado.
Los metodos iterativos, en contraste a los directos, en general (en aritmetica exacta) no hallan una
solucion exacta en un numero finito de pasos, sino que hallan en cada iteracion una aproximacion a la
solucion.
La solucion aproximada obtenida en cada iteracion, decrece el error respecto de la de la iteracion
previa en alguna proporcion.
Las iteraciones terminan cuando la aproximacin (solucin aproximada) cumple con un criterio de
cercana aceptable.
Un mtodo iterativo es efectivo si en cada iteracin el error decrece en una magnitud considerable y si
el costo computacional (operaciones aritmticas) es tan bajo como sea posible.
.... Daremos en detalle solo algunos metodos iterativos basicos. Debido a la brevedad del curso nos
limitaremos a describir solamente el mtodo de Jacobi y de Gauss-Seidel, aunque existen otros
(ver bibliografa, por ejemplo Burden).
Dado un x0 inicial, estos metodos generan una sucesion xk convergente a la solucion exacta x =
A b, del sistema Ax = b, donde cada vector xk+1 se calcula desde la solucion aproximada previa xk ,
1
2
Tal separacion (o splitting) de A, conduce a plantear:
Como
Ax = M x Kx = b,
se puede despejar
M x = b + Kx.
Como M es no singular, considerando que M x = Kx + b, se puede despejar:
x = M 1 (Kx + b), resultando
x = M 1 Kx + M 1 b (1)
Reemplazando
M 1 K = R, y M 1 b = c,
se obtiene:
x = Rx + c, donde R y c son conocidos. (2)
Un metodo iterativo se desprende de la formula previa considerando:
xk+1 = Rxk + c
Teorema Si kRk < 1 la sucesion generada por la formula previa converge al x , cualquiera sea el x0
inicial.
Luego,
Observacion Para cualquier norma k..k el radio espectral (R) kRk. Ademas, para toda R y para
todo > 0 existe una norma k..k tal que kRk (R) + (este resultado no lo demostramos).
Para ver que (R) kRk, consideramos que
kRxk
kRk = max .
x kxk
Sea y el autovector de R tal que se corresponde con el autovalor que define al (R) = maxi (R) |i | =
||, entonces
kRk = maxx kRxkkxk
kRyk
kyk
= |y|/kyk = || = (R).
Teorema La sucesion xk generada por esta metodologa converge a la solucion de Ax = b, para todo
b, y todo punto inicial x0 , si y solo si el radio espectral de R, (R) es menor que 1 (es decir, si y solo
si (R) = maxi (R) {|i |} = || < 1).
3
Justificacion Si fuese el (R) 1, entonces existira un autovector y autovalor tal (R) = || 1.
Entonces, si elegimos un x0 inicial tal que (x0 x ) tenga la direccion de ese autovector, se obtendra :
Los splitting usados aqu si A no tiene ceros en la diagonal, son del tipo:
A = D L U = D(I L U ) (3)
donde D es la diagonal de A, L es la parte triangular estrictamenteinferior de A (sin la diagonal),
U es la parte triangular estrictamentesuperior de A (sin la diagonal). Ademas L = D 1 L, y
U = D 1 U .
Dx Lx U x = b.
x = D 1 (b + Lx + U x) = Lx + U x + D 1 b
As
x = (L + U )x + D 1 b
Se define el proceso iterativo de Jacobi:
end for
Ejemplo Ejemplo 1.- Dado el sistema siguiente calcular varias iteraciones de Jacobi,comenzando desde
x0 = (0, 0)T .
7 1 x1 5
=
3 5 x2 7
4
Desde la formula A = D L U , donde D es la diagonal de A, y las restantes L y U , como se
definieron previamente, se sabe que para toda solucion de Ax = b se debe cumplir:
x = D 1 (Lx + U x + b)
se tiene que :
5 + x2 7 + 3x1
x1 = , y x2 =
7 5
Luego, aplicando el proceso iterativo de Jacobi:
xk+1 = D 1 (L + U )xk + D 1 b
se tiene que que cada componente de xk+1 , usando las componentes del iterado previo xk , cumple
P
k+1
bi j6=i aij xkj
xi =
aii
Entonces,
5 + x02 7 + 3x01
x11 = , y x12 =
7 5
sustituyendo por x0 = (0, 0), se tiene que :
5/7 0,714
x1 =
7/5 1,400
Luego, para calcular el x2 desde el x1 :
5 + x12 7 + 3x11
x21 = , y x22 =
7 5
5 + 1,4 7 + 3(0,714)
x21 = , y x22 =
7 5
Resultando:
2 0,914
x
1,829
As se aplica para calcular x3 desde el iterado x2 ,..., etc, resultando la tabla
x 0 1 2 3 4 5 6
x1 0 0.714 0.914 0.976 0.993 0.998 0.999
x2 0 1.4 1.829 1.949 1.985 1.996 1.999
Se observa que la sucesion xk tiende al vector [1, 2]T que es la solucion exacta del sistema dado.
La motivacion para este metodo es considerar que cuando se calcula en el metodo de Jacobi la i-esima
componente (i > 1) xk+1
i , ya se han actualizado las componentes de xk+1 desde la 1 a la i 1. Por
tanto, pueden usarse para la actualizacion de las componentes siguientes xk+1
i .
El metodo de Gauss-Seidel usa, para definir cada componente i > 1, de xk+1 , las componentes de
k+1
x previamente actualizadas (desde la 1, . . . , i 1).
5
end for Con el proposito de analizar este algoritmo, queremos escribirlo con el formato:
(D L)xk+1 = U xk + b,
que equivale a
obteniendose
xk+1 = (I L)1 U xk + (I L)1 D 1 b = RGS xk + cGS
Entonces
RGS = (D L)1 U = (I L)1 U ,
donde L = D 1 L, y U = D 1 U .
Ejemplo Aplicamos Gauss-Seidel al mismo sistema del Ejemplo 1,comenzando desde x0 = (0, 0)T .
7 1 x1 5
=
3 5 x2 7
(D L)x = U x + b
se puede considerar :
(D L)xk+1 = U xk + b
Resultando el calculo de cada i- componente de xk+1 :
Pi1 k+1 P
bi aij x n aij xk
xik+1 = j=1 j
aii
j=i+1 j
usando las componentes ya calculadas del xk+1 . As en nuestro caso de dos componentes se tiene,
comenzando con x0 = [0, 0]T :
5 + x02 7 + 3x11
x11 = , y x12 =
7 5
sustituyendo se obtiene:
5+0 7 + 3(0,714)
x11 = 0,714, y x12 = 1,829
7 5
10,714
x
1,829
Luego, para calcular el x2 desde el x1 :
5 + x12 7 + 3(x21 )
x21 = , y x22 =
7 5
5 + 1,829 7 + 3(0,976)
x21 = 0,976, y x22 = 1,985
7 5
6
Resultando:
2 0,976
x
1,985
As se aplica para calcular x3 desde el iterado x2 , y usando las componentes ya calculadas de x3 ..., etc,
resultando la tabla
x 0 1 2 3 4 5
x1 0 0.714 0.976 0.998 1.000 1.000 Se observa que el metodo de Gauss-Seidel tiene una
x2 0 1.829 1.985 1.999 2.000 2.000
convergencia mas rapida.
Definicion Matriz estrictamente diagonal dominante Una matriz A es estrictamente diagonal domi-
nante por filas si para cada fila i = 10 . . . , n, satisface
X
|aii | > |aij |
j6=i
Teorema Si A es estrictamente diagonal dominante por filas, entonces ambos metodos de Jacobi y
Gauss-Seidel son convergentes. Se cumple que kRGS k kRJ k < 1. Un resultado analogo existe si
AT es estrictamente diagonal dominante por filas.
Entonces, la matriz
0 a1,2 /a1,1 a1,n /a1,1
a2,1 /a2,2 0 a2,n /a2,2
RJ = .. .. ..
. . .
an,1 /an,n an,2 /an,n 0
Como la norma infinito kRJ k de una matriz RJ esta dada por la mayor suma de los valores absolu-
tosde los elementos de una fila de la matriz, en nuestro caso
ak,1 ak,k1 ak,k+1 ak,n
kRJ k = | | + ... + | |+| | + ... + | |
ak,k ak,k ak,k ak,k
la que es igual a
7
La solucion xk sera precisa a tres (3) lugares decimales si cada componente del vector xk x es
menor que 0,0005 en valor absoluto.
Necesitamos saber para cual k, la componente maxima de xk x es menor que 0,0005. Para conocer
cual es el k mas pequeno para el cual
usamos la formula
xk = RJ xk1 + cJ
observando que
xk x = RJ (xk1 x )
Entonces, considerando que
kRJ k2 k(xk2 x )k . . . ,
resultando
kxk x k kRJ kk k(x0 x )k .
Como kRJ k 0,6 < 1, converge el proceso.
Consideramos que k(x0 x )k k(x0 x1 )k + k(x1 x )k
Por tanto,
k(x0 x )k k(x0 x1 )k + 0,6kk(x0 x )k , entonces
0,4k(x0 x )k k(x0 x1 )k , de tal manera que k(x0 x )k 10/4k(x0 x1 )k
lo cual implica
k log10 (0,6) + log10 (3,5) < log10 (5) 4.
Por tanto,
0,222k + 0,544 < 3,301
Entonces k > 17,3. Por tanto, se necesitan 18 iteraciones para obtener el resultado por Jacobi con 3
cifras decimales exactas.
Definicion Matriz debilmente diagonal dominante Una matriz A es debilmente diagonal dominante por
filas si para cada fila i = 1, . . . , n, satisface
X
|aii | |aij |,
j6=i
Teorema Si A es debilmente diagonal dominante por filas e irreducible, entonces ambos metodos de
Jacobi y Gauss-Seidel son convergentes. Se cumple que kRGS k < kRJ k < 1.
8
Observar que una A puede no ser diagonal dominante y lo mismo ser convergente la sucesion de
Jacobi y/o Gauss-Seidel, ya que esa condicion es una condicion suficientepara la convergencia, pero no
necesaria. Se se pueden buscar ejemplos que ilustren esa situacion, siendo convergente la xk , como en el
caso :
2 1
A=
1 1
Ejemplo Aplicar al sistema Ax = b, con A dada arriba, el metodo de Jacobi, con b = (1, 1)T , por
ejemplo.
Ejercicios
(I) Resolver el siguiente sistema por Jacobi y Gauss-Seidel, comenzando con x0 = (0, 0)T , redondeando
con 4 dgitos significativos hasta que la diferencia entre dos iterados sucesivos tenga sus componentes
menores a 0.001 :
7 1 x1 5
=
3 5 x2 7
(II) Analizar, y resolver por Gauss-Seidel, comenzando en x0 = (0, 0)T , siendo
1 1 x1 1
=
2 1 x2 5
La solucion es x = (2, 1)T . Observar que las iteraciones no se acercan a ese punto(es no convergente).
Analizar los criterios de convergencia, ver si se cumplen, y explicar porque puede ocurrir eso con Jacobi
o Gauss-Seidel.
(III) Resolver los siguientes sistemas por Jacobi, comenzando con x0 = (0, 0)T , redondeando con 4 dgitos
significativos, hasta que la diferencia entre dos iterados sucesivos tenga sus componentes menores a 0.001.
(i)
7 1 x1 6
=
1 5 x2 4
(ii)
2 1 x1 5
=
1 1 x2 1
(iii)
4,5 0,5 x1 1
=
1 3,5 x2 1
(IV) Resolver los siguientes sistemas Gauss-Seidel, comenzando con x0 = (0, 0)T , redondeando con 4 dgitos
significativos, hasta que la diferencia entre dos iterados sucesivos tenga sus componentes menores a 0.001.
Compare el numero de iteraciones de Jacobi y Gauss Seidel para obtener esa aproximacion:
(i)
7 1 x1 6
=
1 5 x2 4
(ii)
2 1 x1 5
=
1 1 x2 1
(iii)
4,5 0,5 x1 1
=
1 3,5 x2 1
(V)En los siguientes sistemas, calcule las primeras cuatro iteraciones por Gauss-Seidel, desde x0 = (0, 0),
y ver que no converge. Sin embargo, es posible reacomodar el sistema de tal manera que sea diagonal
dominante y as convergente. Usar Gauss-Seidel para hallar una solucion aproximada que sea precisa
hasta 0,001:
(i)
1 2 x1 3
=
3 2 x2 1
(ii) 0 10 1 0 1
1 4 2 x1 2
@0 2 4 A @x2 A = @1A
6 1 2 x3 1