Vous êtes sur la page 1sur 253

Facultad de Ingeniera

UNLP

Matematica C

Modulo II

VI Transformaciones Lineales

2017
2

Temario:
1. Clase 1: Introduccion. Definicion. Ejemplos basicos. Proyeccion. Reflexion. Rotacion.
Casos especiales. Imagen y espacio nulo de una transformacion lineal. Propiedades
fundamentales. Isomorfismos.

2. Clase 2: Representacion matricial. Ejemplos. Diferentes representaciones de acuerdo


a las bases consideradas (cambio de base). Representacion matricial y caractersticas
de la transformacion. Matrices Semejantes. Propiedades. Composicion de transfor-
maciones lineales. Ejemplos. Aplicaciones.
6.1. INTRODUCCION 3

6.1. Introduccion
Estudiaremos aqu una clase de funciones denominadas transformaciones lineales,
que transforman un vector v de un espacio vectorial V en otro vector w de un espacio
vectorial W , cumpliendo con ciertas condiciones. Es decir, son casos especiales de funciones
F : V W entre dos espacios vectoriales. Se las puede puede pensar como funciones de
una sola variable, donde el argumento de la funcion es un vector del espacio vectorial
V , y el valor de la funcion es un vector del espacio vectorial W .
Si V = W , de modo que transforma un vector v de V en otro vector w del mismo
espacio V , la transformacion lineal se denomina usualmente operador lineal.
Usaremos la notacion L : V W para describir una transformacion lineal:
L (v) = w, v V, w W
Veremos que una transformacion lineal L de un espacio vectorial n-dimensional V en
otro espacio vectorial m-dimensional W podra representarse por una matriz A de m n.
Esto permitira trabajar con la matriz A para discutir las caractersticas y propiedades de
la transformacion L, como as tambien, en ciertos casos, determinar las propiedades de la
matriz A a partir de las propiedades de la transformacion lineal que representa.

6.1.1. Definicion general

Definicion.
Una funcion L : V W de un espacio vectorial V en otro espacio vectorial W (ambos
sobre el mismo conjunto de escalares) es una transformacion lineal si satisface

L (v1 + v2 ) = L (v1 ) + L (v2 )

para todo par de vectores v1 y v2 de V y todo par de escalares , . Es decir,

L (v1 + v2 ) = L (v1 ) + L (v2 ) para todo v1 y v2 en V


L (v) = L (v) para todo v en V y escalar

En particular, para = 0 la ultima ecuacion implica que toda transformacion lineal


L : V W satisface
L(0V ) = 0W
con 0V y 0W los vectores nulos de V y W , ya que L(0V ) = L(0v) = 0L(v) = 0W .

V W

x LHxL

x+y LHxL+ LHyL

L:VW
4

Ejemplos 6.1.1: Transformaciones lineales de <2 en <2


Comenzaremos con algunos ejemplos basicos:

1. Transformacion de dilatacion (escalamiento):


 
x1
Si x = x1 e1 + x2 e2 = es un vector de R2 , definimos, como primer ejemplo,
x2
 
3x1
L (x) = 3x =
3x2

L es una transformacion lineal, ya que

L (x) = 3 (x) = (3x) = L (x)


L (x + y) = 3 (x + y) = 3x + 3y = L (x) + L (y)

verificandose que L(0) = 0. Geometricamente, L tiene el efecto de dilatar el vector


x, multiplicando su longitud por un factor 3 y conservando su direccion y sentido:
x2

LHxL = 3x

x
x1

Podemos expresar L(x) en forma matricial como (verificar!)


  
3 0 x1
L(x) =
0 3 x2

2. Proyeccion ortogonal sobre el eje x1 :


Definimos ahora  
x1
L (x) = x1 e1 =
0
     
x1 y1 x1 + y1
Si x = ,y= , entonces x + y = . Luego
x2 y2 x2 + y2

L (x + y) = (x1 + y1 ) e1 = (x1 e1 ) + (y1 e1 )


= L (x) + L (y)

lo que prueba que L es una transformacion lineal.


Geometricamente, L (x) es la proyeccion del vector x sobre el eje x1
6.1. INTRODUCCION 5

x2

x1
LHxL = x1e1

Podemos expresar L(x) en forma matricial como (verificar!)


  
1 0 x1
L(x) =
0 0 x2

3. Reflexion respecto del eje x1 :


Definimos  
x1
L (x) = x1 e1 x2 e2 =
x2
Esta tranformacion satisface
 
x1 + y1
L (x + y) =
(x2 + y2 )
   
x1 y1
= +
x2 y2
= L (x) + L (y)
L es un operador lineal.
Geometricamente, L (x) es la reflexion del vector x respecto (o a traves) del eje x1 .

x2

x1

LHxL

Podemos expresar L(x) en forma matricial como (verificar)


  
1 0 x1
L(x) =
0 1 x2
6

4. Rotacion de angulo /2 antihorario:


 
x1
Si x = x1 e1 + x2 e2 = definimos
x2
 
x2
L (x) = x2 e1 + x1 e2 =
x1

Vemos que cumple


     
(x2 + y2 ) x2 y2
L (x + y) = = +
x1 + y1 x1 y1
= L (x) + L (y)

L es una transformacion lineal.


Geometricamente, L (x) representa la rotacion de angulo = /2 (en sentido anti-
horario) del vector x:

x2

LHxL

2 x

x1

Podemos expresar L(x) en forma matricial como (verificar)


  
0 1 x1
L(x) =
1 0 x2

5. Transformacion de escalamiento general


En general, el operador Lc definido por
 
cx1
Lc (x) = cx =
cx2

con c un escalar fijo, es una transformacion lineal, como podra el lector probar
facilmente.
Si c > 0, Lc tiene el efecto de multiplicar la longitud del vector x por el factor de
escala c, dilatando el vector un factor c si c > 1 y contrayendo el vector un factor c
si 0 < c < 1, pero siempre conservando su direccion y sentido.
6.1. INTRODUCCION 7

Si c = 1, la transformacion resultante

L1 (x) = x

se denomina operador identidad y se la denota como I: I(x) = x x V .


I no modifica ningun vector.
Si c = 0, la transformacion resultante

L0 (x) = 0

se denomina operador nulo. Enva a todos los vectores de V al vector nulo 0 0V .


Si c < 0, Lc tendra el efecto de invertir el sentido del vector, dilatandolo si c < 1,
contrayendolo si 1 < c < 0 y conservando su longitud si c = 1, en cuyo caso
coincide con el operador de inversion.
Podemos expresar Lc (x) en forma matricial como
  
c 0 x1
L(x) =
0 c x2

6. Inversion:
Corresponde a  
x1
L (x) = x =
x2
La linealidad de L es inmediata:
     
(x1 + y1 ) x1 y1
L (x + y) = = +
(x2 + y2 ) x2 y2
= L (x) + L (y)

Geometricamente, L (x) es el vector opuesto a x.

x2

x1

LHxL = -x

Podemos expresar L(x) en forma matricial como


  
1 0 x1
L(x) =
0 1 x2

Observar que el operador de inversion puede obtenerse como caso particular de otras
transformaciones. Por ejemplo,
8

1. La transformacion de escala con c = 1

2. Una rotacion de angulo (en sentido anti-horario o sentido horario)

Esta ultima puede tambien lograrse mediante dos rotaciones sucesivas de angulo /2 (por
ejemplo, ambas en sentido antihorario): Si R rota al vector x en /2 antihorario, entonces
   
x2 x1
R (R (x)) = R = = x
x1 x2

Si definimos el cuadrado L2 de un operador L (transformacion de V en V ) mediante

L2 (x) L (L (x))

entonces el operador de inversion L puede expresarse en terminos del operador de rotacion


previo como
L = R2
Ejemplos de transformaciones no lineales:

1. Si  
x1 x2
F (x) = x1 x2 e1 + x2 e2 =
x2
obtenemos
 
x1 x2
F (x) = (x1 ) (x2 ) e1 + (x2 ) e2 =
x2
6= F (x) (excepto para = 0 o 1 o x1 x2 = 0)

F no es una transformacion lineal.

2. Traslacion:
La traslacion Ta suma a todo vectir x un vector fijo a:

Ta (x) = x + a

Si a 6= 0, Ta no es una transformacion lineal, ya que por ejemplo, Ta (0) = a 6= 0 y


Ta (x1 + x2 ) = a + x1 + x2 6= Ta (x1 ) + Ta (x2 ).
As, no podra representarse directamente mediante una matriz aplicada a x.

Problemas 6.1.1

1. (i) Definir la proyeccion ortogonal en R3 sobre el plano-xy y mostrar que es una


transformacion lineal. Graficar.
(ii) Definir la proyeccion ortogonal en R3 sobre el eje x y mostrar que es una trans-
formacion lineal. Graficar.
(iii) Que es la proyeccion al origen? Puede considerarse una transformacion lineal?
6.1. INTRODUCCION 9

2. Considerar la transformacion L : R2 R2 dada por


   
x x/2
L =
y y/3

i) Verificar que es lineal. Expresarla en la forma matricial L(x) = Ax.


ii) Hallar las imagenes L(v) de los vectores (10 ), (01 ), (11 )
iii) Dar una interpretacion geometrica de L.
iv) La imagen por L de un conjunto de vectores C se define como
L(C) = {L(v), v C}. Probar que la imagen L(C) bajo esta aplicacion de la elipse
  
x 2 2
C= | (x /4) + (y /9) = 1
y

es una circunferencia de radio 1.

Ejemplos de Transformaciones de Rn en Rm
 
x1
1. Sea x = y L : R2 R1 , definida por
x2

L (x) = x1 + x2

L es una transformacion lineal, ya que

L (x + y) = (x1 + y1 ) + (x2 + y2 )
= (x1 + x2 ) + (y1 + y2 ) = L (x) + L (y)

L asocia a cada vector x R2 un escalar


 dado por x1 + x2 . Puede ser expresada en
 x1
forma matricial como L(x) = 1 1 .
x2

x2
2. Sea L : R2 R3 definida por L (x) = x1
x1 + x2
Se verifica facilmente que L es lineal (probar!) y que puede ser escrita tambien como

0 1  
x
L(x) = 1 0 1
x2
1 1

6.1.2. Ejemplos de transformaciones lineales en otros espacios


1. Dado un espacio vectorial V arbitrario, el operador identidad I : V V se define
por
I (v) = v para todo v V
Es, obviamente, una transformacion lineal (verificar!).
Notar que no existe I : V W si W = 6 V , aun si V y W tienen la misma
dimension.
10

2. La transformacion nula 0 : V W se define por

0 (v) = 0W para todo v V

Es, obviamente, una transformacion lineal (verificar!), que generaliza el operador


nulo L0 visto anteriormente.
3. Transformacion definida por una matriz A.
Dada una matriz A de m n, se puede definir una transformacion lineal asociada
L : Rn Rm dada por
L (x) = A x
Es facil ver que L cumple las propiedades de linealidad:

L (x + y) = A (x + y)
= Ax + Ay
= L (x) + L (y)

Por lo tanto, cualquier matriz A de m n puede verse como asociada a una trans-
formacion lineal L : Rn Rm . Mas aun, veremos luego que toda transformacion
lineal L : Rn Rm es de la forma anterior (para alguna matriz A de m n).
4. Sea L : C[a,b] R1 definida por
Z b
L (f ) = f (x) dx
a

L es oviamente una transformacion lineal, ya que si f y g son dos vectores cuales-


quiera de C[a,b] , entonces
Z b
L (f + g) = (f + g) (x) dx
a
Z b Z b
= f (x) dx + g (x) dx
a a
= L (f ) + L (g)

A diferencia de las anteriores, esta transformacion lineal, cuyo dominio es un espacio


vectorial de dimension infinita, no puede representarse mediante una matriz.
5. Sea D : C C el operador derivada en el espacio C de funciones reales
f : R R derivables a todo orden, definida por

D(f ) = f 0

es decir, D(f )(x) = f 0 (x). Se la suele denotar directamente como D = d


dx
.
D es obviamente un operador lineal, ya que si f y g C ,

D(f + q) = (f + g)0 = f 0 + g 0 = D(f ) + D(g)


d2
Notese que D2 es el operador derivada segunda dx2
:

D2 (f ) = D(D(f )) = D(f 0 ) = f 00
6.2. IMAGEN Y NUCLEO DE UNA TRANSFORMACION LINEAL 11

Dado que C tiene dimension infinita, D no puede representarse mediante una


matriz (pero si se restringe el dominio a un subespacio de C de dimension finita, tal
como el espacio Pn de polinomios de grado n, D s podra representarse mediante
una matriz, como veremos luego).

Importante: Si L : V W es una transformacion lineal, se cumplen siempre las si-


guientes reglas o propiedades:

1. L (0V ) = 0W

2. Si v1 , . . . , vn V , entonces

L (1 v1 + + n vn ) = 1 L (v1 ) + + n L (vn )

3.
L (v) = L (v) v V

Se dejan las demostraciones para el lector.

Problema 6.1.2
1. Sea L : V W una transformacion lineal y sean w1 = L(v1 ), . . . , wk = L(vk ) las
imagenes de k vectores v1 , . . . , vk de V .
a) Mostrar que si el conjunto de los vectores {v1 , . . . , vk } es linealmente dependiente
{w1 , . . . , wk } es linealmente dependiente.
b) Mostrar que si {v1 , . . . , vk } es linealmente independiente el conjunto {w1 , . . . , wk }
no es necesariamente independiente. Dar un ejemplo (considere proyecciones orto-
gonales sobre un cierto eje o la transformacion nula).

6.2. Imagen y nucleo de una transformacion lineal


Sea L : V W una transformacion lineal
1. Nucleo de L: es el conjunto de vectores v de V que son transformados o enviados
al vector nulo 0W de W . Es decir,
Nu (L) = {v V : L (v) = 0W }

2. Imagen de un subespacio S de V : es el conjunto de vectores w de W que son


imagen por L de vectores v de S, es decir,
L (S) = {w W : w = L (v) para algun v S} = {L(v), v S}

3. Imagen de L: Es la imagen L (V ) de todo el espacio vectorial V :


Im(L) = L(V ) = {L(v), v V } W

Notar que la imagen por L del Nu(L) es el vector nulo 0W de W : L(Nu(L)) = {0W }.
Cada uno de estos conjuntos de vectores es un subespacio en los respectivos
espacios vectoriales:
12

V W V W

NuHLL S LHSL
0V 0W 0V 0W

L:VW L:VW

Teorema.
Si L : V W es una transformacion lineal, entonces

1. Nu (L) es un subespacio de V

2. Si S es un subespacio de V , L (S) es un subespacio de W . Esto implica en particular


que la imagen Im(L) = L(V ) es un subespacio de W .

3. Si V es de dimension finita, la suma de la dimension de la imagen Im(L) y la


dimension del nucleo Nu(L) es la dimension del espacio V :

dim Im (L) + dim Nu (L) = dim V

Demostracion de 1. En primer lugar, L(0V ) = 0W , por lo que 0V Nu(L). Ademas,


si v1 y v2 Nu (L),

L (v1 + v2 ) = L (v1 ) + L (v2 ) = 0W + 0W = 0W


L (v1 ) = L (v1 ) = 0W

por lo que v1 + v2 y v1 Nu (L). El nucleo es pues cerrado por la suma y multiplicacion


por un escalar, siendo entonces un subespacio.
Demostracion de 2. L(S) contiene al 0W pues L(0V ) = 0W . Ademas, si w1 y w2 son
vectores en L (S), existen v1 y v2 en S tales que w1 = L(v1 ), w2 = L(v2 ). Entonces

w1 = L (v1 ) = L (v1 ) para v1 S


w1 + w2 = L (v1 ) + L (v2 ) = L (v1 + v2 ) para v1 y v2 S

Como S es un subespacio, ambos v1 y v1 + v2 pertenecen tambien a S, por lo que


w1 L(S) y w1 + w2 L(S). Luego, L (S) es cerrado por la suma y multiplicacion por
un escalar, siendo entonces un subespacio.
Demostracion de 3. Partiendo de una base B = {v1 , . . . , vk , vk+1 , . . . , vn } de V tal que
{vk+1 , . . . , vn } es una base de Nu(L) (L(vk+1 ) = . . . = L(vn ) = 0W ), todo v V puede
escribirse como v = 1 v1 + . . . + k vk + k+1 vk+1 + . . . + n vn . Entonces,

L(v) = L(1 v1 + . . . + k vk + k+1 vk+1 + . . . + n vn )


= 1 L(v1 ) + . . . + k L(vk ) + k+1 L(vk+1 ) + . . . + n L(vn )
= 1 L(v1 ) + . . . + k L(vk )

por lo que {L(v1 ), . . . , L(vk )} genera Im(L). Ademas, {L(v1 ), . . . , L(vk )} es linealmente
independiente, pues si 0W = 1 L(v1 ) + . . . + k L(vk ) = L(1 v1 + . . . + k vk )
1 v1 + . . . + k vk Nu(L) y entonces 1 v1 + . . . + k vk = 1 vk+1 + . . . + n vn . Pero por
ser los vi linealmente independientes, 1 = . . . = k = k+1 = . . . = n = 0. Por lo tanto,

dim Im(L) + dim Nu(L) = k + (n k) = n = dim V


6.2. IMAGEN Y NUCLEO DE UNA TRANSFORMACION LINEAL 13

Ejemplos 6.2

1. Sea L : R2 R2 definida por


 
x1
L (x) =
0

(operador
 de proyeccion). Es obvio que L (x) = 0 si y solo si x1 = 0, es decir,
x1
x = Nu (L) si y solo si x1 = 0. Por lo tanto, Nu (L) es el subespacio
x2  
0
1-dimensional de R2 generado por el vector e2 = , es decir, es el eje x2 , como
1
es obvio geometricamente (graficar!):
 
0
Nu(L) =
1

Por otra parte, dado que L(x) = x1 e1 , la imagen Im(L) = L(V ) es el conjunto de
vectores proporcionales a e1 , es decir, el subespacio 1-dimensional de R2 generado
por el vector e1 , que geometricamente es el eje x1 :
 
1
Im(L) =
0

Se verifica que dim Im(L) + dim Nu(L) = 1 + 1 = 2 = dim V (V = R2 ).


Notese que L(x) = Ax, con A = (10 00 ), y que Nu(L) coincide con el espacio nulo de
A = (10 00 ), mientras que Im(L) coincide con el espacio columna de A.

2. Sea L : R3 R2 definida por


 
x1 + x2
L (x) =
x2 + x3

x1 + x 2 = 0
Si x Nu (L), entonces . Resolviendo el sistema, si la variable
x2 + x 3 = 0

t 1
independiente es x3 = t, se tiene x2 = x3 , x1 = x3 , es decir, x = t = t 1:

t 1
* 1 +
Nu(L) = 1
1

Por otro lado, vemos que


     
1 0 1
L(x) = x1 + x3 + x2
0 1 1

con x1 , x2 , x3 arbitrarios, por lo que la imagen sera R2 :


         
1 0 1 1 0
Im(L) = , , = , = R2
0 1 1 0 1
3
Se verifica que dim Im(L) + dim Nu(L)
 = 2+ 1 = 3 = dim V (V = R ). Notese
1 1 0
tambien que L(x) = Ax, con A = , coincidiendo Nu(L) con el espacio
0 1 1
nulo de A y Im(L) con el espacio columna de A (ver problema 6.2.7).
14

Problemas 6.2
1. Verificar que las siguientes transformaciones L : R3 R2 son lineales, y determinar
Nu(L), la imagen
Im(L) y sus dimensiones,junto con una base de los mismos:
x   x  
x 2x + y
(a) L y =
(b) L y =

x+y+z 4x 2y
z z
2 2
2. Idem 1. para
 las siguientes
     L: R R :
transformaciones
x y x 0
(a) L = (b) L =
y x y y
Interpretelas geometricamente.
3. Importante: Sea L : Rn Rm la transformacion lineal definida por una matriz A
de m n:
L(x) = Ax
Probar que:
a) El nucleo Nu(L) es el espacio nulo de la matriz A.
b) La imagen Im(L) es el espacio generado por las columnas de la matriz A (o
sea, el espacio columna de la matriz).
c) La igualdad dim Im(L) +dim Nu(L) = dim V es equivalente a
rango (A) + nulidad (A) = n
d) Verifique estos resultados para las transformaciones del ejercicio 2., escribiendolas
en la forma L(x) = Ax.
4. Determinar si son lineales las siguientes transformaciones L : R22 R. En caso
de que lo seanhalle su nucleo e imagen.
a b
(a) L( ) = a + d (Traza de la matriz)
c d 
a b
(b) L( ) = ad bc (Determinante de la matriz)
c d
5. a) Determine si la traza de una matriz cuadrada A de n n, definida por
n
X
T r(A) = aii = a11 + . . . + ann
i=1

es una transformacion lineal T : Rnn R.


b) Indique si el determinante det(A) de una matriz cuadrada A de n n, es una
transformacion lineal det : Rnn R.
6. Halle el nucleo e imagen del operador identidad I : V V , y del operador nulo
0:V V.
7. Mostrar que una funcion f : < < cuya grafica es una recta no es necesariamente
una transformacion lineal L : < < (considere por ejemplo la recta y = mx + 1).
8. Mostrar que k 1, la derivada k-esima Dk = dk /dtk en el espacio P de polinomios
(de grado arbitrario) es una transformacion lineal. Cual es su nucleo e imagen?
6.3. PROPIEDADES FUNDAMENTALES. ISOMORFISMOS 15

9. Importante: Propiedades geometricas de una transformacion lineal.

a) Pobar que toda transformacion lineal L : R2 R2 con Nu(L) = {0V } transfor-


ma rectas R = {r0 +tn, t R}, n 6= 0, en rectas, y segmentos Q = {r0 +tn, t
[t0 , t1 ]}) en segmentos. Que puede suceder si dim Nu(L) 1? Siguen siendo
validos estos resultados en R3 ? y en Rn ?
b) Probar que toda transformacion lineal L : R2 R2 con Nu(L) = {0V } trans-
forma rectas y segmentos paralelos (caracterizados por un mismo vector n 6= 0
pero distintos r0 ) en rectas y segmentos paralelos. Generalizar a R3 y Rn . Pue-
de extenderse el resultado a planos paralelos en R3 ?
 
x2
c) Si L(x) = , determine la imagen por L de las rectas paralelas y = 2x y
x1
y = 2x + 1. Grafique e interprete el resultado.
d ) Dados u, v R2 , i) probar que el segmento de recta que los conecta es el
conjunto Q = {tv + (1 t)u, t [0, 1]}. Verifquelo para u = (1, 0), v = (0, 1).
ii) Mostrar que su imagen L(Q) bajo una transformacion lineal L : R2 R2 es
el segmento derectaentre L(u) y L(v). Generalizar a R3 y Rn .
x2
iii) Si L(x) = , determine la imagen por L del segmento de recta entre
x1
u = (1, 0) y v = (0, 1). Graficar.
e) Un subconjunto C Rn es convexo si para cualquier par de puntos de C el
segmento de recta que los conecta yace enteramente en C, es decir,

u C, v C tv + (1 t)u C t [0, 1]

Por ejemplo, todo subespacio de Rn es un conjunto convexo (probar!). Pero un


conjunto convexo no necesariamente es un subespacio. Por ejemplo, en R2 un
crculo lleno C = {(x, y) R2 , x2 + y 2 1} es un conjunto convexo (pro-
bar!). En cambio, el crculo {(x, y) R2 , x2 +y 2 = 1} no es un conjunto convexo.

Probar que toda transformacion lineal L : Rn Rm transforma un conjunto


convexo en un conjunto convexo. De un ejemplo.

6.3. Propiedades fundamentales. Isomorfismos


1. Si L : V W es una transformacion lineal, con V un espacio vectorial de di-
mension finita n y B = {v1 , . . . , vn } una base arbitraria de V , entonces L queda
completamente determinada por los n vectores {L(v1 ), . . . , L(vn )}, es decir, por las
n imagenes de los vectores de la base.
En efecto, si v V , entonces

v = 1 v 1 + . . . + n vn

y por lo tanto

L(v) = L(1 v1 + . . . + n vn ) = 1 L(v1 ) + . . . + n L(vn )


16

es decir, L(v) es una combinacion lineal de los n vectores L(v1 ), . . . , L(vn ).


La imagen L(V ) es entonces el espacio generado por estos n vectores:

L(V ) = hL(v1 ), . . . , L(vn )i

Notese, no obstante, que el conjunto {L(v1 ), . . . , L(vn )} puede ser linealmente de-
pendiente (por ej., algunos vectores L(vi ) puden ser nulos), en cuyo caso no sera
una base de L(V ).

2. Una transformacion lineal L : V W es inyectiva (o monomorfismo) si


L(v1 ) 6= L(v2 ) v1 6= v2 . Es facil ver que es inyectiva si y solo si Nu(L) = {0V }.
En efecto, L inyectiva L(v) 6= L(0V ) = 0W v 6= 0V , por lo que Nu(L) = {0V }.
Y si Nu(L) = {0V } L(v1 ) L(v2 ) = L(v1 v2 ) 6= 0W v1 6= v2 , por lo que L
es inyectiva.

3. Si Nu(L) = {0V } y {v1 , . . . , vk } V es linealmente independiente, el conjunto


{L(v1 ), . . . , L(vk )} es linealmente independiente. En otras palabras, si la trans-
formacion lineal L es inyectiva, conserva la independencia lineal.
En efecto, si

0W = 1 L(v1 ) + . . . + k L(vk ) = L(1 v1 + . . . + k vk )

entonces 1 v1 + . . . + k vk Nu(L), por lo que 1 v1 + . . . + k vk = 0V . Pero esto


implica 1 = 2 = . . . = k = 0 por ser {v1 , . . . , vk } linealmente independiente. Por
lo tanto, {L(v1 ), . . . , L(vk )} es linealmente independiente.
En particular, si {v1 , . . . , vn } es una base de V {L(v1 ), . . . , L(vn )} es una base
de la imagen Im(L) = L(V ), pues por lo anterior, es linealmente independiente y
por la propiedad 1, genera la imagen. Por lo tanto, para L : V W inyectiva,
dim Im(L) = n y dim Nu(L) = 0, verificandose que

dim Im(L) + dim Nu(L) = n + 0 = n = dim V

Esto tambien implica que si L : V W es inyectiva, necesariamente


dim V dim W pues Im(V ) W .

4. Si L : V W es una transformacion lineal y L(V ) = W L es sobreyectiva


(epimorfismo). En este caso la imagen L(V ) es todo el codominio W , es decir, cubre
todo W , por lo que el conjunto {L(v1 ), . . . , L(vn )} genera W .
Ademas, en este caso se cumple que

dim V = dim Im(L) + dim Nu(L) = dim W + dim Nu(L)

por lo que necesariamente dim V dim W .


6.3. PROPIEDADES FUNDAMENTALES. ISOMORFISMOS 17

Isomorfismos:
5. Si L : V W es una transformacion lineal biyectiva, es decir, que es a la vez
inyectiva (Nu(L) = {0V }) y sobreyectiva (L(V ) = W ) se dice que L es un
isomorfismo. Si V = W al isomorfismo se lo denota automorfismo.
Si L es un isomorfismo y dim V = n, con B = {v1 , . . . , vn } una base de V

{L(v1 ), . . . , L(vn )}

es una base de W , pues son linealmente independientes (por ser L inyectiva) y


generan W (por ser L sobreyectiva). Un isomorfismo transforma entonces cualquier
base de V en una base de W .
Por lo tanto, V y W deben tener la misma dimension n (cuando son de dimen-
sion finita). Para un isomorfismo se verifica entonces que

dim Im(L) + dim Nu(L) = n + 0 = dim V = dim W

6. Una funcion L : V W tiene inversa L1 : W V si y solo si L es biyectiva.


Por lo tanto, si L : V W es una transformacion lineal, L tendra inversa
L1 : W V si y solo si L es un isomorfismo:

L(v) = w v = L1 (w)

cumpliendose que
L(L1 (w)) = L(v) = w w W
L1 (L(v)) = L1 (w) = v vV
es decir,
LL1 = IW , L1 L = IV
donde IW y IV son los operadores identidad en W y V .
La inversa L1 : W V de un isomorfismo L es tambien un isomorfismo
(probar!), es decir, una transformacion lineal biyectiva.

7. Se dice que dos espacios vectoriales V , W son isomorfos si existe un isomorfismo


L : V W entre ellos. Si V y W son de dimension finita V y W son isomorfos
si y solo si tienen la misma dimension (probar!).

Ejemplo 6.3 Sea L : R2 R2 la transformacion dada por


 
x1 + x2
L(x) =
x1 x 2
 
x1
Se verifica en primer lugar que L es lineal y que x = = x1 e1 + x2 e2 R2 ,
x2
       
x1 x2 1 1
L(x) = + = x1 + x2 = x1 L(e1 ) + x2 L(e2 )
x2 x2 1 1
18
   
1 1
con L(e1 ) = , L(e2 ) = , por lo que basta conocer L(e1 ) y L(e2 ) para determinar
1 1
L(x) para cualquier x R2 .
Se comprueba tambien que Nu(L) = 0, pues si x1 +x2 = 0 y x1 x2 = 0 x1 = x2 = 0
(verificar!). Por lo tanto L es inyectiva. Y finalmente, vemos que la imagen de L es
       
1 1 1 1
L(V ) = {x1 + x2 , x1 , x2 R} = , = R2
1 1 1 1

por lo que L es tambien sobreyectiva. Este resultado puede tambien obtenerse directa-
mente de
dim Im(L) = dim V dim Nu(L) = 2 0 = 2
L es entonces un automorfismo, es decir, un isomorfismo entre V y V , con V = R2 .
L tendra entonces inversa L1 : R2 R2 , dada por (verificar!)
   
1 x1 1 x1 + x2
L =
x2 2 x1 x2

Notemos finalmente que podemos expresar L(x) como


  
1 1 x1
L(x) =
1 1 x2

y L1 (x) como   
1 1 1 1 x1
L (x) =
2 1 1 x2
siendo la matriz que representa a L1 la inversa de la matriz que representa a L.

Problemas 6.3

1. Si L : V V es un operador lineal y {v1 , . . . , vn } es una base de V , probar


(a) Si L(vi ) = 0 para cada elemento de la base entonces L es la transformacion
lineal nula.
(b) Si L(vi ) = vi para cada vector de la base entonces L es la identidad.
(c) Si existe un escalar r tal que L(vi ) = rvi para cada vector de la base entonces
L(v) = rv para todo los vectores en V .

2. Sea L : V W una transformacion lineal y supongamos que L(v1 ) = w1 , . . . ,


L(vk ) = wk para vectores v1 , . . . , vk de V .
(a) Si {w1 , . . . , wk } genera W , debe {v1 , . . . , vk } generar V ? Pensar, por ejemplo,
en transformaciones de <3 , sobre <2 .
(b) Si {v1 , . . . , vk } genera V , debe {w1 , . . . , wk } generar W ? Pensar por ejemplo
en L : <2 <3 .
(c) Si ahora L es un isomorfismo (que implica dim V = dim W en espacios de
dimension finita) cual es la respuesta a (a) y (b)?

3. Si L : V W es inyectiva, mostrar que la imagen L(S) de un subespacio de


dimension m de V es un subespacio de dimension m de W .
6.3. PROPIEDADES FUNDAMENTALES. ISOMORFISMOS 19

4. Importante: Sea L : Rn Rm la transformacion lineal definida por una matriz A


de m n:
L(x) = Ax
probar que:
a) L es inyectiva si y solo si rango(A) = n. Esto implica n m.
b) L es sobreyectiva si y solo si rango(A) = m. Esto implica n m.
c) L es biyectiva (isomorfismo) si y solo si rango(A) = m = n, es decir, si y solo si
A es una matriz cuadrada no singular.
d) Probar que en c), L1 : Rn Rn esta dada por

L1 (x) = A1 (x)

e) Discuta las implicancias de los resultados anteriores para el sistema de ecuaciones


lineales (de m n)
L(x) = b
En particular, muestre que
i) Es compatible si y solo si b Im(L).
ii) Es compatible b Rm si y solo si L es sobreyectiva
iii) La solucion, cuando existe, es unica si y solo si L es inyectiva
iv) La solucion existe y es unica b Rm si y solo si L es biyectiva (isomorfismo),
es decir si y solo si m = n y A es no singular.

5. Importante: Sea V un espacio vectorial de dimension n, con (v1 , . . . , vn ) una base


(ordenada) de V , tal que si v V ,

v = x1 v 1 + . . . + xn v n

Sea L : V Rn la transformacion lineal definida por



x1
..
L(v) = .
xn

Es decir, L(v) = [v]B es el vector columna de coordenadas de v en la base B.


a) Mostrar que L esta bien definida, es decir, que [v]B existe y es unico v V .
b) Mostrar que L es una transformacion lineal.
c) Mostrar que L es un isomorfismo (es decir, Nu(L) = {0V }, Im(L) = Rn ).
Este resultado muestra en forma explcita que todo espacio V de dimension n (con
escalares reales) es isomorfo a Rn , es decir, que existe una correspondencia biyectiva
entre ambos.
d) Cual es la inversa L1 ?

6. Mostrar que dos espacios V , W son isomorfos si y solo si tienen la misma dimension.

7. Mostrar que la inversa de un isomorfismo L : V W es un isomorfismo, es decir,


que L1 es lineal y biyectiva.
20

6.4. Representacion matricial de transformaciones


lineales
Veremos ahora que cualquier transformacion lineal L entre espacios vectoriales de dimen-
sion finita V y W se puede representar mediante una matriz A, que dependera de las
bases que se consideren en V y W .
En primer lugar consideramos transformaciones de Rn en Rm :
L : Rn Rm
Asumimos primero que la base en V = Rn es la base canonica Bc = {e1 , . . . , en }.
Dado x Rn , podemos representarlo como

x1
..
x = . = x1 e 1 + . . . + xn e n
xn
Como L es lineal,
L (x) = x1 L (e1 ) + . . . + xn L (en )
Luego si para cada ej , j = 1, . . . , n, se tiene

a1j
L (ej ) = aj = ...

amj
entonces

a11 a1n
L(x) = x1 ... + . . . + xn ...

am1 amn

a11 . . . a1n x1
.. ... .
.. ...
= .


am1 . . . amn xn
es decir,
L(x) = Ax
con A la matriz de m n

a11 . . . a1n
.. .. ..
A = (L(e1 ), . . . , L(en )) = . . .
am1 . . . amn
La matriz A se denomina representacion matricial de L en la bases canonicas de
R y Rm . Queda completamente determinada por las n imagenes L(ej ) de los vectores de
n

la base canonica. Se emplea tambien la notacion


A = [L]Bc
Bc

o simplemente A = [L]Bc . La representacion de L con respecto a otras bases sera una


matriz diferente, pero tambien de m n.
6.4. REPRESENTACION MATRICIAL DE TRANSFORMACIONES LINEALES 21

Ejemplos 6.4
 
3 2 x1 + x2
1. Sea L : R R , definida por L (x) = (ejemplo anterior). Tenemos
x2 + x3

1   0   0  
1 1 0
a1 = L (e1 ) = L 0 =
, a2 = L 1 =
, a3 = L 0 =
0 1 1
0 0 1
Por lo tanto,  
1 1 0
A = (a1 , a2 , a3 ) =
0 1 1
Verificacion:

  x1  
1 1 0 x1 + x2
Ax = x2 = = L (x)
0 1 1 x2 + x3
x3

2. Dada A de m n, consideremos la transformacion lineal L : Rn Rm dada por


L(x) = Ax
Es facil ver que

0
. . . a1n ...

a11 . . . a1j
a 1j
.. .. .. .. .. 1 = .. = a
L(ej ) = Aej = . . . . . . j
.
am1 . . . amj . . . amm .. amj
0
con aj la columna j-esima de A, por lo que la representacion matricial de L en
las bases canonicas de Rn y Rm es precisamente A:
[L]BBc = (L(e1 ), . . . , L(e2 )) = A
c

 
a b
Por ejemplo, si A = ,
c d
    
a b x1 ax1 + bx2
L(x) = =
c d x2 cx1 + dx2
y entonces

   
a b 1 a
L(e1 ) = = = a1
c d 0 c
    
a b 0 b
L(e2 ) = = = a2
c d 1 d
por lo que (a1 , a2 ) = A.
El problema 6.2.3 implica entonces que la imagen Im(L) de una transformacion
lineal L : Rn Rm es el espacio columna de A = [L]B
Bc (es decir, el espacio generado
c

por los vectores columna de A) mientras que el nucleo Nu(L) es espacio nulo de A.
22

3. Rotacion general en R2 . Tomemos la transformacion L : R2 R2 , tal que a cada


vector x lo hace rotar un angulo , en sentido antihorario:
x2 x2

LHe2L
LHxL e2

LHe1L

x


x1
x1 e1

Tenemos    
cos sin
L (e1 ) = y L (e2 ) =
sin cos
Por lo tanto  
cos sin
A = (L (e1 ) , L (e2 )) =
sin cos
Entonces, para rotar un angulo un vector x de R2 en sentido antihorario, se debe
multiplicar A por x:
    
cos sin x1 x1 cos x2 sin
y = L(x) = Ax = =
sin cos x2 x1 sin + x2 cos
Problemas 6.4
1. Hallar la matriz que representa, respecto de las bases canonicas, las siguientes trans-
formaciones lineales y escribir la forma explcita de L(x):
(a) La aplicacion L : R2 R2 que representa una dilatacion con factor c1 a lo largo
del eje x y c2 a lo largo del eje y.
(b) La reflexion L : R2 R2 respecto de la recta y = x.
(c) La rotacion L : R2 R2 de angulo /4 antihorario.
(d) La rotacion L : R3 R3 de angulo antihorario alrededor del eje z.
(e) Idem anterior pero alrededor del eje y.
(f ) La proyeccion L : R3 R3 sobre 
el plano
 xy.     
2 2 1 1 0 2
(g) L : R R lineal, definida por L = ,L = .
0 1 2 2

1   1   1  
3 2 1 1 0
(h) L : R R lineal, definida por L 0 = , L 1 = , L 1 = .
1 1 0
0 0 1
(i) Determinar la imagen y nucleo de las transformaciones anteriores.

2. Mostrar, determinando las imagenes L(e1 ) y L(e2 ), que la siguiente matriz


 
cos(2) sin(2)
A=
sin(2) cos(2)

representa en la base canonica la reflexion L : R2 R2 respecto de la recta y = mx


que forma un angulo con el eje x (m = tan ). Verificar resultados previos.
6.4. REPRESENTACION MATRICIAL DE TRANSFORMACIONES LINEALES 23

6.4.1. Caso general:


Consideremos una transformacion lineal general L : V W entre espacios vectoria-
les V y W de dimension n y m respectivamente. Sean
BV = (v1 , . . . , vn ) , BW = (w1 , . . . , wm )
bases ordenadas de V y W . Cualquier vector v V puede escribirse en terminos de los
vectores de la base BV :
v = x1 v 1 + . . . + xn v n

x1
siendo [v]BV = ... = x el vector de coordenadas de v con respecto a la base BV .

xn
Por lo tanto, para L lineal,
L(v) = x1 L(v1 ) + . . . + xn L(vn )
Si ahora escribimos L(v) y L(vj ) en terminos de los vectores de la base BW ,
L(v) = y1 w1 + . . . + ym wm
L(vj ) = a1j w1 + . . . + amj wm , j = 1, . . . , m
tal que sus vectores de coordenadas en la base BW son

y1 a1j
[L(v)]BW = ... = y , [L(vj )]BW = ... = aj

ym amj
obtenemos
y = [L(v)]BW = x1 [L(v1 )]BW + . . . + xn [L(vn )]BW

a11 a1n
= x1 ... + . . . + xn ...

am1 amn

a11 . . . a1n x1
.. . .. .
.. ...
= .


am1 . . . amn xn
= Ax
es decir,
[L(v)]BW = A[v]BV
donde A es la matriz de m n

a11 . . . a1n
A = ([L(v1 )]BW , . . . , [L(vn )]BW ) = ... .. ..

. .
am1 . . . amn
Esta matriz A se denomina representacion matricial de L respecto de las bases
BV de V y BW de W . La denotaremos tambien como A = [L]B BW .
V

El resultado se puede resumir en el siguiente esquema grafico:


24

V W

L:VW
v w=LHvL

x=@vDBV y=Ax
A Rmxn =@LHvLDBW

Rn Rm

Ejemplos 6.4.1
1. Sea L : R3 R2 la transformacion lineal definida por
L(x) = x1 b1 + (x2 + x3 ) b2
donde x = x1 e1 + x2 e2 + x3 e3 y
   
1 1
b1 = , b2 =
1 1
Tenemos
L (e1 ) = b1 = 1b1 + 0b2
L (e2 ) = L(e3 ) = b2 = 0b1 + 1b2
Por lo tanto, la representacion matricial de L con respecto a las bases Bc = (e1 , e2 , e3 )
de V = R3 y BW = (b1 , b2 ) de W = R2 es
 
Bc 1 0 0
A = [L]BW = ([L(e1 )]BW ), [L(e2 )]BW , [L(e3 )]BW ) =
0 1 1
As,
  x1  
1 0 0 x1
[L(x)]BW = x2 =
0 1 1 x2 + x 3
x3
que implica justamente L(x) = x1 b1 + (x2 + x3 )b2 .
En cambio, en la base canonica de R2 obtenemos (probar!)
 
Bc 1 1 1
Ac = [L]Bc = (L(e1 ), L(e2 ), L(e3 )) =
1 1 1
con
  x1  
1 1 1 x1 x2 x3
[L(x)]Bc = x2 =
1 1 1 x1 + x2 + x3
x3
es decir, L(x) = (x1 x2 x3 )e1 +(x1 +x2 +x3 )e2 , que coincide con x1 b1 +(x2 +x3 )b2 .
6.4. REPRESENTACION MATRICIAL DE TRANSFORMACIONES LINEALES 25

d
2. Sea D : P2 P2 el operador derivada D = dx en el espacio de polinomios de grado
2. Como base ordenada de P2 consideramos B = (1, x, x2 ). Tenemos
D(1) = 0, D(x) = 1, D(x2 ) = 2x
Por lo tanto, su representacion matricial en la base B es

0 1 0
A = [D]B 2
B = ([D(1)]B , [D(x)]B , [D(x )]B ) =
0 0 2
0 0 0

a0
2
Para p(x) = a0 + a1 x + a2 x P2 tenemos [p]B = a1 y entonces

a2

0 1 0 a0 a1
[D(p)]B = A[p]B = 0 0 2
a1 = 2a2

0 0 0 a2 0
que implica D(p) = a1 + 2a2 x + 0x2 = a1 + 2a2 x. Al ser P2 de dimension 3, todo
operador lineal en P2 puede entonces ser representado por una matriz de 3 3, tal
como un operador en R3 .

Relacion entre las propiedades de L y la matriz de representacion


Sea L : V W una transformacion lineal, con dim V = n, dim W = m, y
A = [L]BV
BW

la matriz que la representa con respecto a bases BV de V y BW de W . El rango y la


nulidad de A no dependen de las bases elegidas, pues coinciden, respectivamente, con
la dimension de la imagen y del nucleo de L (los que no dependen de la representacion).
En efecto, los n vectores columna aj Rm de A son las coordenadas de las n imagenes
L(vj ) W en la base BW . Como la correspondencia entre vectores y sus coordenadas en
una base es un isomorfismo (Problema 6.3.5), la dimension del subespacio de Rm generado
por las n columnas de A (es decir, el rango de A) es la misma que la del subespacio
de W generado por las n imagenes L(vj ), es decir, la misma que la dimension de la
imagen Im(L). Analogamente, los vectores x Rn del espacio nulo de A (Ax = 0) son
las coordenadas de los vectores v V del nucleo Nu(L) (L(v) = 0W ), y por lo tanto la
dimension del espacio nulo de A (la nulidad de A) coincidira con la del nucleo de L.

Se cumple entonces que

rango(A) = dim Im(L) , nulidad(A) = dim Nu(L)

para cualquier representacion matricial A = [L]B


BV de L. Por lo tanto, la relacion
W

dim Im(L) + dim Nu(L) = dim V

resulta equivalente a
rango (A) + nulidad (A) = n
26

Los vectores Rm de una base del espacio columna de A son las coordenadas en la
base BW de los vectores de una base de la imagen Im(L), mientras que los vectores Rn
de una base del espacio nulo de A son las coordenadas en la base BV de los vectores
de una base del nucleo Nu(L). Por lo tanto, pueden obtenerse bases de estos espacios
mediante los metodos ya conocidos para obtener bases de los espacios columna y nulo de
una matriz. Y la ecuacion L(v) = w es equivalente al sistema lineal A[v]BV = [w]BW .

Problemas 6.4 (continuacion)


1. 3. A partir de consideraciones
 geometricas,
  encontrar la representacion matricial [L]B
B
1 1 2 2
respecto de la base B = ( , ) de la transformacion lineal L : R R que
1 1
refleja todo vector respecto de la recta y = x. Mostrar que dicha matriz es diagonal.
Comparar con la matriz que la representa en la base canonica [L]B Bc .
c

2. 4. Sea D : P3 P3 el operador derivada en el espacio de polinomios de grado 3.


a) Determine su representacion matricial A en la base B = (1, x, x2 , x3 ).
b) Halle el nucleo y la imagen de D en este espacio, y su relacion con el espacio
columna y nulo de A.

6.5. Cambio de base


Determinaremos ahora en forma explcita la relacion entre las representaciones matri-
ciales de una transformacion lineal L en distintas bases. La ventaja de cambiar de base
es la posibilidad de encontrar una base en la que la matriz representativa de L sea simple
(por ejemplo, diagonal) y por lo tanto sus propiedades esenciales (rango, imagen, etc.)
resulten evidentes.
Consideremos primero un operador lineal L : V V , con V de dimension finita n.
Recordemos que si B = (v1 , . . . , vn ) y B 0 = (v10 , . . . , vn0 ) son dos bases de V , podemos
escribir cualquier vector v V en las formas
v = x1 v 1 + . . . + xn v n
= x01 v10 + . . . + x0n vn0

x1 x01
Las coordenadas x = [v]B = ... y x0 = [v]B 0 = ... en estas bases se relacionan

xn x0n
por
x0 = S 1 x
o en forma equivalente,
x = Sx0
donde
S = [v10 ]B , . . . , [vn0 ]B


es la matriz de cambio de base (o matriz de transicion), de n n y no singular, formada


por las coordenadas de los vectores de la base B 0 en la base B. Por lo tanto, escribiendo
L(v) = y1 v1 + . . . + yn vn
= y10 v10 + . . . + yn0 vn0
6.5. CAMBIO DE BASE 27

con y = [L(v)]B = Ax = A[v]B , y0 = [L(v)]B 0 = A0 x0 = A0 [v]B 0 , obtenemos


y0 = S 1 y
= S 1 Ax
= S 1 ASx0
es decir,

0 0
Si A = [L]B B
B es la representacion de L en la base B y A = [L]B 0 su representacion en la
0 0
base B , las matrices A y A se relacionan por

A0 = S 1 AS

donde S = [v10 ]B . . . [vn0 ]B es la matriz de cambio de base.




Notar que si se conoce A0 , la relacion anterior permite obtener A como (probar!)

A = SA0 S 1
Podemos resumir el resultado en el siguiente esquema grafico:

L:VV
vV w=LHvL

x=@vDB y=Ax
Rn A Rnxn =@wDB
S S-1

x'=@vDB' y'=A'x'
Rn A' = S-1AS Rnxn =@wDB'

Ejemplo 6.5.1 Consideremos   nuevamente


  la reflexion L : R2 R2respecto
 de la recta
1 1 1
y = x. En la base B 0 = ( , ), formada por el vector v10 = perteneciente a
1
  1 1
1
la recta y el vector v20 = perpendicular a la recta, la representacion es obvia, ya
1
que L(v10 ) = v10 mientras que L(v20 ) = v20 (vease problema 6.4.3):
 
0 1 0
A =
0 1
   
1 0
Para hallar la representacion matricial A de L en la base canonica B = ( , ),
0 1
determinamos primero la correspondiente matriz de cambio de base,
 
0 0 1 1
S = ([v1 ]B , [v2 ]B ) =
1 1
28
 
1 1
y su inversa S 1 = 21 . Luego
1 1
   
0 1 1 1 1 0 1/2 1/2
A = SA S =
1 1 0 1 1/2 1/2
 
0 1
=
1 0

Este resultado coincide con el hallado previamente (problema 6.4.1 (b)).

6.5.1. Matrices semejantes

Dos matrices A y A0 de n n son semejantes si y solo si existe una matriz no singular


S tal que
A0 = S 1 AS
Si A0 es semejante a A, entonces, multiplicando la igualdad anterior por S a izquierda y
por S 1 a derecha, obtenemos

SA0 S 1 = S(S 1 AS)S 1 = (SS 1 )A(SS 1 )


= A

es decir, A = R1 A0 R , con R = S 1 , por lo que A es tambien semejante a A0 .


Por lo tanto, las matrices A y A0 que representan a un operador lineal L en dos bases
distintas son semejantes.

Dos propiedades fundamentales sobre matrices semejantes son las siguientes:

1. Las matrices semejantes tienen el mismo determinante:

det(A0 ) = det(A)

En efecto,

det(A0 ) = det(S 1 AS)


= det(S 1 )det(A)det(S)
= (det(S))1 det(A)det(S)
= det(A)

Esto implica que el determinante det(A) es una propiedad del operador lineal L
representado por A, permaneciendo invariante frente a cambios de base.
As, comprobamos en el ejemplo 6.5.1 que det(A0 ) = det(A) = 1.
6.5. CAMBIO DE BASE 29

2. Las matrices semejantes tienen la misma traza:

Tr A0 = Tr A
Pn
donde la traza Tr(A) = i=1 aii es la suma de los elementos diagonales.

En efecto, probemos primero que para matrices A de n m y B de m n, se cumple

Tr (AB) = Tr (BA)

Demostracion:
n
X n X
X m m X
X n m
X
TrAB = (AB)ii = ( aij bji ) = ( bji aij ) = (BA)jj = TrBA
i=1 i=1 j=1 j=1 i=1 j=1

Luego
Tr A0 = Tr (SAS 1 ) = Tr ((AS 1 )S) = Tr (A(S 1 S)) = Tr A
Este resultado implica que la traza es tambien una propiedad del operador L representado
por A, permaneciendo invariante frente a cambios de base.
As, comprobamos en el ejemplo 6.5.1 que Tr (A0 ) = Tr(A) = 0.

Finalmente, mencionemos una tercera propiedad relacionada con 1.:

3. Si A y A0 son matrices semejantes de n n e In es la matriz identidad, entonces

det (A0 In ) = det(A In )

para cualquier escalar .

Este determinante (que es un polinomio de grado n en denominado polinomio carac-


terstico) juega un rol central en la teora de autovalores, como veremos luego.
Demostracion:

det(A0 In ) = det(S 1 A0 S In ) = det[S 1 (A In )S]


= (det(S 1 )det(A In )det(S)
= det(A In )
As, comprobamos en el ejemplo 6.5.1 que

0
1 0 = (1 )(1 ) = 2 1

det(A I2 ) =
0 1

1
det(A I2 ) = = 2 1 = det(A0 I2 )
1
30

Problemas 6.5
1. Dada L : R3 R3 definida por

2 2 0
L(x) = Ax , A = 1 1 2
1 1 2

x1
a) Obtener la expresion explcita de L(x) para un vector x = x2 .
x2

1 2 1
b) Hallar su representacion A0 en la base B 0 =1 , 1 , 1.
0 1 1
Verificar que L(v10 ) = 0, L(v20 ) = v20 , y L(v30 ) = 4v30 , y que por lo tanto, A0 es
diagonal.
c) Usar esta representacion diagonal para hallar su nucleo e imagen.
d) Usar esta representaciondiagonal
para interpretar L geometricamente.
0
e) Indique si el vector v = 1 pertenece a la imagen de L.

1
f) Verifique que la traza y determinante permanecen invariantes frente al cambio de
base: Tr(A) =Tr(A0 ), det (A) = det (A0 ).
2. Si la matriz A del problema anterior representa ahora una transformacion L : P2 P2
en la base canonica de P2 , con P2 el espacio de polinomios reales de grado 2 (y su
base canonica dada por (1, x, x2 )), de una expresion para L(p) y determine la base
B 0 de P2 donde la representacion A0 es diagonal (utilice resultados previos).
3. Considere la reflexion L : R2 R2 respecto de una recta que pasa por el origen y
que forma un angulo con el eje x, dada por y = mx, con m = tan (graficar).
a) Determine, a partir
 de consideraciones
   geometricas, su representacion matricial
cos sin
A0 en la base B 0 = , formada por un vector perteneciente a la
sin cos
recta y otro perpendicular a dicha recta (verificar!). Muestre que A0 es diagonal.
b) Utilice a) y cambio de base para obtener la representacion matricial A en la base
canonica. Verifique que se obtiene el resultado del problema 6.4.2.
       
2 2 1 2 0 1
4. Sea L : R R definida por L = ,L = .
0 2 1 1
a) Encuentre su representacion matricial en la base canonica de R2 y de una expre-
sion para L(x).    
1 1
b) Encuentre su representacion matricial en la base B 0 =( , ), y verifique
2 1
que es diagonal. c) Determine su nucleo e imagen.
5. a) Muestre que la representacion matricial A = [I]B
B del operador identidad I : V V
con respecto a una base arbitraria B de un espacio vectorial V de dimension n, es
siempre la matriz identidad In .
b) Muestre que la representacion matricial del operador nulo 0 : V V en cualquier
base B de V es la matriz nula de n n.
6.6. COMPOSICION DE TRANSFORMACIONES (OPERACIONES SUCESIVAS) 31

6. Muestre que si una matriz B es semejante a una matriz A, entonces:


i) B 2 es semejante a A2 .
ii) Si A no singular, B es no singular y B 1 es semejante a A1 .

7. Dada L : V W y A su representacion matricial respecto de bases BV de V y


BW de W (con dimV = n, dimW = m) muestre que su representacion matricial A0
respecto de bases BV0 de V y BW
0
de W es

A0 = R1 AS

con S = ([v10 ]BV , . . . , [vn0 ]BV ) la matriz de cambio de base en V (de n n, no


singular) y R = ([v10 ]BW , . . . , [vn0 ]BW ) la matriz de cambio de base en W (de m m,
no singular).

6.6. Composicion de transformaciones (operaciones


sucesivas)
Consideremos dos transformaciones lineales L : V W , G : W U , con V , W ,
U espacios vectoriales. Supongamos que primero aplicamos L sobre un vector v V , y
luego aplicamos G sobre el vector resultante w = L(v) W . El resultado es el vector

u = (G L)(v) = G(L(v)) (6.1)

que pertenece al espacio vectorial U :

vwu
L G

En (6.1), G L : V U denota la composicion de G con L (tambien escrita como


G L), que es tambien una transformacion lineal.

Problemas 6.6.1

1. Demostrar que si L : V W y G : W U son transformaciones lineales, entonces


G L : V U definida por (6.1) es tambien una transformacion lineal (probar que
satisface (G L)(v1 + v2 ) = (G L)(v1 ) + (G L)(v2 )).

2. Si L : R3 R2 esta definida por L(x, y, z) = (x + y, y + z),


y G : R2 R2 esta definida por G(x, y) = (x + y, 2x 2y), encontrar una expresion
para (G L)(x, y, z) = G(L(x, y, z)).

6.6.1. Representacion matricial de la composicion


Consideremos primero que V = Rn , W = Rm y U = Rp , y sean AL (de mn) y AG (de
p m) las representaciones matriciales de L y G en las bases canonicas correspondientes,
tal que L(v) = AL (v), G(w) = AG w. Entonces

GL(v) = G(L(v)) = G(AL v) = AG (AL v) = (AG AL )v


32

por lo que la representacion matricial de la composicion G L con respecto a las bases


canonicas de V y U es el producto AG AL de las matrices que representan a G y a L:

AGL = AG AL (6.2)

Observar que la matriz AG se aplica a la izquierda de la matriz AL . El producto esta as


bien definido.

Ejemplo 6.4: En el ejercicio 6.6.2, en las bases canonicas de R3 y R2 , obtenemos las


representaciones matriciales (verificar!)
   
1 1 0 1 1
AL = , AG =
0 1 1 2 2

tal que

x   x  
1 1 0 x+y
L y
= y =
0 1 1 y+z
z z
      
x 1 1 x x+y
G = =
y 2 2 y 2x 2y

Por lo tanto,

x    x
1 1 1 1 0
(GL) y = y
2 2 0 1 1
z z

  x
1 2 1 y
=
2 0 2
z
 
x + 2y + z
= (6.3)
2x 2z
 
1 2 1
o sea, AGL = AG AL = , con (G L)(x, y, z) = (x + 2y + z, 2x 2z).
2 0 2
En el caso general, para representaciones matriciales en bases arbitrarias BV , BW y
BU de V , W , U , se obtiene tambien (se deja la demostracion para el lector)

[GL]B BV BW
BU = AG AL con AL = [L]BW , AG = [G]BU
V

Este resultado es valido para espacios vectoriales generales de dimension finita.

6.6.2. Potencias de operadores lineales


Recordemos que si W = V , la transformacion lineal L : V V se denomina tambien
operador lineal o endomorfismo. Queda en este caso definido el cuadrado L2 = L L como
la composicion de L con L:
L2 (v) = L(L(v)) (6.4)
6.6. COMPOSICION DE TRANSFORMACIONES (OPERACIONES SUCESIVAS) 33

Si AL es la representacion matricial de L en una cierta base de V , los resultadoa anteriores


implican que la representacion matricial de L2 es el cuadrado de la matriz AL :

AL2 = AL AL = A2L (6.5)

En general, la potencia Lk k 2 queda definida por

Lk (v) = L(Lk1 (v)), k 2

y su representacion matricial es

ALk = AL ALk1 = AkL

es decir, la potencia k de la matriz AL . Por definicion, L0 = I, con I el operador identidad.


Y si L es un operador lineal inversible (o sea un automorfismo: un isomorfismo de V en
V ), de forma que existe la transformacion inversa L1 (tal que L1 L = IV ) entonces

AL1 = A1
L (6.6)

ya que AL1 AL = In . La representacion matricial de la inversa L1 es la inversa de la


matriz AL que representa a L, como se vio previamente.
   
2 2 x 2x + y
Ejemplo: Si L : R R esta dado por L = , su representacion
y x 2y
matricial en la base canonica es (probar!)
 
2 1
AL =
1 2

La representacion matricial de L2 es entonces


    
2 2 1 2 1 3 0
AL2 = AL = =
1 2 1 2 0 3

de forma que         
2x 3 0 x 3x x
L = = =3
y 0 3 y 3y y
es decir, L2 (x) = 3x, lo que equivale a L2 = 3I, con I el operador identidad.

Ademas, como AL es no singular, L es inversible y la representacion matricial de su


inversa esta dada por  
1 1 2 1
AL1 = AL =
3 1 2
de forma que       
1 x 1 2 1 x 1 2x + y
L = =
y 3 1 2 y 3 x 2y
o sea, L1 = L/3. Se verifica entonces L1 L = I.
34

Problemas 6.6.2

1. Si L : R3 R3 queda definido por L(x, y, z) = (y, x, z),


i) mostrar que en la base canonica,

0 1 0
AL = 1 0 0
0 0 1
ii) Hallar A2L y verificar que L2 es el operador identidad.
2. Sea P2 el subespacio de los polinomios reales de grado 2.
d
Si D : P2 P2 denota el operador derivada (D = dx ),
i) Hallar las representaciones matriciales AD y AD2 de D y la derivada segunda D2
en las base canonica (1, x, x2 ) y verificar que
AD2 = AD AD = A2D

6.6.3. Composicion de transformaciones lineales en R2


Consideremos ahora algunos ejemplos de operadores lineales L : R2 R2 . La reflexion
de un vector v respecto de la recta y = x esta dada por (recordar!)
      
x 0 1 x y
L = =
y 1 0 y x
 
0 1
siendo su representacion matricial en la base canonica AL = .
1 0
Es evidente de la definicion que L2 (xy ) = L(L(xy )) = (xy ) x, y, o sea, L2 = I (operador
identidad), verificandose que (probar!)
 
2 1 0
AL =
0 1
Es, decir, la inversa de una reflexion L es la misma reflexion L, como es obvio geometri-
camente.
x2 x2

LHvL y=x RHvL

2
v v
x1 x1

La rotacion de angulo /2 en sentido antihorario de un vector v esta dada por


      
x 0 1 x y
R = =
y 1 0 y x
6.6. COMPOSICION DE TRANSFORMACIONES (OPERACIONES SUCESIVAS) 35
 
0 1
siendo su representacion matricial en la base canonica AR = .
1 0
Consideremos ahora la transformacion lineal R L que primero refleja un vector respecto de
la recta y = x y luego lo rota un angulo de /2 en sentido antihorario. Su representacion
matricial en la base canonica sera
    
0 1 0 1 1 0
A(R L) = AR AL = =
1 0 1 0 0 1
y por lo tanto,       
x 1 0 x x
RL = =
y 0 1 y y
Esto representa una reflexion respecto del eje y (mostrar!).

Por otro lado, la transformacion lineal L R, que primero rota un vector un angulo de
/2 en sentido antihorario y luego lo refleja respecto de la recta y = x, queda representa-
da por la matriz
    
0 1 0 1 1 0
A(L R) = AL AR = =
1 0 1 0 0 1
y por lo tanto,       
x 1 0 x x
LR = =
y 0 1 y y
Esto representa una reflexion respecto del eje x (mostrar!).
x2 x2

v
RLHvL
v
x1

x1

LRHvL

Por lo tanto, vemos que el resultado final depende del orden de la composicion, lo
que se refleja en la no conmutatividad del producto matricial asociado.

Se define el conmutador de dos operadores L : V V , G : V V como


[G, L] = GL LG
que es en general un operador no nulo. La matriz que lo representa en una base de V es
el conmutador de las matrices que representan a G y L en dicha base:
A[G,L] = AG AL AL AG . En el ejemplo anterior se obtiene
     
1 0 1 0 1 0
AR AL AL AR = =2
0 1 0 1 0 1
36

que implica RL LR = 2RL, es decir, LR = RL.

Recordemos finalmente que la proyeccion ortogonal de un vector sobre el eje x esta dada
por (graficar!)
      
x 1 0 x x
Px = =
y 0 0 y 0

y la proyeccion ortogonal de un vector sobre el eje y esta dada por


      
x 0 0 x 0
Py = =
y 0 1 y y

Problemas 6.6.3

1. a) Hallar la representacion matricial en la base canonica de la inversa de los opera-


dores R y L anteriores.
b) Tienen Px y Py inversa?
c) Encuentre la representacion matricial de Px Py y Py Px . Justificar el resultado.

2. Sea F : R2 R2 el operador lineal que primero rota todo vector un angulo /2


en sentido antihorario y luego lo proyecta sobre el eje x. Hallar su representacion
matricial en la base canonica y una expresion para F (xy ).

3. Sea G : R2 R2 el operador lineal que primero proyecta todo vector sobre el eje
x y luego lo rota un angulo /2 en sentido antihorario. Hallar su representacion
matricial en la base canonica y una expresion para G(xy ).

4. Recordando que la representacion matricial en la base canonica de una reflexion


respecto de la recta y = mx, con m = tan , es
 
cos 2 sin 2
sin 2 cos 2

a) Halle su determinante.
b) Muestre que la composicion de dos reflexiones es una rotacion.

5. Recordando que la representacion matricial en la base canonica de una rotacion de


angulo antihorario es
 
cos sin
sin cos

a) Halle su determinante.
b) Muestre que la composicion de dos rotaciones es otra rotacion.
c) Muestre que la composicion de una reflexion con una rotacion es otra reflexion.

6. Encuentre, a partir de las figuras, la representacion matricial en la base canonica de


las siguientes transformaciones lineales L : R2 R2 :
6.6. COMPOSICION DE TRANSFORMACIONES (OPERACIONES SUCESIVAS) 37

x2 x2

LHCL
LHCL
2

C
1
C

x1

x1
a) 1 1,5 b)
x2 x2

LHCL
C
1

d
LHCL
c
C

x1 x1
1

c) d)
Matematica C

Transformaciones Lineales: Apendice


1 Aplicaciones. Gra cos y animaciones en computa-
doras
Para dibujar las guras (gra cos, objetos,...) en un espacio bi-dimensional, como apare-
cen en el monitor de una computadora:
1. Se almacenan en la memoria como un conjunto de vertices (puntos)
2. Se dibujan los vertices y luego se los une mediante lneas rectas para obtener la
gura.
As si se tienen p vertices (xi; yi) para i = 1; : : : ; p, se almacenan como una matriz T
de 2  (p + 1)
x x    x x 
T= 1 2 1 p
y1 y2    yp y1
Por ejemplo, para dibujar un triangulo...
... con vertices (0; 0), (1; 1) y (1; ;1), almacenamos los vertices como
0 1 1 0

0 1 ;1 0
A~nadimos la cuarta columna para indicar que el ultimo punto (1; ;1) debe ser conec-
tado (mediante un procedimiento de dibujo computacional) al primer punto (0; 0) para
completar el triangulo

Para transformar una gura, hay que cambiar de posicion de los vertices y \redibujar" la
gura. Si la \transformacion" es lineal, se puede hacer esto mediante una multiplicacion
de matrices (en R 2 ).
...
1
Animacion: Viendo una sucesion de estos dibujos, realizados de manera muy rapida
en tiempo real, produce el efecto de una \animacion".

1.1 Usando cuatro transformaciones basicas


(1) Dilataciones y contracciones: L (x) = c:x (operador de escala)
c > 1: dilatacion
0 < c < 1: contraccion
L se representa por la matriz c:I2 , donde I2 es la matriz identidad de 2  2.
Por ejemplo ...
... para dilatar el triangulo anterior por un factor 3, construimos un nuevo triangulo
mediante su matriz de vertices
3 0 0 1 1 0 0 3 3 0
0
T = (3:I2 ) :T = 0 3 : 0 1 ;1 0 = 0 3 ;3 0
(2) Re exion respecto de un eje:
x
Lx (x) = ;y re exion sobre el ejex)
Otra: ;x
Ly (x) = y (re exion sobre el ejey)
Ambas \transformaciones son lineales", y respecto de la base canonica e1 y e2 se
representan mediante las matrices...
La re exion sobre el eje \x", que es la recta y = 0:

;1 0
Ay = 0 1

Siguiendo con el ejemplo del triangulo ...


... La re exion del \triangulo" respecto del eje x ...
Hay que aplicar la matriz de esta transformacion a cada vertice + el vertice nal
agregado:
1 0  0 1 1 0 0 1 1 0
0
T = Ax:T = 0 ;1 : 0 1 ;1 0 = 0 ;1 1 0
De igual manera, respecto del eje \y", la re exion del triangulo:
;1 0 0 1 1 0 0 ;1 ;1 0
00
T = Ay :T = 0 1 : 0 1 ;1 0 = 0 1 ;1 0
... As dibujando los puntos transformados ...
2
T 0 = Ax:T

T 00 = Ay :T
(3) Rotaciones: Para rotar un vector un angulo  en sentido contrario a las agujas del
reloj, multiplicamos cada vector por la matriz
cos  ; sin 
A = sin  cos  (operador rotacion)
Para obtener la rotacion del triangulo...
cos  ; sin  0 1 1 0
T0 = A :T = sin  cos  : 0 1 ;1 0

0 (cos  ; sin ) (cos  + sin ) 0
= 0 (sin  + cos ) (sin  ; cos ) 0
T 0 = A :T

3
Ahora, una transformacion muy usada, pero que \no es lineal" (veri car que no
cumple las propiedades de linealidad)...
(4) Traslaciones: L (x) = x + a
Si a 6= 0, sabemos que no es una transformacion lineal, y por tanto, no puede ser
representada mediante una matriz.
... Pero, a pesar de no ser lineal, se puede hacer un arti cio para poder usar una ma-
triz. Para eso se de ne un \nuevo sistema" de coordenadas, denominadas \coordenadas
homogeneas" que permite el uso de una matriz...

1.2 Inversas, composicion y conmutacion de operaciones


La inversa de una de estas operaciones deshace la transformacion y retorna al vector
original x.
Ejemplo 1 Para rotar x en sentido antihorario mediante el angulo , multplicamos x
por A
cos  ; sin 
x0 = A:x = sin  cos  :x

Para deshacer esta operacion y recobrar el vector original x, rotamos x0 en sentido


horario mediante el angulo , o en forma equivalente ...
... en sentido antihorario mediante el angulo ; ...

cos (;) ; sin (;)


x = B:x0 = sin (;) cos (;) :x
0
 cos  sin  
; sin  cos  :x
= 0

Pero ...
x = B:x0 = B: (A:x) = B:A:x
=) B:A = I
... B es la inversa de A. De hecho
 cos  sin   cos  ; sin 
B:A = ; sin  cos  : sin  cos 
 cos2  + sin2  ; cos  sin  + sin  cos 

= ; sin  cos  + cos  sin  cos2  + sin2 
1 0
= 0 1

Otro caso ...

4
Ejemplo 2 Para re ejar x sobre el eje x2 , multiplicamos x por A
;1 0 x  ;x 
x = A:x =
0 : 1 =
0 1 x2
1
x2
... Si de nuevo re ejamos x0 sobre el eje x2 , deberamos recobrar nuestro vector original
x.
Esto es ...
x = A:x0 = A: (A:x) = A2:x
=) A2 = I
la inversa de A es A
A;1 = A
Efectivamente ...
;1 0 ;1 0
A =
2
0 1 : 0 1
1 0
=
0 1
Ejemplo 3 Para invertir el sentido de x, multiplicamos x por la matriz A
;1  
0 : x1
x0 = A:x = 0 ;1 x2
;x 
= ;x2 = ;x
1

... Si ahora invertimos el sentido de x0 , recobramos x


x = A:x0 = A: (A:x)
= A 2;:x1 0  ;1 0
= 0 ;1 : 0 1 :x
1 0
= 0 1 :x
por tanto ...
A;1 = A
Ejemplo 4 Para rotar x en sentido antihorario mediante el angulo  = =2, multipli-
camos x por A
cos  ; sin 
x = A:x =
0 :x
0 ;1sinx cos ;x 
= 1 0 : x2 = x1
1 2

5
... o, rotamos x en sentido antithorario primero mediante =3, y luego rotamos me-
diante =6 ...
cos =6 ; sin =6 cos =3 ; sin =3
x0 = A2: (A1 :x) = sin =6 cos =6 : sin =3 cos =3 :x
p3=2 ;1=2  1=2 ;p3=2
p p :x
= 1=2 3=2 : 3=2 1=2
0 ;1 x  ;x 
= 1 0 : x1 = x 2
2 1

As componer la rotacion A2 :A1 es equivalente a la secuencia de rotaciones A1 , y A2


(A1 seguida por A2 ). Esta composicion de dos rotaciones sucesivas es equivalente a una
rotacion de =2.
... En este caso, una rotacion de =6 (A1 ) seguida por una rotacion de =3 (A2 ) es
equivalente a una de =3 seguida de una de =6
 1=2 ;p3=2 p3=2 ;1=2 0 ;1
A1 :A2 = p p
3=2 1=2 : 1=2 3=2 = 1 0
0 ;1
A2 :A1 = 1 0
El ejemplo de las dos rotaciones sucesivas muestra ...
Las matrices que representan operadores lineales conmutan (A:B = B:A) si las dichas
operaciones dan el mismo resultado cuando se las realiza en orden inverso.
Ejemplo 5 Para proyectar x sobre el eje x2 , multiplicamos x por A
0 0 x   0 
x0 = A:x = 0 1: 1 =x2 x2
Si ahora proyectamos x0 sobre el eje x2 , obtendremos el mismo resultado, ya que x0 se
encuentra sobre el eje x2
0 0  0   0 
A:x0 = A (A:x) = 0 1 : x2 = x2 = x
0

esto es
0 0 0 0 0 0
A = 0 1 : 0 1 = 0 1 =A
2

De hecho Ak = A para todo k = 1; 2; : : : para todo tipo de operador proyeccion.


Observacion 6 Un operador proyeccion no tiene inversa

6
Todos los vectores que tengan la misma coordenada x2 tendran la misma proyeccion
sobre el eje x2 . O sea, seran transformados al mismo vector x0 .
El operador proyeccion no tiene inversa, debido a que el vector x0 no puede ser retor-
nado sobre un unico vector x.
De hecho ... 0 0
det A = det 0 1 = 0
... y por tanto A es singular (no invertible).
La matriz A que representa a un operador lineal es \singular" (no invertible) si la
operacion \ no puede deshacerse o invertirse" para recobrar el vector inicial unico .

1.3 Traslaciones y Coordenadas homogeneas


De nicion Las coordenadas homogeneas se forman al asociar cada vector x en R 2 el
vector x^ en R 3 correspondiente a
x 0 x1
x= y ! @y A = x^
1
Para dibujar un punto representado por estas \ coordenadas homogeneas" x^, solo hay
que \ignorar" el tercer coe ciente y simplemente dibujar (x; y).
Con esta de nicion arti cial (y aparentemente arbitraria), los \cuatro tipos" de op-
eraciones gra cas descriptas, a pesar que la 4ta. no es lineal, podran ser representadas
mediante matrices de 3  3, si se las quiere combinar con traslaciones. Recuerden que si no
usan traslaciones, no hay necesidad de usar ningun arti cio ya que las transformaciones
1-2-3, cada una tiene su matriz de representacion.
Para el caso, cuando aparecen traslaciones, en las coordenadas homogeneas se agrega
la \tercer la" y la \tercer columna" de la matriz identidad I3 , de 3  3:
As en esta situacion .... 0c 0 01
A la matriz de dilatacion c:I2: se le agrega... @0 c 0A Observar que no es c:I3.
0 0 1
Esa sera una dilatacion en < , que no es la dada en 2- variables.
3

De igual manera....
7
01 0 01
A la matriz de re exion A : @0 ;1 0A
x
0 0 1
0cos  ; sin  01
A la Matriz de rotacion A : @ sin  cos  0A

0 0 1
Luego, por ejemplo, la aplicacion de una re exion respecto del eje \x" a un vector
arbitrario (x,y):
01 0 01 0x1
Axx^ = @0 ;1 0A : @yA
00x 10 1 1 x
= @;yA !; al eliminar la tercer componente ..... ;y
1
Para las operaciones o transformaciones, Tipo: 1, 2 y 3, el agregado de una coordenada
" cticia" es super uo, pues son lineales y tienen su matriz de representacion.
.... Pero, para la traslacion (que no es lineal), ahora s podremos construir una \matriz
de representacion con respecto a las coordenadas homogeneas" ...
Para eso, reemplazamos en la matriz I3, los dos primeros coe cientes de la columna
" cticia" por los coe cientes del vector de traslacion a ...

01 0 ax
1
Aa = @0 1 ay A
0 0 1
Se tiene entonces que la aplicacion de esa matriz a un vector arbitrario (x,y), con la
tercer componente 1 ...
01 0 a 1 0x1
Aa:x^ = @0 1 a A : @y A
x
y

00x +0a 11 1
= @y + a A ! eliminado la tercer componente se obtiene:
x
y
1
x + a 
y + ay =x+a
x

8
En el ejemplo del triangulo, su aplicacion, a cada vector o vertice con la tercer compo-
nente agregada ...
00 1 1 0
1
T^ = @0 1 ;1 0A
1 1 1 1
y
01 0 a 1 00 1 1 01
Aa:T^ = @0 1 a A : @0 1 ;1 0A
x
T^0 = y

0a (1 +0a 0) (11 + a )1 a11 1 1


= @a (1 + a ) (1 + a ) a A
x
y
x
y
x
y
x
y
1 1 1 1
0a 1
Los vectores columnas de T^, se trasladan mediante @a A = a.
x
y
1
T^0 = AaT^
T^0 = AaT^

En general, para \n" vertices se considera ...


0x x    x 1 0x x    x x 1
T^ = @ y1 y2    y A o @y1 y2    y y1 A
1 2 n 1 2 1 n
n n
1 1  1 1 1  1 1
Otra transformacion \lineal" conocida...
Observaci on 7 El operador \proyeccion" tambien puede ser tratado de esta manera,
y es muy importante para representaciones gra cas en 2-dimensiones, con perspectiva
espacial, de un objeto tridimensional.

1.4 Operaciones sucesivas o composicion de transformaciones


Las sucesivas aplicaciones de estas operaciones (rotaciones, re exiones, traslaciones(no
lineal)) pueden lograrse mediante sucesivas multiplicaciones, o equivalentemente mediante
la multiplicacion \una matriz" que es el \producto de las matrices de representacion", en
el orden correspondiente de cada operacion.
9
Ejemplo 8 Para dilatar un gura mediante un factor c > 1, y luego trasladarla mediante
un vector a, multiplicamos la matriz de vertices T^ por el producto de dos matrices
01 0 ax
10c 0 0
1 0
c 0 ax
1
T^0 = (Aa) : (c:I2) :T^ = @0 1 ay A : @0 c 0A :T^ = @0 c ay A :T^
0 0 1 0 0 1 0 0 1
... y para rotar la imagen resultante en sentido antihorario mediante el angulo , multi-
plicamos T^0 por A
0cos  ; sin  01 0c 0 a 1
A :T^0 = @ sin  cos  0A : @0 c a A :T^
x
T^00 =  y

0c cos  ;c0sin  (0a cos1 ; a 0sin0)11


= @ c sin  c cos  (a sin  + a cos )A :T^
x
x
y
y
0 0 1

El ORDEN DE LAS OPERACIONES ES CRITICO.


Por ejemplo, una rotacion seguida por una traslacion produce un resultado distinto
que una traslacion seguida por una rotacion.
Rotaci
on... y luego traslacion :

T 0 = A :T

T 00 = Aa:T 0 = Aa:A :T

10
Ahora ...
Traslaci
on... y luego rotacion :

T 0 = Aa:T

T 00 = A :T 0 = A :Aa:T

Observacion 9 Las composiciones no son equivalentes ya que las matrices Aa y A no


conmutan
Aa:A 6= A :Aa
... y por tanto, el \orden" de las operaciones es importante.
Un programa simple de computadora en dos dimensiones es una secuencia de estas
operaciones, calculadas y expuestas muy rapidamente, en tiempo real.

11
Facultad de Ingeniera
UNLP

Matematica C

Proyeccion Ortogonal Bases Ortogonales


1 Proyeccion
En secciones previas hemos usado la proyeccion ortogonal de vectores de R3 sobre el
plano xy (subespacio). Asumiendo que el vector esta por encima del plano xy, esta pro-
yeccion es la sombra (al medioda) del vector sobre este plano:

PxyHvL
x

En otras palabras, la proyeccion de v sobre el plano xy es un vector p = Pxy (v) tal


que si alguien camina sobre el plano y se detiene sobre el extremo de p mirando hacia
arriba en lnea recta, ve el extremo del vector v.
En esta seccion se generalizara este concepto a otras proyecciones.

1.1 Proyeccion Ortogonal sobre una recta


Primero consideramos de nuevo la proyeccion ortogonal sobre una recta que pasa por
el origen, dirigida por un vector ~s.
Proyectar ortogonalmente un vector ~v sobre una recta dirigida por ~s da un punto p~
sobre la recta tal que el segmento que une p~ con ~v es perpendicular a la recta. Un obser-
vador que camine sobre esa recta y se detenga en el punto p~, al mirar hacia arriba (o hacia
abajo, segun la posicion del vector) en forma perpendicular a la recta, vera el extremo de ~v :

v v

p p
s s
x

2
Es decir, ha caminado sobre la recta {c~s, c R} hasta hallar el punto p~ = cp~s de-
terminado por un coeficiente cp , con la propiedad de que el vector ~v cp~s es ortogonal a cp~s.

v
v-c p s

cp s
x

Para determinar cp , basta con observar que la diferencia ~v cp~s debe ser ortogonal al
propio vector ~s (no nulo) que genera la recta. Por lo tanto, el producto escalar de estos
dos vectores debe ser nulo:
(~v cp~s) ~s = 0
De aqu obtenemos
~v ~s
cp =
~s ~s
|~v |
es decir, cp = |~s| cos , donde es el angulo entre ~v y ~s. Estas consideraciones son aplicables
tanto a R2 o R3 como tambien a Rn (y tambien a todo espacio vectorial en el que se ha
definido un producto escalar!), siendo el plano del dibujo el subespacio de dimension 2
generado por ~v y ~s.

Definicion. Sea ~v Rn . La proyeccion ortogonal de ~v sobre la recta (que pasa por el


origen) generada por el vector no nulo ~s Rn es el vector

~v ~s
P~s (~v ) = ~s
~s ~s
Es decir, P~s (~v ) = (|~v | cos ) |~~ss| . El resultado depende solo de la direccion de ~s y no de
su longitud (o sentido): P(~s) (~v ) = P~s (~v ) 6= 0. De esta forma, el vector ~v P~s (~v ) es
perpendicular a ~s:
[~v P~s (~v )] ~s = 0

Ejemplo. Para proyectar ~v = (x, y) R2 ortogonalmente sobre la recta y = 2x,


primero obtenemos un vector que indique la direccion de la recta. Por ejemplo,
 
1
~s =
2
Luego  
1
(x, y)    
2 1 x + 2y 1
P~s (~v ) =   =
1 2 5 2
(1, 2)
2

3
Ejemplo En <3, la proyeccion ortogonal de un vector arbitrario
0x1
@y A
z
sobre el eje- y es
01
;x y z  @01A 0 1 0 1
0 0
0001  @1A = @yA
;0 1 0  @1A 0 0
0
lo cual se corresponde con lo esperado por nuestra intuicion. Gra car.
Otra forma de pensar la proyeccion de v sobre la recta...
Desde el dibujo que precede a la de nicion observamos que el vector ~v se ha descom-
puesto en dos partes:
(1) La parte sobre la recta: p~ = cp~s), que es el vector proyectado; y
...
(2) la parte que es ortogonal a la recta: ~v ; cp~s.
As la proyeccion ortogonal de ~v sobre la recta generada por ~s es la parte del ~v que
yace en la direccion del vector ~s.
Una forma util de pensar la proyeccion ortogonal de ~v sobre la recta indicada ...
... es pensar que la proyeccion de ~v es el vector o punto en la recta que esta mas cerca
a ~v . Es decir hallar en la recta el punto cuya distancia al v es mnima. Repasar el dibujo.
Problema.
Dada una recta que no pasa por el origen.
... La proyeccion de ~v sobre esa recta es el vector o punto en la recta que esta mas
cerca a ~v. Es decir, se debe hallar en la recta el punto cuya distancia al v es mnima.
Gra car.
... > Como puede hallar el punto sobre esa recta que esta mas cerca de v ?.

En la seccion proxima vemos como la proyeccion de un vector en la direccion de


otro nos da un procedimiento para construir \bases de espacios vectoriales" con vectores
ortogonales entre si.
Ejercicios
X 1.1 Proyectar el primer vector ortogonalmente sobre la recta que pasa por el origen
generada por el segundo vector.
2  3  2 3 011 0 1 1 011 0 3 1
(a) 1 , ;2 (b) 1 , 0 (c) @1A, @ 2 A (d) @1A, @ 3 A
4 ;1 4 12
X 1.2 Proyectar el vector dado ortogonalmente sobre la recta indicada.
4

2 3  
1

(a) 1 , = c 1 | c (b) , la recta y = 2x
1
4 3

1.3 Aunque lo desarrollado ha sido guiado por representaciones graficas, no nos restrin-
gimos a espacios que podemos dibujar. Por ejemplo, en 4 , proyectar ~v sobre la recta ,
con
1
1

2
1
~v =
= c |c
1
1

3 1

 
2 1
1.4 Consideremos en la proyeccion ortogonal sobre la recta generada por ~s = .
  3
1
(a) Proyectar ~v = sobre la direccion de ~s.
2  
x
(b) Mostrar que la proyeccion de un vector general ~v = sobre la direccion de ~s es
y
   
x x + 3y
proj [~s] = /10
y 3x + 9y
(c) Encontrar la representacion matricial en la base canonica de esta proyeccion.

1.5 Al proyectar un vector ~v , la proyeccion separa a ~v en dos partes: proj [~s] (~v ) y
~v proj [~s] (~v ), que son vectores ortogonales.
(a) Mostrar que si son no nulos, forman un conjunto linealmente independiente.
(b) Que es la proyeccion ortogonal de ~v sobre una recta que pasa por el origen si ~v
esta contenido en esa recta? Como es ~v proj [~s] (~v ) en este caso?
(c) Mostrar que si ~v no esta en la recta y no es perpendicular a ~s entonces el conjunto
{~v , ~v proj [~s] (~v ) } es linealmente independiente.
1.6 Mostrar que la proyeccion de ~v en la recta generada por ~s tiene longitud igual al
valor absoluto del numero ~v ~s dividido por la longitud del vector ~s .
1.7 Encontrar la formula para la distancia de un punto a una recta que pasa por el origen.
1.8 Encontrar el escalar c tal que c~s = (cs1 , cs2 ) este a mnima distancia del punto (v1 , v2 ),
utilizando minimizacion de funciones. Generalizar a n .
1.9 Probar que la longitud de la proyeccion ortogonal de un vector ~v sobre una recta es
mas corta que la del vector ~v .

1.2 Ortogonalizacion de Gram-Schmidt


En la seccion previa se sugirio que al proyectar sobre la recta (que pasa por el origen),
dirigida por un vector ~s, se descompone al vector ~v en dos vectores que son ortogonales:

~v = proj [~s] (~v ) + ~v proj [~s] (~v )
Luego, ~v es suma de dos vectores ortogonales. Si ambas partes son no nulas (cuando
podra ocurrir otra cosa?) son dos vectores linealmente independientes por ser ortogonales.

Ahora, trabajamos sobre esa idea ...

5
De nicion Los vectores ~v1; : : : ;~vk 2 <n son mutuamente ortogonales si todo par de
vectores son ortogonales: Si i =6 j entonces el producto escalar ~vi  ~vj es cero, para todo
par i , j .
As ...
Teorema Si los vectores de un conjunto f~v1 ; : : : ;~vk g  <n son no nulos y mutuamente
ortogonales entonces el conjunto es linealmente independiente.
Demostracion. Considerar la combinacion lineal c1~v1 + c2~v2 +    + ck~vk = ~0. Si i 2 [1::k]
entonces tomando el producto escalar de ~vi a ambos lados de la igualdad
~vi  (c1~v1 + c2~v2 +    + ck~vk ) = ~vi  ~0
ci  (~vi  ~vi) = 0
muestra, como ~vi es no nulo, que ci es cero. Vale para cada i = 1; :::k. Luego, los k
vectores son linealmente independientes.
Corolario Si hay p vectores no nulos que son mutuamente ortogonales en un espacio
p dimensional ) ese conjunto es una \base" para ese espacio.
Demostracion. Todo conjunto de p vectores linealmente independientes de un espacio
de dimension p es una base.
Por supuesto, la recproca del teorema no vale, ya que \ | No toda base de un sube-
spacio de dimension p de <n tiene sus p vectores mutuamente ortogonales".
Sin embargo, podemos alcanzar una recproca \parcial" en el sentido que \ para todo
subespacio de <n existe al menos una base de vectores mutuamente ortogonales".
Ejemplo Los vectores ~ 1 y ~ 2 de esta base de <2 no son ortogonales.
4 1
B=h 2 ; 3 i
... Sin embargo, podemos encontrar desde B una \ nueva base" para el mismo espacio
cuyos vectores sean \mutuamente" ortogonales. Para el primer vector de la nueva base
usamos el mismo de B , usamos ~ 1 . As
4
~1 = 2
Para construir el segundo de la \nueva" base, tomamos uno ortogonal al primero...
... tomamos desde ~ 2 la \parte" que es ortogonal a la direccion del ~1 ,
1  1 1 2 ;1
~2 =
3
; proj [~1 ] ( 3
)=
3
; 1
=
2

... y sera , ~2 (la parte del vector ~ 2 que es ortogonal a ~1 )
Notar que, por el corolario, f~1 ;~2 g es una base para <2.

6
De nicion Una base ortogonal para un espacio vectorial es una base de vectores \
mutuamente ortogonales".
Ejemplo Para pasar de una base de <3
011 001 011
h@1A ; @2A ; @0Ai
1 1 3
a una base ortogonal, como antes tomamos como primer vector el primer vector de la base
dada. 011
~1 = @1A
1
Para obtener el segundo ~2 , comenzamos con el segundo vector de la base dada ~ 2 y le
sustraemos la parte de el que es la proyeccion sobre ~1 .
001 001 001 02=31 0;2=31
~2 = @2A ; proj[~1 ](@2A) = @2A ; @2=3A = @ 4=3 A
0 0 0 2=3 ;2=3
Finalmente, para obtener ~3 tomamos el tercer vector dado y le sustraemos la parte de el
en la direccion de ~1 , y tambien la parte del mismo en la direccion de ~2 .
011 011 011 0;11
~3 = @0A ; proj[~1 ](@0A) ; proj[~2 ](@0A) = @ 0 A
3 3 3 1
... El corolario dice que ....
011 0;2=31 0;11
h@1A ; @ 4=3 A ; @ 0 Ai
1 ;2=3 1
es una base de <3 .
Para generalizar...
El resultado proximo veri ca que el procedimiento dado en los ejemplos genera una
base ortogonal, para un subespacio de <n, a partir de una base dada. Nos restringimos a
<n porque no hemos dado una de nicion de ortogonalidad general para otros espacios.
...
Teorema ( Ortogonalizacion de Gram-Schmidt ) Si h~ 1 ; : : : ~ k i es una base para
un subespacio de <n entonces
~1 = ~ 1
~2 = ~ 2 ; proj[~1 ](~ 2 )
~3 = ~ 3 ; proj[~1 ](~ 3 ) ; proj[~2 ](~ 3)
...
~k = ~ k ; proj[~1 ](~ k ) ;    ; proj[~ ;1](~ k )
k

Los ~ 's forman una base ortogonal para el mismo subespacio.


7
Demostracion. Se usa induccion para chequear que cada ~i es no- cero, y esta en
el subespacio generado por h~ 1; : : : ~ ii y es ortogonal a todos los vectores precedentes:
~1  ~i =    = ~i;1  ~i = 0.
Con eso, tendremos que h~1; : : :~k i es una base para el mismo espacio como lo es
h~ 1 ; : : : ~ k i.
Cubrimos los casos hasta i = 3, lo cual da sentido a los argumentos. Para completar
detalles ver la bibliografa.
El caso para i = 1 es inmediato o trivial ya que ~1 es igual a ~ 1, lo hace un vector no
nulo (~ 1 6= 0), y es la misma direccion y subespacio.
Para el caso i = 2, desde la de nicion de ~2 .
~ ~
~2 = ~ 2 ; proj[~1](~ 2) = ~ 2 ; ~ 2  ~~1  ~1 = ~ 2 ; ~ 2  ~~1  ~ 1
1 1 1 1
Esta expansion muestra que ~2 no es cero, o sino habra una dependencia lineal entre los
vectores ~ 's (es no trivial porque el coe ciente de ~ 2 es 1) y tambien muestra que ~2 esta
en el subespacio generado. Finalmente, ~2 es ortogonal al unico vector precedente
~1  ~2 = ~1  (~ 2 ; proj[~1](~ 2 )) = 0
porque esta proyeccion es ortogonal.
El caso i = 3 es el mismo que para i = 2, excepto por un detalle. Como en el caso
i = 2, expandiendo la de nicion
~ ~
~3 = ~ 3 ; ~ 3  ~~1  ~1 ; ~ 3  ~~2  ~2
1 1 2 2
~ ~ ; ~
= ~ 3 ; ~ 3  ~~1  ~ 1 ; ~ 3  ~~2  ~ 2 ; ~ 2  ~~1  ~ 1

1 1 2 2 1 1
muestra que ~3 no es cero y esta en el subespacio generado. El calculo muestra que ~3 es
ortogonal al precedente vector ~1.
;
~1  ~3 = ~1  ~ 3 ; proj[~1](~ 3 ) ; proj[~2 ](~ 3)

; 
= ~1  ~ 3 ; proj[~1](~ 3 ) ; ~1  proj[~2 ](~ 3 )
=0
La diferencia con el caso i = 2 | es que la segunda linea tiene dos clases de terminos. El
primero, es cero porque la proyeccion es ortogonal, como en el caso i = 2. El segundo
termino es cero porque ~1 es ortogonal a ~2, y es ortogonal a cualquier vector en la recta
generada por ~2.) El chequeo que ~3 es tambien ortogonal al otro precedente vector ~2 es
similar.

Una vez que se tiene la base de vectores ortogonales, se puede pasar a una base donde
ademas cada vector tiene longitud unitaria. Para eso, cada vector de la base ortogonal se
divide por su propia longitud (se normalizan las longitudes).

8
Ejemplo Normalizar la longitud de cada vector de la base ortogonal del ejemplo previo
produce la base ortonormal .
01=p31 0;1=p61 0;1=p21
p p
h@1=p3A ; @ 2= p6 A ; @ 0p Ai
1= 3 ;1= 6 1= 2
Una base ortonormal simpli ca muchos calculos como se vera en algunos ejercicios.
Ejercicios
2.1 Realizar el procedimiento de Gram-Schmidt sobre cada base de <2 , para obtener
1 2
bases ortonormales. 0 ;1 0 ;1
(a) h ; i (b) h ;
1 1 1 i (c) h ;
3 i1 0
X 2.2 Idem0el ejercicio
1 0 1 1previo
001para las siguientes 001de0<21.
0 1 1bases 3
2
(a) h@2A ; @ 0 A ; @3Ai (b) h@;1A ; @1A ; @3Ai
2 ;1 1 0 0 1
Luego normalizar los vectores.
X 2.3 Encontrar una base ortonormal para el subespacio de <3: el plano x ; y + z = 0.
Ayuda: parametrizar
0x1 el plano usando los 0;1y1, z.
011parametros

f@y A x = y ; zg = f@1A  y + @ 0 A  z y; z 2 <g
z 0 1
Considerar esa base. 011 0;11
h@1A ; @ 0 Ai
0 1
2.4 Encontrar bases ortonormales
0 x 1 para el subespacio de <4.
B y CC x ; y ; z + w = 0 and x + z = 0g
fB
@z A
w
Reduciendo el sistema lineal
x ; y ; z + w = 0 ;;! 1 +2 x ; y ; z + w = 0
x +z =0 y + 2z ; w = 0
y parametrizando da la descripcion del subespacio, hallar una base.
2.5 Mostrar que cualquier subconjunto linealmente independiente de <n puede ser
ortonormalizado sin cambiar el subespacio 1generado.
3 Por ejemplo , con
S=f 2 ; 6 g
alcanzaramos 1 3 3 0
~1 = 2 ~2 = 6 ; proj[~1]( 6 ) = 0
2.6 Encontrar un vector en <3 que0es ortogonal
1 0a21ambos vectores dados:
1
@ 5 A @2 A
;1 0

9
X 2.7 Una ventaja de las bases ortonormales es que ellas simpli can la representacion de
un vector con respecto a esa base.
(a) Representar el vector respecto 1 1de <2
2de la base indicada
~v = 3 B=h 1 ; 0 i
Primero representar el vector con respecto a la base. Luego proyectar el vector sobre
cada elemento de la base. [~ 1] y [~ 2].
(b) Con la base ortogonal dada para <2   
K = h 11 ; ;11 i
representar el mismo vector ~v con respecto de esa base. Luego proyectar el vector
sobre cada elemento de esta base. Notar que los coe cientes en la representacion y
en la proyeccion son los mismos.
(c) Dada una base ortogonal K = h~1; : : : ;~k i para un subespacio de <n. Probar
que para cualquier ~v en el subespacio, la i-th componente de la representacion de v
en esa base es el coe ciente escalar (~v  ~i)=(~i  ~i ) de la proj[~ ](~v ).
(d) Probar que ~v = proj[~1](~v ) +    + proj[~ ](~v ).
i

2.8 Mostrar que las columnas de una matriz n  n forman una base ortonormal si y
k

solo si la inversa de la matriz es su transpuesta.


Este es un ejemplo: 0 1=p2 1=p2 01
@;1=p2 1=p2 0A
0 0 1
Para generalizar ...

1.3 Subespacios ortogonales. Proyeccion sobre un Subespacio.


Al proyectar un vector sobre una recta se lo ha descompuesto en dos partes: la parte
que yace sobre la recta proj[~s ] (~v ), y lo que resta ~v ; proj[~s ](~v ) que es ortogonal a la recta.
Para generalizar a arbitrarios subespacios, se sigue la misma idea.
Para eso de nimos...
De nicion Dos dos subespacios S1 y S2 de <n, son ortogonales si para todo x 2 S1 y
todo y 2 S2 se cumple que el producto escalar x  y = 0.
Ejemplo:(a) En <3 , el eje x es un subespacio ortogonal al eje y.
... Otro ejemplo:
(b) El eje z es ortogonal al subespacio determinado por el plano xy.
( c) Pensar otros.
Con mas condiciones ...
De nicion El complemento ortogonal de un subespacio S de <n es

S ? = f~v 2 <n ~v es perpendicular a todos los vectores en S g
(se lee \S perp"). La proyeccion ortogonal sobre un subespacio S projS (~v ) de un vector
es la proyeccion sobre S a lo largo de S ?.
10
Veamos como obtener el subespacio \ ortogonal complementario" de un subespacio S
dado.
... Se obtendra a partir de analizar lo que sigue.
Observacion Consideremos ... las matrices A de m  n
... El espacio nulo de ellas es N (A) = fx : x 2 <n : Ax = 0g  <n
Por tanto, el subespacio N (A) es \ortogonal" a cada la de A,...
... es \ortogonal a cualquier combinacion" de las las de A.
As ...
... N (A) es ortogonal al subespacio generado por las las de A.
Otra forma de decir lo mismo ...
... N (A)  <n es \ortogonal" al subespacio generado por las columnas de AT . Se
acostumbra a denotar R(AT ) al subespacio generado por las columnas de AT (o las de
A), y satisface R(AT )  <n).
... Sabemos que dim(N (A)) + dim(R(AT )) = n, que es la dimension de <n . Luego ...
... N (A) es el \ complemento ortogonal" del subespacio generado por las las de A ,
o lo que es igual, es el complemento ortogonal al subespacio generado por las columnas
de AT , denominado R(AT ). El unico elemento en comun entre ellos es el 0 vector, y la
suma de sus dimensiones es n, que es la dimension del espacio total <n .
... Entonces N (A) = (R(AT ))?.
Ademas...
... el espacio generado por las columnas de A (m  n), son todos los vectores de <m
que son combinaciones de lasPcolumnas de A, se denota:
R(A) = fb : b 2 <m : b = nj=1 aj xj = Axg  <m .
... Y el \ complemento ortogonal de ese subespacio R(A) es el conjunto ortogonal a
las columnas de A. Es el anulador o espacio nulo de las columnas de A. Si ahora se
considera AT , el complemento ortogonal de las las de AT es el N (AT )  <m . Entonces
...
... dim(N (AT )) + dim(R(A)) = m, ...
... (R(A))? = N (AT ). As para obtener el subespacio ortogonal complementario de
R(A), se calcula el N (AT ) = fy : y 2 <m; tal que AT y = 0g.
11
Veamos....
Ejemplo En <3, para encontrar el complemento ortogonal del plano
0x1

P = f@y A 3x + 2y ; z = 0g
z
comenzamos con una base de P .
011 001
A = h@0A ; @1Ai
3 2
Cualquier ~v perpendicular a todo vector en la base A es perpendicular a todo vector del
subespacio generado por esa base B
Por tanto,...
... el subespacio P ? consiste de los vectores que satisfacen las dos (2) condiciones ...
0v 1 0v 1
;1 0
 1
3  @v2 A = 0
;0 1
 1
2 cdot @v2A = 0
v3 v3
... Podemos expresar estas condiciones mas compactamente como un sistema lineal...
0v 1   0v 1  
1 3 @ v1 A = 0 g
P ? = f@v2A 10 0
1 2 2 0
v3 v3
As ... basta con encontrar el espacio nulo de la aplicacion representada por la matriz.
As ... calculando la solucion del sistema homogeneo ...
0v 1 0;31
1 v 3v3 = 0 g = fk @;2A k 2 <g
P ? = f@v2A 1 v +
v3 2 + 2v3 = 0 1

12
Problema Si S es el subespacio dado por plano-xy de <3 , que es S ??
Un primer intento de respuesta es que S ? es el plano yz-plane, ...
... pero eso no es cierto !!!.
Algunos vectores del plano yz no son perpendiculares a todo vector del plano xy.
011 001
@1A 6? @3A  = arccos(
 p p  )  0:94 rad
1 0+1 3+0 2
2  13
0 2

... Ciertamente S ? es el eje-z, ya que considerando la base natural en el plano-xy se


obtiene ...
0x1   0x1   0x1

S ? = f@y A 10 01 00 @y A = 00 g = f@y A x = 0 and y = 0g
z z z
Los dos ejemplos que hemos visto ilustran la primer sentencia de la de nicion de
subespacios ortogonales complementarios.
Sigamos con subespacios de <n....
... Hemos visto que si S es un subespacio para hallar su complemento ortogonal basta
formar una matriz A con columnas dadas por una base de S , y luego hallar el N (AT ).
Ademas dim(N (AT )) + dim(R(A)) = n. Se ve claramente que ambos subespacios son
complementarios.
... Si se tiene una base de S (de dimension k): fv1 ; v2 ; :::vk g; y una base de S ? (de
dimension n ; k): fu1 ; u2; :::un;k g, entonces la union de ellas es una base de <n.
... As cada vector de x 2 <n se puede escribir un vocamente como combinacion de
esos vectores, y se ve que x se separa en una suma de dos vectores:
x = xS + xS? .
Luego... <n = S  S ?.
El resultado siguiente justi ca la segunda sentencia.
Lema Si S es un subespacio de <n. El complemento ortogonal de S es tambien un
subespacio.
Ademas, paraLcualquier ~v 2 <n, se puede descomponer ~v = projS (~v ) + projS (~v )?.
As <n = S S ?.
Para encontrar la proyeccion ortogonal sobre un subespacio...
... el siguiente resultado da una forma de hacerla.
Teorema Sea ~v un vector en <n y sea S un subespacio de <n con base h~ 1; : : : ; ~ k i. Si
A es la matriz cuyas columnas son los ~ 's entonces projS (~v ) = c1~ 1 +    + ck~ k donde los
coe cientes ci son las coordenadas del vector (AT A)AT ~v. As projS (~v ) = A(AT A);1 AT ~v.
Demostracion. El vector projS (~v) es un elemento de S y as es una combinacion lineal
de una base de ese subespacio c1  ~ 1 +    + ck  ~ k . Como las columnas de A son los
~ 's, eso puede expresarse : existen coe cientes ~c 2 <k tal que projS (~v ) = A~c (expresado
compactamente por medio de la multiplicacion matriz por vector).
13
Como ~v ; projS (~v ) es perpendicular a cada elemento de la base, tenemos (expresando
compactamente).
~0 = AT ;~v ; A~c = AT ~v ; AT A~c
Resolviendo para ~c ( mostrando que AT A es invertible como ejercicio)
; 
~c = AT A ;1AT  ~v
da la formula matricial de la proyeccion ... projS (~v ) = A  ~c = A(AT A);1AT :c, si las
columnas de A son una base de S .
Ejemplo Proyectar ortogonalmente este vector en el subespacio que se indica:
011 0x1
~v = @;1A

S = f@y A x + z = 0g
1 z
Primero, formar una matriz cuyas columnas son una base del subespacio
00 1 1
A = @1 0 A
0 ;1
... y luego calcular
00 1 1  1 0 ;1
; 
A A A A = 1 0 A 1=2 0 0 1 0
T ;1 T @ 0 1
0 ;1
0 1=2 0 ;1=2
1
=@ 0 1 0 A
;1=2 0 1=2
Con esta matriz, calcular la projeccion ortogonal sobre S de cualquier vector es facil.
0 1=2 0 ;1=21 0 1 1 0 0 1
projS (~v) = @ 0 1 0 A @;1A = @;1A
;1=2 0 1=2 1 0

La proyeccion sobre un subespacio es una generalizacion, el esquema muestra como


de nir proyeccion ortogonal sobre cualquier subespacio de <n, de cualquier dimension.
14
Ejercicios
X 3.1 Encontrar S? siendo
S: x
x
(a) S = f y x + y = 0g (b) S = f y ;2x + 3y = 0g

x  x
(c) S = f y x ; y = 0g (d) S = f~0 g (e) S = f y x = 0g
0x1 0x1
@ A
(f) S = f y
@ A
;x + 3y + z = 0g (g) S = f y x = 0 and y + z = 0g
z z
3.2 Formas distintas para proyectar ortogonalmente: Compararlas, considerando el
plano P especi cado por 3x + 2y ; z = 0 en <3.
(a) Encontrar una base para P .
(b) Encontrar P ? y una base para P ?.
(c) Representar el vector siguiente con respecto a la base de <3 proveniente de ambas
bases. 011
~v = @1A
2
(d) Encontrar la proyeccion ortogonal de ~v en P dejando la parte sobre P desde el
previo item.
(e) Chequear usando la forma matricial
X 3.3 Chequear las tres formas diferentes para proyectar un vector sobre una recta.
1 x
(a) ~v = ;3 ; M = f y x + y = 0g
001 0x1

(b) ~v = @1A ; M = f@y A x + z = 0 and y = 0g
2 z
3.4 Que es la proyeccion ortogonal en el subespacio S = f0g.
3.5 Mostrar que si S  <n es un subespacio con base ortonormal h~1; : : : ;~ni entonces
la proyeccion ortogonal de ~v en S es :
(~v  ~1 )  ~1 +    + (~v  ~n)  ~n
~v = proj[~1 ](~v ) +    + proj[~ ](~v ) = ~~v ~~1  ~1 +    + ~~v ~~n  ~n
n
1 1 n n
X 3.6 Mostrar que si un vector es perpendicular a un conjunto entonces es perpendicular
a todo vector en el subespacio generado por ese conjunto.
3.7 Es verdadero o falso : la interseccion de un subespacio y su complemento ortogonal
es el f0g.
3.8 (a) Mostrar que si las columnas de A forman un conjunto linealmente indepen-
diente entonces AT A es invertible
(b) Mostrar que si las columnas de Ason mutuamente ortogonales y no nulas entonces
AT A es la matriz identidad
3.9 Mostrar que la matrix de proyeccion A(AT A);1AT es simetrica.

15
1.4 Proyeccion ortogonal y aproximacion de cuadrados mnimos
La proyeccion ortognal de un vector ~v Rn sobre un subespacio S Rn puede
tambien verse como la mejor aproximacion al vector v basada en un vector de S. Si se
~ S S, la mejor aproximacion se lograra eligiendo
desea aproximar ~v mediante un vector w
w
~ S como el vector de S mas cercano a ~v , y tal vector es entonces la proyeccion ortogonal
~vS = projS (~v ) .
En efecto, la distancia al cuadrado de ~v a un vector arbitrario w
~ S de S es
D2 = |~v w~ S |2 = |(~v ~vS ) (w
~ S ~vS )|2
= |~v ~vS |2 + |~vS w~ S |2 2(~v ~vS ) (w
~ S ~vS )
2 2
= |~v ~vS | + |~vS w ~S|
donde |~u|2 = ~u ~u es la longitud al cuadrado de un vector ~u y en el ultimo paso hemos
utilizado que ~v ~vS es ortogonal a todo vector de S, por lo que (~v ~vS ) (w
~ S ~vS ) = 0.
Por lo tanto, el valor mnimo de D2 se obtiene para w ~ S = ~vS , con
2
Dmin = |~v ~vS |2 = |~v |2 |~vS |2
Si S es generado por un conjunto linealmente independiente de vectores (w ~ 1, . . . , w
~ k ),
k n, el resultado dado en la ultima seccion asegura que ~vS = c1 w
~ 1 + . . . ck w
~ k , con
~c = (c1 , . . . , ck )T dado por
~c = (AT A)1 AT ~v (1)
es decir, ~c es la solucion del sistema
(AT A)~c = AT ~v
donde A = (w ~ k ) es una matriz de n k y AT A de k k es no singular.
~ 1, . . . , w
Un ejemplo corriente de aplicacion es el ajuste de los valores f (xi ) de una funcion
f : R R para un conjunto de puntos (x1 , . . . , xn ), por un polinomio de grado k,
P (x) = c0 + c1 x + c2 x2 + . . . + ck xk
con k normalmente menor o mucho menor que n, y c0 , . . . , ck los coeficientes a ajustar.
Lo que se desea es elegir el polinomio que minimiza la suma de la diferencia de cuadrados
n
X
2
D = [f (xi ) P (xi )]2 (2)
i=1

ya que en general no existira un polinomio de grado k < n1 que reproduzca exactamente


los n datos f (xi ), es decir, que satisfaga P (xi ) = f (xi ) para i = 1, . . . , n.
Definiendo el vector ~v = (f (x1 ), . . . , f (xn )) Rn , y los k + 1 vectores w ~ 0 = (1, . . . , 1),
w ~ 2 = (x21 , . . . , x2n ), . . . w
~ 1 = (x1 , . . . , xn ), w ~ k = (xk1 , . . . , xkn ) tambien Rn , se puede escribir
D como la longitud del vector ~v w ~ S , con w ~ S = (P (x1 ), . . . , P (xn )):
D2 = |~v w
~ S |2
w
~ S = (P (x1 ), . . . , P (xn )) = c0 w
~ 0 + c1 w
~ 1 + . . . + ck w
~k

16
El problema de encontrar los coeficientes c0 , . . . , ck que minimizan D2 es pues el mismo
problema de encontrar el vector w ~ S de S mas cercano a ~v , siendo S el subespacio de Rn
generado por los vectores w ~ k . La solucion para ~c = (c0 , c1 , . . . , ck )T estara entonces
~ 0, . . . , w
dada por (1), siendo ahora A una matriz de n (k + 1) de elementos Aij = xji para
j = 0, . . . , k, y AT A una matriz de (k + 1) (k + 1), con
Xn X n
j l
T
(A A)jl = T
xi xi , (A ~v )j = xji f (xi ) , j, l = 0, . . . , k .
i=1 i=1

Si k = 2, P (x) = c0 + c1 x + c2 x es un polinonio de grado 2 y AT A es de 3 3.


2

f HxL f HxL
f HxiL f HxiL
8 8
c0+c1 xi+c2 x2i c0+c1 xi+c2 x2i +c3 x3i +c4 x4i
6 6

4 4

2 2

x x
-1.5 -1.0 -0.5 0.5 1.0 1.5 -1.5 -1.0 -0.5 0.5 1.0 1.5

Se muestra en la figura la aproximacion de 11 datos f (xi ) por medio de un polinomio


de grado 2 y uno de grado 4. No obstante, debe tenerse en cuenta que si los datos no
exhiben un comportamiento polinomial, el ajuste puede presentar oscilaciones, cuya mag-
nitud puede aumentar al incrementarse el grado k del polinomio. La matriz AT A se torna
tambien mal condicionada al aumentar k. Notese que la dimension de AT A depende solo
del grado del polinomio y no del numero de puntos a ajustar.
El formalismo anterior puede extenderse a un ajuste basado en la combinacion lineal
de funciones linealmente independientes gj (x), reemplazando P (x) por
G(x) = c0 + c1 g1 (x) + . . . + ck gk (x)
En este caso Aij = gj (xi ), y el formalismo puede aplicarse si AT A es no singular, con
n
X n
X
T T
(A A)jl = gj (xi )gl (xi ) , (A ~v )j = gj (xi )f (xi ) .
i=1 i=1

Ejercicios
1. Verifique que la minimizacion de D2 (2) respecto de los coeficientes cj conduce a la
solucion (1).
2. Determine el polinomio P2 (x) = c0 + c1 x + c2 x2 que minimiza D2 si los datos son
f (1,5) = 8,5, f (0,9) = 2,5, f (0,3) = 1, f (0) = 0,5, f (0,3) = 0,6, f (0,9) = 1,5,
f (1,5) = 3 (Utilice PC). Estos corresponden a la posicion (en una cierta escala) en distintos
tiempos de un movil con aceleracion variable. Si la aceleracion fuese constante, como sera
el ajuste con este polinomio?

17
Facultad de Ingeniera
UNLP

Matematica C

VII Numeros Complejos

2017
2

7.1. Conceptos basicos


7.1.1. Introduccion
Los numeros complejos constituyen una extension de los numeros reales, que permi-
te obtener todas las races de cualquier polinomio. El conjunto de numeros complejos,
denotado por la letra C, forma as lo que se denomina un conjunto algebraicamente ce-
rrado. Geometricamente, un numero complejo puede representarse mediante un punto
en un plano. El concepto de numero compejo extiende pues la recta real a un espacio
bidimensional, denominado plano complejo.
Los numeros complejos son ademas utilizados, como veremos, en la representacion
de funciones trigonometricas y por ende, de funciones periodicas, siendo por lo tanto su
uso muy extendido en Ingeniera y Fsica (representacion de corriente alterna, analisis de
Fourier, etc.). Asimismo, proporcionan una representacion alternativa de vectores en dos
dimensiones, la cual resulta muy conveniente en ciertos problemas bidimensionales (utili-
zada por ejemplo en dinamica de fluidos, electromagnetismo, etc.). La Mecanica Cuantica
esta tambien formulada en terminos de una funcion de onda compleja. En este curso
los utilizaremos en los proximos dos captulos (autovalores y ecuaciones diferenciales).
Historicamente, su introduccion se atribuye al matematico italiano Girolamo Cardano
(siglo XVI), en el marco de su solucion de ecuaciones cubicas y cuarticas.

7.1.2. Definicion
Comenzamos por definir el numero i (unidad imaginaria), que satisface

i2 = 1

De esta forma, la ecuacion


z 2 = 1
tendra las races z = i y z = i. Mencionemos que en ciertos contextos se utilizan otras
notaciones para la unidad imaginaria (por ejemplo, en ingeniera electrica se utiliza j en
lugar de i, ya que i denota la corriente electrica).
Un numero complejo es de la forma

z = x + y i, x, y R

donde tanto x como y son numeros reales. La parte real de z es x, y la parte imaginaria
de z es y (tambien un numero real!):

Re(z) = x, Im(z) = y

Ejercicio: Hallar la parte real e imaginaria de a) z = 2 3i, b) z = i.

Un numero complejo cuya parte imaginaria es 0 es identificado como un numero real.


Por ejemplo, 5 = 5 + 0i, 0 = 0 + 0i.
Tambien, 0 + yi = yi. Un numero complejo no nulo cuya parte real es 0, tal como 5i, se
7.1. CONCEPTOS BASICOS 3

dice que es imaginario o imaginario puro.


Ademas, yi = iy, y x + yi = yi + x. Por ejemplo, 1 + 2i = 1 + i2 = 2i + 1.

Dos numeros complejos z1 = x1 + iy1 , z2 = x2 + iy2 , son iguales si y solo si tanto sus
partes reales como imaginarias son respectivamente iguales:

x1 + y 1 i = x2 + y 2 i x1 = x2 , y 1 = y 2 (x1 , x2 , y1 , y2 R)

Por ejemplo, x + yi = 2 + 3i implica x = 2, y = 3 si x e y son reales.

Como hemos mencionado, el conjunto de todos los numeros complejos se denota


con la letra C:
C = {x + iy, x R, y R} ImHzL
Podemos representar un numero complejo z = x + yi z=x+yi
mediante un par ordenado (x, y). Este par corresponde y
a un punto o vector en el plano cartesiano, que en este
contexto se denomina plano complejo.

ReHzL
0 x

7.1.3. Conjugacion
El conjugado de un numero complejo z = x + iy se lo denota como z o z , y se lo
define como
z = x iy
de forma que Re(z) = Re(z), Im(z) = Im(z). ImHzL
z=x+yi
y
Por ejemplo, i = i, 1 + 2i = 1 2i y 1 2i = 1 + 2i y .

Geometricamente, conjugar corresponde a reflejar z


respecto del eje real. 0 ReHzL
x

-y
Obviamente, z = z (o sea, (z ) = z). z=x-yi
4

7.1.4. Suma de numeros complejos


Dados dos numeros complejos z1 = x1 + y1 i, z2 = x2 + y2 i, su suma se define como

z1 + z2 = (x1 + x2 ) + (y1 + y2 )i ImHzL


z1 +z2
Por ejemplo, (1 + 2i) + (3 4i) = 4 2i.
z2
Geometricamente, z1 + z2 corresponde al vector suma de los
vectores que representan a z1 y z2 .

z1
ReHzL
0
La resta z1 z2 es la suma de z1 y el opuesto z2 = x2 y2 i
de z2 :
z1 z2 = (x1 x2 ) + (y1 y2 )i
Por ejemplo, (1 + 2i) (3 4i) = 2 + 6i, (1 + 2i) (1 + 2i) = 0.
Ejercicio: Indique el significado geometrico de z1 z2 .

Problema 1: Mostrar que el conjugado de una suma es la suma de los conjugados: y que
el conjugado de una resta es la resta de los conjugados:

z1 z2 = z 1 z 2

Problema 2: Mostrar que es posible expresar la parte real y la parte imaginaria de un


numero complejo z en terminos de z y su conjugado z:
z + z z z
Re(z) = , Im(z) =
2 2i

7.1.5. Producto de dos numeros complejos


A partir de la propiedad basica i2 = 1, el producto de dos numeros complejos
z1 z2 = (x1 + y1 i)(x2 + y2 i) se realiza aplicando la propiedad distributiva (respecto de la
suma) y asociativa (respecto del producto):

(x1 + y1 i)(x2 + y2 i) = x1 (x2 + y2 i) + y1 i(x2 + y2 i)


= x1 x2 + x1 y2 i + y1 x2 i y1 y2
= (x1 x2 y1 y2 ) + (x1 y2 + y1 x2 )i (1.1)

Por ejemplo,

(1 + 2i)(3 4i) = 3 4i + 2i(3 4i) = 3 4i + 6i + 8


= 11 + 2i (1.2)

Problema 3: Probar que a) z1 z2 = z2 z1 b) z1 (z2 z3 ) = (z1 z2 )z3 c) z1 (z2 +z3 ) = z1 z2 +z1 z3


7.1. CONCEPTOS BASICOS 5

Problema 4: Probar que el conjugado de un producto es el producto de los conjugados:

z1 z2 = z 1 z 2

En particular, el producto de un numero complejo z por un numero real ,

(x + yi) = x + yi

corresponde, geometricamente, a la multiplicacion del vector que representa a z por el


escalar real . Por ejemplo, 3(1 + i) = 3 + 3i.
ImHzL
Por otro lado, el producto de un numero complejo z
por la unidad imaginaria i, i z=-y+xi
i(x + yi) = y + xi
z=x+yi
corresponde, geometricamente, a rotar el vector que
representa a z un angulo de 90o en sentido antihorario. 2
Por ejemplo, i1 = i, ii = 1, i(1 + i) = 1 + i. ReHzL
0
Problema 5: Probar el enunciado general anterior, recordando que
la matriz que representa a dicha rotacion en la base canonica de R2 es
 
0 1
R= (1.3)
1 0

de forma que R(xy ) = (y


x ).
En consecuencia, multiplicar un numero complejo z por un numero imaginario i ( real)
corresponde, geometricamente, a rotar z un angulo de 90o en sentido antihorario y luego
multiplicar el vector resultante por el escalar real .

El significado geometrico de multiplicar a z por un numero complejo arbitrario,


(+i)z = z +iz, puede obtenerse sumando z y el vector rotado iz, pero es mas facil
visualizar el resultado final por medio de la representacion polar de un numero complejo,
que discutiremos luego.
Potencias de i: Las potencias pares son reales: i2 = 1, i4 = (i2 )2 = 1 y en general,

i2n = (i2 )n = (1)n (1.4)

Las potencias impares son en cambio imaginarias: i1 = i, i3 = (i2 )i = i y en general,

i2n+1 = i2n i = (1)n i (1.5)

Ejercicio: Graficar las potencias de i en el plano complejo.


6

7.1.6. Valor absoluto de un numero complejo


El valor absoluto (o modulo) de un numero complejo z se define como
p
|z| = x2 + y 2 (1.6)

y es la longitud del vector que lo representa en el plano El modulo |z| es siempre


complejo.
2 2
un numero real no negativo. Por ejemplo: |3+4i| = 3 + 4 = 25 = 5, |i| = 1, |2| = 2.

Es posible expresar |z| mediante z y su conjugado z como



|z| = z z

En efecto, si z = x + yi, con x, y reales, z z = (x + yi)(x iy) = x2 (iy)2 = x2 + y 2 = |z|2 .

Problema 6: Probar que |z| = 0 si y solo si z = 0.


Problema 7: Probar que |z| = |z|.
Problema 8: Para z1 , z2 complejos generales, probar que

|z1 z2 | = |z1 ||z2 |

||z1 | |z2 ||| |z1 + z2 | |z1 | + |z2 |


Problema 9: Probar que |z1 z2 | es, geometricamente, la distancia entre z1 y z2 .

7.1.7. Inverso de un numero complejo


El inverso (o recproco) z 1 de un numero complejo z 6= 0 es el numero complejo que
satisface
zz 1 = 1
Para obtenerlo, vimos en el punto anterior que z z = |z|2 6= 0 si z 6= 0. Por lo tanto,

z(z/|z|2 ) = |z|2 /|z|2 = 1

de donde
z x yi
z 1 = 2
= 2 , z 6= 0 (1.7)
|z| x + y2

Notamos aqu que el cociente z/ de un numero complejo z = x + yi por un numero real


6= 0 se define como (1/)z, es decir, z/ = x/+(y/)i. Por ejemplo, (2+4i)/2 = 1+2i.

Problema 10: Si z = x + yi 6= 0, probar, escribiendo z 1 = a + ib, que la ecuacion


zz 1 = 1 (o sea, xa yb + (xb + ya)i = 1 + 0i) implica necesariamente a = x/|z|2 ,
b = y/|z|2 .

Podemos ahora definir


1 z
= z 1 = 2
z |z|
7.1. CONCEPTOS BASICOS 7

1
resultado que puede obtenerse multiplicando numerador y denominador de z
por z. Por
i
ejemplo, 1i = i 2 = i:
1
= i
i
verificandose que i(i) = i2 = 1. Como segundo ejemplo,
1 1 1i 1i 1 1
= = = i
1+i 1+i1i 2 2 2
verificandose que (1 + i)(1 i)/2 = 1.

Problema 11: Probar que para z 6= 0,


 
1 1
=
z z

1
= 1
z |z|

7.1.8. Cociente de dos numeros complejos


Dados ahora dos numeros complejos z1 y z2 , con z2 6= 0, definimos el cociente como
z1 z1 z2
= z1 z21 =
z2 |z2 |2
(x1 + iy1 )(x2 iy2 )
= (1.8)
x22 + y22
En la practica, se obtiene este resultado multiplicando numerador y denominador por z2 .
Por ejemplo:
1+i (1 + i)(3 4i) 7i
= =
3 + 4i (3 + 4i)(3 4i) 25
Problema 12: Probar que para z2 6= 0,
 
z1 z1 z1 |z1 |
= , =
z2 |z2 |
z2 z2

7.1.9. Representaciones reales y propiedades algebraicas


El conjunto C de los numeros complejos puede ser considerado como el conjunto R2
de pares ordenados (x, y) de numeros reales, con la suma y producto definidos por

(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) (1.9)


(x1 , y1 ) (x2 , y2 ) = (x1 x2 y1 y2 , x1 y2 + y1 x2 ) (1.10)

Puede mostrarse que el producto as definido resulta conmutativo y asociativo (z1 z2 =


z2 z1 , (z1 z2 )z3 = z1 (z2 z3 ), para zj = (xj , yj ), j = 1, 2, 3), y distributivo con la suma:
8

z1 (z2 + z3 ) = z1 z2 + z1 z3 . De esta forma, denotando a los elementos de la base canonica


como 1 = (1, 0) y i = (0, 1), tenemos

i i = (0, 1) (0, 1) = (1, 0) = (1, 0) = 1

con 1 1 = 1 y 1 i = i. Ademas, podemos escribir

(x, y) = x(1, 0) + y(0, 1) = x1 + yi

con lo cual recuperamos la notacion estandar z = x + yi si identificamos x con x1.

Los numeros complejos pueden ser tambien representados por matrices reales de 2 2 de
la forma
     
x y 1 0 0 1
z = =x +y (1.11)
y x 0 1 1 0
= xI + yR , x, y R (1.12)
   
1 0 0 1
donde I = es la matriz identidad y R = la matriz de rotacion
0 1 1 0
definida en (1.3). Obtenemos, con el producto matricial usual, I.I = I, I.R = R.I = R, y
    
0 1 0 1 1 0
R.R = = = I (1.13)
1 0 1 0 0 1

por lo que el par I, R constituye una representacion matricial real de 1 e i, jugando R el


rol de la unidad imaginaria i. Si z1 = x1 I + y1 R, z2 = x2 I + y2 R, obtenemos, con la suma
y producto matricial usual,

z1 + z2 = (x1 + x2 )I + (y1 + y2 )R

z1 .z2 = z2 .z1 = (x1 x2 y1 y2 )I + (x1 y2 + y1 x2 )R


con lo cual, identificando 1 = I y i = R, recuperamos las reglas de suma y producto de
los numeros complejos. Ademas, el determinante de la matriz (1.11) es el modulo de z:

x y 2 2
y x = x + y = |z|

Como estructura algebraica, el conjunto de numeros complejos es, al igual que los
numeros reales o racionales, un cuerpo. Una estructura algebraica {F, +, }, donde F es
un cierto conjunto de numeros y +, son operaciones binarias cerradas entre ellos, es un
cuerpo (o campo) si:
i) La suma satisface las propiedades de asociatividad, conmutatividad, existencia de ele-
mento neutro (0, tal que z +0 = z z F ) y opuesto ( z F z tal que z +(z) = 0).
ii) El producto es tambien asociativo y conmutativo, con existencia de elemento neutro 1
(z 1 = z z F ) e inverso z 1 z 6= 0 (tal que z z 1 = 1)
iii) El producto es distributivo: z1 (z2 + z3 ) = z1 z2 + z1 z3 .
7.1. CONCEPTOS BASICOS 9

Finalmente, considerando escalares reales, el conjunto de los numeros complejos CR


forma un espacio vectorial de dimension 2: Todo complejo z = x1 + yi es la combina-
cion lineal de 1 e i, con coeficientes reales x, y, siendo {1, i} linealmente independientes
(x1 + yi = 0 x = 0, y = 0).

Si consideramos en cambio escalares complejos, CC es un espacio vectorial de dimen-


sion 1 (Probar!).

7.1.10. Races de polinomios


Mediante los numeros complejos, es posible encontrar todas las races de un polinomio
de grado arbitrario n 1, y as escribir el mismo como el producto de n polinomios
elementales de grado 1.
Consideremos primero un polinomio de grado 2, P2 (z) = az 2 + bz + c, con a 6= 0, y la
correspondiente ecuacion cuadratica

az 2 + bz + c = 0, (a 6= 0) (1.14)

Sabemos que las races estan dadas por la muy conocida formula

b b2 4ac
z = (1.15)
2a
Problema 13: Obtener la formula (1.15), completando cuadrados.
Problema 14: Probar que para a 6= 0,

az 2 + bz + c = a(z z+ )(z z ) (1.16)

Para a, b y c reales, las races z seran entonces:


i) Reales y distintas si b2 > 4ac
ii) Reales e iguales si b2 = 4ac
iii) Complejas conjugadas si b2 < 4ac :
En este caso b2 4ac = (4ac b2 ), con 4ac b2 > 0, y por lo tanto,

b i 4ac b2
z =
2
con z = z + . Mediante la introduccion de los numeros complejos, podemos entonces
obtener siempre races de la ecuacion cuadratica (1.15), aun si b2 > 4ac, y as escribir el
polinomio az 2 + bz + c en la forma factorizada (1.16).
Por ejemplo, la ecuacion
z 2 + 2z + 2 = 0
posee las races complejas conjugadas

2 4 8 2 2i
z = = = 1 i
2 2
10

Ejercicio: Verificar que z = 1 i satisfacen z 2 + 2z + 2 = 0.


Ejercicio: Verificar que z 2 + 2z + 2 = (z + 1 i)(z + 1 + i)

La formula (1.15) es valida tambien para a, b, c complejos si a 6= 0 (veremos luego


como obtener races de numeros complejos), aunque en este caso las races complejas no
apareceran necesariamente como pares conjugados.

Los resultados anteriores se generalizan a polinomios de grado arbitrario n 1. Si

Pn (z) = an z n + an1 z n1 + . . . + a1 z + a0 , an 6= 0 (1.17)

es un polinomio de grado n 1, donde los coeficientes (constantes) ai , i = 0, . . . , n, pueden ser


reales o complejos, la ecuacion
Pn (z) = 0
posee siempre al menos una raz (real o compleja). Este enunciado constituye el teorema
fundamental del algebra e indica que el cuerpo de los numeros complejos es algebraicamente
cerrado.
Mas aun, existiran siempre n races z1 , z2 , . . . , zn , en general complejas y no necesariamente
distintas, tales que Pn (zi ) = 0 para i = 1, . . . , n y

Pn (z) = an (z z1 )(z z2 ) . . . (z zn ) (1.18)

Como las races pueden repetirse, esta igualdad suele escribirse como

Pn (z) = an (z z1 )m1 (z z2 )m2 . . . (z zk )mk (1.19)

donde z1 , . . . , zk denotan ahora races distintas (zi 6= zj si i 6= j), con 1 k n, y mi ,


i = 1, . . . , k, denota la multiplicidad de la raz iesima (1 mi n, m1 + . . . + mk = n).

Si los coeficientes ai del polinomio son todos reales, entonces las races complejas aparecen
siempre en pares conjugados.

Problema 15: Probar el enunciado anterior, mostrando primero que si los coeficientes son
reales Pn (z) = Pn (z).
7.1. CONCEPTOS BASICOS 11

7.1.11. Problemas
1) Realizar las siguientes operaciones, expresando el resultado como z = x + yi, con x, y R:
1 25
a) (1 2i)(3 + 4i) b) i + (2 + 4i)(2 ) c) 5 +
2i 3 + 4i
 
1+i 3 + 4i i 2+i 1+i
d) e) f) g) +
1i 3 4i 3i 1 + i 1 + 1/i

2) Determinar la parte real, la parte imaginaria y el modulo de los resultados de las operaciones
anteriores.

3) Hallar todas las races de las siguientes ecuaciones, y escribir el polinomio correspon-
diente en la forma factorizada (1.16) o (1.18)(1.19):

a) z 2 2z + 2 = 0 b) 2z 2 + 4 = 0 c) 2z 2 + 2z + 1 = 0
d) z 2 + 2iz = 0 e) z 2 + 2iz 1 = 0 f ) z4 1 = 0

ix + y = i
4) Resolver el sistema
x + iy = 2

p
5) Indicar el error en a) 1 = 1 1 = (1)(1) = 1=1

1
q
y b) 1i = 1 = 1 1
= 1 = i.

6) Mostrar que la ecuacion


|z| = r, r > 0
corresponde geometricamente a un crculo de radio r centrado en el origen, y

|z z0 | = r, r > 0

a un crculo de radio r centrado en z0 .

7) Mostrar que si z1 = x1 + y1 i, z2 = x2 + y2 i,

Re(z1 z2 ) = x1 x2 + y1 y2

por lo que Re(z1 z2 ) es el producto escalar de (x1 , y1 ) y (x2 , y2 ).


Dar tambien una interpretacion geometrica a Im(z1 z2 ).
12

7.2. Representacion polar y formula de Euler

7.2.1. Forma polar de un numero complejo


A partir del grafico, vemos que podemos expresar la parte real e imaginaria de
z = x + iy como
ImHzL
z=x+yi
x = |z| cos , y = |z| sen y=z sin

z
donde
p
|z| = x2 + y 2

es el valor absoluto de z y es el angulo que forma z ReHzL
con el eje real en el plano complejo, denominado
0 x=z cos
argumento de z o arg(z).
Este angulo satisface
tan = y/x

y el cuadrante al que pertenece queda determinado por los signos de x e y. Normalmente


se toma (, ] (valor principal), pero + 2n resulta equivalente a n entero.

Podemos entonces expresar z = x + iy en terminos de |z| y como

z = |z|(cos + i sen ) (2.20)

Esta expresion se denomina representacion polar del numero complejo.


Por ejemplo, si z = 1 + i |z| = 2 y tan = 1, con x > 0, y > 0, por lo que
= /4. Por lo tanto

1 + i = 2(cos /4 + i sen /4)

Ejercicio: Verificar esta igualdad.

Problema 1: Probar que arg(z) = arg(z)


7.2. REPRESENTACION POLAR Y FORMULA DE EULER 13

La forma polar resulta muy conveniente par el producto y cociente: Si

z1 = |z 1 |(cos 1 + i sen 1), z2 = |z 2 |(cos 2 + i sen 2)

entonces

z1 z2 = |z1 ||z2 | [cos(1 + 2 ) + i sen(1 + 2 )] (2.21)

o sea, |z1 z2 | = |z1 ||z2 |, arg(z1 z2 ) = arg(z1 ) + arg(z2 ).

Y si z2 6= 0,

z1 |z1 |
= [cos(1 2 ) + i sen(1 2 )] (2.22)
z2 |z2 |

o sea, |z1 /z2 | = |z1 |/|z2 | y arg(z1 z2 ) = arg(z1 ) arg(z2 ).

Problema 2: Probar (2.21), utilizando cos(1 + 2 ) = cos 1 cos 2 sen 1 sen 2 ,

sen(1 + 2 ) = sen(1 ) cos 2 + cos 1 sen 2 .


Problema 3: Probar (2.22), partiendo de z1 /z2 = z1 z2 /|z2 |2 y el resultado de los dos problemas
anteriores.

Podemos ver as el significado geometrico del producto z1 z2 : Equivale a rotar z2 un


angulo 1 en sentido antihorario, y multiplicar el vector resultante por el escalar real |z1 |:

ImHzL
z3 =z1 z2
3 =1 +2
z3 =z1 z2
3 z2

2 z1

1
ReHzL
0
14

7.2.2. Formula de Euler:


La forma polar resulta en realidad mas comoda cuando se utiliza con la famosa formula de
Euler para la exponencial de un numero imaginario:

ei = cos + i sen (2.23)

Demostremos primero esta igualdad: Definiendo ei por medio de la serie exponencial,


y separando en terminos pares e impares, obtenemos, utilizando (1.4) y (1.5) (i2n = (1)n ,
i2n+1 = (1)n i),

i
X (i)n
e =
n=0
n!
2n 2n
X i2n+1 2n+1
X i
= +
n=0
(2n)! n=0
(2n + 1)!

X (1)n 2n X (1)n 2n+1
= +i
n=0
(2n)! n=0
(2n + 1)!
= cos + i sen (2.24)

Con este resultado podemos tambien evaluar la exponencial de un numero complejo


general como

ex+yi = ex eyi = ex (cos y + i sen y) (2.25)

donde x e y son reales. Por ejemplo, e2+i = e2 [cos(1) + i sen(1)].

Podemos ahora expresar z en la froma polar como

z = |z| ei (2.26)

donde = arg(z).

Por ejemplo,
i = ei/2
ya que |i| = 1 y arg(i) = /2. Se comprueba que ei/2 = cos /2 + i sen /2 = 0 + i = i.
Tambien,
1 = ei
ya que | 1| = 1, arg(1) = . Se comprueba que ei = cos + i sen = 1 + 0i = 1.

Ejercicio: Mostrar que


1+i
= ei/4
2
7.2. REPRESENTACION POLAR Y FORMULA DE EULER 15

Problema 4: Probar que si z = |z|ei z = |z|ei y, si z 6= 0,

1 1 i
= e
z |z|

Problema 5: Probar que |ei | = 1, y |ei | = || (, reales).

Dado que
ei1
ei1 ei2 = ei(1 +2 ) , = ei(1 2 )
ei2
resulta entonces obvio, utilizando la forma polar (2.26), que

z1 z2 = |z|1 ei1 |z2 |ei2 = |z1 ||z2 | ei(1 +2 ) (2.27)

z1 |z|1 ei1 |z1 | i(1 2 )


= i
= e , z2 6= 0 (2.28)
z2 |z|2 e 2 |z2 |

y por lo tanto obtener las formulas (2.21)(2.22). Resulta tambien obvio que |z1 z2 | =
|z1 ||z2 |, arg(z1 z2 ) = arg(z1 )+arg(z2 ), y |z1 /z2 | = |z1 |/|z2 |, arg(z1 /z2 ) = arg(z1 )arg(z2 ).

7.2.3. Potencias de un numero complejo

Mediante la forma polar (2.23), resulta muy sencillo calcular cualquier potencia z n para
todo n natural o entero: Dado que (ei )n = ein , obtenemos

z n = (|z|ei )n
= |z|n ein (2.29)
= |z|n [cos(n) + i sen(n)] (2.30)

La ultima expresion se denota normalmente formula de De Moivre.


Estas expresiones son validas para n = 0, 1, 2, . . ., y si z 6= 0, tambien para n = 1, 2, . . ..

Ejercicio: Probar que

(1 + i)n = 2n/2 [cos(n/4) + i sen(n/4)]

y que por ejemplo, (1 + i)2 = 2i, (1 + i)20 = 210 , (1 + i)4 = 14 .

Ejercicio: Representar graficamente las primeras cuatro potencias de 1 + i.


16

7.2.4. Races enesimas de la unidad


Consideremos ahora la ecuacion
zn = 1
para n 1. Como 1 = ei0 = ei2k para cualquier k entero, vemos que todo numero
complejo z = ei2k/n satisface z n = 1:
(ei2k/n )n = ei2k = cos(2k) + i sen(2k) = 1 k = 0, 1, 2, . . .
Por lo tanto, obtenemos as n races distintas
z0 = 1, z1 = ei2/n , z2 = ei4/n , . . . , zn1 = ei(n1)2/n
ya que zn = ein2/n = ei2 = 1 = z0 .
Las n races de z n = 1 pueden entonces escribirse como
zk = ei2k/n = cos(2k/n) + i sen(2k/n) , k = 0, . . . , n 1, (2.31)
Todas las races satisfacen |zk | = 1, por lo que estan sobre el crculo unidad |z| = 1.
Obviamente, z0 = 1 n.
Las races aparecen en pares conjugados: zk = znk , pues ei2k/n = ei2(nk)/n .
La suma de todas las races es 0:
z0 + z1 + . . . + zn1 = 0
Para n = 2, obtenemos obviamente las dos races cuadradas de 1, z0 = 1, z1 = ei = 1.
Las tres races cubicas de 1 son en cambio
z0 = 1

i2/3 1 3
z1 = e = cos(2/3) + i sin(2/3) = + i
2 2
1 3
z2 = ei4/3 = cos(4/3) + i sin(4/3) = i = z1
2 2
Finalmente, las 4 races de z 4 = 1 son
z0 = 1, z1 = ei2/4 = i, z2 = ei4/4 = 1, z3 = ei6/4 = i = z1
Se muestran en la figura las races cubicas y cuarticas de 1.

ImHzL ImHzL
3
z =1 z4 =1
z1 =i
z1 =ei23

z0 =1 z2 =-1 z0 =1
ReHzL ReHzL
0
0

z2 =ei43 z3 =-i
7.2. REPRESENTACION POLAR Y FORMULA DE EULER 17

7.2.5. Races de un numero complejo


Podemos ahora facilmente obtener las n races de la ecuacion

z n = a + ib

para a y b reales arbitrarios. Escribiendo a + ib en la forma polar,



a + ib = rei , r = |a + ib| = a2 + b2 , = arg(a + ib)

vemos que
zk = r1/n ei(+2k)/n
satisface
zkn = rei(+2k) = rei = a + ib
para todo k entero. Por lo tanto, las n races distintas (asumiendo r 6= 0) son
+ 2k + 2k
zk = n
r ei(+2k)/n = n
r [cos( ) + i sen( )] , k = 0, . . . , n 1
n n
Las n races son pues de la forma

zk = n
r ei/n ei2k/n

donde ei2k/n son las races enesimas de la unidad (ecuacion (2.31)).


Por ejemplo, la ecuacion
z 2 = a + ib

escribimos a + ib = rei , con r = a2 + b2 , = arg(z), y entonces, las tiene las dos races

z0 = rei/2 , z1 = rei(+2)/2 = z0

o sea, z = a + ib, con a + ib = rei/2 y (, ].

Por ejemplo, para resolver la ecuacion

z2 = i

escribimos i en la forma polar, i = ei/2 , y entonces


1+i
z = ei/4 = [cos(/4) + i sen(/4)] =
2
Analogamente, las 4 races de
z 4 = 3
son, escribiendo 3 = 3ei ,
1+i
3ei/4 =
4 4
z0 = 3 , z1 = iz0 , z2 = z0 , z3 = iz0
2
18

7.2.6. Funciones complejas


Consideraremos aqu funciones complejas de dominio real f : R C. Estas tienen la
forma general

f (t) = u(t) + iv(t) (2.32)

donde t R y u(t) = Re[f (t)], v(t) = Im[f (t)] son funciones reales. Un ejemplo de especial
interes es la funcion exponencial compleja

f (t) = et , = + i C (2.33)

con , reales. Aplicando la formula general (2.25), obtenemos

et = et eit
= et [cos(t) + i sen(t)] (2.34)
= et cos(t) + iet sen(t) (2.35)

o sea, u(t) = et cos(t), v(t) = et sen(t).

Asumiendo u(t) y v(t) derivables, la derivada de f respecto de t es la funcion compleja

f 0 (t) = u0 (t) + iv 0 (t)

En el caso (2.33) obtenemos, partiendo de (2.35),

(et )0 = et [ cos(t) sen(t) + i sen(t) + i cos(t)]


= ( + i)et [cos(t) + i sen(t)]
= et !! (2.36)

Por lo tanto, la expresion (et )0 = et resulta valida tambien para complejo. Este
resultado sera esencial a la hora de resolver ecuaciones diferenciales, y puede obtenerse
de forma mas general por medio de la teora de funciones analticas de variable compleja,
que no trataremos en este curso.
De la misma forma, la integral de f se define como
Z Z Z
f (t)dt = u(t)dt + i v(t)dt

Se deja como ejercicio mostrar que entonces,

et
Z
et dt = +c

para C, 6= 0, donde c C es en general una constante compleja.
Problema: La potencia t para = + i C y t R+ se define como

t = e ln t = e ln t ei ln t
= t [cos( ln t) + i sen( ln t)] (2.37)
7.2. REPRESENTACION POLAR Y FORMULA DE EULER 19

donde ln t es el logaritmo natural. Por ejemplo ti = cos(ln t) + i sen(ln t). Se deja como
ejercicio probar que para C, tambien se obtiene

(t )0 = t1

La aplicacion mas simple y comun de las funciones complejas es la representacion de


funciones periodicas, por ejemplo de la forma

u(t) = A cos(t + ) = A[cos t cos sen t sen ]

tales como una corriente alterna o la posicion de una partcula en movimiento oscilatorio
armonico. Resulta en general mas conveniente expresar u(t) como

u(t) = Re[Aei(t+) ]

donde hemos asumido A, , , t reales. Se veran ejemplos en la parte de Ecuaciones Di-


ferenciales.

Ejemplo: Movimiento circular. El formalismo complejo es tambien util para tratar


problemas en dos dimensiones. Por ejemplo, el vector posicion de una partcula que se
mueve en un crculo de radio r con velocidad angular constante es
ImHzL
(x(t), y(t)) = r(cos t, sen t) v
Podemos escribir este par ordenado en forma compleja como zHtL
r
it t
z(t) = re
ReHzL
0
Si r y son constantes, la velocidad de la partcula sera

v(t) = z 0 (t) = ir eit = iz(t)

donde i indica que la velocidad sera tangencial, es decir,


perpendicular a z(t) (recordar el significado de multiplicar por i).
El modulo de la velocidad es el valor absoluto |v(t)| = |z(t)| = r. La aceleracion sera

a(t) = z 00 (t) = (i)2 reit = 2 z(t)

es decir, antiparalela a z(t) y de modulo |a(t)| = 2 r. Esta es la aceleracion centrpeta.

Problema: Generalizar los resultados anteriores al caso de velocidad angular variable


(t), tal que z(t) = rei(t) , con 0 (t) = (t). Mostrar que

v(t) = z 0 (t) = i(t)z(t)

a(t) = z 00 (t) = 2 (t)z(t) + i 0 (t)z(t)


Interpretar el resultado e identificar la aceleracion centrpeta y la aceleracion tangencial.
20

7.2.7. Problemas
1) Encontrar la representacion polar z = |z|ei de

3+i 1
a) z = 1 i b) z = c) z = 3i d) z = e) z = i
1+i 1 + 3i
2) Mediante la forma polar, evaluar z n en los casos anteriores, y hallar el valor explcito para
n = 6 y n = 3.

3) Dar una expresion de la forma z = x + yi, con x, y R, para

ei/3
a) z = ei/6 b) z = c) z = ei2/3 ei/3
ei/2
4) Determinar todos los z que satisfacen

a) z 2 = i b) z 3 = 1 c) z 4 = i d) z 6 = 1 e) z 2 = 1 i

5) Resolver las ecuaciones

a) z 2 + 2iz 1 + i = 0 b) z 2 + 2i = 0 c) z 4 + 2z 2 + 2 = 0

6) Escribir en la forma u(t) + iv(t), con u(t), v(t) funciones reales, las funciones

a) f (t) = e(1+2i)t b) f (t) = t2 e3it c) f (t) = t1+i

7) Determinar las derivadas de las funciones anteriores, y escribir su parte real y su parte
imaginaria.
Facultad de Ingeniera
UNLP

Matematica C

VIII Autovalores y Autovectores

2017
Temario
Clase 1: Introduccion. De niciones. Calculo de autovalores. Polinomio caracterstico.
Autoespacios asociados a los autovalores: calculo de autovectores. Estimacion de
autovalores y localizacion (Crculos de Gershgorin). Operadores geometricos y au-
tovalores. Casos particulares.
Clase 2: Multiplicidad algebraica y geometrica. Autovectores independientes. Bases
de autovectores. Matrices semejantes. Diagonalizacion de matrices. Matrices
simetricas y resultados relacionados, etc..
Clase 3: Algunas Aplicaciones.

2
1 Introduccion
Motivaremos este captulo sobre autovalores discutiendo la ecuacion
ax + 2hxy + by = 1
2 2

donde los coe cientes a, h, y b cumplen que al menos uno es no nulo.


La expresion ax + 2hxy + by se llama forma cuadratica en x e y . Se puede escribir
2 2

como
;  a h x
ax + 2hxy + by = x y : h b : y = xT :A:x
2 2

x  a h
donde x = yA= y . La matriz A se llama matriz de la forma cuadratica.
h b
Objetivo ... Queremos aplicar un cambio de variables apropiado, la rotacion necesaria
 de los ejes x e y, para que las coordenadas de los puntos de esa gura geometrica
respecto de los nuevos ejes x e y satisfagan una ecuacion reducida a la forma canonica:
1 1

 x +  y = 1.
1
2
1 2
2
1

La forma canonica es facil de analizar. Reconocemos a una elipse si los coe cientes
son positivos, o una hiperbola si tienen distinto signo, etc.
... Ahora rotamos los ejes x e y en sentido antihorario mediante el angulo  hasta los
nuevos ejes x e y .
1 1

La ecuacion que describe la rotacion de los ejes se deduce de lo siguiente:


Sea P un punto arbitrario con coordenadas (x; y) respecto a los ejes x e y, y con
coordenadas (x ; y ) respecto a los nuevos ejes x y y .
1 1 1 1

La relacion entre ambas coordenadas se obtiene geometricamente considerando ...


x = OQ = OP cos ( + )
= OP (cos  cos ; sin  sin )
= (OP cos ) cos  ; (OP sin ) sin 
= OR cos  ; PR sin 
= x cos  ; y sin 
1 1

3
De igual manera se obtiene que y = x sin  + y cos .
1 1

As la matriz de transicion de las coordenadas (x ; y ), coordenadas respecto de la


1 1

base nueva (los vectores que dirigen los ejes nuevos), a las coordenadas (x; y) respecto de
la base canonica sabemos que es la matriz S :
cos  ; sin 
S = sin  cos 
As, para cada (x ; y ) se tiene que ...
x cos  ; sin  x 
1 1

y = sin  cos  : y
1

... si denotamos x~ al vector de coordenadas x , y 1 1

x = S:x~
... Notamos que las columnas de S dan las direcciones de los semiejes positivos de
los ejes x e y . La matriz S de rotacion tiene la propiedad especial que det(S ) = 1 (
1 1

ver carlo).
Sabemos, que para obtener las nuevas coordenadas en terminos de las viejas ...
x   cos  sin  
y = x~ = S :x = ; sin  cos  :x
1 ; 1

... Por tanto


x = x cos  + y sin 
1

y = ;x sin  + y cos 
1

Ademas ...
... si reemplazamos en la ecuacion dada
; 
xT :A:x = (S:x~)T :A: (S:x~) = x~T : S T :A:S :x~
... Supongamos ahora, como veremos mas adelante, que es posible elegir un angulo 
tal que S T :A:S sea una matriz diagonal, entonces ...

0
 
xT :A:x = x~T :
0  :x~
1

=  x + y1
2
1 2
2
1

... As encontrando esa rotacion adecuada, la ecuacion original ax + 2hxy + by = 1 2 2

se escribira, en terminos de los nuevos ejes como


 x + y =1
1
2
1 2
2
1

.
Las soluciones de esta ecuacion representan una curva simetrica respecto a los ejes x 1

ey. 1

4
Las columnas de S , las columnas s y s , dan las direcciones de los ejes de simetra.
1 2

Esta matriz es una matriz ortogonal (S T = S ; , veri carlo). 1


 0 
... Ademas, para esa rotacion apropiada se cumple S T :A:S = S ; AS = 0  . 1 1

Desde esaigualdad se obtiene que ...


A:S = S: 0 0 . 1

As si S es la matriz adecuada para cumplir con nuestro objetivo, sus columnas s y 1

s deben satisfacer las ecuaciones siguientes ...


2

A:s =  :s
1 1 1 y A:s =  :s
2 2 2

... Estas ecuaciones establecen restricciones sobre  y  , y determinan los vectores 1 2

s y s , no nulos.
1 2 s 
Para determinar el vector s = s , la primer ecuacion se escribe como
1
11

21

a h s  s 
h b : s = : s (1)
11 11
1
21 21

o
a ;  h
 s  0
h
1

b; : = s
11

0
1 21

... Hemos planteado un sistema homogeneo de 2  2, que debe tener solucion no trivial
(s ; s ) (es el nuevo eje). Por tanto, el determinante de la matriz de ese sistema debe ...
a ;  
11 21

det h
b; =0
1

h 1

... Similarmente,  debe satisfacer la misma ecuacion para hallar el s 6= 0, y tambien


2 2

cumplira ...:
a ;  h

det h
2

b; =0 2

... Por tanto, ambas  y  satisfacen ...


1 2

a ;  h 
det h =0 b;
... Expandiendo el determinante se obtiene ...
 ; (a + b)  + ab ; h = 0
2 2

5
Esta ecuacion tiene las races
q
a + b  (a + b) ; 4 (ab ; h )
2 2

 =
q 2
a + b  (a ; b) + 4h 2 2

= 2
Las races son reales, y son distintas si a 6= b o si h 6= 0.
El caso en que a = b y h = 0 no necesita investigacion porque representa la ecuacion
de una circunferencia.
La ecuacion encontrada  ;(a + b) +ab;h = 0 se llama la ecuacion de los autovalores
2 2

de la matriz A.
... Si conocemos los valores  y  , podremos encontrar s y s , que son las
1 2 1 2

columnas de la matriz de rotacion que se necesita, resolviendo el sistema (1) despues de


reemplazar el valor de  en la ecuacion, y resolviendo la ecuacion similar reemplazando
1

el valor de  .
2

...

2 El \problema de los autovalores"


Ese problema consiste en el planteo ...
... de la ecuacion
A:x = :x (2)
para determinar el valor  para el cual existe algun vector x \no nulo" que satisfaga
la igualdad.
... Esta ecuacion puede mirarse como un sistema lineal de ecuaciones si el vector x
pertenece a R n y A es una matriz de n  n.
Tambien x puede ser un vector en algun otro espacio vectorial V , y A un operador
lineal sobre ese espacio. En tal caso ...
... la ecuacion (2) tambien se aplica a la matriz A^, que representa a A con respecto a
una base [ui] , y al vector de coordenadas x^ del vector x respecto a la misma base.
De nicion Si la ecuacion (2) tiene solucion x no nula, se dice que  es un \autovalor"
de A (del operador o la matriz), y el vector x se llama \autovector" de A, correspondiente
al autovalor .
... Otros nombres dados a  son: valor caracterstico, valor propio o valor principal
del operador (o matriz) A.

El conocimiento de los autovalores de un operador lineal (o matriz) ayuda a comprender


la accion del operador sobre un autovector y sobre un vector cualquiera.

6
... Dado un operador (o matriz de representacion de n  n) A , si podemos construir
una base del espacio compuesta enteramente por autovectores de A, ...
... fu ; : : : ; ung, entonces cualquier vector x puede escribirse como una combinacion
1

lineal de estos autovectores ...


X
n
x = c :u + c :u +    + cn:un =
1 1 2 2 ci:ui
i=1

... La accion de A sobre x es simplemente


A:x = c :A:u + c :A:u +    + cn:A:un
1 1 2 2

= c  :u + c  :u +    + cnn:un
X
1 1 1 2 2 2
n
= (cii) :ui
i
=1

... Por tanto, si (c ; c ; : : : ; cn)T es el vector de coordenadas de x, con respecto a esa


1 2

base de autovectores del operador lineal (o de su matriz de representacion) A, entonces


el vector de las coordenadas de A:x con respecto a la misma base es
0 1 0 10 1
c  0  0 c
BB  c CC BB 0    
1 1 1

0C C B
B cC CC
1

B@ ... CA = B@ ... ... . . .


2 2 2

... C : B
A @.A .
.
2

ncn 0 0    n cn
Conclusion ...(I) La matriz de representacion de un operador A con respecto a una
base de sus autovectores (si existe esa base) es una \matriz diagonal", cuyos coe cientes
en la diagonal son \los autovalores" de A.
Ademas ...
...(II) el efecto de un operador A sobre cualquiera de sus autovectores es simplemente
\escalar al autovector" por el correspondiente autovalor (ui ;! i :ui ), expandiendo o
contrayendo kui k por el factor i (que tambien puede ser igual a cero).
Observacion: En una seccion proxima se vera que \no siempre" se puede tener una
base de autovectores (el lindo resultado (I)).
Ejemplo
4 ;2 2
A = 1 1 y x= 1
4 ;2 2 6
A:x = 1 1 : 1 = 3
2
= 3: 1 = 3:x

Por tanto,  = 3 es un autovalor de A y x = (2; 1)T es un autovector de A asociado


a  = 3.

7
Observacion: (4; 2)T es tambien otro autovector para el mismo autovalor  = 3, por
tanto
4 ;2 4 12 4
1 1 : 2 = 6 = 3: 2
... As cualquier multiplo escalar de (2; 1)T tambien sera un autovector ( asociado al
mismo ), ya que
A: (c:x) = c:A:x = c::x = : (c:x)
Ademas ...
Los autovectores asociados a un particular autovalor  de A, con el agregado del vector
0, forman un subespacio de <n que se denomina \ autoespacio" de A asociado a .
Para ver eso ...
Dado un  que es autovalor ...
Si A:x = :x, y si y tambien satisface
A:y = :y entonces
A: ( :x + :y) = :A:x + :A:y = :x + :y = : ( :x + :y)
esto es ...
( :x + :y) es tambien un autovector deAcon el mismo autovalor 
... As el conjunto de los autovectores correspondientes a un mismo , con
el agregado del vector 0 es un subespacio.
Por ahora, consideramos que A es una matriz real n  n, y x un vector de
<n
....> Como se obtiene el conjunto de \autovectores" asociados a un  ?
La ecuacion de autovalores A:x = :x puede escribirse ...
A:x = :In:x (3)
(A ; :In ) :x = 0 (4)
As estamos buscando vectores \no nulos" x que satisfagan la ecuacion (3). Es decir,
... buscamos soluciones \no triviales" del sistema lineal homogeneo (4). El conjunto
de todas estas soluciones \no nulas" esta en ...
... el subespacio o espacio nulo de la matriz A ; :In : N (A ; :In). Este subespacio
es un subespacio de R n ).
El espacio nulo N (A ; :In) se llama el autoespacio de A correspondiente al autovalor
.
Ademas ...
... si  es un autovalor de A implica que existe algun x no nulo en N (A ; :I ).
Cualquier vector no nulo en N (A ; :I ) es un autovector asociado a . La dimension
N (A ; :I )  1 (por lo menos hay un autovector para ese valor ).
8
La ecuacion (4) tiene solucion x no nula \ si y solo si" la matriz A ; :In es singular.
Por tanto, debe ser ...
det (A ; :In) = 0
... Esta ecuacion se denomina la ecuacion caracterstica de la matriz A.

3 Calculo de los autovalores


Si expandimos el determinante det (A ; :In ) = 0 (recordando la de nicion del determi-
nante) tendremos un polinomio de grado n en la variable 
det (A ; :I ) = p ()

3.1 Polinomio caracterstico


De nicion El p () se llama el polinomio caracterstico de A, y sus races (las solu-
ciones de la ecuacion caracterstica) son los autovalores de A.
... Como cualquier polinomio de grado n...

p () = (;1)n(n + bn; n; + : : : + b  + b )


1
1
1 0

... tiene n races (contando las races multiples) entonces A tiene exactamente n auto-
valores.
Sin embargo, hay que tener en cuenta que ...
 Algunas races pueden repetirse, por tanto A tendra a lo sumo n autovalores \dis-
tintos";
 Algunas races pueden ser numeros complejos, por tanto A puede tener autovalores
complejos (y consecuentemente, autovectores complejos).

Las siguientes proposiciones, correspondientes a una matriz A de n  n, son equivalentes:


  es un autovalor de A.
 (A ; :I ) :x = 0 tiene solucion no trivial.
 N (A ; :I ) 6= f0g.
 A ; :I es singular.
 det (A ; :I ) = 0.
... En la practica, la ultima condicion es la que se usa para determinar los autovalores
de una matriz de n  n (al menos para matrices peque~nas y manejables).
9
3 
Ejemplo Encontrar los autovalores y autovectores de A = 3 ;22
La ecuacion caracterstica es
3 ;  2 
det 3 ;2 ;  = 0
(3 ; ) (;2 ; ) ; 6 = 0
 ;  ; 12 = 0
2

( ; 4) ( + 3) = 0

 = 4 y  = ;3
1 2

Ahora, buscamos el espacio nulo de A ;  :I y de A ;  :I para determinar los


1 2

correspondientes autovectores.
Para hacer esto, resolvemos los correspondientes sistemas homogenos
(A ; i:I ) :x = 0 (i = 1; 2)
Si tomamos  = 4, y resolvemos por eliminacion el sistema
;1 2 ;1 2
1

A ;  :I = 3 6 ;! 0 0
1

se obtiene ...
2
u = : 1
1

esto es ...
... cualquier multiplo no nulo de este vector es un autovector asociado a  = 4; y
este vector es una base para N (A ; 4:I ), que es el autoespacio de ese autovalor.
1

Si consideramos  = ;3
6 2 6 2
2

A ;  :I = 3 1 ;! 0 0
2

al resolver el sistema homogeneo ...


;1
u = : 3
2

como autovector asociado a  . As este vector forma una base de N (A + 3:I ).
2

En este ejemplo ambos \autoespacios" tienen dimension uno.


Para practicar ...
Ejercicios
3.1 Para cada matriz, encontrar el polinomio caracterstico y los autovalores.

10
10 ;9 1 2 0 3 0 0
(a) 4 ;2 (b) 4 3 (c) 7 0 (d) 0 0
1 0
(e) 0 1
X 3.2 Para cada matriz, encontrar la ecuacion caracterstica, los autovalores y los au-
3asociados
tovectores
0
 a cadauno.
3 2

(a) 8 ;1 (b) ;1 0
Otro ejemplo ...
 1 2 1 ;  2 
Ejemplo A = ;2 1 ;! det ;2 1 ;  = 0 ;! (1 ; ) + 4 = 0 2

Por tanto ...


 = 1 + 2i y  = 1 ; 2i <oh-oh!
1 2

... Esto tena que pasar tarde o temprano. No nos habituaremos a los autovalores o
autovectores complejos, aunque haremos algunos comentarios:
Si  es un autovalor complejo de una matriz real A, y su correspondiente autovector es
z, entonces si  es el complejo conjugado de  y z es el complejo conjugado de z ...
 z = A:z = :z = :z
A:z = A:
... Por tanto, z es tambien un autovector de A con autovalor  .
As autovalores y autovectores \complejos de las matrices reales" de n  n siempre
aparecen con su complejo conjugado, es decir aparecen en \pares".

Problema (1)Dada una matriz de dimension n  n, con n impar, veri car que tiene
por lo menos un autovalor real.
Problema (2) Usando los comandos del MATLAB. Los comandos del MATLAB para
calcular autovalores (despues de haber entrado la matriz A = [fila1; fila2; fila3]) es
E = eig(A), dando en E los autovalores.
Para obtener los autovectores: [U; D] = eig (A), da en las columnas de U los autovec-
tores (no garantiza que las columnas de U sean linealmente independientes), y en D los
autovalores. 10 ;9
Aplicar a la matriz A: 4 ;2
(3) Con la ayuda del MATLAB, calcular los autovalores de la matriz de 5  5 cuyos
terminos son aij = i j; . 0
1

1
10 ;9 1
+ 1

(4) Dada la matriz A: @ 4 ;2 0A (a) Usando el MATLAB hallar los autovalores.


0 0 1
Hallar una base del autoespacio de cada autovalor i encontrado, para eso usar : null(A ;
i  In). En general, el comando null(B ), da una base del subespacio nulo de la matriz B .
(b) Explicar porque puede conocer todos los autovectores asociados a cada i, cono-
ciendo las bases halladas en (a).

11
3.2 Localizacion de los autovalores. Crculos de Gershgorin
Objetivo Despues de haber calculado los autovalores de una matriz, y haber visto las
di cultades en calcular las races de los polinomios caractersticos, sabiendo ademas lo
di cil de ese tema cuando las matrices son de dimension n > 4, es importante conocer
el Teorema de Gershgorin. Este teorema nos provee un procedimiento para estimar la
localizacion de los autovalores de cada matriz, y en muchas oportunidades permite sacar
conclusiones sobre los autovalores sin calcularlos.

Teorema Sea A una matriz arbitraria de n  n. Entonces los autovalores  de A estan


localizados en la union de los n discos (en el plano complejo, ya que los autovalores pueden
ser complejos) que satisfacen para cada la i = 1; : : : ; n:
X
j ; ai;ij  jai;j j (5)
j6 i=

siendo ai;i el elemento i-esimo de la diagonal de A, y ai;j con j 6= i los elementos de la


la i-esima, diferentes del ai;i.
Demostracion. Dado  y un correspondiente autovector u, u 6= 0, tal que Au = u. Tal
u se puede normalizar dividiendolo por la mayor componente en valor absoluto de u (u =
(u ; u ; : : : ; uj ; : : : ; un), se divide por la componente ui con mayor juj j, j = 1; : : : ; n), as
1 2

llamamos x a ese vector tal que Ax = x, y tal que ahora sus componentes satisfacen que
jxj j  1 (equivale a decir que la kxk1 = 1 = xi ). Entonces,
X
n
ai;j xj = xi = :
j =1

Por tanto,
X
n
 ; ai;i = ai;j xj ;
j6 i
=

lo que implica que


X
n X
n
j ; ai;ij  jai;j xj j  jai;j j: (6)
j6 i
= j6 i
=

3 
Ejemplo Estimar la localizacion de los autovalores de A = 3 ;22
j ; 3j  2, desde la la 1, y desde la la 2 se obtiene que j ; (;2)j  3. Si fuesen
reales, estaran ( dibujar la recta) entre [;5; 5].

12
3.3 Operadores geometricos y autovalores (para visualizar).
Este ejemplo explica visualmente el signi cado de los autovectores de esta transforma-
cion y visualiza tambien porque los restantes vectores de < no pueden ser autovectores.
2

Consideremos el operador L (x) que re eja un vector (en R ) a traves de la recta y = x,


2

diagonal que corta el primer y tercer cuadrante:

La matriz que representa a L con respecto a la base canonica [e ; e ] es


0 1
1 2

A = (L (e ) ; L (e )) = 1 0
1 2

por tanto ...


x  x 
L (x) = L x
1
= x
2

2 1

>Cuales son los autovalores y los autovectores de A (o, equivalentemente de L)?


Planteamos ...
; 
det (A ; :I ) = det 1 ;1 =  ; 1 = ( + 1) ( ; 1)
2

Tenemos entonces que  = 1 y  = ;1.


Resolvemos (A ;  :I ) :x = 0
1 2

La matriz de este sistema homogeneo ...


;1 1
 1 ;1 1 ;1
1 ;1 que ;! 1 ;1 por eliminacion for las ;! 0 0
Entonces ...
1 asociado a  = 1 es el conjunto:
el autoespacio 1

fu = : 1 para todo 2 <g


1

13
Para el otro autovalor, resolvemos (A ;  :I ) :x = 0
1 1 1 1
2

1 1 ;! 0 0
y ... ;1
... el autoespacio asociado ... u = : 1
2

Lo que sigue explica visualmente el signi cado de los autovectores hallados y explica
tambien porque no hay otros autovectores en esta aplicacion.

Para u = (1; 1)T , el vector permanece sobre el eje de re eccion, y al re ejarlo a traves
del eje retorna al mismo vector u .
1

L (u ) = u = 1:u
1 1 1

Esto es, u es un autovector de L con autovalor 1.


1

Para u = (;1; 1)T , el vector permanece perpendicular al eje de re eccion, y al re e-


jarlo a traves del eje produce el opuesto de u .
2

L (u ) = ;u = ;1:u
2 2 2

Esto es, u es un autovector de L con autovalor ;1.


2

14
Cualquier otra orientacion del vector x al re ejarse a traves del eje \no produce" un
vector que sea multiplo escalar de x: L (x) 6= :x
Solo los dos tipos de vectores u y u tienen la propiedad de conservar la direccion
1 2

invariante (pudiendo cambiar solo el sentido y longitud).

3.4 Singularidad y No-singularidad


>Que papel juega la singularidad o no-singularidad de la matriz A en el problema de los
autovalores?.
(i) Primero, supongamos que A es singular. Entonces det A = 0, y el sistema homogeneo
A:x = 0
tiene solucion no trivial x. Entonces existe un vector no nulo x en R n tal que ...
A:x = 0 = 0:x
As  = 0 es un autovalor de A si A es singular.
Recprocamente, si  = 0 es un autovalor de A, entonces el correspondiente autovec-
tor (no nulo) x debe satisfacer
A:x = :x = 0; ya que  = 0
Esto es, x es una solucion no trivial del sistema lineal A:x = 0, y por tanto A es
\singular".
... Hemos encontrado que: \ A es una matriz de n  n singular si y solo si al
menos uno de sus autovalores es cero".
Entonces, lo anterior se puede expresar de otra manera ...
(ii)Si una matriz A es no-singular, todos sus autovalores deben ser no nulos. Recprocamente,
si A tiene todos sus autovalores no nulos, es no-singular.

Casos especiales...

4 Matrices diagonales
Si A es una matriz diagonal, entonces
0 1
a ; 0  0
BB 0 a ;    
11

0 CC
0 = det (A ; :I ) = det B .. ... ...
22

... CA
@ .
0 0    ann ; 
= (a ; ) (a ; )    (ann ; )
11 22

15
Por tanto ...
 = a ;  = a ;    ; n = ann
1 11 2 22

As los autovalores de una matriz diagonal son los coe cientes de la diagonal faii g
(eso muestra tambien que son todos reales).
Ademas, en este caso los autovectores tambien tienen una forma particularmente sim-
ple. En este caso: son precisamente los vectores de la base canonica e ; e ; : : : ; en, ya 1 2

que
A:e =  :e ; A:e =  :e ; etc
1 1 1 2 2 2

En otros casos, se podran encontrar bases que se puedan usar para obtener
una representacion con una matriz diagonal ...?
Si A no es diagonal... pero podemos determinar cuales son sus autovalores y autovec-
tores fi g y fxi g.
... Y supogamos que los \autovectores de A son linealmente independientes", con lo
cual forman una base de R n (porque son n vectores).
Entonces considerando esa base, los vectores coordenadas fx^i g de los autovectores fxi g
con respecto a esta \ autobase" seran e ; e ; : : : ; en.
1 2

... La matriz de representacion de A con respecto a esta \ autobase " sera


0 0    0 1
BB 0     0 CC
1

A=B
^
@ ... ... . . . ... CA
2

0 0    n
... Veremos mas adelante, que cualquier matriz A de n  n con \n autovectores
linealmente independientes" puede ser diagonalizada en este sentido. Puede ser represen-
tada con respecto a una base de sus autovectores mediante una \ matriz diagonal", con
sus respectivos autovalores en la diagonal.

4.1 Otras propiedades de las matrices diagonales


 Dado que los autovalores de una matriz diagonal A son los coe cientes de la diagonal
faiig, tenemos que
Yn
det A = a a    ann =      n =
11 22 1 2 i
i=1

Ademas,
 la traza de A o tr A, de nida como la suma de los coe cientes de la diagonal de A,
esta dada por
X
n X
n
tr A = aii = i
i=1 i =1

Estos dos resultado son validos tambien para matrices que no son diagonales.
...

16
5 En general - Producto y suma de autovalores
Si A es una matriz cualquiera de n  n, entonces

det A es igual al producto de los autovalores de A: det A =


Qn 
i
i=1

Demostracion. Recordar que p () = det (A ; :I ) tiene n ra ces fig. Por lo
tanto, cuando expandimos el determinante y factorizamos el polinomio resultante
obtendremos
p () =  ( ;  ) ( ;  )    ( ; n)
1 2

... Una mirada detallada a la estructura del determinante muestra que de hecho
p () = (;1)n ( ;  ) ( ;  )    ( ; n)
1 2

= ( ; ) ( ; )    (n ; )
1 2

y por tanto ...


det A = p (0) =      n
1 2

tr A es igual a la suma de los autovalores de A: tr A =


Pn a =
Pn 
ii i
i=1 i =1

Demostracion. Esta demostracion no es tan facil de veri car, y no la hacemos


_ la bibliografa.
aquVer
Observacion El punto (1) es coherente con el resultado previo : det A = 0 (A singular)
si y solo si al menos uno de los autovalores de A es nulo.
Observacion Como el determinante de una matriz real debe ser un numero real, se
sigue que el producto de los autovalores i debe ser tambien real.
... >Que pasa si alguno de los autovalores es complejo?
Como los autovalores complejos solo aparecen con su pareja conjugada, y dado que
: = jj 2

es siempre un numero real, el producto de todos los autovalores sera un numero real.
Observacion ... Similarmente, dado que la traza de una matriz real es real, la suma
de los autovalores tambien debe ser real. Y esto es cierto, aun cuando haya autovalores
complejos, dado que ...
 +  = 2 Re  (es tambien real)

17
En un ejemplo previo ...
3 
Ejemplo la matriz dada es A = 3 ;22 . Vimos que los autovalores son  = 4 y 1

 = ;3.
2

Por tanto ...


tr A = 3 + (;2) = 4 + (;3) = 1
det A = ;6 ; 6 = 4: (;3) = ;12
En otro ejemplo previo ...
 1 2
Ejemplo la matriz A = ;2 1 tiene los autovalores  = 1 + 2i y  = 1 ; 2i
1 2

tr A = 1 + 1 = (1 + 2i) + (1 ; 2i) = 2
det A = 1 + 4 = (1 + 2i) (1 ; 2i) = 5

5.1 Matrices triangulares


Si A es una matriz triangular ...
... para calcular sus autovalores consideramos
0 1
a ; a  a n
B 0 a ;     a n CC
11 12 1

det B
B@ ... ... C
... ... A = (a ; ) (a ; )    (ann ; )
22 2

11 22

0 0    ann ; 
Conclusion Los autovalores de una matriz triangular (superior o inferior) son los coe-
cientes de la diagonal (como en el caso de las matrices diagonales).

5.2 Matrices inversas


Si A es no singular...
... >cuales son los autovalores de A; ?1

Si los 0s son los autovalores de A, satisfacen ...


A:x = :x
entonces multiplicando por A; 1

A; :A:x = :A; :x
1 1

o
1 :x = A; :x1


As si x es un autovector de A con autovalor ,
... entonces x tambien es un autovector de A; correspondiente al autovalor 1= (como
1

A es no singular los 0s no pueden ser nulos).

18
6 Potencia de matrices
>Como son los autovalores y autovectores de Ak ?
Si se conocen los autovalores de A
A:x = :x
entonces
A :x = A: (A:x) = A: (:x) = :A:x =  :x
2 2

y por induccion ...


Ak :x = k :x
As si x es un autovector de A con autovalor , entonces...
... x es tambien un autovector de Ak , con autovalor k .
Esto tambien es cierto para potencias negativas de A, con A;k = (A; )k .
1

Ejercicios para seguir practicando en su casa ...


Ejercicios
X 6.1 Para cada matriz, encontrar la ecuacion caracterstica, los autovalores y los au-
3 asociados
tovectores
0
 a cada uno.
3 2

(a) 8 ;1 (b) ;1 0
6.2 Encontrar la ecuacion caracterstica, autovalores (son complejos) y los asociados
autovectores. ;2 ;1
5 2
6.3 Para esta matriz, encontrar la ecuacion caracterstica, los autovalores y los au-
tovectores asociados a cada uno. 0 1
1 1 1
@0 0 1A
0 0 1
X 6.4 Lo mismo
0 3 del 1 ejercicio.00 1 01
previo
;2 0
(a) @;2 3 0A (b) @0 0 1A
0 0 5 4 ;17 8
X 6.5 Encontrar los autovalores y asociados autovectores del operador de diferenciacion
d=dx : P ! P . La base natural es B = h1; x; x ; x i. La accion de la aplicacion es
2 3

1 7! 0, x 7! 1, x 7! 2x, y x 7! 3x , y veri car


3 3

00 que la matriz
1 de representacion es :
2 3 2

1 0 0
T = RepB;B (d=dx) = B
B 0 0 2 0C
@0 0 0 3CA
0 0 0 0 B;B

19
Hallar los autovalores, planteando ; 1 0 0
0 ; 2 0
0 = detT ; I = 0 0 ; 3 =  4

0 0 0 ;
La aplicacion tiene el unico autovalor  = 0. Para hallar los asociados autovectores,
se resuelve
0 0 1 0 0 1 0u 1 0u 1
BB0 0 2 0CC BBu CC = 0  BBu CC
1 1

=) u = 0, u = 0, u = 0
@ 0 0 0 3 A @u A 2

3
@u A
2

3
2 3 4

0 0 0 0 B;B u B 4 u B
4

As para
0u 1alcanzar su autoespacio
B 0 CC u 2 <g = fu + 0  x + 0  x + 0  x u 2 <g = fu u 2 <g
fB
1

@0A 1 1
2 3
1 1 1

0 B
6.6 Probar que los autovalores de una matriz triangular (superior o inferior ) son las
entradas de la diagonal.
X 6.7 Encontrar la formula del polinomio caracterstico de una matriz de 2  2.
? 6.8 Mostrar que si A es una n- matriz cuadrada y cada la suma c entonces c es un
autovalor de A.
X 6.9 (a) Puede cualquier vector no-~0 en un espacio vectorial ser un autovector ?
X 6.10 Mostrar que  es un autovalor de T si y solo si la aplicacion representada por
T ;   I es singular.
6.11 (a) Mostrar que si  es un autovalor de A entonces k es un autovalor de Ak .
(b) > Que es lo erroneo en la demostracion siguiente ? \Si  es un autovalor de A y
si  es un autovalor de B , entonces  es un autovalor de AB , ya que si A~x = ~x
y B~x = ~x entonces AB~x = A~x = A~x = ~x"? Cuidado !, con la obtencion de
resultados falsos. Observar si se puede a rmar que A y B tienen igual autovector?
(consultar).

20
7 Propiedad de Independencia lineal de los autovec-
tores. Bases de autovectores
Un resultado importante ...
Autovectores correspondientes a autovalores \distintos" son linealmente independientes.

Demostracion. Supongamos que x e y son autovectores de A correspondientes a  y 1

 distintos. Luego , ...


2

A:x =  :x y A:y =  :y (con  6=  )


1 2 1 2

Veamos que x e y son linealmente independientes.


Consideremos la combinacion ...
c :x + c :y = 0
1 2

entonces ...
A:(c :x + c :y) = 0
1 2

= c :A:x + c :A:y 1 2

= c  :x + c  :y 1 1 2 2

Tenemos dos ecuaciones vectoriales ...


c :x + c :y = 0
1 2

c  :x + c  :y = 0
1 1 2 2

Despejando de la primera queda


c :x = ;c :y
1 2 (7)
y reemplazando en la segunda ...
; c :y + c : y = 0
1 2 2 2

c ( ;  ) :y = 0
2 2 1

Como y 6= 0 (>por que?), debera ser c ( ;  ) = 0. Pero  6=  . Luego, debera


2 2 1 2 1

ser c = 0. Entonces, de acuerdo a (7), tambien c = 0.


... Por tanto, x e y son linealmente independientes.
2 1

Conclusion ... As si una matriz tiene n autovalores distintos ) tiene n autovectores
linealmente independientes.

21
7.1 Autovalores multiples
...> Que ocurre cuando los autovalores son repetidos?
En este caso, > se puede a rmar que existen n autovectores independientes ?.
... La respuesta es ... \ no siempre existen n autovectores independientes", como se
puede ver en los dos ejemplos que siguen.
As nos interesara saber cuando existen y cuando no existen n autovectores lineal-
mente independientes de A.
Consideremos el ejemplo ...
0;2 2 ;31
A = @ 2 1 ;6 A
;;21; ;2 20 ;3
det (A ; :I ) =
2 1 ;  ;6
;1 ;2 ;
= ; ;  ; 21 + 45
3 2

= ( ; 5) ( + 3) 2

Por tanto ...


det (A ; :I ) = 0
implica
 = 5 ;  =  = ;3
1 2 3

Para  = 5, tenemos
1

x = (1; 2; ;1)T
1 ( Veri car!)
Para los autovalores repetidos ...
 =  = ;3, la matriz caracterstica
01 1
2 3

2 ;3
(A ; :I ) = A + 3:I = @ 2 4 ;6A
;1 ;2 3
se reduce por las a
01 2 ;3
1
@0 0 0A
0 0 0
que tiene rango igual a 1. De la ecuacion obtenida x + 2x ; 3x = 0, o x = ;2x + 3x ,
1 2 3 1 2 3

vemos que tenemos dos variables independientes (en este caso, x y x ). La solucion
2 3

general sera
0;2 + 3 1
x=@ A

22
As podemos generar dos soluciones linealmente independientes eligiendo ( ; ) =
(1; 0) y ( ; ) = (0; 1)
0;21 031
x =@ 1 A
2 y x = @0A
3

0 1
... Esto es coherente, ya que si el rango de la matriz A + 3:I es igual 1 y n = 3,
entonces la dimension del espacio nulo N ((A + 3:I )) es la diferencia n ; 1 = 2.
... Hay 3 autovectores linealmente independientes ya que para los repetidos hay 2
autovectores linealmente independientes pues dim(N (A + 3:I )) = 2
De nicion Sea  un autovalor de una matriz A.
Se denomina ...
Multiplicidad algebraica de : al numero M que indica el orden de la multiplicidad
de  como raz del polinomio caracterstico p ().
Multiplicidad geometrica de : al numero m de autovectores linealmente indepen-
dientes asociados a . Este numero indica la dimension del \autoespacio" corre-
spondiente a  ( que es dimN (A ; :I ) ).
Observaci
P on Como el polinomio caracterstico tiene grado n se tiene que ...
... (multiplicidades algebraicas) = n
Observacion En general, sucede que ...
... m  M . La diferencia se llama defecto:  = M ; m .
Ejemplo Sea la matriz ...
 0 1 ; 1
A= 0 0 para calcular sus autovalores...se plantea det (A ; :I ) = 0 ; = 2
=0

Por tanto,  = 0 es un autovalor de multiplicidad algebraica 2.


... Pero la multiplicidad geometrica es 1, ya que los autovectores x correspondientes a
 = 0 son resolviendo
... (A ; 0:I )x = 0, las soluciones de Ax = 0 (hacerla).
Resolviendo se obtiene que los autovectores son todos de la forma
x   
x= =
0
1

0
Por tanto, M = 2; m = 1;  = 1.
0 0 0

... Este es un ejemplo donde la suma de las multiplidades geometricas es \ menor "
que n. Entonces, no existen n autovectores independientes para la matriz dada.
...

23
Conclusion Si hay autovalores repetidos ... la existencia o no de n autovectores inde-
pendientes...
... depende de la suma de las multiplicidades geometricas de los autovalores. Si la
multiplicidad geometrica es n ) hay n autovectoresPlinealmente independientes. Sino,
hay tantos independientes como el valor de la suma m.
Problema >Cuantos autovectores linealmente independientes tiene esa matriz?.
0;1 ;3 ;91
@0 5 18 A
0 ;2 ;7
(a) Usando el Matlab calcular los autovalores. (b)Hallar los autovectores resolviendo
(A ; i  I )x = 0, para cada autovalor.
3

(c) Cual es la multiplicidad geometrica de los autovalores repetidos (si hay)?.


(d) Veri car si es correcta la resolucion de (b) usando el MATLAB y el comando:
null(A ; i  eye(3) (observando cuantos elementos tiene una base de ese espacio nulo).
(e) Finalmente, cuantos autovectores linealmente independientes tiene A ?.

8 Matrices semejantes
Ya las hemos de nido ...
... Recordemos que una matriz B de n  n es semejante a una matriz A de n  n si
existe una matriz no singular S tal que
B = S ; :A:S 1

Tambien recordemos que las matrices representativas de operadores lineales respecto


de diferentes bases \son semejantes".
Los autovalores de B estan determinados por las races de su polinomio caracterstico:
;
pB () = det (;B ; :I ) = det S ; :A:S ; :I
1

= det S ; (A ; :I ) :S
1

= det S; ; : det (A ; :I ) : det S


1

= det S ; :S : det (A ; :I )


1

= det (A ; :I )
= pA ()
... A y B semejantes, tienen precisamente el mismo polinomio caracterstico ...
... y por tanto el mismo conjunto de autovalores fig.
>Que pasa con los autovectores de B ?
Si x es una autovector de A con autovalor , entonces
A:x = :x
; S:B:S; : = :x 1

S ; S:B:S ; :x = S ; : (:x)
;  ; 
1 1 1

B: S ; :x = : S ; :x
1 1

24
... As el autovector de B correspondiente al autovalor  es justamente S ; :x, donde 1

x es el autovector de A asociado a .
Conclusion ... Si A y B son matrices semejantes de n  n, con B = S ; :A:S , entonces 1

tienen el mismo conjunto de autovalores fi g; y si ui es un autovector de A correspondi-


ente a i, entonces S ; :ui es un autovector de B , correspondiente a i .
1

9 Diagonalizacion
De nicion Una matriz A de n  n es diagonalizable si existe una matriz no singular X
tal que
X ; :A:X = D
1

donde D es una matriz diagonal. En este caso, se dice que X diagonaliza a A.

Teorema Una matriz A de n  n es diagonalizable si y solo si A tiene n autovectores


linealmente independientes.
Demostracion. Supongamos que A tienen n autovectores linealmente independientes
fxig correpondientes a los autovalores fig (no necesariamente todos distintos). De nimos
X como la matriz de n  n cuyas columnas son los autovectores fxig
X = (x ; x ; : : : ; xn)
1 2

Entonces
A:X = (A:x ; A:x ; : : : ; A:xn)
1 2

= ( :x ;  :x ; : : : ;0n:xn)
1 1 2 2
1
 0  0
BB 0  1

 0 C
C
= (x ; x ; : : : ; xn) : B .. .. 2

. . . ... C
1 2
@. . A
0 0    n
= X:D
Dado que los fxi g son linealmente independientes, X es no singular; y por tanto ...
A:X = X:D =) D = X ; :A:X 1

La recproca se demuestra usando la misma idea, comenzando desde el conocimiento


que existe una X no singular tal que X ; AX = D, D diagonal. Luego, vale que
1

A:X = X:D...
... desde ah se llega a que las columnas de X son autovectores de A (linealmente
independientes, ya que X es no singular).

25
Conclusion Observacion Sea A un matriz de n  n
 Si A es diagonalizable, entonces los vectores columnas de la matriz de diagonal-
izacion X son autovectores de A, y los elementos de la diagonal de D son los
autovalores correspondientes.
 La matriz de diagonalizacion X no es unica. Reordenando su columnas, o multipli-
candolas por un escalar no nulo, se obtiene una nueva matriz de diagonalizacion.
 Si A tiene n autovalores \distintos", los autovectores correspondientes son lineal-
mente independientes, y por tanto A es diagonalizable.
 Si los autovalores de A no son todos distintos, A puede ser o no diagonalizable.
 Si A tiene menos de n autovectores linealmente independientes, no es diagonalizable.
As ...
 ... si hay autovalores repetidos se debe hallar la multiplicidad geometrica de los
autovalores repetidos (que coincide con la dimension del autoespacio, o sea con la
dim(N (A ; i  I )), si el autovalor es i).
... Si la multiplicidad geometrica coincide con la multiplicidad algebraica de los
autovalores repetidos, entonces hay n autovectores linealmente independientes.
... Si la multiplicidad geometrica para un i repetido, es menor que su multiplicidad
P A no es diagonalizable (no hay n autovectores independientes,
algebraica, entonces
sino solo r = m ).
Ejercicios
9.1 Diagonalizar la matriz (hallar autovalores,
 y una base de autovectores si es posible):
4 2
3 3
9.2 Para la misma matriz anterior, usando el MATLAB, si es diagonalizable hallar la
descomposicion A = XDX ; . 1

Usar comandos: E = eig(A), obtiene los autovalores.


[U; D] = eig(A), muestra los autovectores de A en las columnas de U (estas colum-
nas pueden ser dependientes si hay autovalores repetidos), y en D los autovalores.
Otros comandos: null(A ; i  eye(n)), muestra una base del autoespacio asociado
a i (se usa si el autovalor es repetido). Recordar que eye(n) es In.
9.3 >Es posible diagonalizar la matriz A siguiente?. Hallar los autovalores. El auto-
sistema para cada autovalor es el subespacio N (A ; i  In). Hallar la multiplicidad
geometrica de cada autovalor.
>Cuantos autovectores linealmente
0;1independientes
1 hay ?.
;3 ;9
@ 0 5 18 A
0 ;2 ;7
....Para visualizar y repasar

26
Otros resultados importantes ...
 Si una matriz A es diagonalizable, puede ser factoreada en el producto X:D:X ; . 1

Por tanto ...

2
; 1
;
A = X:D:X ; : X:D:X ; = X:D :X ; 1
 2 1
(8)
y en general,
Ak = X:D0k :X ; 1
1
k 0  0
B 0 k  0 C
= X: B C
1

B@ ... ... 2
. . . ... C
A :X ; 1

0 0    kn
Ejemplo Sea
2 ;3 
A= 2 ;5
Entonces ...
det (A ; :I ) = (2 ; ) (;5 ; ) + 6 =  + 3 ; 4 = ( ; 1) ( + 4)
2

... entonces  = 1 y  = ;4 son los autovalores


1 2
 de1A (que son distintos). Si
3
buscamos los autovectores, obtendremos u = 1 y u = 2 . Obtenemos ...
1 2

3 1
X= 1 2
Entonces ...    
X;
1
:A:X = 51 ;21 ;31 : 22 ;
;
3 : 3 1
5 1 2
1 0 
= 0 ;4
 
= 0 0 = D 1

Observar, que si reordenamos u y u en X


1 3
1 2

^
X= 2 1
Entonces ...  1 ;3 2 ;3 1 3
; 1
1
D^ = X^ :A:X^ = ; 5 ;2 1 : 2 ;5 : 2 1
;4 0
= 0 1
 0 
= 0  2

27
Conclusion ... Esto es, si A es diagonalizable, puede factorearse A = XDX ; , y los 1

autovalores de A simplemente se reordenan en la diagonal de D, y X esta formada por


los autovectores independientes.
Ademas, al multiplicar X por un escalar 6= 0 tambien implica multiplicar X ; por 1

1= , lo cual deja invariante a D.

Otra consecuencia interesante para matrices diagonalizables:


Si A es diagonalizable, A = XDX ; , y para toda potencia de A ...
1

... Ak = XDk X ; . As la funcion exponencial de una matriz A de n  n se de ne


1

(como ocurre con ex):

X1 k
= exp(A) = I + A + A + + + : : : = A
A A 2 3

eA 2

2! 3! k k! =0

siendo A = In.
0

... Usando A = XDX ; , se obtiene


1

X1 k
eA = exp(A) = X (I + D + D + D2! + D3! + : : : )X ; = X ( Dk! )X ;
2 3
2 1 1

k =0

Luego, considerando que


 
I + D + D + D2! + : : : + Dn!
n 2

eD = limn;>1 2

.. . y usando (8)
0Pm k1
1 0 1
BB k =0 k Pm CC Be e
1
C
CC = BB C
!
k2
limm;>1 B
2
eD = B@ k k
... C
... A @ A
=0 !

Pm kn e n

k =0 k!

)
eA = XeD X ; : 1

... es calculable si se conocen los autovalores de A, y los n autovectores de A.


... Esto es muy util cuando se resuelven sistemas de ecuaciones diferenciales.

Para practicar con diagonalizacion de matrices...

28
Ejercicios
X 9.1 S i T es una matriz n  n y c; d son escalares.
(a) Probar que si T tiene un autovalor  con un asociado autovector ~v entonces ~v es
un autovector de cT + dIn asociado con el autovalor c + d.
(b) Probar que si T es diagonalizable entonces lo es cT + dIn.
9.2 Matrices equivalentes por las tienen iguales sus autovalores?.
La respuesta es no!. Veri car que las siguientes matrices son equivalentes y no
tienen los mismos autovalores. Estas matrices equivalentes tienen la misma magnitud,
igual rango y distintos autovalores.
1 0 1 0
0 1 0 2
9.3 Mostrar que una matriz cuadrada con coe cientes reales y un numero impar de
las tiene siempre al menos un autovalor real.
9.4 Diagonalizar la matriz (hallar los autovalores, y autovectores, multiplicidad alge-
braica y multiplicidad geometrica):0 1
;1 2 2
@2 2 2A
;3 ;6 ;6
9.5 Es posible diagonalizar la matriz A siguiente?. Hallar autovalores. El autoespacio
para cada autovalor ( es N (A ; i  In) ). Hallar la multiplicidad geometrica para
cada autovalor. >Cantos autovectores0;1linealmente 1independientes hay ?.
;3 ;9
@ 0 5 18 A
0 ;2 ;7
9.6 Diagonalizar la matriz (hallar autovalores, y una base de autovectores (si es posi-
ble): 4 2
3 3
9.7 Repetir el ejercicio anterior resolviendo con el MATLAB, usando: E=eig( A). Luego
con el comando : [U,D]= eig(A) (obtiene los autovectores de A en las columnas de U
(pueden ser dependientes), y en D los autovalores. Hallar el N (A ; lambda:I ), y una
base correspondiente a cada autoespacio de cada autovalor.
9.8 Es posible diagonalizar la matriz siguiente?. (a)Hallar autovalores y los autovec-
tores linealmente independientes (observar
03 2 que41es simetrica ):
@2 0 2A
4 2 3

10 Matrices Simetricas.Matrices hermitianas.


 En el caso de matrices reales especialmente tenemos:
...

29
Matrices simetricas: AT = A
Matrices ortogonales: las columnas de A forman un conjunto ortonormal de R n
(y por lo tanto, una base).
 En cambio en el caso de las matrices complejas tenemos lo equivalente
... :
; 
Matrices hermitianas: Son las que satisfacen M H = M T = M .
Matrices unitarias: las columnas de M forman un conjunto ortonormal de C n (y
por tanto, una base).
Luego ...
 Una matriz real hermitiana es una matriz simetrica
 Una matriz real unitaria es una matriz ortogonal
Resultados relacionados importantes:
Estos resultados se dan aqu sin demostracion (se recomienda ver la bibliografa S.
Grossman para conocer los fundamentos que conducen a ellos).
Los resultados siguientes son de gran importancia y de ellos depende la resolucion de
muchas aplicaciones importantes.

En el caso de matrices reales...


 Una matriz real simetrica tiene \todos" sus autovalores reales.
Ademas ...
 Si A es simetrica, existe una matriz ortogonal U que diagonaliza a A
U ; :A:U = U T :A:U = D
1

Conclusion ... Esto quiere decir que si A es una matriz simetrica \ existe siempre"
una base de autovectores ortogonales.
... Proviene esa conclusion de los resultados ...
(1) Si A es simetrica, los autovectores asociados a autovalores distintos son ortogonales.
(2) Si A es simetrica, los autovalores repetidos tienen la multiplicidad geometrica igual
a la multiplicidad algebraica. Es decir, si la multiplicidad algebraica de un i es r,
entonces la dimension dim(N (A ; i:I )) = r. Observar que, por ejemplo con el
comando del MATLAB null(A ; i :I ), puede siempre obtener una base ortogonal
de este autoespacio de i. As ...
(3) Existe una base ortogonal de autovectores si A es simetrica.

30
Ejercicios
10.1 Rehacer un ejercicio previo: > Es posible diagonalizar la matriz siguiente?. Hallar
autovalores y los autovectores ortogonales
03 2(Observar
1 que es simetrica).
4
@2 0 2A
4 2 3
10.2 Es posible diagonalizar la matriz ?
0 2 ;1 0 1
@;1 2 ;1A
0 ;1 2
10.3 Idem para 0 4 ;1 0 ;11
BB;1 4 0 0 CC
@ 0 0 4 ;1A
;1 0 ;1 4
OBSERVACIONES:
Hacemos una peque~na incursion en el mundo de los escalares complejos, los vectores
y matrices complejas ...
El conjunto C n es el espacio vectorial formado por las n-uplas de numeros complejos.
Seran los escalares a considerar :
= a + ib (con a y b numeros reales)
Recordemos que...
Conjugado de :
 = a ; ib
Longitud o modulo de :
p p
j j = :  = a + b 2 2

Para los vectores:


0 1 0 1
BBzz CC1
B
B
z
z CC
1

z=B C
@ ... A
2
= ( z ; z
1 ; :
2 : : ; z n ) T y 
z = B
@ ... CA = (z ; z ; : : : ; zn)
2

1 2
T

zn zn
Longitud o modulo de un vector:
q
kzk = jz j + jz j +    + jznj
2 2 2

; 
1 2

= zT :z = 1 2

Notacion:
; 
zT  zH y kzk = zH :z = (conjugado transpuesto de z)
1 2

Producto interno:
hz; wi = wH :z
Propiedades:
31
1. hz; zi  0 ("=" si y solo si z = 0)
2. hz; wi = hw; zi para todo z y w en V
3. h :z + :w; ui = hz; ui + hw; ui
Matrices:
M = fmij g con mij = aij + ibij o,
M = A + iB con A = faij g y B = fbij g
y M H = M T
Para matrices complejas ...
 los autovalores de una matriz hermitiana son todos reales.
 La matriz conjugada transpuesta de una matriz unitaria U es su inversa: U ; = U H 1

(analogamente ocurres para matrices reales ortogonales: A;1


= AT )
 Si A es una matriz hermitiana, entonces existe una matriz unitaria U que diagonaliza
aA
U ; :A:U = U H :A:U = D
1

11 Aplicaciones
Nos limitaremos a ver dos casos, mas adelante cuando veamos Ecuaciones Diferenciales
veremos otras aplicaciones interesantes.

11.1 Funciones de varias variables.


Ahora, consideramos una aplicacion de los autovalores de matrices simetricas ... para
analizar la curvatura de las gra cas de funciones de varias variables. Para abreviar
calculos lo hacemos para dos variables.
 Sea z = f (x; y) una funcion con derivadas segundas contnuas. Sea P = (x ; y ) un
0 0 0

punto de su dominio.
Sea un vector u = (u ; u )T , de longitud kuk = 1, que indica una direccion.
1 2

 Si restringimos el estudio del comportamiento de f (x; y) en el punto P , en la di-


0

reccion de u, podemos considerar la funcion compuesta g(t) = f (P + tu). As en


0

particular cuando t = 0, g(0) = f (P ).0

 La derivada g0(t) = rf (P + tu)T :u usando derivada de funciones compuestas.


0

Ademas, si calculamos

32
 la derivada segunda de g(t) en t = 0, nos da la curvatura de g(t) en t = 0, que
coincide con la de la funcion f en P , en la direccion indicada por u. 0

Tal derivada g00(t) = (g0(t))0 = ( @f P@x0 tu u + @f P@y0 tu u )0. Usando regla de la ( + )


1
( + )
2

cadena, se obtiene:
g00(t) == @ f @xP02 tu (u ) + 2 @ f @xy
2 P
0 tu
u :u + @ f @y
2 P tu
(u ) .
2 ( + ) 0 2 ( + ) ( + )) 2
12 1 2 2

Luego, reemplazando en t = 0, se obtiene g00 (0) = @ @x


2f P @ 2 f P0
2 (u ) + 2 @xy u :u +
0 ( ) 2 ( )
1 1 2

@ 2 f P0 (u ) .
( ) 2
@y2 2

Si se considera la matriz Hessiana en P ...


@ 2 f P0( ) @ 2 f P0
( )
! 0

H= @x2 @xy ,
@ 2 f P0( ) @ 2 f P0
( )

@yx @y2
... la curvatura de f (x; y) en P , en la direccion de u, coincide con ...
u  0

00
g (0) = (u ; u )H u 1 2
1

Conclusion As la curvatura


 de f en P , en una direccion u esta dada por el valor de 0

forma cuadratica: (u ; u )H uu , siendo H la matriz simetrica de las derivadas segundas


1 2
1

de f en P . 0

u  P es convexa o concava hay que conocer


... As para saber si la funcion en el punto 0

el signo de la forma cuadratica (u ; u )H u para toda direccion u. 1 2


1

Se puede demostrar que ...

u  H (simetrica) tiene todos sus autovalores positivos , la forma cuadratica


(i) La matriz
(u ; u )H u es \positiva" en toda direccion. Eso dice que si los autovalores del Hes-
1 2
1

siano H en P son positivos entonces f es convexa en P , pues la curvatura es positiva


0 0

en todas las direcciones u.


(ii) La matriz H (sim
u
 etrica) tiene todos sus autovalores negativos , la forma
cuadratica (u ; u )H u es negativa en toda direccion. Eso dice que si los autoval-
1 2
1

ores del Hessiano H en P son negativos, entonces f es concava en P , pues la curvatura


0 0

es negativa en todas las direcciones u.


(iii) Si la matriz H (simetrica) tieneal  menos un autovalor negativo y otro positivo
u
entonces la forma cuadratica (u ; u )H u es negativa al menos en una direccion y 1
1 2
2

positiva en otra direccion. As f (x; y) tiene en P , curvatura negativa en alguna direccion 0

y curvatura positiva en otra.

33
Problema (i) Dada una matriz real simetrica A (n  n). Veri car que si tiene n
autovalores positivos equivale a que la forma cuadratica uT Au > 0, para todo u 2 <n, con
u=6 0.
Ayuda: considerar que existe una base de autovectores ortonormales fu ; u P ; :::; ung
1 2

tales que Aui = i ui . Luego usar esa base de autovectores para escribir: u = iui .
Reemplazar en uT Au, para ver que se obtiene un valor positivo para todo u, si cada
i > 0 ya que uTi Aui = i > 0.
Recprocamente, si para todo u 6= 0, uT Au > 0, entonces tambien para todo autovector
uTi Aui = i > 0. As tiene autovalores positivos.
(ii) Lo mismo se puede hacer cuando todos los autovalores son negativos.
Problema (i) Sea la funcion z = exy , en el punto (1; 2). Ver cual es la curvatura en
(1; 2) en cualquier direccion u, de acuerdo a los autovalores del Hessiano en ese punto.
(ii) Sea la funcion z = ;x + 4xy ; 2y + 1, analizar la curvatura en los puntos donde
3 2

el gradiente es cero. Puede obtener alguna conclusion sobre el tipo de puntos estacionarios
que tiene?.

11.2 Relacion de recurrencia


En 1202 Leonardo de Pisa, conocido como Fibonacci, expuso el siguiente problema.
Problema Un hombre tiene una pareja de conejos en un corral. >Cuantas parejas de
conejos se pueden generar a partir de esa pareja en un a~no, si se sabe que cada mes se
reproduce generando una nueva pareja, la que a partir de su segundo mes de vida tambien
se reproduce de la misma forma?.
Hay supuestos simpli cadores, como que no hay perodos de gestacion y que no hay
mortalidad.
 Dado un cierto mes, el numero de pares nuevos que apareceran en el proximo mes
es simplemente el numero de pares que vivan en el mes previo pasado, desde que
todos estos seran fertiles despues de dos meses.
 Dado un cierto mes, el numero de pares, f (n + 1), que viviran en el mes siguiente
es la suma del numero de los que viven en este mes, f (n), mas el numero de los
nacimientos (igual a f (n ; 1), correspondiente a los que vivan en el mes n ; 1).
As se tiene la siguiente relacion
f (n + 1) = f (n) + f (n ; 1) donde f (0) = 1, f (1) = 1
Este es un ejemplo de una relacion de recurrencia, llamada as porque los valores de
f se calculan mirando los previos valores de f .
Podemos responder la pregunta de Fibonacci, despues de doce meses, sabiendo que
f (n + 1) = f (n) + f (n ; 1), para cada mes n, y conociendo las condiciones iniciales f (0)
y f (1). A partir de la formula, se obtiene f (2) = f (1) + f (0), f (3) = f (2) + f (1),y as
siguiendo ...
mes 0 1 2 3 4 5 6 7 8 9 10 11 12
parejas 1 1 2 3 5 8 13 21 34 55 89 144 233
34
La sucesion f (n) de numeros de nida por la ecuacion de arriba (se listan los primeros) se
llama la sucesion de Fibonacci .
Lo que hemos visto en las clases previas es util para calcular f (n + 1) sin tener que
encontrar cada uno de los previos f (n), f (n ; 1), etc. Por ejemplo, para tal sucesion nos
puede interesar f (100), o cualquier otro mas grande.
Como hacer para conocer f (100), por ejemplo ?
Observar que la relacin de recurrencia es lineal y aspodemos dar una formulacion
matricial para ella.
1 1 f (n)  f (n + 1) f (1) 1
1 0 =
f (n ; 1) f (n) donde f (0) = 1

Entonces, si denominamos
A a la matriz y ...
... ~vn al vector de componentes f (n + 1) y f (n),
tenemos que
~vn = A~vn; ; 1

as reemplazando ~vn; usando ~vn; , se tendra


1 2

~vn = AA~vn; ; 2

: : : , hasta reemplazar ~v mediante A~v , se obtiene que


1 0

~vn = An~v : 0

La ventaja de esta formulacion es que si diagonalizamos A alcanzamos una forma rapida


para calcular sus potencias: donde A = SDS ; , tenemos An = SDnS ; , y la n-esima
1 1

potencia de la matriz diagonal D es la matriz diagonal cuyos elementos diagonales son la


potencia-n de los elememtos de D. p
Lap ecuacion caracterstica de A is  ;  ; 1, que tiene las raices (1 + 5)=2 y
2

(1 ; 5)=2. Diagonalizando se tiene:


1 1  p ;p  p 0 ! p ; ;pp !
1+ 5 1 5 1+ 5 1 1 5

1 0 = 1 ;p ; p 2 5 2 5

1
2 2

0 p p 1
2
5 1

5
1+

2 5
5

Introduciendo los vectores y tomando la potencia-n, tenemos


f (n + 1) 1 1n f (1)
f (n) = 1 0 f (0)
 p ;p  p n 0 ! p ; ;pp ! f (1)
1+ 5 1 5 1+ 5 1 1 5

= 1 2

1
2 p
; n ;
p
2

f (0)
5 2 5

0 p p 1
2
5 1

5
1+

2 5
5

Podemos calcular f (n) desde la segunda componente de la ecuacion,


" p !n p !n#
f (n) = p 1 1 + 5 ; 1 ; 5
5 2 2

35
p
Notamos que f es dominada por su primer termino porque (1 ; 5)=2 es menor que 1,
as sus potencias tienden a cero.
En general, una relacion de recurrencia lineal tiene la forma
f (n) = a f (n ; 1) + a f (n ; 2) +    + ak f (n ; k)
1 2

(tambien se llama una ecuacion en diferencias). Esta relacion de recurrencia es homogenea


porque no hay un termino constante.
Se puede poner en la forma:

0 = ;f (n) + a f (n ; 1) + a f (n ; 2) +    + ak f (n ; k):
1 2 (9)
Esta es una relacion de recurrencia de orden k. Esa relacion, con las condiciones iniciales
f (0); : : : ; f (k ; 1)
determina completamente la sucesion, para n  k.
Por ejemplo, la relacion de Fibonacci es de orden 2, y con las condiciones inicales
f (0) = 1 y f (1) = 1, determina la secuencia de Fibonacci, para f (2), f (3)....
Veremos como se puede usar el Algebra Lineal para resolver relaciones de recurrencia
lineales.
 Primero, de nimos el espacio vectorial en el cual trabajamos.
Sea V el conjunto de funciones f de nidas para los numeros naturales N = f0; 1; 2; : : : g
y con valores f (n) en los numeros reales. (Tendremos tambien funciones con dominio
f1; 2; : : : g, eso es , sin el 0, pero eso no cambia lo principal.)
Dejando de lado \las condiciones iniciales" por un momento, para cualquier relacion
de recurrencia, podemos considerar el
... subconjunto S (del espacio V ) de las funciones soluciones f (n) de una relacion
de recurrencia.
 El subconjunto S de soluciones es un subespacio de V .
Es no vacio, ya que la funcion f (n) = 0, constante, satisface la relacion (9) (aunque
no las espec cas condiciones iniciales).
Ademas, si dos funciones f y f son soluciones, tambien la suma de ellas f + f lo
1 2 1 2

es:

;(f +f )(n)+a (f +f )(n;1)+  +ak (f +f )(n;k)


= (;f (n)+a f (n;1)+  +ak f (n;k))
1 2 1 1 2 1 2

+(;f (n)a f (n;1)+  +ak f (n;k))


1 1 1 1

2 1 2 2

= 0:

36
Tambien, si se multiplica por un escalar rf , lo es : 1

(;rf )(n)+a (rf )(n;1)+  +ak (rf )(n;k)


= r(;f (n)+a (f )(n;1)   +ak f (n;k))
1 1 1 1

= r0
1 1 1 1

= 0:

>Cual es la dimension del subespacio de soluciones S ?.


Consideremos la aplicacion: T : S ! <k . desde el conjunto de las funciones de S al
conjunto de vectores de <k .
0 1
f (0)
BB f (1) CC
f 7! B@ ... CA
f (k ; 1)
Como cualquier solucion de la relacion de recurrencia esta univocamente determinada
por las k condiciones iniciales, esta aplicacion es \inyectiva" y \suryectiva" sobre <k .
As S tiene la misma dimension k que <k , que es el orden de la relacion de recurrencia.
As (dejando de lado todava las condiciones iniciales), podemos describir el conjunto
de soluciones de cualquier relacion de recurrencia lineal homogenea de orden k a partir
de conocer una base de S , o sea un conjunto de k funciones linealmente independientes,
y luego combinando a estas funciones k se obtiene cualquier otra solucion.
... Como obtener estas k funciones linealmente independientes?, y obtener las restantes...
Para eso, expresamos en forma matricial la relacion de recurrencia,
f (n) = a f (n ; 1) +    + ak f (n ; k)
1

0a a a : : : a a 1
BB 1 0 0 : : : k0; 0k CC 0f (n ; 1)1 0 f (n) 1
1 2 3 1

BB 0 1 0 CC BBf (n ; 2)CC BB f (n ; 1) CC
BB 0 0 1 CC B@ ... CA = B@ ... CA
B@ ... ... ... ... C A f (n ; k) f (n ; k + 1)
0 0 0 ::: 1 0

37
Para encontrar la ecuacion caracterstica de la matriz, lo vemos primero para el caso
de una matriz de 2  2:
a ;  a 
1 ; =  ; a  ; a
1 2 2
1 2

y para el caso de una matriz 3  3.


0a ;  a a 1
@ 1 ; 0 A = ;  + a  + a  + a
1 2 3
3 2

1 ;
1 2 3

0
que muestra que la ecuacion caracterstica es la siguiente.

a ;  a a : : : a k ; a k
1 ; 0 : : : 0 0
1 2 3 1

0 1 ;
0. 0. 1 . .

. .
. . . . .
.
0 0 0 : : : 1 ;
= (;k + a k; + a k; +    + ak;  + ak )
1
1
2
2
1

Este es el polinomio asociado con la relacion de recurrencia.


Si el polinomio
;k + a k; + a k; +    + ak;  + ak
1
1
2
2
1

no tiene races repetidas entonces la matriz es diagonizable y podemos, en teora, tener


la formula para f (n) como en el caso de Fibonacci.
Pero, como sabemos que el subespacio S de las soluciones tiene dimension k, \ no nece-
sitamos diagonalizar", si conocemos k funciones linealmente independientes satisfaciendo
la relacion.
Si r , r , : : : , rk son las races distintas, consideramos las funciones fr1 (n) = rn ,
1 2

fr2 (n) = rn... hasta fr (n) = rkn, potencias de las races del polinomio.
1

2 k

Problema (i) Mostrar que cada una de esas funciones ees una solucion de la relacion
(9).
(ii) Ver que son linealmente independientes.

38
Sntesis Dada una relacion de recurrencia lineal homogenea f (n) = a f (n ; 1) +    +
ak f (n ; k) (es decir, 0 = ;f (n)+ a f (n ; 1)+    + ak f (n ; k)) consideramos la ecuacion
1

asociada 0 = ;k + a k; +    + ak;  + ak .


1
1
1 1

Encontramos las races r , : : : , rk , y si son distintas entonces toda solucion de la


1

relacion de recurrencia tiene la forma


f (n) = c rn + c rn +    + ck rkn
1 1 2 2

para ciertas constantes c ; : : : ; cn 2 <, que dependeran de las condiciones iniciales.


1

El caso de races repetidas tambien es facil de hacer, pero no lo cubriremos aqu .


Solamente diremos que en el caso de orden k = 2 (si las races son repetidas r = r ), 1 2

las soluciones independientes son :

fr1 (n) = rn; y la otra se construye f (n) = nrn


1 2 1

Ahora, dadas algunas condiciones iniciales:


Si se conocen las condiciones iniciales, vamos a determinar los coe ciente ci que com-
binan adecuadamente a las funciones de la base.
Para hallar c ; : : : ; cn. Por ejemplo, seapel polinomio asociado con la relacion de
Fibonacci ; + p+ 1, cuyas races son p (1 n 5)=2 y toda solucion satisface:
1
2

f (n) = c ((1 + 5)=2) + c ((1 ; 5)=2) .


1
n
2

Incluyendo las condiciones iniciales para n = 0 (f (0) = 1) y n = 1 (f (1) = 1), tenemos


el sistema lineal de ecuaciones en c y c : 1 2

p c + p c =1 1 2

(1 + 5=2)c + (1 ; 5=2)c = 1
1 2

p p
Resolviendo ese sistema, conduce a c = 1= 5 y c = ;1= 5, como se habia calculado
1 2

antes.

39
Ejercicios
Resolver la siguientes relaciones lineales de recurrencia:

(a) f (n) = f (n 1) + f (n 2), f (0) = 1/2; f (1) = 1;

(b) f (n) = f (n 2)/2, f (0) = 1; f (1) = 0;

(c) f (n) = f (n 1) + f (n 2)/2, f (0) = 0; f (1) = 1;

(d) Escribir la solucion de las relaciones anteriores, para condiciones iniciales generales
f (0) = f0 , f (1) = f1 .

40
Apendices
1. Autovalores de matrices definidas por bloques
Consideremos la matriz  
A 0
M=
0 B
donde A es una matriz de n n, B de m m y 0 denota matrices nulas, tales que M
es de (n + m) (n + m). Estas matrices aparecen frecuentemente en diversos problemas,
representando por ejemplo dos sistemas A y B independientes.
Es facil ver que para hallar los autovalores y autovectores de M , basta con obtener los
autovalores de A y de B por separado, y luego unir ambos conjuntos, completando con
ceros los autovectores correspondientes:
    
A A 0 X A X
AX = X =
0 B 0 0
    
B A 0 0 B 0
BY = Y =
0 B Y Y
Estas expresiones muestran que todo autovalor y autovector de A o B origina un autovalor
y autovector de M . Ademas, hemos visto antes que det M = det A det B y por lo tanto,

det[M I] = det [A I] det[B I] (1)

La ecuacion caracterstica det[M I] = 0 es entonces det [A I] det[B I] = 0,


por lo que toda raz debe ser necesariamente raz del primer o segundo factor, es decir
autovalor de A o B.
Y si es autovalor de M , el sistema homogeneo (M I)(X Y ) = 0 para obtener los
autovectores se reduce a dos sistemas independientes: (A I)X = 0 y (B I)Y = 0.
Si es autovalor de A y no de B, el segundo sistema tendra solo la solucion trivial Y = 0,
por lo que los autovectores seran de la forma (X 0 ), y si es autovalor de B y no de A, los
autovectores seran de la forma (0Y ). Y si es autovalor de A y de B, sigue siendo posible
elegir autovectores de la forma (X 0
0 ) y (Y ), que formen una base del espacio propio.
Ejemplo: Consideremos la matriz

1 1 0 0
1 1 0 0
M = 0

0 2 1
0 0 1 2
 
1 1
Para hallar sus autovalores y autovectores, obtenemos primero los de A = ,
1 1
A A 1 1
 1 =0, 2 = 2, con autovectores X1 (1 ) y X2 (1 ), (probar!) y luego los de
que son
2 1
B= , que son B B 1 1
1 = 3, 2 = 1, con autovectores Y1 (1 ), Y2 (1 ).
1 2

41
Los autovalores y autovectores de M seran entonces

1 1 0 0
1 1 0
, 4 = 1, V4 0

1 = 0, V1
0 , 2 = 2, V2 0 , 3 = 3, V3 1

1
0 0 1 1

Si algun autovalor de B de multiplicidad 1 coincidiese con alguno de A de multiplicidad 1,


ese autovalor tendra en M multiplicidad algebraica y geometrica 2. Una base del espacio
propio asociado estara formada por la union de los autovectores asociados (X 0
0 ) y (Y ).
En general, la multiplicidad algebraica de un autovalor en M sera la suma de las mul-
tiplicidades algebraicas en A y B, y lo mismo rige para la multiplicidad geometrica.

Problemas:
1. En base a los resultados anteriores, determinar los autovalores y una base de los espacios
propios asociados de las matrices

2 2 0 0
2 2 0 1 1 0 0
a) M = 1 1 0 b) M = 0

0 1 3
0 0 3
0 0 3 1

2 2 0 0
1 1 2 0 2
0 0
c) M = d) M = 0 3 0
0 0 1 1
1 0 1
0 0 2 2
2. Para pensar: Discuta el caso en que
 
A C
M=
0 B

con A de n n, B de m m y C de n m. Los sistemas A y B ya no son independientes.


Muestre sin embargo que la ecuacion (1) sigue siendo valida, por lo que los autovalores de
M siguen siendo los de A y B: Para hallar los autovalores basta nuevamente con hallar
los de A y B.
No obstante, muestre que si bien los autovalores de A daran origen a autovectores (X 0 ) de
M que dependen solo de A, los autovectores de M asociados a autovalores de B depen-
deran en general tambien de A y C, y pueden incluso no existir si el autovalor asociado
es tambien autovalor de A.

3. Determine los autovalores y autovectores de



2 2 0 1
1 1 0 0
M = 0

0 2 1
0 0 1 2

42
2. Polinomio de Taylor en varias variables. Forma diagonal
Consideremos un campo escalar F : Rn R, es decir, una funcion que asigna a
cada vector r = (x1 , . . . , xn ) Rn un numero real F (r) = F (x1 , . . . , xn ). Asumiendo
que poseea derivadas parciales de todo orden continuas en una region |r a| < R, con
a = (a1 , . . . , an ), se define el polinomio de Taylor de grado k como
X F 1 X 2F
Pk (r) = F (a) + (a)(xi ai ) + (a)(xi ai )(xj aj ) (1)
i
xi 2! i,j xi xj
1 X kF
+... + (a)(xi1 ai1 )(xi2 ai2 ) . . . (xik aik ) (2)
k!i ,i ,...,i xi1 xi2 . . . xik
1 2 k

F F
donde x i
(a) = xi
|r=a y las sumas sobre i, j, i1 , . . . ik corren entre 1 y n. Este polinomio
ajusta todas las derivadas parciales de F hasta orden k en r = a, reduciendose en el
caso de una dimension (n = 1) al polinomio Taylor ya estudiado. Para r cercano a a, la
diferencia F (r) Pk (r) es pequena, con |F (r) Pk (r)| = O(|r a|k+1 ).
Los tres primeros terminos (1) del desarrollo constituyen el polinomio de Taylor de
F F
segundo orden P2 (r). Mediante el gradiente F (r) = ( x 1
, . . . , x n
) y la matriz Hessiana
2F 2F 2F
. . . x1 x

x21 x1 x2 n

H(r) =
.. .. ... ..
(3)
. . .
2F 2F 2F
xn x1 xn x2
... x2 n

de n n, este polinomio puede escribirse en la forma compacta


1
P2 (r) = F (a) + F (a) (r a) + (r a)T H(a)(r a) (4)
2
donde en el ultimo termino hemos considerado a (r a) como matriz columna (n 1) y
a (r a)T matriz fila (1 n). Por ejemplo, para n = 2 y r = (x, y), a = (ax , ay ), este
termino resulta
!
2F 2F 
1 T 1 x 2 (a) xy
(a) x ax
(r a) H(a)(r a) = 2 (x ax , y ay ) 2F 2
2
yx
(a) yF2 (a) y ay
h 2 i
2F 2
= 21 xF2 (a)(x ax )2 + 2 xy (a)(x ax )(y ay ) + yF2 (a)(y ay )2
2F
= 2!1 i,j xi x
P
j
(a)(xi ai )(xj aj )
F 2 F 2
en acuerdo con (1). Hemos asumido xy = yx en r = a, propiedad valida cuando ambas
derivadas cruzadas existen y son continuas.
2F 2F
En las condiciones anteriores ( xi xj
= xj x i
i, j) la matriz Hessiana H(a) es real y
simetrica, por lo que puede ser diagonalizada mediante una matriz ortogonal R formada
por autovectores vi ortogonales y normalizados de H(a): R = (v1 , . . . , vn ), con
H(a)vi = i vi , i = 1, . . . , n

1 i=j
vi vj =
0 i 6= j

43
De esta forma, R satisface

1 0 ... 0
0 2 ... 0
R1 = RT , RT H(a)R = (5)

.. .. .. ..
. . . .
0 0 . . . n
donde 1 , . . . , n son los autovalores de H(a). Reemplazando ahora r a = R(r 0 a0 ),
(r a)T = (R(r 0 a0 ))T = (r 0 a0 )T RT , se obtiene la forma diagonal
1 1 0
(r a)T H(a)(r a) = (r a0 )T (RT H(a)R)(r 0 a0 )
2 2
n
1X
= i (x0i a0i )2 (6)
2 i=1

donde r 0 = RT r y a0 = RT a denotan las coordenadas de r y a en la base de autovectores:



x01 x1
.. .
. = RT .. (7)
x0n xn
Se puede siempre elegir el signo de los autovectores tal que Det(R) = +1, en cuyo caso
la matriz R representa una rotacion y (x01 , . . . , x0n ) seran las coordenadas respecto de un
sistema de ejes ortogonales rotado respecto del original. En estas coordenadas, la matriz
Hessiana es entonces diagonal:
2 F

T i i = j
0 0
(a) = (R H(a)R)ij =
xi xj 0 i 6= j
como puede verificarse utilizando la forma diagonal (6) o aplicando (7) y regla de la ca-
dena. Hemos as probado que existen siempre n ejes ortogonales para los que la
matriz Hessiana H(a) respecto de las coordenadas asociadas resulta diagonal.
Estos ejes se denominan usualmente ejes principales (de la forma cuadratica r T H(a)r).

La forma diagonal (7) permite ver que si i > 0 i, F sera concava hacia arriba en
a en todas las direcciones, como en el caso en que a es un mnimo local, mientras que si
i < 0 i, F sera concava hacia abajo en a en todas las direcciones, como en el caso
en que a es un maximo local. En general, F sera concava hacia arriba en las variables
x0i asociadas a autovalores i > 0, y concava hacia abajo en las variables x0i asociadas a
autovalores i < 0. Si algun autovalor i es nulo, se deben utilizar derivadas de orden
superior u otros metodos para determinar la concavidad respecto de x0i .

Ejercicio: Considere la funcion


2 y 2
F (x, y) = ex (1 x2 y 2 2xy)
1) Muestre que para a = 0,
 
4 2
F (0) = 1, F (0) = 0, H(0) =
2 4
44
2) Muestre que H(0) tiene autovalores

1 = 2(2 + ), 2 = 2(2 )

con autovectores normalizados v1 = (11 )/ 2, v2 = (1
1 )/ 2.
3) Pruebe que si  
1 1 1
R=
2 1 1
entonces    
T 1 0 T 1 0
R R= , R H(0)R =
0 1 0 2
4) A partir de los resultados anteriores, muestre que el polinomio de Taylor de F de grado
2 alrededor de a = 0 es

P2 (x, y) = 1 2(x2 + y 2 + xy)


4 2 x 0 0 1 0 x0
= 1 + 21 (x, y)(2 1
4 )(y ) = 1 + 2 (x , y )(0 2 )(y 0 )
2 2
= 1 (2 + )x0 (2 )y 0 (8)

donde
x0
     
T x x+y
=R = / 2
y0 y x + y
5) Muestre que R representa una rotacion de 45o en sentido antihorario, y que por lo tanto,
x0 , y 0 , son las coordenadas respecto de ejes rotados 45o en sentido antihorario respecto de
los ejes originales.
6) A partir de la forma diagonal (8) y la anulacion del gradiente, concluya que 0 = (0, 0)
es un maximo local de F si || < 2 y un punto silla de F si || > 2. En particular, si
> 2, F es en el origen concava hacia abajo en x0 y hacia arriba en y 0 . Que sucede en
el caso = 2?
7) Analice de la misma forma los otros puntos crticos de F . La figura muestra el grafico
de F cerca del origen para dos valores de .

45
3. Autovalores de operadores lineales
Un operador lineal o endomorfismo en un espacio vectorial V es una transformacion
lineal L : V V . Se dice que un vector no nulo v V es autovector de L si existe un
escalar , denominado autovalor, tal que

L(v) = v

Esta definicion es general, siendo independiente de la representacion de L y valida tanto


para espacios de dimension finita o infinita.
Si v es autovector con autovalor , v es tambien autovector de L con el mismo
autovalor 6= 0, debido a que L es lineal:

L(v) = L(v) = v = (v)

Y si v y w son autovectores con el mismo autovalor , v + w tambien satisface (1):

L(v + w) = L(v) + L(w) = v + w = (v + w)

Por lo tanto, el conjunto de todos los autovectores con autovalor , junto con el vector
nulo 0 (que satisface L(0) = 0 = 0 ) forma un subespacio de V , denominado espacio
propio o autoespacio asociado al autovalor :

S = {v V |L(v) = v}

Por lo tanto, S = {v V |L(v) v = 0} = {v V |(L I)v = 0} = Nu[L I],


donde I denota el operador identidad y Nu[L I] el nucleo del operador lineal L I.
En espacios V de dimension finita n, L queda completamente determinado por los
vectores que asigna a los elementos de una base (ordenada) B = (b1 . . . , bn ) de V . Si

L(bi ) = m1i b1 + . . . + mni bn i = 1, . . . , n ,


v = x1 b1 + . . . + xn bn

la ecuacion (1) resulta equivalente a

ML X = X

donde
m11 . . . m1n x1
ML = .. , X = ...

.
mn1 . . . mnn xn
son, respectivamente, la matriz que representa a L en esta base y el vector columna de
coordenadas de v en esta base. Esto implica que es autovalor de L si y solo si es
autovalor de la matriz representativa ML , es decir, si y solo si Det[ML In ] = 0.
Esto es valido para cualquier base elegida, es decir, para cualquier representacion
matricial ML de L, por lo que todas las matrices que representan a L en alguna base

46
deben tener los mismos autovalores. Podemos comprobar esto recordando que si ML y
ML0 representan a L en bases B y B 0 respectivamente, entonces son matrices semejantes:
ML0 = S 1 ML S
donde S es la matriz no singular de cambio de base, cuyas columnas son las coordenadas
de los vectores de la base B 0 en la base original B:

s11 . . . s1n
b0i = s1i b1 + . . . + sni bn , i = 1, . . . , n S = ...
sn1 . . . snn
Por lo tanto, los polinomios caractersticos asociados a ML y ML0 son los mismos:
Det[ML0 In ] = Det[S 1 ML S In ] = Det[S 1 (ML In )S] = Det[ML In ]
ya que Det[S 1 AS] = Det(S)Det(A)Det(S) = Det(A). Los autovalores de ML y ML0 seran
entonces identicos.
Recordemos tambien que las coordenadas de v en estas bases se relacionan por
X 0 = S 1 X
por lo que si ML X = X ML0 X 0 = S 1 ML SS 1 X = S 1 ML X = S 1 X = X 0 . Esto
muestra que si X es autovector de ML con autovalor , X 0 = S 1 X es autovector de ML0
con el mismo autovalor .

L es diagonalizable si existe una base B d = (v1 , . . . , vn ) de V formada por autovecto-


res de L:
L(vi ) = i vi , i = 1, . . . , n
La matriz representativa MLd de L en esta base es entonces diagonal:

1 0 . . . 0
0 2 0 . . .
MLd = = S 1 ML S

..
.
0 . . . 0 n
donde S es la matriz de cambio de base correspondiente (sus columnas son
y las coordena-
das de los autovectores vi en la base original). 1.5

Ejemplo: Sea Ps : R2 R2 el proyector ortogonal 1.0


sobre la recta generada por un vector s = e1 + e2 , e2
donde B = (e1 , e2 ) es la base canonica. Tenemos s 0.5
s
sv e1
Ps (v) = s
ss x
-1.5 -1.0 -0.5 0.5 1.0 1.5
Ps es lineal, y por su definicion cumple
-0.5
Ps (s) = s = 1 s, Ps (s ) = 0 = 0 s
donde s = e1 + e2 es un vector ortogonal a s (s s = 0). Por lo tanto,

47
1) s es autovector de Ps con autovalor 1 = 1
2) s es autovector de Ps con autovalor 2 = 0
Estos resultados fueron obtenidos de la definicion de Ps , sin utilizar ninguna representacion
matricial determinada. En la base B d = (s, s ) de R2 , la matriz representativa de Ps
sera entonces diagonal:  
d 1 0
MPs =
0 0
Por otro lado, en la base canonica se obtiene
Ps (e1 ) = Ps (e2 ) = 12 s = 12 (e1 + e2 )
por lo que la matriz que representa a Ps en esta base es
 
1 1 1
MPs =
2 1 1
Se verifica (probar!) que sus autovalores son 1 = 1 y 2 = 0, con espacios propios
generados por los autovectores X1 = (11 ) y X2 = (1
1 ) respectivamente:
           
1 1 1 1 0 1
MPs = =1 , MPs = =0
1 1 1 1 0 1
siendo X1 y X2 las coordenadas de s y s en la base canonica. Se comprueba que
     
d 1 1 0 1 1 1 1 1 1
MPs = S MPs S = , con S = , S =
0 0 1 1 2 1 1

Ejercicios:
1. Hallar las matrices que representan a la reflexion R : R2 R2 respecto de la
recta y = x en i) la base canonica, ii) la base B 0 = ((1, 1), (1, 1)) y iii) la base
B 00 = ((1, 0), (1, 1)). Mostrar luego que poseen los mismos autovalores, y que B 0 es una
base de autovectores de R.

2. Verificar que en el espacio vectorial V de las funciones f : [0, L] R derivables a


segundo orden que satisfacen f (0) = f (L) = 0, la transformacion lineal L definida por
d2 f
L(f ) =
dx2
posee autovectores (denominados en este contexto autofunciones)
nx
fn (x) = sen( ) , n = 1, 2, 3, 4 . . .
L
con autovalores
n2 2
n = 2 , n = 1, 2, 3, 4 . . .
L
Estas son las unicas autofunciones de L que se anulan en los bordes del intervalo. Este
conjunto de autofunciones es completo: toda funcion f (x) pertenecienteP a este espacio
puede escribirse como una serie de estas autofunciones: f (x) = n=1 cn sen( nx
L
) (serie de
medio rango). En mecanica cuantica, estos autovalores n determinan las energas posibles
de una partcula confinada en un intervalo de longitud L, siendo fn (x) las funciones de
onda asociadas. 48
Apendice

La descomposicion en valores singulares (DVS)

1
Referencias
[1] R.L. Burden, J.Douglas Faires, Analisis Numerico , Grupo Editorial
Iberoamericana, Mexico, 1985.
[2] J. Demmel, Applied Numerical Linear Algebra, SIAM,Philadelphia, 1997.

2
Hemos visto previamente que toda matriz simetrica A se puede descomponer A =
PDP T , siendo P una matriz ortogonal (P T = P ;1), D una matriz diagonal que contiene
los autovalores de A. Cuando A no es simetrica, pero si cuadrada, si A es diagonizable
existe una descomposicion de A = SDS ;1, siendo S no singular aunque no necesariamente
ortogonal. Pero, cualquier matriz no es diagonizable ! !.
.... Ahora veremos que toda matriz (cuadrada o no, simetrica o no) tiene una factor-
izacion de la forma:
A = PDQT ;
donde P y Q son matrices ortogonales y D una matriz diagonal. Este resultado se llama
\ descomposicion en valores singulares"(DVS), y es una de las mas importantes entre las
descomposiciones de matrices.
... Explicaremos como obtenerla y haremos consideraciones sobre sus aplicaciones.

1 Los valores singulares de una matriz


Para cualquier matriz A de m  n, la matriz AT A de n  n es simetrica y por tanto puede
ser diagonalizada ortogonalmente. Los autovalores de AT A son reales y no negativos (
 0). Eso surge ya que para cualquier autovector u, se tiene que
AT Au = u
si se multiplica a ambos lados por u, se obtiene la igualdad
uT AT Au = uT u
que indica que kAuk2 = kuk2, por lo tantop   0.
... Por tanto tiene sentido tomar las i , si i, i = 1; : : : ; n, son los autovalores de
A A.
T

De nicion Si A es una matriz mn, los valores singulares de A son las races cuadradas
de los autovalores de AT A, y se denotan mediante 1 ; : : : ; n. Es convencional acomodar
los valores singulares de modo que 1  2  : : :   n.
Ejemplo 1: Encontrar los valores singulares de A:
Ejemplo
01 11
A = @1 0A
0 1
La matriz AT A
2 1
AT A =
1 2
p : 1 = 3, 2 = 1. En consecuencia los valores singulares de A son :
tiene pautovalores
1 = 3, 2 = 1.
3
Para comprender el signi cado lde los valores singulares de A consideremos los autovec-
tores de AT A. Por ser simetrica sabemos que hay n autovectores ortogonales, que se
pueden considerar de longitud 1. As sean v1 ; v2; : : : ; vn esa base de autovectores ordena-
dos y correspondientes a los autovalores 1  2  : : : n. Estos autovectores satisfacen:
AT Avi = ivi;
o equivalentemente
kAvik2 = i;
por consiguiente
p
kAvik = i:
As los valores singulares de A son las longitudes de los vectores Av1 ; : : : ; Avn. Geomet-
ricamente esto tiene una importante interpretacion. Si consideramos el ejemplo 1, y si
consideramos x 2 fx : kxk2 = 1g, entonces kAxk2 = Ax  Ax = xT AT Ax =
;  2 1 x 
xTATAx = x1 x2 1 2 : 1 = 2x21 + 2x1 x2 + 2x22
x2
lo cual es una forma cuadratica.
... Es facil ver que los valores mnimos y maximos que toma una forma cuadratica en
los vectores x con kxk = 1, es
min  xT AT Ax  max
si min es el menor autovalor de AT A, y si max es el mayor autovalor de esa matriz.
p En
; 1=
el caso del ejemplo de arriba, el autovector correspondiente a min = 1 es 1=p22 , y
1=p2
el autovector de max = 3 es 1=p2 .
p p
Por tanto, kAvik2 = i, se tiene que 1 = 3 = kAv1k, 2 = 1 = kAv2 k, son
los valores maximo y mnimo de las longitudes kAxk, cuando x recorre la circunferencia
unitaria dada por : kxk = 1.
La transformacion lineal T con matriz A, T : <2 ; ;; > <3 transforma el crculo
unidad kxk = 1 en una \elipse" que esta sobre el plano de ecuacion: x ; y ; z = 0
(veri car que la imagen de la transformacion es ese plano en <3). Las longitudes 1 , y
2 son las longitudes de los semiejes mayor y menor respectivamente de esa elipse.

2 Descomposicion de valor singular


Queremos demostrar que una matriz A de m  n se puede factorizar como
A = U V T
donde U es una matriz ortogonal de m  m, V es una matriz ortogonal de n  n, y 
una matriz \diagonal(seudo)" de m  n. Si los valores singulares NO NULOS de A son
4
1  2  : : :  r > 0, y si r+1 = r+2 = : : : = n = 0, entonces  de m  n tendra
una forma en bloques (un bloque D de r  r, a su derecha una matriz de ceros O de
r  n ; r, abajo a la izquierda otra matriz de ceros O de m ; r  r, y el ultimo bloque
en la diagonal de ceros O de m ; r  n ; r :
D O 
= O O
donde
0 1
1    0
B
D = @ ... . . . ... C
A
0    r
Si r coincide con n o con m alguna de esas matrices nulas O no apareceran. En el
caso del ejemplo 1, previo,la matriz  tiene la forma:
0p3 0 1
=@ 0
pA
1
0 0
.... Ahora, como hallar los factores U y V T ?....
Para hallar la matriz ortogonal V primero determinamos una base ortogonal fv1; : : : ; vng
de vectores de <n compuesta por autovectores de la matriz AT A de n  n.
V = [v1 ; v2; : : : ; vn]
es una matriz ortogonal de n  n.
Con respecto a la determinacion de la matriz U de m  m, primero observamos que
los vectores de <m :
Av1 ; Av2; : : : ; Avn
es un conjunto de n vectores ortogonales. Eso se obtiene de observar que para dos au-
tovectores de AT A, vi y vj con i 6= j , por ser ortogonales se cumple que

vjT AT Avi = vjT :ivi = 0


As Avi es ortogonal a Avj .
Ahora recordemos que los valores singulares i = kAvik, y que los primeros r son no
nulos. Por tanto, podemos normalizar los Avi , con i = 1; : : : ; r, considerando:
ui = Av
i
i

para cada i = 1; : : : ; r. Eso garantiza que [u1; : : : ; ur ] son ortonormales en <m . Si r < m
ese conjunto no es una base de <m. En ese caso hay que extender ese conjunto para tener
m vectores ortonormales de <m .
... Esa es la parte mas di cil de la factorizacion que queremos obtener: A = U V T .
5
La matriz U estara formada por las columnas ortonormales U = [u1; : : : ; ur ; ur+1; :::um].
...Veamos que con tales matrices V , U , y , se veri ca que
A = U V T
Como V T = V ;1 por ser una matriz ortogonal, veri car que vale A = U V T , es igual
a ver que ( multiplicando por V ):
AV = U 
Sabemos que Avi = i ui, para i = 1; 2; : : : ; r, y que
kAvik = i = 0; para i = r + 1; : : : ; n:
Por tanto,
Avi = 0; para i = r + 1; : : : ; n:
Por consiguiente,
AV = A[v1 : : : vn] = [Av1 : : : Avn]
entonces
AV = [Av1 : : : Avr ; 0 : : : 0] = [1u1 : : : r ur ; 0 : : : 0]

0 1
;  BB...1 :. :. .: 0... C
OC
AV = u1 u2 : : : um B @ 0 : : : r CA = U 
O O
como se requiere para veri car que A = U V T .
Observacion Los vectores de las columnas de U se denominan vectores singulares por la
izquierda de A, mientras los vectores de las columnas de V se llaman vectores singulares
por la derecha de A. Las matrices U y V no estan determinadas en forma unica por A,
en cambio  si, porque contiene los valores singulares de A.
Ejemplo Encontrar una descomposici
0 1 on de valor singular de las matrices
1
1 0
 1 1
(i)A = 0 0 1 (ii)A = 1 0A
@
0 1 01 1
1 0
Solucion: (i) Consideramos AT A = @1 1 0A y hallamos los autovalores: 1 = 2,
0 0 1
2 = 1, 3 = 0, con sus autovectores:
011 001 0;11
@1A ; @0A ; @ 1 A
0 1 0
6
Estos vectores son ortogonales, de manera que los normalizamos para obtener:
01=p21 001 0;1=p21
p p
v1 = @1= 2A v2 = @0A v3 = @ 1= 2 A
0 1 0
p p p
Los valores singulares de A son  1 = 2,2 = 1 = 1,3 = 0 = 0.
As
01=p2 0 ;1=p21 p2 0 0
p p
V = @1= 2 0 1= 2 A y  = 0 1 0
0 1 0
Para determinar U , calculamos
  01=p21  
p
1 = 1= 2 1 1 0 @ p A = 1
u1 = Av
 0 0 1 1= 2 0
1 0
y
1  001  
u2 = Av
2
2= 1
0 0
0 @0A = 0
1 1
1
1 0ya forman una base ortonormal de <2, de manera que tenemos la matriz
Estos vectores
U : U = 0 1 . Esto produce la descomposicion DVS de la matriz A:
1  1 0p2  0 1=p2 1=p2 01
A = 0 10 1 = 0 1
0 0
0 1
0 @ 0 A
0 ;1=p2 1=0p2 10 = U V
T

Advierta que 3 = 0 no aparece en , y que la matriz que se necesita es la matriz V T en


lugar de la V .
En el ejemplo(ii) se necesitara completar la matriz U ( observar que en el ejemplo
previo eso no fue necesario). 01 11
La matriz corresponde al Ejemplo 1: A = @1 0A Como antes consideramos AT A, y
0 1 p
sus autovalores y autovectores. Sabemos que : 1 = 3, 2 = 1, y los correspondientes
autovectores de AT A son ....
1=p2 ;1=p2
v1 = 1=p2 v2 = 1=p2
As
1=p2 ;1=p2 0p3 01
V = 1=p2 1=p2 y  = @ 0 1A
0 0
7
Para U , calculamos
01 11  p  02=p61
p p
u1 = Av1 = 1= 3 @1 0A 1=p2 = @1=p6A
1 1= 2
0 1 1= 6
y
01 11  p  0 0 1
u2 = Av 2 = @1 0A ;1=p 2 = @;1=p2A
 2 1= 2 p
0 1 1= 2
Esta vez necesitamos extender fu1; u2g a una base ortonormal de <3. Para eso, usamos
el procedimiento de Gram-Schmidt. Necesitamos tener un vector de <3 que sea lineal-
mente independiente con respecto a los vectores fu1; u2g. Por ejemplo, e3 = (0; 0; 1) es tal
que fu1; u2; e3g forman una base de <3. As usando el procedimiento de Gram-Schmidt
solo el tercer paso es necesario0para p
obtener
1 un vectoru3 ortogonal a ambos fu1; u2g, se
;1=p 3
@
encuentra que este vectoru3 = 1=p3 A.
1= 3
...Otra forma de expresar la DVS de una matriz A.
Para eso consideramos
0 10 T1
1 : : : 0 v1
; B
 B ... . . . ... C B v2T C
A = U V T = u1 u2 : : : um B@ 0 : : : r
OC
CA B@ ... CCA
B
O O vnT
que es igual a
0 vT 1
0 1 B ..1 C
BB ...1 . . . ... OCC BBB v.rT CCC
 ::: 0
; 
: : : um B
= u1 : : : ur jur+1
@ 0 : : : r CA BBBvrT.+1CCC
O O @ .. A
vnT

8
obteniendose ...
0 1 0v1T 1 0T 1
;  1 : : : 0 Bv T C ; ;  vr+1
B
= u1 u2 : : : ur @ ... . . . ... C
A B@ ... CA + ur+1 : : : um O @ ... CA
B 2C B
0 : : : r vrT vnT
0 1 0v1T 1
;  1 : : : 0 Bv T C
B
= u1 u2 : : : ur @ ... . . . ... C
A BB@ ...2 CCA
0 : : : r vr T
0 T1
;  v1
= 1u1 : : : r ur @ ... C
B A = 1u1v1T + : : : + r urvrT
vrT
Se ha justi cado que...
Lema Sea A una matriz m  ncon valores singulares 1  2  : : :  r > 0 y
r+1 = : : : = n = 0. Sean u1; : : : ; ur vectores singulares por la izquierda, y sean v1; : : : ; vr
vectores singulares por la derecha de A correspondientes aesos valores singulares. entonces
A = 1u1v1T + 2 u2v2T + : : : + r ur vrT
Observacion La DVS de una matriz A da mucha informacion acerca de A como se
resalta en el siguiente teorema:
Teorema Sea A = U V T una descomposicion de valor singular de una matriz A de
m  n. Sean 1; : : : ; r todos los valores singulares NO NULOS de A. Entonces
(i) el rango de A es r.
(ii)fu1; u2 ; : : : ; ur g es una base ortonormal de R(A)
(iii)fur+1; ur+2; : : : ; um g es una base ortonormal de N (AT )
(iv)fv1; v2; : : : ; vr g es una base ortonormal de R(AT )
(v)fvr+1; vr+2 ; : : : ; vng es una base ortonormal de N (A)
Demostracion.
(i)Como U y V T son matrices no singulares(ademas, ortogonales) se sabe que rango(A) =
rango(U V T ) coincide con = rango(V T ) = rango() = r.
(ii) Como Avi, con i = 1; : : : ; r son linealmente independientes (ortogonales), y como
ui = (1=i)Avi , i = 1; : : : ; r, entonces fu1; : : : ; ur forman una base ortonormal del
rango(A).
(iii) Como fu1; : : : ; ur ; : : : ; um forman una base ortonormal de <m, luego por (ii), y con-
siderando que fur+1; : : : ; um es una base del espacio complementario a R(A), se obtiene
que ese conjunto es una base ortonormal del subespacio N (AT ) o del R(A)?.
(v) Como Avr+1 = Avr+2 = : : : Avn = 0, se tiene que fvr+1; : : : ; vn, que es un conjunto
9
ortonormal de vectores contenido en el anulador de A, de dimension n ; r, por lo que es
una base ortonormal del N (A).
(iv) Esta propiedad se desprende de considerar (v) y que fv1; v2 ; : : : ; vr g es un conjunto
ortonormal complementario del de (v), por lo que es una base de R(AT ).
Otro resultado importante que se obtiene desde la descomposicion DV S ....
Lema Sea A = U V T la descomposicion de A de m  n con rango r. Por consiguiente,
la imagen de la esfera unitaria en <n, bajo la transformacion matricial que aplica x 2 <n
en Ax 2 <m , es
(a)la super cie de un elipsoide en <m si r = n,
(b) un elipsoide solido en <m si r < n.
Demostracion: Sean u1; : : : ; um y v1 ; v2; : : : ; vn los vectores singulares por la izquierda y
por la derecha de A, respectivamente. En razon que rango(A) = r, los valores singulares
0 11  2  : : : r > 0, y r+1 = r+2 = : : : = n = 0.
de A satisfacen
x
BBx12 CC
Sea x = B .. C un vector unitario de <n. Ahora, como V es una matriz ortogonal,
@.A
xn
tambien lo es V T , por tanto V T x es un vector unitario(conserva longitudes), as
0T 1
v1 x
B
B v2T xCCC
V x=B
T
@.A .
.
vnT x
de manera que (v1T x)2 + (v2T x)2 + : : : + (vnT x)2 = 1.
Como A = 1 u1v1T + : : : + r ur vrT . Por tanto,
Ax = 1u1v1T x + : : : + r ur vrT x = (1 v1T x)u1 + : : : + (r vrT x)ur
Ax = (1v1T x)u1 + : : : + (r vrT x)ur = y1u1 + : : : + yr ur
donde denotamos con yi = (iviT x).
(a) Si r = n, entonces corresponde al caso n  m, y
Ax = y1u1 + : : : + ynun = Uy
0y 1
BBy12 CC
donde y = B @ ... CA.Por consiguiente, como U es ortogonal, kAxk = kUyk = kyk. Como
yn
( y1 )2 + : : : + ( yn )2 = (v1T x)2 + : : : + (vnT x)2 = 1
1 n
lo que muestra que los vectores Ax forman la super cie de un elipsoide en <m.
(b) Si r < n, la unica diferencia en los pasos anteriores es que la ecuacion se convierte
en
( y1 )2 + : : : + ( yr )2  1
1 r
puesto que despreciamos algunos terminos. Esto corresponde a un elipsoide solido de <m.
10
Facultad de Ingeniera
UNLP

Matematica C

IX Ecuaciones Diferenciales Lineales Ordinarias

2017
Temario por clase:
Clase 1: Ecuaciones diferenciales lineales ordinarias de orden n. Generalidades. Propie-
dades fundamentales. Caso homogeneo. La ecuacion lineal homogenea de segundo
orden. El caso de coeficientes constantes. Aplicaciones.

Clase 2: El caso no homogeneo. Metodos de resolucion generales y para el caso de coefi-


cientes constantes. Aplicaciones.

Clase 3: Sistemas de ecuaciones diferenciales lineales ordinarias. Generalidades. Propie-


dades fundamentales. El caso homogeneo. El caso homogeneo de coeficientes cons-
tantes. Caso diagonalizable.

Clase 4: El caso no diagonalizable. Matriz fundamental. Sistemas lineales no homogeneos.


Metodos de resolucion generales y para el caso de coeficientes constantes.

Clase 5: Aplicaciones. Problemas.

Bibliografa:
1. E. Kreyszig, Matematicas Avanzadas para Ingeniera (2do.vol), Limusa.

2. R.K. Nagle, E.B. Saff, Fundamentos de Ecuaciones Diferenciales, Addison Wesley


Iberoamericana.

3. M. R. Simmons, Ecuaciones Diferenciales con aplicaciones , McGrawHill.

4. Dennis G. Zill , Ecuaciones Diferenciales con Aplicaciones, Grupo Editorial Ibe-


roamericana, Mexico.

2
1. Ecuaciones diferenciales lineales ordinarias
1.1. Introduccion
Estudiaremos en este captulo ecuaciones diferenciales lineales. Recordemos primero
que una ecuacion diferencial es una ecuacion donde la incognita es una funcion, y donde
esta aparece vinculada con sus derivadas. Si la funcion incognita depende de una sola
variable, que llamaremos t, la ecuacion diferencial se denomina ordinaria. Si la misma
contiene derivadas hasta de orden n de la funcion incognita, se dice que la ecuacion
diferencial es de orden n.

Una ecuacion diferencial ordinaria de orden n puede escribirse en la forma

y (n) = f (t, y, y 0 , y 00 , . . . , y (n1) ) (1.1)


dy d2 y dn y
donde y(t) es la funcion incognita y y 0 (t) = dt
, y 00 (t) = dt2
, . . ., y (n) = dtn
, sus derivadas.

Las ecuaciones diferenciales juegan un rol fundamental en Ingeniera, Fsica y muchas


otras areas de la ciencia y tecnologa. La razon es que en general, no resulta facil hallar leyes
que vinculen directamente las magnitudes que caracterizan un cierto fenomeno o sistema,
pero s resulta posible en muchos casos relacionar esas magnitudes con sus derivadas, lo
que origina una ecuacion diferencial o en general, un sistema de ecuaciones diferenciales.
Por ejemplo, esto ocurre cuando la evolucion de un sistema depende de su estado.
Un ejemplo tpico es la segunda ley de Newton para el movimiento de una partcula,
F = ma (1.2)
donde F es la fuerza neta que actua sobre la partcula, m la masa de la misma y a su
2
aceleracion. Si r(t) denota el vector posicion de la partcula, entonces a = ddt2r , y si la
fuerza F depende de r, dr/dt y t, esta ley conduce a la ecuacion diferencial
d2 r dr
2
m= F (t, r, ) (1.3)
dt dt
que es en realidad un sistema de tres ecuaciones diferenciales ordinarias de segundo or-
den para las coordenadas del vector r(t) = (x(t), y(t), z(t)). Con esta ecuacion podemos
determinar desde el movimiento de una masa unida a un resorte hasta el movimiento de
un planeta alrededor del sol !
Si la partcula se mueve en una dimension, la ecuacion anterior se reduce a
d2 y dy
m
2
= F (t, y, ) (1.4)
dt dt
donde y(t) denota la posicion de la partcula. Esta es una ecuacion diferencial ordinaria
de 2o orden para y(t), que corresponde a n = 2 y f (t, y, y 0 ) = F (t, y, y 0 )/m en (1.1).
Problema 1: Mostrar que la ecuacion diferencial que describe el movimiento (en una
dimension) de un objeto de masa m unido a un resorte de constante k es
k
y 00 + y = 0 (1.5)
m
donde y es la posicion del objeto medida a partir del punto de equilibrio.
3
1.2. Ecuacion diferencial lineal ordinaria de orden n
Una ecuacion diferencial es lineal si f en (1.1) es una funcion lineal de y y sus derivadas
(aunque no necesariamente de la variable independiente t). Una ecuacion diferencial lineal
ordinaria de orden n puede expresarse en la forma

y (n) + an1 (t)y (n1) + . . . + a1 (t)y 0 + a0 (t)y = f (t) (1.6)

donde ai (t), i = 0, . . . , n 1 y f (t), son funciones definidas en un cierto intervalo I R.


As, una ecuacion diferencial lineal ordinaria de primer orden es de la forma

y 0 + p(t)y = f (t) (1.7)

y una ecuacion diferencial lineal de segundo orden puede escribirse como

y 00 + p(t)y 0 + q(t)y = f (t) (1.8)

En todos los casos, si f (t) = 0 t I, la ecuacion diferencial se denomina homogenea.

Las ecuaciones diferenciales lineales surgen en numerosos problemas corrientes. Por


ejemplo, la ecuacion (1.5), y 00 + mk
y = 0, que describe el movimiento de una masa unida
a un resorte, es una ecuacion diferencial lineal homogenea de 2o orden.
Pero la importancia de las ecuaciones diferenciales lineales proviene ademas del hecho
que resultan mas faciles de resolver y comprender que las ecuaciones diferenciales no
lineales. A diferencia de estas ultimas, en las lineales es valido, como veremos, el principio
de superposicion, el cual permite obtener soluciones de problemas complejos mediante la
superposicion de soluciones de problemas mas sencillos.
Una ecuacion diferencial lineal puede tambien escribirse como

L[y] = f (t) (1.9)

donde L es el operador lineal definido por

L[y] = y (n) + an1 (t)y (n1) + . . . + a1 (t)y 0 + a0 (t)y (1.10)

Si y1 e y2 son dos funciones derivables hasta orden n y c1 , c2 son constantes, L satisface

L[c1 y1 + c2 y2 ] = c1 L[y1 ] + c2 L[y2 ] (1.11)

En efecto, para cualquier derivada de orden k, con k = 0, . . . , n,


(k) (k)
(c1 y1 + c2 y2 )(k) = (c1 y1 )(k) + (c2 y2 )(k) = c1 y1 + c2 y2

lo que implica L[c1 y1 + c2 y2 ] = c1 L[y1 ] + c2 L[y2 ] (Justificar!). Por ejemplo, para n = 2,


L[c1 y1 + c2 y2 ] = (c1 y1 + c2 y2 )00 + a1 (t)(c1 y1 + c2 y2 )0 + a0 (t)(c1 y1 + c2 y2 )
= c1 (y100 + a1 (t)y10 + a0 (t)y1 ) + c2 (y200 + a1 (t)y20 + a0 (t)y2 ) = c1 L[y1 ] + c2 L[y2 ]

Notar que L = Dn + an1 (t)Dn1 + . . . + a1 (t)D + a0 (t), donde D es el operador derivada:


D[y] = y 0 , D2 [y] = D[D[y]] = y 00 y D(k) [y] = y (k) . La linealidad de L es consecuencia de la
linealidad de D. 4
1.3. Propiedades fundamentales de ecuaciones diferenciales
lineales homogeneas
Las ecuaciones diferenciales lineales poseen propiedades especiales, que permiten esta-
blecer las propiedades fundamentales de sus soluciones aun sin conocerlas explcitamente.

1. El conjunto S de todas las soluciones de una ecuacion diferencial lineal homogenea

y (n) + an1 (t)y (n1) + . . . + a1 (t)y 0 + a0 (t)y = 0 , (1.12)

es un espacio vectorial.

Demostracion: Una solucion de (1.12) es una funcion y(t) que la satisface. El conjunto
de soluciones S = {y(t) | L[y] = 0}, es el nucleo del operador lineal L y la propiedad 1 es
entonces consecuencia directa de la linealidad de L:
a) La funcion nula y(t) = 0 t I es siempre una solucion de (1.12), denominada
solucion trivial, como puede verse facilmente (L[0] = 0).
b) Ademas, si y1 (t) e y2 (t) son soluciones de (1.12), la combinacion lineal
y(t) = c1 y1 (t) + c2 y2 (t)
es tambien solucion de (1.12), para cualquier valor de las constantes c1 y c2 , ya que
L[c1 y1 + c2 y2 ] = c1 L[y1 ] + c2 L[y2 ] = c1 0 + c2 0 = 0
Es decir, si y(t) es solucion, cy(t) tambien lo es, y si y1 (t) e y2 (t) son soluciones, y1 (t)+y2 (t)
tambien lo es. Por lo tanto, S es no vaco y cerrado bajo las operaciones usuales de suma
de funciones y multiplicacion por un escalar. Esto implica que S es un subespacio del es-
pacio vectorial de funciones derivables hasta orden n en I, y por ende un espacio vectorial.

La propiedad anterior se conoce como propiedad de superposicion: Si y1 (t) e y2 (t)


son dos soluciones de una ecuacion diferencial lineal homogenea, cualquier combina-
cion lineal de ellas es tambien una solucion.

Problema 2: Mostrar que el conjunto de soluciones de una ecuacion diferencial lineal


no homogenea no es un espacio vectorial.

Consideraremos en lo sucesivo que ai (t), i = 0, . . . , n 1, son funciones continuas en


un intervalo abierto I.

2. La dimension del espacio S de soluciones de la ecuacion (1.12) es n. Esto significa


que existen n soluciones linealmente independientes y1 (t), . . . , yn (t) tales que cualquier
solucion de (1.12) puede escribirse como

y(t) = c1 y1 (t) + . . . + cn yn (t) (1.13)

El conjunto {y1 (t), . . . , yn (t)} es pues una base de S, y la expresion (1.13), con n constantes
de integracion arbitrarias c1 , . . . , cn , es la solucion general de (1.12).

5
Probaremos este teorema en las paginas siguientes. Como ejemplo, consideremos la
ecuacion lineal de segundo orden (n = 2)
y 00 + y = 0 (1.14)
que corresponde a k/m = 1 en (1.5) (en unidades apropiadas!). Podemos ver que
y1 (t) = cos t, y2 (t) = sen t
son soluciones de (1.14), ya que (cos t)00 = cos t, (sen t)00 = sen t. Por lo tanto, como
el conjunto {cos t , sen t} es linealmente independiente y la ecuacion (1.14) es de orden 2,
toda solucion de (1.14) es necesariamente de la forma
y(t) = c1 cos t + c2 sen t (1.15)
con c1 , c2 constantes. El conjunto {cos t, sen t} es pues una base del espacio S de soluciones.

3. Existencia y Unicidad de la solucion para el problema de condiciones inicia-


les. Consideremos la ecuacion diferencial homogenea (1.12) con las n condiciones iniciales


y(t0 ) = b0
y 0 (t0 )

= b1
.. (1.16)

.
y (n1) (t ) = b

0 n1

con t0 I. Si todas las ai (t) son continuas para t I, existe una unica solucion y(t)
para t I que satisface (1.12) junto con las n condiciones iniciales (1.16), b0 , b1 , . . . , bn1 .

Este es un caso particular del teorema general de existencia y unicidad que se aplica,
bajo ciertas condiciones, tambien al caso no homogeneo e incluso al caso no lineal, como
veremos mas adelante. La solucion que satisface (1.12) junto con (1.16) es una solucion
particular de (1.12).
En el caso homogeneo, esto implica, utilizando la solucion general (1.13), que las n
constantes c1 , c2 , . . . , cn quedan completamente determinadas por las n condi-
ciones iniciales (1.16), para cualquier valor de b0 , b1 , . . . , bn1 . Las condiciones iniciales
conducen a un sistema de n ecuaciones lineales para c1 , . . . , cn :


c1 y1 (t0 )+ ... +cn yn (t0 ) = b0
c1 y10 (t0 )+

... +cn yn0 (t0 ) = b1
.. .. ..

. . .
(n1) (n1)

c1 y1 (t0 )+ . . . +cn yn (t0 ) = bn1

El presente teorema asegura que el sistema anterior posee solucion unica (es compatible
determinado) t0 I. Por lo tanto, el determinante de la matriz de coeficientes debe ser
no nulo t0 I, es decir,

y1 (t) y2 (t) ... yn (t)

y10 (t) y20 (t) ... yn0 (t)
W (t) = 6= 0 t I (1.17)

...

(n1) (n1) (n1)

y1 (t) y2 (t) . . . yn (t)
Este determinante se denomina Wronskiano.
6
Problema 3: Probar que si las funciones {y1 (t), . . . , yn (t)} fuesen linealmente depen-
dientes para t I, entonces W (t) = 0 t I (Sug.: Usar que una de las yi (t) sera en tal
caso combinacion lineal de las restantes!).

Observacion 1: La condicion W (t) 6= 0 t I es mas fuerte que la independencia


lineal. Por ejemplo, las funciones y1 (t) = t y y2 (t) = t2 son L.I. para t R, pero W (0) = 0
(probar!). Y las funciones y1 (t) = t2 , y2 (t) = |t|t son tambien L.I. si t R pero W (t) = 0
t (probar!).

Observacion 2: El teorema implica que la unica solucion de la ecuacion homogenea


que satisface y(t0 ) = y 0 (t0 ) = . . . = y (n1) (t0 ) = 0 es la solucion trivial y(t) = 0 t I.

Observacion 3: El presente teorema puede utilizarse para demostrar que la dimension


del espacio de soluciones debe ser n, pues si fuese menor, el sistema para determinar los
coeficientes ci sera sobredeterminado y no podra garantizarse la existencia de solucion
para cualquier valor de las n condiciones iniciales, mientras que si fuese mayor, el sistema
sera subdeterminado y no habra unicidad. Veremos luego otra demostracion mas general.

Como ejemplo, si en la ecuacion (1.14), y 00 + y = 0, tenemos las condiciones iniciales



y(t0 ) = y0
(1.18)
y 0 (t0 ) = v0
donde en el problema del resorte y0 representa la posicion inicial y v0 la velocidad inicial
del objeto, el presente teorema asegura que existe una unica solucion que las satisface.
De (1.15) tenemos y(t) = c1 cos t + c2 sen t, y 0 (t) = c1 sen t + c2 cos t, y las condiciones
iniciales (1.18) conducen al sistema

c1 cos t0 + c2 sen t0 = y0
(1.19)
c1 sen t0 + c2 cos t0 = v0
Este sistema posee solucion unica para c1 , c2 t0 R, ya que

cos t0 sen t0
W (t0 ) = = cos2 t0 + sen2 t0 = 1
sen t0 cos t0

verificandose que W (t0 ) 6= 0 t0 R. Por ejemplo, si t0 = 0, la unica solucion de (1.19) es


c1 = y0 , c2 = v0 , y entonces la unica solucion de (1.14) que satisface y(0) = y0 , y 0 (0) = v0
es
y(t) = y0 cos t + v0 sen t
Problema 4: a) Mostrar que y1 (t) = et , y2 (t) = et son dos soluciones lin. indep. de
y 00 y = 0
y que por lo tanto, la solucion general de esta ecuacion es
y(t) = c1 et + c2 et
b) Encontrar la solucion que satisface y(0) = y0 , y 0 (0) = v0 .

7
4. Soluciones complejas. Supongamos que t y las n funciones ai (t), i = 0, . . . , n 1,
son reales. Si y(t) es una solucion compleja de la ecuacion homogenea (1.12),

L[y] = 0, y(t) = y1 (t) + iy2 (t) (1.20)

donde y1 (t) e y2 (t) son funciones reales y i2 = 1, tanto la parte real

y1 (t) = Re[y(t)]

como la parte imaginaria


y2 (t) = Im[y(t)]
son tambien soluciones (reales!) de la ecuacion homogenea (1.12):

L[y1 ] = 0, L[y2 ] = 0

Esto es muy facil de probar, dado que L es lineal y real. La linealidad implica
0 = L[y] = L[y1 + iy2 ] = L[y1 ] + iL[y2 ]
y como L es real, L[y1 ] y L[y2 ] son ambos reales, por lo que la igualdad anterior implica
L[y1 ] = 0, L[y2 ] = 0
Ademas, la funcion conjugada y(t) = y1 (t) iy2 (t) es tambien solucion de (1.12), pues
L[y] = L[y] = 0 = 0.

Formula de Euler. El resultado anterior resulta util en conjunto con la formula de Euler
para la exponencial de un numero complejo, que se obtiene del desarrollo en serie de la
exponencial:
eibt = cos(bt) + i sin(bt) (1.21)
y en general,
e(a+ib)t = eat eibt = eat cos(bt) + ieat sin(bt) (1.22)
Por lo tanto, para a, b y t reales,

Re[e(a+ib)t ] = eat cos(bt), Im[e(a+ib)t ] = eat sin(bt) (1.23)

Como ejemplo, consideremos nuevamente la ecuacion (1.14), y 00 + y = 0, que es lineal


y real. Es facil ver que y(t) = eit es solucion, pues y 0 (t) = ieit y y 00 (t) = i2 eit = eit . Como
eit = cos(t) + i sin(t)
entonces
y1 (t) = Re[eit ] = cos(t), y2 (t) = Im[eit ] = sin(t)
son soluciones reales linealmente independientes de (1.14), en acuerdo con (1.15).
La funcion conjugada y(t) = eit = cos t i sen t es tambien solucion de (1.14), y forma
con eit un par de soluciones complejas linealmente independientes de (1.14) (probar!).
Tanto {cos t, sen t} como {eit , eit } son bases del mismo espacio S de soluciones.
8
1.4. La ecuacion lineal homogenea de primer orden
Es el caso n = 1. Si a0 (t) = p(t), la ecuacion homogenea (1.12) toma la forma

y 0 + p(t)y = 0 (1.24)

o sea, y 0 = p(t)y. Su solucion general es


R
y(t) = ce p(t)dt
(1.25)
R
como es facil verificar, donde c es una constante y p(t)dt una primitiva de p(t) en el
intervalo I donde es continua.
R La dimension del espacio S de soluciones es 1, siendo
p(t)dt
generado por y1 (t) = e , que claramente satisface y10 (t) = p(t)y1 (t). Cualquier
constante aditiva C en la primitiva puede absorberse en c (c ceC ).
La unica solucion del problema de condiciones iniciales
 0
y + p(t)y = 0
(1.26)
y(t0 ) = y0
es entonces Rt
p(t)dt
y(t) = y0 e t0 (1.27)
R t0 Rt
p(t)dt
ya que y(t0 ) = y0 e t0
= y0 . Aqu t0 p(t)dt es la primitiva que se anula en t = t0 .

Problema 5: Probar que la solucion general de

y 0 + yt = 0
2 /2 2 /2
es y(t) = cet , y que la unica solucion que satisface y(0) = 1 es y(t) = et .

1.5. La ecuacion lineal homogenea de segundo orden


Definiendo p(t) = a1 (t), q(t) = a0 (t), la forma general de esta ecuacion es

y 00 + p(t)y 0 + q(t)y = 0 (1.28)

Esta ecuacion juega un rol muy importante en diversas areas de la fsica e ingeniera. Por
ejemplo, la 2a ley de Newton (1.4) conduce a una ecuacion de este tipo cuando la fuerza
F en (1.4) es una funcion lineal de la posicion y velocidad: F (t) = y + y 0 .
En tal caso p(t) = /m, q(t) = /m.

Los resultados generales anteriores implican que si p(t) y q(t) son continuas en un intervalo
I, la ecuacion (1.28) posee siempre dos soluciones linealmente independientes y1 (t)
y y2 (t), tales que toda solucion de (1.28) puede escribirse en la forma

y(t) = c1 y1 (t) + c2 y2 (t) (1.29)

Esta es la solucion general de (1.28). El espacio S de soluciones tiene dimension 2 y


{y1 (t), y2 (t)} forman una base de S.

9
Ademas, el problema de condiciones iniciales
00
y + p(t)y 0 + q(t)y = 0
y(t0 ) = y0 (1.30)
y 0 (t0 ) = v0

con t0 I, posee solucion unica. Estas condiciones indiciales conducen al sistema



c1 y1 (t0 ) + c2 y2 (t0 ) = y0
(1.31)
c1 y10 (t0 ) + c2 y20 (t0 ) = v0

que entonces posee t0 I una solucion unica para c1 y c2 , para cualquier valor de y0 y
v0 (sistema compatible determinado). Esto implica que el determinante (Wronskiano)

y1 (t) y2 (t)
W (t) = 0
= y1 (t)y20 (t) y2 (t)y10 (t) (1.32)
y1 (t) y20 (t)

debe ser no nulo t I.

Cuando y(t) denota la posicion de un objeto, y0 y v0 representan su posicion inicial


y velocidad incial. Con estos dos datos podemos entonces determinar y(t).

La unicidad implica en particular que si y0 = v0 = 0, entonces y(t) = 0 t I.


Es decir, si una solucion satisface y(t) = y 0 (t) = 0 para algun t I, debe coincidir por
unicidad con la solucion trivial.

Problema 6: Muestre que la unica solucion de (1.31) es

y20 (t0 )y0 y2 (t0 )v0 y10 (t0 )y0 + y1 (t0 )v0
c1 = , c2 =
W (t0 ) W (t0 )

Problema 7: Muestre que si W (t) = 0 t I = (a, b) y y1 , y2 son derivables en I, con


y1 (t) 6= 0, y2 (t) 6= 0 t I, entonces y1 (t) e y2 (t) son linealmente dependientes en este
intervalo.

Problema 8: a) Pruebe que W 0 (t) = y1 (t)y200 (t) y2 (t)y100 (t) .


b) Utilizando a), muestre que si y1 (t) e y2 (t) son dos soluciones de (1.28),
0
W (t) = p(t)W (t) y por lo tanto
Rt
p(t)dt
W (t) = W (t0 )e t0

Esto muestra que si t0 I y W (t0 ) 6= 0, entonces W (t) 6= 0 t I. Tambien implica


W (t) = W (t0 ) (constante) si p(t) = 0 t I.

10
A diferencia de la ecuacion lineal de primer orden, para el caso general no es posible
dar una expresion de y1 e y2 en terminos de integrales de p(t) y q(t). Sin embargo, s es
posible encontrar la segunda solucion y2 (t) si se conoce una de las soluciones y1 (t):

Metodo general para hallar la segunda solucion:


Si y1 (t) es una solucion no nula de (1.28), una segunda solucion linealmente independiente
de y1 (t) es
Z R p(t)dt
e
y2 (t) = v(t)y1 (t), con v(t) = dt (1.33)
y12 (t)

Demostracion: Planteando y2 (t) = v(t)y1 (t), con v(t) a determinar, se obtiene


y20 = v 0 y1 + vy10 , y200 = v 00 y1 + 2v 0 y10 + vy100 y reemplazando en (1.28),
v 00 y1 + v 0 [2y10 + p(t)y1 ] + v[y100 + p(t)y10 + q(t)y1 ] = 0
Como y1 es solucion, el ultimo termino se anula. Definiendo w = v 0 y dividiendo por y1 ,
obtenemos entonces una ecuacion diferencial lineal homogenea de 1o orden para w,
w0 + [2y10 /y1 + p(t)]w = 0
cuya solucion es, aplicando (1.25),
R

R 2y 0
[ y 1 +p(t)]dt ln y12
R
p(t)dt e p(t)dt
w = ce 1 = ce =c 2 (1.34)
y1 (t)
Dado que v 0 = w, integrando la expresion anterior y fijando c = 1 obtenemos el resultado
(1.33). La constante aditiva C en la integral de (1.33) puede descartarse, ya que anade
un termino Cy1 (t) en y2 (t) linealmente dependiente de y1 (t). Como v 0 (t) = w es no nulo
si c 6= 0, v(t) no es constante, y entonces y2 (t) es linealmente independiente de y1 (t).

Ejemplo: Es facil ver que y1 (t) = et es solucion de


y 00 + 2y 0 + y = 0 (1.35)
ya que y 0 = y y y 00 = y. Utilizando (1.33) obtenemos, dado que p(t) = 2 y y12 (t) = e2t ,
Z 2t Z
e
v(t) = dt = 1dt = t + C
e2t
Descartando C, una segunda solucion linealmente independiente de y1 (t) es entonces
y2 (t) = ty1 (t) = tet
y la solucion general de (1.35) es
y(t) = c1 et + c2 tet

Problema 9: Sabiendo que y1 (t) = et es una solucion de y 00 2y 0 + y = 0


encontrar la solucion general de esta ecuacion para t R.

Problema 10: Sabiendo que y1 (t) = t es una solucion de y 00 + y 0 /t y/t2 = 0


encontrar la solucion general de esta ecuacion para t (0, ).
11
1.6. Ecuacion lineal homogenea de segundo orden
con coeficientes constantes
Consideremos ahora el caso muy importante en el que p(t) y q(t) son constantes
t R, es decir, p(t) = a, q(t) = b:

y 00 + ay 0 + by = 0 (1.36)

Este tipo de ecuacion diferencial, en el que no aparece t explcitamente, se denomina


autonoma. Planteamos en este caso una solucion del tipo

y(t) = et (1.37)

con a determinar. Reemplazando en (1.36), se obtiene

et (2 + a + b) = 0 (1.38)

Como et 6= 0 (tanto si es real como complejo), et sera solucion de (1.36) si y solo si

2 + a + b = 0 (1.39)

Esta ecuacion se denomina ecuacion caracterstica. Tiene a lo sumo dos races distintas:

a + a2 4b a a2 4b
1 = , 2 =
2 2

Caso I: 1 6= 2 (a2 6= 4b): Cada raz origina una solucion distinta,

y1 (t) = e1 t , y2 (t) = e2 t (1.40)

que son linealmente independientes. La solucion general de (1.36) es entonces

y(t) = c1 e1 t + c2 e2 t (1.41)

Caso II: 1 = 2 (a2 = 4b): La unica raz = a/2 origina la solucion y1 (t) = et .
La segunda solucion y2 (t) podemos hallarla con el metodo (1.33). Obtenemos aqu
R
e adt eat
Z Z Z
v(t) = dt = dt = 1dt = t
e2t eat

donde hemos descartado las constantes de integracion (ver pagina previa). Por lo tanto,
una segunda solucion linealmente independiente de y1 (t) es y2 (t) = v(t)y1 (t) = tet .
Obtenemos as el par de soluciones linealmente independientes

y1 (t) = et , y2 (t) = tet (1.42)

y la solucion general es
y(t) = c1 et + c2 t et (1.43)

12
Races complejas. Supondremos a y b reales. El caso I comprende dos subcasos:

I.1. a2 > 4b: Ambas races 1 , 2 son reales. Las soluciones son de tipo exponencial
(creciente o decreciente) o constante (si 1 o 2 es nulo).

I.2. a2 < 4b: Las races son complejas conjugadas:



a 4b a2
1 = + i, 2 = i = 1 , con = , =
2 2
y , reales. La solucion general sigue siendo (1.41), pero esta es ahora una represen-
tacion compleja de la misma. Aplicando la formula de Euler (1.23) y el punto 4. de la
pagina 8, podemos obtener dos soluciones reales tomando la parte real e imaginaria de
e1 t :
y1 (t) = Re[e1 t ] = et cos(t), y2 (t) = Im[e1 t ] = et sen (t) (1.44)
que son linealmente independientes si 6= 0. Obtenemos as una expresion real de la
solucion general:
y(t) = c1 et cos(t) + c2 et sen (t) (1.45)
El significado de las races complejas de (1.39) es pues el de soluciones oscilatorias de
frecuencia /2 con una amplitud que puede crecer ( > 0) o decrecer ( < 0) exponen-
cialmente, o bien permanecer constante ( = 0, o sea 1 y 2 imaginarios). Las partes
real e imaginaria de e2 t no originan nuevas soluciones linealmente independientes.

El espacio generado por las soluciones (1.40) o (1.44) es el mismo cuando se consi-
deran escalares complejos: Se deja como ejercicio probar que
c1 et cos(t) + c2 et sen (t) = c+ e(+i)t + c e(i)t (1.46)
con
c1 ic2
c = (1.47)
2
Amplitud y fase. La solucion (1.45) suele escribirse en forma mas clara como

y(t) = Aet cos(t + ) (1.48)

donde representa la frecuencia angular, A la amplitud a t = 0 y una constante de fase.


Esto muestra que toda solucion (1.45) corresponde a un movimiento oscilatorio de perodo
T = 2/ y amplitud efectiva Aet , que decrece ( < 0) o crece ( > 0) exponencialmente
o bien es constante ( = 0). indica la diferencia de fase de la oscilacion respecto de
cos(t). Como cos(t + ) = cos t cos sen (t) sen (), entonces

A cos = c1 , A sin = c2

y por lo tanto (probar!) q


A= c21 + c22 , tan = c2 /c1 (1.49)
En (1.44), y1 (t) corresponde a A = 1, = 0, mientras que y2 (t) a A = 1, = /2.

13
yHtL yHtL yHtL

A =0 A =4 A =2

t t t
T 2T 3T 4T T 2T 3T 4T T 2T 3T 4T

-A -A -A

Grafico de la solucion (1.48), y(t) = Aet cos(t + ), para = /10 y distintos valores
de la fase . T = 2/ > 0 es el perodo de la funcion cos(t + ).

Ejemplo 1:
y 00 y = 0 (1.50)
Planteando una solucion de la forma y(t) = et , se obtiene la ecuacion 2 1 = 0, cuyas
races son 1 = 1, 2 = 1. Por lo tanto,

y1 (t) = et , y2 (t) = et (1.51)

son dos soluciones linealmente independientes de (1.50) y la solucion general es

y(t) = c1 et + c2 et

Ejemplo 2:
y 00 + 2y 0 + y = 0 (1.52)
Planteando una solucion de la forma y(t) = et , se obtiene la ecuacion 2 + 2 + 1 = 0,
es decir ( + 1)2 = 0, cuya unica raz es = 1. Por lo tanto, utilizando (1.42),

y1 (t) = et , y2 (t) = tet (1.53)

son dos soluciones linealmente independientes de (1.52) y la solucion general es

y(t) = c1 et + c2 tet

Ejemplo 3:
y 00 + 2y 0 + 5y = 0 (1.54)
Planteando una solucion

de la forma y(t) = et , seobtiene la ecuacion 2 +2+5 = 0, cuyas
races son 1 = 2+ 2 420 = 1 + 2i, 2 = 2 2 420 = 1 2i. Por lo tanto, utilizando
(1.44),

y1 (t) = Re[e(1+2i)t ] = et cos(2t), y2 (t) = Im[e(1+2i)t ] = et sen (2t) (1.55)

son dos soluciones reales linealmente independientes de (1.54) y la solucion general es

y(t) = c1 et cos(2t) + c2 et sen (2t)

Esta solucion general puede expresarse tambien como y(t) = c+ e(1+2i)t + c e(12i)t o
y(t) = Aet cos(2t + ), donde c y A, se relacionan con c1 , c2 mediante (1.47) y (1.49).

14
yHtL
yHtL yHtL

4 1 1
Exp@tD Exp@-tD Cos@2tD
3
Exp@-tD
2 Exp@-tD Sin@2tD
t Exp@-tD
1 0 t
Exp@-tD 1 2 3 4
0 t0 1 2 3 4
t
1 2 3 4

Grafico de las soluciones (1.51)(1.53)(1.55) de las ecuaciones (1.50)(1.52)(1.54).

Problema
 11: Halle las soluciones particulares de (1.50), (1.52) y (1.54) que satisfacen
y(0) = 1
. Grafique estas soluciones.
y 0 (0) = 0
y1 y2
Problema 12: Si W [y1 , y2 ] = 0
denota el wronskiano (1.32), muestre que
y1 y20
a) W [e1 t , e2 t ] = (2 1 )e(1 +2 )t
b) W [et , tet ] = e2t
c) W [et cos(t), et sen (t)] = e2t

Ejercicios I:
1) Hallar la solucion general de las siguientes ecuaciones diferenciales. Dar una expresion
real de la misma.
a) y 00 4y 0 + 4y = 0 b) y 00 3y 0 4y = 0 c) y 00 + 4y = 0
d) y 00 + 4y 0 = 0 e) y 00 + 4y 0 + 5y = 0 f ) y 00 = 0
000 0
g) y = y h) y 00 + 2y 0 + 2 y = 0, i) y 00 2 y = 0, 6= 0
2) Excepto en g), hallar las soluciones particulares de las ecuaciones anteriores que satis-
facen a) y(0) = 0, y 0 (0) = 1, b) y(0) = 1, y 0 (0) = 0. Grafquelas.
En g) considerar y(0) = y 0 (0) = y 00 (0) = 1.

3) Mostrar que si y(t) es solucion de la ecuacion y 00 + by 0 + ay = 0, con a, b constantes,


w(t) = y 0 (t) es tambien solucion de la misma ecuacion. Exprese las condiciones iniciales
que satisface w en terminos de las de y.

4) Muestre que si y(t) es solucion de y 00 + by 0 + ay = 0 y satisface y(0) = y0 , y 0 (0) = v0 , la


solucion que satisface y(t0 ) = y0 , y 0 (t0 ) = v0 es y(t t0 ). Generalizar al caso de orden n.

5) a) Sabiendo que t es solucion de la ecuacion


y 00 2y 0 /t + 2y/t2 = 0
encontrar una segunda solucion linealmente independiente de t para t (0, ) y escribir
la solucion general.
b) Mostrar que existen en este caso infinitas soluciones que satisfacen y(0) = 0, y 0 (0) = 1,
y ninguna que satisface y(0) = 1, y 0 (0) = 0. Explicar la causa de esta no unicidad y no
existencia !! Sucede lo mismo para y(1) = 0, y 0 (1) = 1 y y(1) = 1, y 0 (1) = 0?

15
1.7. Aplicaciones
Problema 13: El oscilador armonico. Determinar el mo-
vimiento de una masa m > 0 unida a un resorte de constante
k > 0, de modo que la fuerza neta sobre la masa es F = ky,
con y la posicion medida desde el punto de equilibrio.
M

Hemos visto que la ecuacion de movimiento es (vease ecuacion (1.5))


p
y 00 + 2 y = 0, = k/m > 0 (1.56)

a) Planteando una solucion y(t) = et , mostrar que = i y que por lo tanto, las
soluciones reales linealmente independientes son

y1 (t) = Re[eit ] = cos(t), y2 (t) = Im[eit ] = sen (t)

y la solucion general es
y(t) = c1 cos(t) + c2 sen (t)
b) Usando (1.48), reescribir esta solucion como

y(t) = A cos(t + )

Esta expresion permite ver claramente que toda solucion corresponde a un movimiento
oscilatorio de amplitud A y frecuencia angular . La frecuencia de oscilacion es

f=
2
y el perodo r
1 2 m
T = = = 2
f k
ya que T = 2 y por lo tanto A cos((t + T ) + ) = A cos(t + ) (probar!). Observar
que el perodo es independiente de la amplitud A y la fase , es decir, de las condiciones
iniciales. Estas determinan A y , pero no .

c) Probar que si y(0) = y0 , y 0 (0) = v0 , entonces

c1 = y0 , c2 = v0 /

y por lo tanto q
A = y02 + v02 / 2 , tan = v0 /(y0 )
c) Analizar el caso = 0 en (1.56). Determinar la solucion general.

16
Problema 14: El oscilador armonico amortiguado.
Determinar el movimiento de una masa m > 0 unida a un resorte
de constante k > 0 en un medio viscoso (en el que la fuerza de
roce es proporcional a la velocidad), de modo que la fuerza neta
sobre la masa es F = ky y 0 , con y la posicion medida desde
el punto de equilibrio y > 0 un coeficiente de roce.
M

La ecuacion de movimiento resultante puede escribirse en la forma


r
k
y 00 + 2y 0 + 2 y = 0, = > 0, = >0
m 2m
que es nuevamente una ecuacion diferencial lineal homogenea de segundo orden. Tanto
como tienen las mismas unidades (tiempo1 ).
a) Proponiendo una solucion y(t) = et , mostrar que la ecuacion caracterstica es
2 + 2 + 2 = 0
y que sus soluciones son p
= 2 2
b) Mostrar que existen tres casos diferentes:
I. > : Movimiento sobreamortiguado. Probar que en este caso ambas races
son reales, negativas y distintas, por lo que la solucion general es combinacion lineal
de exponenciales decrecientes:

2 2 2 2
y(t) = c1 e+ t + c2 e t = c1 e(+ )t + c2 e( )t
El roce es lo suficientemente fuerte como para suprimir las oscilaciones. Describa cualita-
tivamente el movimiento resultante.

II. = : Amortiguamiento crtico. Probar que en este caso ambas races son
coincidentes: = < 0, y que la solucion general es
y(t) = c1 et + c2 tet
Describa en forma cualitativa el movimiento resultante.

III. < : Movimiento subamortiguado. Probar que en este caso las races son
complejas conjugadas,
p
= i , = 2 2 > 0
con real, y que la solucion general es entonces
y(t) = c1 et cos( t) + c2 et sen ( t) = Aet cos( t + )
Describa en forma cualitativa el movimiento resultante, mostrando que corresponde a un
movimiento oscilatorio con una amplitud que decrece exponencialmente al aumentar t, y
una frecuencia angular efectiva < . = 1/ es el tiempo de decaimiento (o relajacion).

c) Hallar la solucion en los casos I, II y III que satisface las condiciones iniciales:
i) Desplazamiento inicial A, velocidad inicial nula: y(0) = A, y 0 (0) = 0.
ii) Desplazamiento inicial nulo, velocidad inicial v0 : y(0) = 0, y 0 (0) = v0 .
17
yHtL yHtL

A =0 A =0

t t
T 2T 3T 4T T 2T 3T 4T

-A -A

yHtL yHtL

A =10 A =10

t t
T 2T 3T 4T T 2T 3T 4T

-A -A

yHtL yHtL

A = A =

t t
T 2T 3T 4T T 2T 3T 4T

-A -A

yHtL yHtL

A =2 A =2

t t
T 2T 3T 4T T 2T 3T 4T

-A -A

y(0) = A, y 0 (0) = 0 y(0) = 0, y 0 (0) = A

Movimiento oscilatorio armonico y amortiguado: Graficas de la solucion y(t). La co-


lumna izquierda corresponde a condiciones iniciales y(0) = A, y 0 (0) = 0 (velocidad inicial
nula, partiendo de A) y la derecha a y(0) = 0, y 0 (0) = A (velocidad inicial fija, partien-
do del punto de equilibrio). La primer fila representa el movimiento oscilatorio armonico
( = 0), la segunda el movimiento subamortiguado (0 < < ), la tercera el caso crti-
co ( = ) y la cuarta el movimiento sobreamortiguado ( > ). En todos los casos
T = 2/ es el perodo del movimiento oscilatorio en ausencia de roce.

18
Problema 15: Circuito LCR en serie. i C
Determinar la descarga de un capacitor de capacitancia L
C en un circuito como el de la figura, con resistencia R
e inductancia L. R

a) Si q es la carga y dq/dt = i la corriente, probar que la ecuacion del circuito conduce


a la ecuacion diferencial
d2 q dq q
L 2 + R+ =0
dt dt C
Llamamdo y(t) = q(t), podemos escribir esta ecuacion en la forma
R 1
y 00 + 2y 0 + 2 y = 0, = > 0, = >0
2L LC
que es exactamente igual a la del movimiento oscilatorio amortiguado: La inductancia L
reemplaza a la masa m, la resistencia R al coeficiente de roce viscoso , la capacitancia C
a la inversa de la constante de resorte k y la carga al desplazamiento respecto del punto
de equilibrio. Es un ejemplo de analoga fsica: Sistemas muy distintos quedan descriptos
por la misma ecuacion diferencial, y exhiben por lo tanto el mismo comportamiento en
las variables correspondientes. Podemos pues simular un circuito LCR en serie mediante
una masa unida a un resorte en un lquido viscoso o viceversa!

b) Discutir los tres casos posibles de evolucion, indicando para que valores de L, C, R el
sistema sera sub y sobre-amortiguado, y en que caso sera crtico.
c) Determinar explcitamente la solucion para una carga inicial q0 y corriente inicial i0 = 0
(circuito inicialmente abierto, que se cierra en t = 0).

Problema 16: Pendulo simple.


Determinar el movimiento de una masa m unida a un
hilo o barra de longitud L (y masa despreciable).

Puede mostrarse que la ecuacion que describe el movimiento es

mL00 = mg sen

donde es el angulo que forma el hilo con la vertical, ya que la fuerza en la direccion
tangencial es mg sen . Podemos reescribir esta ecuacion como

00 + 2 sen = 0, 2 = g/L

Esta es una ecuacion diferencial de segundo orden no lineal, por lo que en principio no
podemos aplicar los metodos presentes. Sin embargo, para pequenos angulos ||  1,
podemos escribir, utilizando el desarrollo de Maclaurin de sen ,

sen = + O(3 )

19
Despreciando los terminos O(3 ), obtenemos la aproximacion lineal sen , que con-
duce a la ecuacion diferencial lineal
00 + 2 = 0
Esta es exactamente igual a la del oscilador armonico. Por lo tanto, para pequenos angulos
el movimiento del pendulo es similar al de una masa unida a un resorte.
a) Mostrar, en base a la discusion anterior, que el perodo de oscilacion para pequenos
angulos iniciales sera independiente de la amplitud:
p
T = 2/ = 2 L/g
b) Determinar (t) para (0) = 0 , 0 (0) = 0.

Problema 17: Pequenas oscilaciones en torno al equilibrio


El caso del pendulo muestra el comportamiento general de sistemas estables en torno a
un punto de equilibrio. En dicho punto, la fuerza es nula. Si la fuerza es una funcion de la
posicion x, su desarrollo de Taylor en torno a dicho punto (denotado como x0 ) conduce a
F (x) = F (x0 ) + F 0 (x0 )(x x0 ) + O((x x0 )2 )
Como F (x0 ) = 0, despreciando los terminos O((x x0 )2 ) obtenemos
F (x) k(x x0 ), k = f 0 (x0 )
que es la aproximacion lineal a F en x0 . La segunda ley de Newton conduce entonces a
la ecuacion mx00 = k(x x0 ), que es valida para describir el movimiento en la vecindad
del punto de equilibrio si k 6= 0.
a) Probar que la ecuacion para el desplazamiento y = x x0 respecto del punto de
equilibrio es
k
y 00 + y = 0
m
0
b) Mostrar
q que si k > 0 (f (x 0 ) < 0) el sistema ejecuta oscilaciones de frecuencia angular
k
= m si se lo aparta de la posicion de equilibrio. Este es el caso de equilibrio estable,
en el que la fuerza es restitutiva.
0
c) Mostrar
que si k < 0 (f (x0 ) > 0) el sistema se aleja en general en forma exponencial
(y e |k|/m t ) de la posicion de equilibrio si es apartado. Este es el caso de equilibrio
inestable, en el que la fuerza tiende a alejar al sistema del punto de equilibrio.
d) Discutir el caso k = 0.

Ejercicios II:
1) Determinar el movimiento de una masa m = 1kg sujeta a un resorte de constante
k = 1N/m, con un coeficiente de roce viscoso : Halle la solucion general, el perodo en
ausencia de roce, y el valor de a partir del cual el sistema cesa de exhibir oscilaciones.
2) Determine la solucion de la ecuacion diferencial
y 00 + 2y 0 2 y = 0
que corresponde a k < 0 en el problema 17, asumiendo > 0, > 0. Indique si el roce
( = 2m) logra evitar el alejamiento de la posicion de equilibrio.

20
Problema 18: Ecuacion de Euler de 2o orden.
Esta ecuacion es de la forma
y0 y
y 00 + b + a 2 = 0 (1.57)
x x
donde a y b son constantes y x (0, ) denota la variable independiente. Esta ecuacion
lineal puede resolverse exactamente y surge en diversas aplicaciones.
a) Mostrar que la funcion
y(x) = x
sera solucion de (1.57) si y solo si es raz de la ecuacion

2 + (b 1) + a = 0

b) Si dicha ecuacion posee dos races distintas 1 , 2 , justifique que la solucion general es

y(x) = c1 x1 + c2 x2 (1.58)

c) Si en cambio 1 = 2 = , demuestre, utilizando el metodo (1.33), que la segunda


solucion es y2 (x) = x ln x y que la solucion general en este caso es

y(x) = c1 x + c2 x ln x (1.59)

d) Si es complejo, entonces = + i y x = e ln x = x ei ln x . Aplicando la formula


de Euler, muestre que la expresion real de la solucion general es

y(x) = c1 x cos( ln x) + c2 x sen ( ln x)

e) La ecuacion (1.57) puede tambien resolverse reemplazando x = et . Muestre que esta


sustitucion transforma (1.57) en una ecuacion lineal de 2o orden con coeficientes constantes
en t = ln x:
d2 y dy
2
+ (b 1) + ay = 0
dt dt
t
y que como e = x , se vuelven a obtener las soluciones anteriores en la variable x.

f) Utilizando los resultados anteriores, halle la solucion general de las ecuaciones

i) y 00 + y 0 /x 4y/x2 = 0, ii) y 00 3y 0 /x + 4y/x2 = 0

g) Pruebe que la solucion general de

y 00 + 2y/x l(l + 1)y/x2 = 0

para l 6= 1/2 es y(x) = c1 xl + c2 xl1 . Que sucede si l = 1/2?

21
1.8. Ecuacion lineal homogenea de orden n con coeficientes cons-
tantes
Los resultados anteriores se generalizan en forma inmediata a la ecuacion
y (n) + a(n1) y (n1) + . . . + a1 y 0 + a0 y = 0
donde a0 , . . . , an1 son constantes. Proponiendo una solucion y(t) = et , obtenemos
et [n + an1 n1 + . . . + a1 + a0 ] = 0, lo que conduce a la ecuacion caracterstica
n + an1 n1 + . . . + a1 + a0 = 0
Si esta ecuacion posee n races distintas i , i = 1, . . . , n, las n soluciones linealmente
independientes seran yi (t) = ei t y la solucion general sera
y(t) = c1 e1 t + . . . + cn en t
Por el contrario, si una raz tiene multiplicidad m, pueden obtenerse de ella m soluciones
linealmente independientes,
et , tet , . . . , tm1 et
P
Como la suma de todas las multiplicidades de las races distintas es n ( i mi = 1) se
obtienen as n soluciones linealmente independientes.
Las races complejas se tratan de forma similar. Si los ai , i = 1, . . . , n, son todos reales,
las races complejas aparecen en pares conjugados: = i. De cada par de multiplici-
dad m pueden obtenerse 2m soluciones reales tk et cos(t), tk et sen(t), k = 0, . . . , m1.
Importante: Todas las races, tanto reales como complejas, deben ser incluidas en la so-
lucion general.

Ejemplo 1: Encontrar la solucion general de la ecuacion de cuarto orden


y 0000 y = 0
Proponiendo y(t) = et , obtenemos la ecuacion
4 1 = 0
Las 4 races de esta ecuacion son 1 = 1, 2 = 1, 3 = i, 4 = i. Tomando las partes
real e imaginaria de eit , la solucion general sera
y(t) = c1 et + c2 et + c3 cos t + c4 sen t
Los cuatro valores iniciales y(t0 ), y 0 (t0 ), y 00 (t0 ) y y 000 (t0 ) determinan las cuatro constantes.

Ejemplo 2: Encontrar la solucion general de la ecuacion de tercer orden


y 000 + 3y 00 + 3y 0 + y = 0
Proponiendo y(t) = et , obtenemos la ecuacion 3 +32 +3+1 = 0, es decir (+1)3 = 0,
cuya unica raz es = 1, con multiplicidad 3. La solucion general es entonces
y(t) = c1 et + c2 tet + c3 t2 et
Ejercicios III: Determine la solucion general de las ecuaciones
a) y 0000 2y 00 + y = 0 b) y 000 = 0
22
1.9. La ecuacion diferencial lineal no homogenea
Consideremos ahora el caso general

y (n) + an1 (t)y (n1) + . . . + a1 (t)y 0 + a0 (t)y = f (t) (1.60)

es decir,
L[y] = f (t) (1.61)
donde a1 (t), . . . , an (t) y f (t) continuas en intervalo abierto I.

1. La solucion general de (1.60) esta dada por la suma de la solucion general yh (t) de la
ecuacion homogenea mas una solucion particular yp (t) de la ecuacion no homogenea:

y(t) = yh (t) + yp (t) (1.62)

donde
yh (t) = c1 y1 (t) + . . . + cn yn (t) (1.63)
es la solucion general (1.13) y satisface L[yh ] = 0, mientras que yp (t) satisface L[yp ] = f (t).

Demostracion: Dado que L[yh ] = 0 y L[yp ] = f (t), vemos que (1.62) es tambien
solucion de (1.60), pues al ser L lineal,

L[yh + yp ] = L[yh ] + L[yp ] = 0 + f (t) = f (t)

Ademas, toda solucion y(t) de (1.60) es de la forma (1.62), pues si L[y(t)] = f (t), entonces

L[y yp ] = L[y] L[yp ] = f (t) f (t) = 0

lo que muestra que la diferencia y(t) yp (t) es una solucion yh (t) de la ecuacion
homogenea. Por lo tanto y(t) yp (t) = yh (t) y entonces y(t) = yh (t) + yp (t).
Para resolver la ecuacion (1.60) debemos pues resolver la ecuacion homogenea y luego
encontrar alguna solucion particular yp (t) de (1.60) mediante algun metodo.

El conjunto de soluciones de (1.60) no es un espacio vectorial si f (t) 6= 0 (no


contiene a la funcion nula y no es cerrado bajo suma de funciones o multiplicacion por un
escalar). Sin embargo, la linealidad de L implica el siguiente resultado:

2. Si yp1 (t), yp2 (t) son soluciones de (1.60) para f (t) = f1 (t) y f (t) = f2 (t) respectiva-
mente, una solucion particular de (1.60) para la combinacion lineal
f (t) = c1 f1 (t) + c2 f2 (t) es la combinacion lineal de soluciones particulares:

L[yp1 ] = f1 (t), L[yp2 ] = f2 (t) L[c1 yp1 + c2 yp2 ] = c1 f1 (t) + c2 f2 (t)

ya que L[c1 yp1 + c2 yp2 ] = c1 L[yp1 ] + c2 L[yp2 ] = c1 f1 (t) + c2 f2 (t).


En particular, L[yp1 + yp2 ] = f1 (t) + f2 (t) y L[cypi (t)] = cfi (t), i = 1, 2.
Por lo tanto si f (t) es suma de terminos mas simples, podemos hallar una solucion parti-
cular sumando las soluciones para c/uno de los terminos.

23
1.10. La ecuacion lineal no homogenea de primer orden
La ecuacion es
y 0 + p(t)y = f (t) (1.64)
Vimos previamente que la solucion general de la ecuacion homogenea es
R
yh (t) = cy1 (t), y1 (t) = e p(t)dt

Para hallar una solucion particular, utilizamos el metodo usualmente denominado varia-
cion de parametros: Como en (1.33), consiste en proponer una solucion de la forma

yp (t) = v(t)y1 (t)

con v(t) una funcion a determinar. Reemplazando en (1.64) se obtiene

v 0 y1 (t) + v[y10 (t) + p(t)y1 (t)] = f (t)


f (t)
pero como y10 (t) + p(t)y1 (t) = 0 obtenemos v 0 y1 (t) = f (t). Por lo tanto, v 0 = y1 (t)
y
Z Z
f (t) R
p(t)dt
v(t) = dt = e f (t)dt
y1 (t)

Una solucion particular es entonces


Z Z R
f (t) R
p(t)dt
yp (t) = y1 (t) dt = e e p(t)dt f (t)dt (1.65)
y1 (t)

y la solucion general de (1.64) es


Z
f (t)
y(t) = cy1 (t) + y1 (t) dt (1.66)
y1 (t)
R R
Z R
= ce p(t)dt
+ e p(t)dt
e p(t)dt
f (t)dt (1.67)

Problema 19: Probar que la solucion particular que se anula en t = t0 puede escribirse
como Z t Rt
yp (t) = g(t, t0 )f (t0 )dt0 , con g(t, t0 ) = y1 (t)/y1 (t0 ) = e t0 p(s)ds
t0

y que g(t, t0 ) es la solucion de la ecuacion homogenea que satisface y(t0 ) = 1.

Ejemplo: Utilizando (1.67), vemos que una solucion particular de y 0 + yt = t es


Z
t2 /t 2 2 2
yp (t) = e et /2 tdt = et /2 et /2 = 1

2 /2
y que la solucion general es entonces y(t) = cet + 1.

24
1.11. La ecuacion lineal no homogenea de segundo orden
Consideremos ahora
y 00 + p(t)y 0 + q(t)y = f (t) (1.68)

Si se conocen dos soluciones linealmente independientes y1 (t), y2 (t) de la ecuacion ho-


mogenea, es siempre posible encontrar una solucion particular utilizando nuevamente el
metodo de variacion de parametros. El resultado es
Z Z
y2 (t)f (t) y1 (t)f (t)
yp (t) = y1 (t) dt + y2 (t) dt (1.69)
W (t) W (t)

donde
y (t) y2 (t)
W (t) = 10 = y1 (t)y20 (t) y10 (t)y2 (t)

(1.70)
y1 (t) y20 (t)
es el wronskiano de las soluciones (hemos visto ya que W (t) 6= 0 t I).
La solucion general de (1.68) es entonces

y(t) = c1 y1 (t) + c2 y2 (t) + yp (t)

Demostracion: Proponemos una solucion particular de la forma


yp (t) = v1 (t)y1 (t) + v2 (t)y2 (t)
donde y1 (t) e y2 (t) son dos soluciones linealmente independientes de la solucion homogenea
y v1 (t), v2 (t) funciones a determinar. Imponiendo la condicion v10 (t)y1 (t) + v20 (t)y2 (t) = 0,
obtenemos yp0 = v1 y10 + v2 y20 y entonces yp00 = v10 y10 + v20 y20 + v1 y100 + v2 y200 . Reemplazando en
(1.68) se obtiene entonces
v10 y10 + v20 y20 + v1 [y100 + p(t)y10 + q(t)y1 ] + v2 [y200 + p(t)y20 + q(t)y2 ] = f (t)
pero como y1 e y2 son solucion de la ecuacion homogenea, los dos ultimos terminos del
primer miembro se anulan. Por lo tanto, la condicion impuesta y la ecuacion anterior
conducen al sistema  0
v1 (t)y1 (t) + v20 (t)y2 (t) = 0
(1.71)
v10 (t)y10 (t) + v20 (t)y20 (t) = f (t)
Despejando v10 (t) y v20 (t) y luego integrando, obtenemos
Z Z
y2 (t) y1 (t)
v1 (t) = f (t)dt , v2 (t) = f (t)dt (1.72)
W (t) W (t)
donde W (t) es el wronskiano (1.70). Esto conduce a la solucion (1.69).
Problema 20: Probar (1.72) a partir de (1.71).

Problema 21: Probar a partir de (1.69) que la solucion particular que satisface yp (t0 ) =
yp0 (t0 ) = 0 es
Z t
y1 (t)y2 (t0 ) + y2 (t)y1 (t0 )
yp (t) = g(t, t0 )b(t0 )dt0 , g(t, t0 ) =
t0 W (t0 )
siendo g(t, t0 ) la solucion de la ecuacion homogenea que satisface y(t0 ) = 0, y 0 (t0 ) = 1.
25
Ejercicios III. Halle la solucion general de las siguientes ecuaciones diferenciales.
Utilice resultados de ejercicios previos.

a) y 00 + y 0 /t 4y 0 /t2 = t b) y 00 y = et

1.12. La ecuacion lineal no homogenea de segundo orden con


coeficientes constantes
Consideremos ahora el caso en que p(t) = a y q(t) = b son constantes:

y 00 + ay 0 + by = f (t) (1.73)

es decir,
L[y] = f (t), L[y] = y 00 + ay 0 + by

Metodo general:
Para obtener una solucion particular en el caso de una f (t) general, podemos aplicar el
metodo de variacion de parametros, cuyo resultado final es la ecuacion (1.69).

Problema 22: Probar que si las soluciones linealmente independientes son


y1 (t) = e1 t y y2 (t) = e2 t , con 1 6= 2 , la ecuacion (1.69) implica la solucion particular
Z Z
1 1 t
yp (t) = [e 1 t
e f (t)dt e2 t
e2 t f (t)dt] (1.74)
1 2
Problema 23: Probar que si las soluciones linealmente independientes son
y1 (t) = et y y2 (t) = tet , entonces
Z Z
yp (t) = e [t e f (t)dt tet f (t)dt]
t t
(1.75)

Problema 24: a) Probar que si las soluciones linealmente independientes son


y1 (t) = et cos(t) y y2 (t) = et sin(t), 6= 0, entonces

et
Z Z
yp (t) = [ cos(t) e sin(t)f (t)dt + sin(t) et cos(t)f (t)dt] (1.76)
t

Problema 25: Muestre que la solucion particular que satisface yp (t0 ) = yp0 (t0 ) = 0 puede
escribirse en todos los casos como
Z t
yp (t) = g(t t0 )b(t0 )dt0 ,
t0

con g(t) la solucion de la ecuacion homogenea que satisface y(0) = 0, y 0 (0) = 1.

26
Ejemplo : Resolver
y 00 + 4y 0 + 4y = f (t)
Proponiendo y(t) = et para la solucion de la ecuacion homogenea se obtiene 2 +4+4 =
( + 2)2 = 0, o sea = 2. La solucion general de la ecuacion homogenea es entonces

yh (t) = c1 e2t + c2 te2t


Tomando y1 (t) = e2t , y2 (t) = te2t , tenemos W (y1 , y2 ) = e4t y aplicando (1.69) o
directamente la expresion final (1.75), obtenemos la solucion particular
Z Z
2t
yp (t) = e [t e f (t)dt te2t f (t)dt]
2t

Por ejemplo, si f (t) = e2t , se obtiene

t2
Z Z
yp (t) = e [t dt tdt] = e2t [t2 t2 /2] = e2t
2t
2
La solucion general de la ecuacion

y 00 + 4y 0 + 4y = e2t

es entonces
t2 2t
y(t) = c1 e2t + c2 te2t + e
2

0 c1 + 0 = 0
Si las condiciones iniciales son y(0) = y (0) = 0, se obtiene el sistema
2c1 + c2 = 0
cuya unica solucion es c1 = c2 = 0. La unica solucion particular de la ecuacion anterior
2
que satisface esta condicion inicial es por lo tanto y(t) = t2 e2t .

Ejercicios IV. Halle la solucion general de las siguientes ecuaciones diferenciales:

a) y 00 + 2y 0 + y = et b) y 00 + 2y 0 + y = tet

c) y 00 + y = A cos(t) d) y 00 y = Aet

et
e) y 00 + 2y 0 + y = 1+t2
f ) y 00 y = et cos t

27
1.13. Metodo de coeficientes indeterminados para ecuaciones
con coeficientes constantes
En el caso de coeficientes constantes, este metodo facilita el calculo de una solucion
particular de L[y] = f (t) cuando f (t) es exponencial, seno, coseno, polinomio o producto
de estas funciones. Consiste en proponer una solucion particular yp (t) del mismo tipo que
f (t), si es que tal propuesta no contiene sumandos que sean soluciones de la ecuacion
homogenea. Damos a continuacion una tabla de propuestas basicas de solucion particu-
lar yp (t) de L[y] = f (t), validas para el caso general de orden n con coeficientes constantes.

f (t) yp (t) Condicion


t t
Ae Be L[et ] 6= 0
A0 + A1 t + . . . + Am tm B0 + B1 t + . . . + Bm tm L[1] 6= 0
t m t m
e (A0 + A1 t + . . . + Am t ) e (B0 + B1 t + . . . + Bm t ) L[et ] 6= 0
A cos t o A sen t B cos t + C sen t L[eit ] 6= 0
Aeit Beit L[eit ] 6= 0
Aet cos t o Aet sen t et [B cos t + C sen t] L[e(+it) ] 6= 0
Ae(+i)t Be(+i)t L[e(+i)t ] 6= 0

donde A, B, C, etc. son constantes a determinar. Si no se cumple la condicion indicada,


debe multiplicarse la propuesta anterior por t o en general, tk , con k el menor numero
natural tal que ningun sumando de tk yp (t) sea solucion de L[y] = 0.
Por la linealidad de L (punto 2. de la pagina 23), si f (t) es suma de varios terminos
del tipo anterior, yp (t) sera la suma de las soluciones particulares para cada termino.
El metodo puede justificarse tanto a partir de la solucion general (1.69) (ver pagina
previa) como de la observacion que L aplicado a cada una de estas funciones da una funcion
del mismo tipo. Por ejemplo, L[et ] = P ()et , donde P () es el polinomio caracterstico
(Probar!).
Ejemplo 1:
y 00 + ay 0 + by = Aet (1.77)
Proponiendo yp (t) = Bet y reemplazando, se obtiene
Bet [2 + a + b] = Aet
y por lo tanto,
A
B=
2
+ a + b
si P () = +a+b 6= 0, es decir, si no es raz del polinomio caracterstico (L[et ] 6= 0).
2

La solucion general de (1.77) es entonces


A
y(t) = c1 y1 (t) + c2 y2 (t) + et (L[et ] 6= 0)
+ a + b2
donde y1 e y2 son dos soluciones linealmente independientes de la ecuacion homogenea.
Importante: Las condiciones iniciales y(0) = y0 , y 0 (0) = v0 , se deben ajustar con la
solucion completa, que contiene a la solucion particular.
28
Problema 26: Mostrar que una solucion particular de y 00 + y = Aet es yp (t) = 21 Aet .

Si en cambio es raz de la ecuacion caracterstica (L[et ] = 0), se propone


yp (t) = Btet
Obtenemos yp0 = Bet (1 + t), yp00 = Bet (2 + 2 t) y entonces, reemplazando en (1.77),
Bet [t(2 + a + b) + a + 2] = Aet
Como 2 + a + b = 0, obtenemos
A
B=
a + 2
si a + 2 6= 0. La solucion general de (1.77) en este caso es entonces
A
y(t) = c1 y1 (t) + c2 y2 (t) + tet (L[et ] = 0, L[tet ] 6= 0)
a + 2
Si tambien a + 2 = 0, sera justamente raz doble de la ecuacion caracterstica, en el
que tet es tambien solucion (Probar!). En este caso se debe proponer yp = Bt2 et ,
o utilizar el metodo general (1.69).
Problema 27: Hallar la solucion general de (1.77) si es raz doble (a2 = 4b, = a/2).

Problema 28: Mostrar que una solucion particular de y 00 y = Aet es yp (t) = 21 Atet .

Ejemplo 2:
y 00 + ay 0 + by = A0 + A1 t + A2 t2 , A2 6= 0 (1.78)
Proponiendo
yp (t) = B0 + B1 t + B2 t2
se obtiene yp0 = B1 + 2B2 t, yp00 = 2B2 y reemplazando en (1.78),
(2B2 + aB1 + bB0 ) + (2aB2 + bB1 )t + bB2 t2 = A0 + A1 t + A2 t2
Igualando los coeficientes de igual grado, se llega al sistema

bB0 + aB1 + 2B2 = A0
bB1 + 2aB2 = A1
bB2 = A2

que es compatible con solucion unica si b 6= 0. Puede resolverse directamente comenzando


con la ultima ecuacion.
Importante: El polinomio propuesto debe ser completo, aun si A0 = 0 o A1 = 0.
Problema 29: Mostrar que una solucion particular de y 00 +2y 0 +y = t2 es yp (t) = 64t+t2 .

Si en cambio b = 0, caso en el que L[1] = 0 (probar!) se debe proponer una solucion


particular
yp (t) = t(B0 + B1 t + B2 t2 )
Problema 30: Mostrar que una solucion particular de y 00 +y 0 = t2 es yp (t) = t(2t+t2 /3).

29
Ejemplo 3:
y 00 + ay 0 + by = A cos t (1.79)
Tenemos dos formas de resolverlo: 1) Se propone
yp (t) = B cos t + C sen t
Se obtiene yp0 = (C cos t B sen t), yp00 (t) = 2 yp y reemplazando en la ecuacion,
((b 2 )B + aC) cos t + ((b 2 )C aB) sen t = B cos t
que conduce al sistema 
(b 2 )B + aC = A
aB + (b 2 )C = 0
Este posee solucion unica salvo que a = 0 y 2 = b > 0 (asumiendo real), caso en el
que cos t es solucion.
Problema 31: Probar que una solucion particular de y 00 + 2y 0 + y = A cos t
es yp (t) = 21 A sen t.

2) La segunda forma, asumiendo a, b, A y reales, es resolver la ecuacion


y 00 + ay 0 + by = Aeit
ya que eit = cos t + i sen t. Se propone as la solucion particular Beit . Se obtiene,
reemplazando en la ecuacion,
B[ 2 + ai + b]eit = Aeit
de donde, asumiendo 2 6= b si a = 0,
A
B=
2
b + ai
it
Dado que cos t = Re[e ], la solucion particular para f (t) = A cos t es entonces
yp (t) = Re[Beit ]
Las ventajas de esta segunda forma, que es la utilizada en Ingeniera, son varias:
i) Es necesario determinar un solo coeficiente: B.
ii) Escribiendo B en forma polar B = |B|ei , se obtiene Beit = |B|ei(t+) y entonces,
yp (t) = Re[|B|ei(t+) ] = |B| cos(t + )
Esta expresion nos da explcitamente tanto la amplitud |B| como la diferencia de fase
de la solucion con respecto a la entrada A cos t, que son justamente los datos buscados
de la solucion en las aplicaciones practicas de este tipo de problemas.
iii) La parte imaginaria de la solucion particular compleja es una solucion particular de
y 00 + ay 0 + by = A sen t
por lo que se resuelven ambos problemas (L[y] = A cos t y L[y] = A sen t) simultanea-
mente con un solo coeficiente B.
Problema 32: Probar que si L[y] = f (t), con f (t) compleja, y L es real y lineal, entonces
L[Re(y)] = Re[f (t)], L[Im(y)] = Im[f (t)]

30
Problema 33: Mostrar que una solucion particular de y 00 + 2y 0 + y = Aeit es
yp (t) = 2i1 Aeit = 2i Aeit , y que por lo tanto,
a) yp (t) = 12 A sen t es solucion particular de y 00 + 2y 0 + y = A cos t
b) yp (t) = 12 A cos t es solucion particular de y 00 + 2y 0 + y = A sen t.
Determinar la diferencia de fase de la solucion particular con respecto a la entrada.

Problema 34: Dada la ecuacion

y 00 + 2 y = A cos(t),

muestre que es necesario proponer una solucion particular de la forma


yp (t) = t[B cos t + E sen t] o Beit , y que el resultado es
1
yp (t) = A sen t
2
Ejercicios V.
1) Halle la solucion general de las siguientes ecuaciones diferenciales.

a) y 00 + 2y 0 + y = e2t b) y 00 + 2y 0 + y = 4e2t + t + t2

c) y 00 + 4y = A cos(t), 2 6= 4 d) y 00 + 4y = A cos(2t)

e) y 00 + 4y 0 + 5y = Ae2t + Btet f ) y 00 + 4y 0 + 5y = 4 + 12t 5t2

g) y 00 4y = e2t + 1 h) y 00 + y = et cos t

i) y 00 = et + 1 j) y 000 + y 0 = et

k) y 0000 y = e2t i) y 00 + 2y 0 + y = et
2) Determine la solucion de las ecuaciones a), b), c) y d) que satisface i) y(0) = y 0 (0) = 0
ii) y(0) = 1, y 0 (0) = 0. iii) Determine la solucion de la ecuacion j) que satisface y(0) =
y 0 (0) = y 00 (0) = 0.

3) Si y(t) es solucion de y 00 + ay 0 + by = f (t), con a, b constantes, determine la ecua-


cion diferencial que satisface i) y 0 (t), ii) y(t t0 ), iii) Ay(t) + C.

4) a) Muestre que en una ecuacion diferencial lineal de segundo orden, si f (t) f (t), la
solucion particular obtenida por el metodo general o por el de coeficientes indeterminados,
se multiplica por .
b) Es valida dicha propiedad para la solucion particular de la misma ecuacion que satis-
face condiciones iniciales fijas no nulas y(0) = y0 , y 0 (0) = v0 ? Que sucede si y0 = v0 = 0?

5) Determine la solucion general de las siguientes ecuaciones.

a) y 00 + y 0 /t y 00 /t2 = tn , t > 0 b) y 00 + 2y 0 + y = et tn c) y 00 + y = tan(t)

31
1.14. Aplicaciones
Problema 34. El oscilador armonico en presencia de una fuerza constante
Supongamos que se aplica una fuerza constante F , tal como la fuerza de gravedad
F = mg, sobre una masa unida a un resorte. Muestre que la ecuacion que describe la
posicion y (medida a partir de la posicion de equilibrio del resorte para F = 0) es
y 00 + 2 y = f , 2 = k/m > 0, f = F/m > 0
a) Muestre que una solucion particular de esta ecuacion es la constante
yp (t) = y0 , y0 = f / 2 = F/k
y que y0 representa la nueva posicion de equilibrio en presencia de la fuerza constante.
b) Escriba la solucion general de la ecuacion, y muestre que el unico efecto de la fuerza
constante fue desplazar el punto de equilibrio, es decir, el centro de las oscilaciones.
c) Muestre que la ecuacion diferencial que satisface y = y y0 (posicion medida a partir
del nuevo punto de equilibrio) es identica a la ecuacion que satisface y para F = 0.

Problema 35.
El oscilador armonico forzado. Resonancia.

Considerar la aplicacion de una fuerza externa F (t)


a una masa unida a un resorte.
a) Mostrar que la ecuacion que describe el movimiento es
M
y 00 + 2 y = f (t), f (t) = F (t)/m
FHtL
b) Dar una expresion de la solucion general
para una fuerza continua arbitraria.
c) Considerar ahora una fuerza externa de la forma
F (t) cos( ex t), tal que la ecuacion de movimiento es
y 00 + 2 y = F cos( ex t)
Muestre que si ex 6= , la solucion general es
F
y(t) = c1 cos(t) + c2 sen (t) + cos( ex t), ( ex 6= )
2 2ex
y la solucion que satisface y(0) = 0, y 0 (0) = 0 es
F
y(t) = [cos( ex t) cos(t)] , ( ex 6= ) (1.80)
2 2ex
Grafique esta solucion y discuta su comportamiento (tipo batido) al acercarse ex a .
Muestre que puede escribirse como
2F
y(t) = sen ( 1 t) sen ( 2 t)
2 2ex
con 1 = ( + ex )/2, 2 = ( ex )/2.

32
d) Mostrar que si ex = (resonancia), la solucion general es

A
y(t) = c1 cos(t) + c2 sen (t) + sen (t) , ( ex = ) (1.81)
2
y la solucion que satisface y(0) = y 0 (0) = 0 es

A
y(t) = t sen (t), ( ex = ) (1.82)
2
Grafique e interprete esta solucion, y discuta el fenomeno de resonancia.
e) Muestre que el lmite de la solucion (1.80) para ex (y t fijo) es la solucion (1.81).
yHtL yHtL
e=0.8 e=0.9

10 A 10 A

t t

-10 A -10 A

10 T 20 T 10 T 20 T

yHtL yHtL
e=0.95 50 A e=
10 A
-10 A
t t
-10 A
-10 A

10 T 20 T -50 A 10 T 20 T

Graficos de la solucion (1.80) para frecuencias externas e proximas a la frecuencia propia


, e intensidad F fija . Notese el cambio de escala en el caso resonante e = .
T = 2/ es el perodo y A = F/ 2 .

Problema 36.
Oscilador forzado amortiguado.
Examinemos ahora el sistema anterior en presencia
de una fuerza de roce viscosa Fr = y 0 .
a) Mostrar que la ecuacion que describe el movimiento
en presencia de una fuerza externa F (t) es M

y 00 + 2y 0 + 2 y = f (t) FHtL

donde f (t) = F (t)/m y = /(2m) > 0.

33
b) Mostrar que para
f (t) = F cos( ex t)
una solucion particular es

( 2 2ex ) cos( ex t) + 2 ex sen ( ex t)


yp (t) = F (1.83)
( 2 2ex )2 + 4 2 2ex
F
= p cos( ex t + ) (1.84)
( ex )2 + 4 2 2ex
2 2

Dado que la solucion general de la ecuacion homogenea disminuye ahora exponencial-


mente al aumentar t, para tiempos grandes (mayores que el tiempo de relajacion) solo
subsiste la solucion particular. Para = ex , la amplitud de la oscilacion resultante
crece inicialmente pero se estabiliza rapidamente en el valor determinado por la solucion
particular.
Es tambien muy importante destacar que el sistema termina oscilando con la frecuencia
externa y no la frecuencia propia.
Haga un grafico de la amplitud de la oscilacion resultante y muestre que disminuye al
aumentar el coeficiente de roce , y es maxima para ex cercano a .
yHtL yHtL
e=0.8 e=0.9

10 A 10 A

t t

-10 A -10 A

10 T 20 T 10 T 20 T

yHtL AHeL

e=
10 A
10 A =20

-10 A

10 T 20 T e
1 2
Graficos de la solucion en presencia de roce viscoso con = /20 para y(0) = y 0 (0) = 0.
La ultima figura (1.80) muestra la amplitud de la solucion particular en funcion de la
frecuencia externa para = /20, /10 y /5. Es maxima para ex .

Problema 37. Discuta el fenomeno de resonancia y el efecto de la resistencia (roce)


para el circuito LCR en serie con una fuente que suministra una fem V (t) = V cos( ex t).

34
La ecuacion no homogenea de orden n.
El metodo (1.33) para obtener una solucion particular se puede extender al caso general

y (n) + an1 (t)y (n1) + . . . + a1 (t)y 0 + a0 (t)y = f (t) (1.85)

Si y1 (t), . . ., yn (t) son n soluciones linealmente independientes de la ecuacion homogenea,


se puede proponer una solucion particular de la forma

yp (t) = v1 (t)y1 (t) + . . . + vn (t)yn (t)

con v1 (t), . . . , vn (t) funciones a determinar. Imponiendo las n 1 condiciones


(k) (k)
v10 y1 + . . . + vn0 yn = 0 t I, k = 0, . . . , n 2, y reemplazando en (1.85), se obtiene el
sistema
v10 y1 + +vn0 yn

... = 0
..


.

0 (n2) 0 (n2)
vy + . . . +vn yn = 0
10 1(n1)


0 (n1)

v1 y1 + . . . +vn yn = f (t)
cuya solucion es (probar!)
Z
Wi (t)
vi (t) = (1)i+n f (t)dt, i = 1, . . . , n
W (t)

y1 . . . yn


donde W (t) = ..
. , es el Wronskiano y Wi (t) el determinante de la

(n1) (n1)
y1 . . . yn
matriz obtenida suprimiendo la fila n y la columna i de la matriz que define a W (t).

35
2. Sistemas de ecuaciones diferenciales ordinarias
Un sistema de ecuaciones diferenciales ordinarias de primer orden es un sistema con
n funciones incognitas y1 (t), y2 (t), . . . , yn (t), que deben satisfacer las n ecuaciones

0
y1 = f1 (t, y1 , . . . , yn )

.. (2.1)
.
y 0 = f (t, y , . . . , y )

n n 1 n

Las n ecuaciones diferenciales estan en general acopladas, ya que fi depende no solo de yi


sino tambien de las funciones restantes.
Podemos escribir el sistema (2.1) en forma vectorial como

y1 f1 (t, Y )
Y 0 = F (t, Y ) , Y = ... , F (t, Y ) = .. (2.2)

.
yn fn (t, Y )

Si ninguna de las funciones fi depende explcitamente de la variable independiente t,


el sistema se denomina autonomo: Es de la forma Y 0 = F (Y ).

Toda ecuacion diferencial ordinaria de orden superior puede expresarse como un sistema
de ecuaciones ordinarias de primer orden.

Una ecuacion diferencial ordinaria de orden n,

y (n) = f (t, y, y 0 , . . . , y (n1) ) (2.3)

puede escribirse como un sistema de n ecuaciones diferenciales de primer orden:


Introduciendo las funciones

y1 (t) = y(t), y2 (t) = y 0 (t), . . . , yn (t) = y (n1) (t) (2.4)

vemos que la ecuacion (2.3) es equivalente al sistema de ecuaciones de primer orden




y10 = y2
0
y2 = y3



.. (2.5)
.
0

y = yn
yn1


0

n = f (t, y1 , y2 , . . . , yn )
ya que y10 (t) = y 0 (t) = y2 (t), y20 (t) = y 00 (t) = y3 (t), . . ., yn0 (t) = y (n) (t).

Por ejemplo, la ecuacion diferencial de segundo orden

y 00 = f (t, y, y 0 )

36
es equivalente al sistema de dos ecuaciones de primer orden
 0
y1 = y2
y20 = f (t, y1 , y2 )
donde y1 = y y y2 = y 0 . Si y(t) representa una posicion, y2 (t) = y 0 (t) es la velocidad.
Problema 1: Escribir la ecuacion y 00 + y = t como un sistema de primer orden.

De la misma manera, un sistema de m ecuaciones de orden n,


Y (n) = F (t, Y , Y 0 , . . . , Y (n1) )
donde Y = (y1 , . . . , ym ), F = (f1 , . . . , fm ), puede escribirse, introduciendo las funciones
Z1 = Y , Z2 = Y 0 , . . . , Zn = Y (n1)
como un sistema de n m ecuaciones de primer orden:


Z10 = Z2
0
Z2 = Z3



.. (2.6)
.
0

Z = Zn
Zn1


0

n = F (t, Z1 , Z2 , . . . , Zn )
para Z1 (t), . . . , Zn (t) (n m funciones incognitas en total).
Por ejemplo, la segunda ley de Newton para el movimiento en tres dimensiones de una
partcula de masa m > 0,
d2 r dr
m 2 = F (t, r, )
dt dt
donde F (t, r, dr/dt) es la fuerza neta que actua sobre la misma, es un sistema de tres
ecuaciones diferenciales de 2o orden para las coordenadas x, y, z de r = (x, y, z). Intro-
duciendo la velocidad v = dr/dt, resulta equivalente al sistema de primer orden
 dr
dt
= v
dv
m dt = F (t, r, v)
que es un sistema de seis ecuaciones diferenciales de primer orden para las seis funciones
x(t), y(t), z(t), vx (t), vy (t), vz (t).
Por lo tanto, en lo sucesivo consideraremos solo sistemas de primer orden.

Teorema de Existencia y Unicidad de la Solucion

Consideremos el sistema de n ecuaciones de primer orden con condiciones iniciales:


 0
Y = F (t, Y )
(2.7)
Y (t0 ) = Y0

donde Y0 = (y10 , . . . , yn0 )t . Si las n funciones fi de F son continuas en una region


R = {(t, Y ) | |t t0 | a, |Y Y0 | b, a > 0, b > 0} Rn+1 , y si las derivadas parciales
fi /yj estan acotadas en dicha region i, j, existe una unica solucion Y (t) en un
cierto intervalo I centrado en t0 , que satisface la condicion inicial Y (t0 ) = Y0 .

37
2.1. Sistemas lineales de primer orden
Un sistema de n ecuaciones diferenciales de primer orden es lineal si las n funciones fi (t, Y )
son funciones lineales de y1 , y2 , . . ., yn (aunque no necesariamente de t). Un sistema lineal
de primer orden puede escribirse en la forma

0
y1 = a11 (t)y1 + . . . a1n (t)yn + f1 (t)

.. (2.8)
.
y 0 = a (t)y + . . . + a (t)y + f (t)

n n1 1 nn n n

con ai (t), fi (t), i = 1, . . . , n, definidas en un cierto intervalo I. El sistema es homogeneo


si fi (t) = 0 t I para i = 1, . . . , n.
Podemos escribir (2.8) en forma matricial como

y10 a11 (t) . . . ann (t) y1 f1 (t)
.. .. .. ..
. = . . + . (2.9)
0
yn an1 (t) . . . ann (t) yn fn (t)

es decir,
Y 0 = A(t)Y + F (t) (2.10)
con Y (t), F (t) vectores columna de 1 n y A(t) una matriz de n n.

y1 a11 (t) . . . ann (t) f1
Y = ... , A(t) = ... .
, F (t) = .. (2.11)

yn an1 (t) . . . ann (t) fn

En este caso el teorema de existencia y unicidad asegura, si todos los elementos aij (t)
y fi (t) son funciones continuas en un intervalo I, que el problema de condiciones iniciales
Y 0 = A(t)Y + F (t)

(2.12)
Y (t0 ) = Y0
tendra solucion unica Y0 Rn , t0 I.
Problema 2: Mostrar que la unicidad implica que si Y1 (t), Y2 (t) son dos soluciones de
(2.10) y cumplen Y1 (t0 ) 6= Y2 (t0 ), entonces Y1 (t) 6= Y2 (t) t I.
Ejemplo: El sistema  0
x = xy
(2.13)
y 0 = x + y + 2t
es un sistema de dos ecuaciones diferenciales lineales de primer orden para las funciones
incognitas x(t), y(t). Podemos escribirlo en forma matricial como
 0      
x 1 1 x 0
= + (2.14)
y0 1 1 y 2t
o sea, Y 0 = AY + F (t), con
     
x 1 1 0
Y = , A= , F =
y 1 1 2t
38
2.2. Sistema lineal homogeneo de primer orden
Consideremos ahora el sistema homogeneo
Y 0 = A(t)Y (2.15)
Asumiremos que todos elementos aij (t) de A(t) son funciones continuas para t I.

Teorema 1. El conjunto S de soluciones de un sistema de n ecuaciones diferenciales


lineales de primer orden homogeneo es un espacio vectorial de dimension n.
Que sea un espacio vectorial implica que si Y1 (t) e Y2 (t) son dos soluciones de (2.15),
toda combinacion lineal
Y (t) = c1 Y1 (t) + c2 Y2 (t)
con c1 , c2 constantes, es tambien solucion de (2.15) (propiedad de superposicion). Y que
sea de dimension n, implica que existen n soluciones linealmente independientes
Y1 (t), . . ., Yn (t) tales que toda solucion de (2.15) puede escribirse como

Y (t) = c1 Y1 (t) + . . . + cn Yn (t) (2.16)

El conjunto {Y1 (t), . . . , Yn (t)} es una base de S y se denomina sistema fundamental de


soluciones. La expresion (2.16) es la solucion general de (2.15).

Demostracion: La solucion nula Y (t) = 0 t I (solucion trivial) es solucion de


(2.15), pues Y 0 (t) = 0 = A0 = 0. Y si Y1 (t) e Y2 (t) son soluciones, c1 Y1 (t) + c2 Y2 (t) es
tambien solucion pues
(c1 Y1 + c2 Y2 )0 = c1 Y10 + c2 Y20 = c1 A(t)Y1 + c2 A(t)Y2 = A(t)(c1 Y1 + c2 Y2 )
S es pues cerrado bajo la operaciones de suma de funciones y producto por escalar, siendo
entonces un subespacio del espacio de funciones vectoriales F : I Rn derivables.
Podemos tambien escribir (2.15) como
L[Y ] = 0 , L[Y ] = Y 0 A(t)Y
con L un operador lineal: L[c1 Y1 + c2 Y2 ] = c1 L[Y1 ] + c2 L[Y2 ] (Probar!).
El conjunto de soluciones S = {Y (t) | L[Y ] = 0} es entonces el nucleo de L y es por lo
tanto un espacio vectorial.
Demostremos ahora que la dimension de S es n. Consideremos n condiciones iniciales
0
Y1 , . . ., Yn0 Rn , linealmente independientes, y sean Y1 (t), . . . , Yn (t) las soluciones
de (2.15) que satisfacen las condiciones iniciales
Y1 (t0 ) = Y10 , . . . , Yn (t0 ) = Yn0 (2.17)
Estas soluciones existen y son unicas por el teorema anterior. Ademas, son linealmente
independientes, ya que si existen c1 , . . ., cn tales que
c1 Y1 (t) + . . . + cn Yn (t) = 0 (2.18)
t I, para t = t0 (2.18) implica c1 Y10 +. . .+cn Yn0 = 0, por lo que c1 = . . . = cn = 0, por
ser {Y10 , . . . , Yn0 } un conjunto linealmente independiente de vectores de Rn . La dimension
de S es entonces no menor que n.
39
Ademas, como vectores de Rn , Y1 (t), . . . Yn (t) permanecen linealmente indepen-
dientes t I, ya que si la suma (2.18) se anula para algun t I, debe coincidir, por
unicidad, con la solucion trivial Y (t) = 0 t I, incluyendo t = t0 , y por lo tanto
c1 = . . . = cn = 0.
Consideremos ahora una solucion cualquiera Y (t) de (2.15), que satisface Y (t0 ) = Y0 .
Como el conjunto de vectores iniciales {Y10 , . . . , Yn0 } es una base de Rn (pues son n
vectores linealmente independientes), el valor inicial Y0 puede escribirse como
Y0 = c1 Y10 + . . . cn Yn0
Por lo tanto, Y (t) debe coincidir, por el teorema de unicidad, con la combinacion lineal
Y (t) = c1 Y1 (t) + . . . cn Yn (t) (2.19)
ya que (2.19) satisface Y (t0 ) = c1 Y10 + . . . + cn Yn0 = Y0 y es solucion del sistema por ser
combinacion lineal de soluciones. Esto implica que la dimension de S es n y no mayor.

Si {Y1 (t), . . . , Yn (t)} son n soluciones linealmente independientes de (2.15)


(Yi0 = A(t)Yi , i = 1, . . . , n), la matriz fundamental de soluciones se define como

M (t) = (Y1 (t), . . . , Yn (t)) (2.20)

tal que la columna i de M (t) es la solucion Yi (t). Es de n n y satisface

M 0 = A(t)M (2.21)

Como los vectores {Y1 (t), . . . , Yn (t)} son linealmente independientes t I, M (t) es no
singular: det[M (t)] 6= 0 t I. La solucion general (2.16) puede as escribirse como

c1
Y (t) = M (t)C , C = ...

cn

Ejemplo: Consideremos el sistema


x0 = x y

(2.22)
y 0 = x + y
1 1
es decir, Y 0 = AY , con Y = (xy ), A = (1 1 ), Es facil ver que
 2t   
e 1
Y1 (t) = 2t , Y2 (t) =
e 1
son dos soluciones L.I. de (2.22) (probar!). La solucion general de (2.22) es entonces
 2t   
e 1
Y (t) = c1 Y1 (t) + c2 Y2 (t) = c1 2t + c2
e 1
es decir, x(t) = c1 e2t + c2 , y(t) = c1 e2t + c2 , y la matriz fundamental asociada es
 2t 
e 1
M (t) =
e2t 1
40
2.3. Sistema lineal homogeneo con coeficientes constantes
Consideremos ahora el caso, de gran importancia practica, en el que todos los coeficientes
de la matriz A son constantes, es decir, independientes de t (aij (t) = aij i, j):

Y 0 = AY (2.23)

o en forma explcita,
0
y1 = a11 y1 + . . . + a1n yn

..
.
y0 = a y + . . . + a y

n n1 1 nn n

Al no depender explcitamente del tiempo, el sistema es autonomo. Podemos entonces


tomar I = R y el teorema general asegura la existencia de n soluciones linealmente
independientes de dicho sistema validas t R.
Estos sistemas pueden ademas resolverse en forma exacta.

El sistema lineal homogeneo (2.23) admite una solucion no nula de la forma



v1
Y (t) = et V , V = ... (2.24)

vn

con y V independientes de t, si y solo si es autovalor de A y V un autovector


asociado.

Demostracion: Proponiendo una solucion de la forma (2.24), tenemos Y0 = et V y


reemplazando en (2.23) obtenemos

et V = Aet V

lo que conduce a
AV = V
Si exigimos V 6= 0 (solucion no trivial) esta igualdad implica que debe ser autovalor
de A (Det[A I] = 0) y V un autovector asociado.
Si buscamos ahora la solucion general, tenemos dos casos:

41
a) La matriz A es diagonalizable. En este caso existen n autovectores linealmente inde-
pendientes V1 , . . . , Vn , asociados a n autovalores 1 , . . . , n (no necesariamente distintos):

AVi = i Vi , i = 1, . . . , n

Por lo tanto, un sistema fundamental de soluciones de (2.23) es

Y1 (t) = e1 t V1 , . . . , Yn (t) = en t Vn

dado que son n soluciones linealmente independientes.


Toda solucion de (2.23) es entonces de la forma

Y (t) = c1 e1 t V1 + . . . + cn en t Vn (2.25)

Esta expresion es la solucion general del sistema.

Recordemos que este es, por ejemplo, el caso de:


i) Matrices A de n n que poseen n autovalores distintos.
ii) Matrices reales simetricas (At = A) o complejas hermticas (At = A), aun con
autovalores repetidos. Estas matrices tienen ademas todos los autovalores reales.
iii) Matrices reales antisimetricas (At = A) u ortonormales (A1 = At ), o en general
toda matriz que satisfaga At A = AAt , aun con autovalores repetidos. Los autovalores de
estas matrices son en general complejos.

Ejemplo: Consideremos nuevamente el sistema (2.22),


 0
x = xy
(2.26)
y 0 = x + y
que corresponde a  
1 1
A=
1 1
Esta matriz es real y simetrica. Por lo tanto, sabemos que sera diagonalizable. Se deja
como ejercicio probar que los autovalores y autovectores asociados son
   
1 1
1 = 2, V1 = , 6= 0, 2 = 0, V2 = , 6= 0
1 1
Por lo tanto, Y1 (t) = e2t (1
1
), Y2 (t) = e0t (11 ) = (11 ) (constante) forman un sistema funda-
mental de soluciones linealmente independientes y la solucion general es
   
2t 1 1
Y (t) = c1 e + c2
1 1
es decir, x(t) = c1 e2t + c2 , y(t) = c1 e2t + c2 .
Problema 7: Mostrar que en el caso diagonalizable, una matriz fundamental es
M (t) = (e1 t V1 , . . . , en t Vn )
y su determinante
det M (t) = e(1 +...+n )t Det M (0)
verificandose que det M (t) 6= 0 t si los vectores {V1 , . . . , Vn } son L.I.
42
b) La matriz A es no diagonalizable. En este caso A posee k < n autovectores lineal-
mente independientes V1 , . . . , Vk , asociados a k autovalores 1 , . . . , k (no necesariam.
distintos). El metodo previo proporciona aqu solo k < n soluciones linealmente indepen-
dientes
Yi (t) = ei t Vi , i = 1, . . . , k
Dejaremos para el final el tratamiento completo de este caso. Mencionamos aqu que las
restantes soluciones linealmente independientes son de la forma et V (t), con autovalor
de A de multiplicidad algebraica m > 1 y V (t) un polinomio en t de grado menor que m.

Tanto en el caso diagonalizable como no diagonalizable, debemos tener en cuenta la


posibilidad de que existan autovalores complejos!

Autovalores complejos.
Los autovalores pueden ser complejos, aun si la matriz A es real! Si

= + i

con 6= 0 y , reales, debemos aplicar, como vimos previamente, la formula de Euler

e(+i)t = et [cos(t) + i sin(t)]

Si A es real, los autovalores complejos apareceran en pares conjugados con autovectores


conjugados:
AV = V , AV = V
donde = i, V = U + iW , V = U iW y V , W reales. Si 6= 0,

Y (t) = et V , Y (t) = et V

formaran un par de soluciones complejas linealmente independientes (pues 6= ).

Para obtener un par de soluciones reales linealmente independientes, basta con tomar
las partes real e imaginaria de una de las dos, por ejemplo

Y (t) + Y (t) Y (t) Y (t)


Y1 (t) = Re[Y (t)] = , Y2 (t) = Im[Y (t)] =
2 2i
Un par de autovalores conjugados origina pues un par de soluciones linealmente indepen-
dientes, que pueden elegirse siempre reales si la matriz A es real!
El significado de autovalores complejos es el de soluciones oscilatorias, con una amplitud
que crece ( > 0) o decrece ( < 0) exponencialmente o permanece constante ( = 0).

Problema 8: Probar que si A es real y Y (t) es una solucion compleja del sistema ho-
mogeneo Y 0 = AY , las partes real Re[Y (t)] e imaginaria Im[Y (t)] son tambien soluciones
de dicho sistema.
Problema 9: Probar que si Y (t) y Y (t) son soluciones linealmente independientes, en-
tonces Re[Y (t)] y Im[Y (t)] son tambien linealmente independientes.
43
Ejemplo: Consideremos el sistema,
 0
x = xy
(2.27)
y0 = x + y

que corresponde a  
1 1
A=
1 1
Esta matriz es real antisimetrica, y por lo tanto diagonalizable aunque con autovalores
complejos. Los autovalores y autovectores asociados son
   
1 1
1 = 1 + i, V1 = , 6= 0, 2 = 1 i, V2 = , 6= 0
i i

verificandose que 2 = 1 , V 2 = V1 . Por lo tanto,


   
(1+i)t 1 (1i)t 1
Y (t) = e , Y (t) = e
i i

son un par de soluciones complejas linealmente independientes, y


   t     t 
(1+i)t 1 e cos t (1+i)t 1 e sin t
Y1 (t) = Re[e ]= , Y2 (t) = Im[e ]=
i et sin t i et cos t

un par de soluciones reales linealmente independientes del mismo sistema.


La solucion general puede entonces expresarse en forma real como
 t   t 
e cos t e sin t
Y (t) = c1 Y1 (t) + c2 Y2 (t) = c1 + c2
et sin t et cos t

es decir, x(t) = et (c1 cos t + c2 sin t), y(t) = et (c1 sin t c2 cos t).

Problema 10: Mostrar que la solucion general puede expresarse tambien como
   
(1+i)t 1 (1i)t 1
Y (t) = c+ e + c e
i i

donde c = (c1 ic2 )/2.


Problema 11: Mostrar que la solucion general puede expresarse tambien como
   
t cos(t + ) t i(t+) 1
Y (t) = Ae = Ae Re[e ]
sin(t + ) i

donde A2 = c21 + c22 , tan = c2 /c1 . Interpretar esta expresion.

Problema 12: Probar que si Y (t) = e(+i)t (U + iW ), con U y W reales,

Re[Y (t)] = et [U cos t W sen t], Im[Y (t)] = et [U sen t + W cos t]

44
2.4. Representacion diagonal y desacoplamiento
El caso diagonalizable puede tambien tratarse pasando a una representacon diagonal
del sistema. En este caso la matriz A es semejante a una matriz diagonal D, de modo
que existe una matriz S de n n no singular tal que

1 0 . . . 0
0 2 . . . 0
1
S AS = D, D= , S = (V1 , . . . , Vn )

. .
.
0 0 . . . n

donde las columnas de S son n autovectores linealmente independientes de A.


Multiplicando el sistema Y 0 = AY a izquierda por la inversa S 1 , se obtiene

S 1 Y 0 = S 1 AY = (S 1 AS)(S 1 Y )
o sea,
z1
Z 0 = DZ, con Z = S 1 Y = ...

zn
Por ser D diagonal, las n funciones z1 (t), . . . , zn (t) satisfacen un sistema de n ecua-
ciones diferenciales de primer orden desacopladas:

0
z1 = 1 z1

Z0 = D Z ..
.
z0 = z

n n n

donde la derivada de cada zi depende solo de zi , siendo independiente de las demas. La


solucion de estas ecuaciones es inmediata:

z1 (t) = c1 e1 t , . . . , zn (t) = cn en t

Podemos entonces escribir la solucion general para Z como



z1 (t) c1 e1 t
Z(t) = ... = ..

.
zn (t) cn en t

Y dado que Z = S 1 Y Y = SZ y la solucion general para Y es

Y (t) = SZ(t) = z1 (t)V1 + . . . + zn (t)Vn (2.28)


= c1 e1 t V1 + . . . + cn en t Vn (2.29)

que coincide con el resultado previo (2.25). Si recordamos el formalismo de cambio de


base, vemos de (2.28) que Z(t) es el vector de coordenadas de la solucion Y (t) en la
base de autovectores {V1 , . . . , Vn } de A. La evolucion desacoplada se obtiene pues
representando Y (t) en esta base, en la que A pasa a ser diagonal.

45
Ejemplo: Consideremos nuevamente el sistema (2.26),
 0
x =xy
y 0 = x + y
1 1
En este caso 1 = 2, 2 = 0 y S = (V1 , V2 ) = (1 1 ). Entonces S
1
= (11 1
1 )/2 y el vector
x
de coordenadas de Y = (y ) en la base de autovectores de A es
      
z1 1 1 1 x 1 xy
= =
z2 2 1 1 y 2 x+y
o sea, z1 = (x y)/, z2 = (x + y)/2. Estas variables satisfacen el sistema desacoplado
 0
z1 = 2z1
z20 = 0
x0 y 0 x0 +y 0
ya que z10 = 2
= x y = 2z1 , z20 = 2
= 0. La solucion de este sistema es
z1 (t) = c1 e2t , z2 (t) = c2
y entonces, se obtiene el resultado previo
     
x(t) 2t 1 1
= z1 (t)V1 + z2 (t)V2 = c1 e + c2
y(t) 1 1

Ejercicios VI.
1) Determinar la solucion general de los siguientes sistemas de primer orden homogeneos.
Dar una expresion real de la solucion y escribir la matriz fundamental. Identificar tambien
las variables en las que el sistema queda desacoplado.
 0  0
x = 2x + y x = 2x + y
a) 0 b)
y = x 2y y 0 = x 2y
0 0
x = x 2y + z x =y
c) y 0 = 2x 2z d) y 0 = y + z
0 0
z = x 2y + z z = y z
2) Hallar la solucion de 1 a) y de 1 b) que satisface x(0) = 1, y(0) = 0, y la solucion de 1
c) y de 1 d) que satisface x(0) = 1, y(0) = 0 = z(0) = 1.
Indique tambien si alguno de los sistemas del ej. 1) tiene soluciones constantes no nulas.

3) Determine la solucion general del sistema de segundo orden


 00
x = y
y 0 = 2x0 y
planteandolo como un sistema de primer orden.

4) a) Indique para que valores reales de puede garantizarse que el sistema


 0
x = x y
y 0 = x y
tiene un punto de equilibrio estable en x = y = 0, tal que si se lo aparta inicialmente
del mismo, retorna a el.
b) Repita el analisis si se cambia la segunda ecuacion por y 0 = x y.
46
5) Si A es una matriz arbitraria de n n (independiente de t), halle la solucion de
Y 0 = AY que satisface Y (0) = V , con V autovector de A.

6) Muestre que si Y (t) es solucion de Y 0 = AY , con A independiente de t y Y (0) = Y0 ,


a) Y (t t0 ) es la unica solucion de dicha equacion que satisface Y (t0 ) = Y0 .
b) Y 0 (t) es tambien solucion de dicha ecuacion y satisface Y 0 (0) = AY0 .

7) Muestre que los autovalores de la matriz obtenida al representar la ecuacion de segundo


orden y 00 + ay 0 + by = 0 como un sistema de primer orden, son las races de la ecuacion
caracterstica 2 + a + b = 0.

2.5. Aplicaciones
1. Evolucion de la concentracion de un soluto.
Considere los tanques A, B, C de volumenes 10, 20 y 30 litros, inicialmente llenos con
agua salada. Si entra agua pura (sin sal) a razon de 10 lts por hora en el tanque A, saliendo
agua por el orificio inferior de C tal que el volumen de agua en cada uno de los tanques
permanece constante, muestre que la cantidad de sal x, y, z, en A, B y C (asumiendo
distribucion uniforme en c/tanque) satisface el sistema lineal (t medido en horas)

dx/dt = x
dy/dt = x y/2 A
dz/dt = y/2 z/3

B
Encuentre la solucion general de este sistema y halle la
solucion para concentracion inicial uniforme c.
Grafique la concentracion en cada tanque. C

2. Partcula en un campo magnetico. Resolver el problema de una partcula de


carga q y masa m en un campo magnetico B. La fuerza que se ejerce sobre la partcula
es F = qv B (fuerza de Lorentz).
a) Mostrar que la ecuacion de movimiento que determina su velocidad,
mdv/dt = qv B
constituye un sistema de 3 ecuaciones lineales homogeneas de primer orden. Escribirlo
explcitamente.
b) Probar que si el campo esta dirigido en la direccion z, B = (0, 0, B), entonces el sistema
anterior se reduce a 0
vx = vy
v 0 = vx
y0
vz = 0
donde = qB/m es la denominada frecuencia del ciclotron.
c) Mostrar que la solucion general del sistema anterior es

vx (t) 1 1 0
vy (t) = c+ eit i + c eit i + c3 0
vz (t) 0 0 1

47

cos(t + ) 0
= A sin(t + )
+ c3 0
(2.30)
0 1
Interpretar esta solucion, mostrando que corresponde a velocidad constante en la direc-
cion z, y movimiento circular uniforme en el plano x, y, de frecuencia angular .

d) Resuelva el sistema para un campo general B = (Bx , By , Bz ). Muestre


p que los au-
tovalores son (y deben ser!) = 0 y = i, con = q|B|/m y |B| = Bx2 + By2 + Bz2 .

3. Importante: Sistemas lineales de segundo orden.


Consideremos el sistema lineal de segundo orden homogeneo asociado a una matriz A de
n n,
Y 00 = AY (2.31)
donde hemos supuesto que Y 00 no depende explcitamente de Y 0 . Este caso surge, por
ejemplo, al aplicar la 2a ley de Newton a sistemas descriptos por fuerzas que dependen
linealmente de la posicion, tales como masas unidas por resortes y en general sistemas cer-
canos a un punto de equilibrio. El sistema (2.31) es equivalente al sistema de 2n ecuaciones
de primer orden  0
Y =V
V 0 = AY
donde V = Y 0 . Es posible, no obstante, resolver (2.31) en forma directa.
a) Para A independiente de t, proponiendo una solucion Y (t) = et V y reemplazando
directamente en (2.31), muestre que se obtiene la ecuacion
AV = 2 V
y que esto implica que el sistema (2.31) posee soluciones de la forma

Y + (t) = e t
V , Y (t) = e t
V
donde es un autovalor de A y V un autovector asociado.
b) Si la matriz A es diagonalizable, tal que AVi = i Vi , i = 1, . . . , n, con {V1 , . . . , Vn }
linealmente independientes, muestre, utilizando la representacion diagonal de A, que un
conjunto completo de soluciones de (2.31) es

Yi+ (t) = e i t
Vi , Yi (t) = e i t
Vi
si i 6= 0, y
Yi+ (t) = Vi , Yi (t) = tVi
si i = 0, para i = 1, . . . , n. Escriba la solucion general.
Pruebe tambien que estas soluciones proveen 2n soluciones linealmente independientes
del sistema asociado de primer orden.
c) Muestre que si A es real y i < 0, un par de soluciones reales independientes asociado
a i es p
Yic (t) = cos( i t) Vi , Yis = sen ( i t) Vi , i = i > 0
Interprete estas soluciones.

48
4. Utilizando el metodo anterior, resuelva el problema de dos masas iguales (m) unidas
cada una a una pared por un resorte de constate k1 y unidas entre s por un resorte de
constante k2 .
a) Muestre que si y1 , y2 denotan las posiciones de las masas a partir de los respectivos
puntos de equilibrio, las ecuaciones de movimiento son
k1 k2 k1
my100 = k1 y1 + k2 (y2 y1 )


my200 = k2 (y1 y2 ) k1 y2
M M

y constituyen un sistema de dos ecuaciones lineales homogeneas de segundo orden de la


forma Y 00 = AY . Identificar la matriz A.
b) Pruebe que los autovalores de A son

1 = (k1 + 2k2 )/m, 2 = k1 /m

ambos negativas, y que por lo tanto, las frecuencias de oscilacion del sistema (asumiendo
k1 > 0, k2 > 0, m > 0) son
r r
k1 + 2k2 k1
1 = , 2 =
m m
c) Muestre que la solucion general del sistema es
     
y1 (t) + i 1 t i 1 t 1 + i 2 t i 2 t 1
= (c1 e + c1 e ) + (c2 e + c2 e )
y2 (t) 1 1
   
1 1
= A1 cos( 1 t + 1 ) + A2 cos( 2 t + 2 ) (2.32)
1 1

Interprete esta solucion y discuta los modos normales de vibracion.


d) Determine y grafique la solucion que satisface las condiciones iniciales
i) y1 (0) = A, y2 (0) = A, y10 (0) = y20 (0) = 0
ii) y1 (0) = A, y2 (0) = A, y10 (0) = y20 (0) = 0.

e) Resuelva el caso especial k1 = 0. Discuta e interprete el resultado.

5. Resuelva el problema anterior pero considerando que la segunda masa no esta uni-
da a la pared. Determine las frecuencias y los modos normales de vibracion.

6. El movimiento de un masa unida a un resorte en un plano esta descripto por la ecuacion

d2 r
m = kr
dt2
con r = (x, y), que es nuevamente un sistema lineal homogeneo de segundo orden. Deter-
mine su solucion e identifique las trayectorias posibles.

49
7. Importante: Trayectorias en el plano de fase
Considere el sistema lineal homogeneo de primer orden,
 0
x = ax + by
a, b, c, d R (2.33)
y 0 = cx + dy

Las soluciones reales x(t), y(t) del sistema pueden visualizarse graficando las trayecto-
rias (x(t), y(t)) para t R, en el plano x, y, denominado plano (o espacio) de fase.
a) Muestre que las trayectorias correspondientes a soluciones distintas no pueden cruzarse
para tiempos t finitos.
dy cx+dy
b) Pruebe que la ecuacion que define las trayectorias es dx = ax+by .
x(0)
c) Muestre que si (y(0) ) coincide con un autovector de la matriz asociado a un autovalor
real 6= 0, la trayectoria es recta. Indique en que casos se alejara, y en que casos se
acercara al origen.
d) Considere ahora el caso a = d = , b = c = . Muestre que los autovalores de la matriz
son = y grafique e interprete las trayectorias para:
i) = 1, = 1/2, ii) = 1, = 1/2, iii) = 1, = 2. Identifique los casos en que el
origen (x, y) = (0, 0) es un punto de equilibrio estable y aquellos en que es inestable.
e) Considere ahora el caso a = d = , c = b = , en el que los autovalores de la matriz
son = i. Grafique e interprete las trayectorias para:
i) = 1, = 1, ii) = 1, = 1, iii) = 0, = 1. Muestre que en este ultimo caso las
trayectorias son crculos centrados en el origen.
y y y

4 4 4

2 2 2

x x x
-4 -2 2 4 -4 -2 2 4 -4 -2 2 4

-2 -2 -2

-4 -4 -4

1 y
2 y
3 y

4 4 4

2 2 2

x x x
-4 -2 2 4 -4 -2 2 4 -4 -2 2 4

-2 -2 -2

-4 -4 -4

4 5 6
Graficos de las soluciones del sistema (2.33) para a = d, || = ||. Las flechas indican
el sentido del movimiento. Los graficos corresponden a: 1) Ambos autovalores reales y
positivos, 2) Ambos reales y negativos, 3) Uno positivo y uno negativo, 4) Complejos con
parte real negativa, 5) Complejos con parte real positiva, 6) Imaginarios.

50
2.6. El caso no diagonalizable
Tratemos ahora en detalle este caso. Existe al menos un autovalor repetido de la
matriz A cuya multiplicidad algebraica m (multiplicidad como raz del polinomio ca-
racterstico) es mayor que su multiplicidad geometrica l (dimension del espacio propio
correspondiente).
Los l autovectores linealmente independientes asociados proveen l < m soluciones
linealmente independientes del sistema Y 0 = AY . Para obtener las soluciones restantes,
tenemos el siguiente teorema general:

Si es un autovalor de A con multiplicidad algebraica m, existen m vectores linealmente


independientes Vi , i = 1 . . . , m, que verifican

(A I)ki Vi = 0, con (A I)ki 1 Vi 6= 0 (2.34)

para algun entero positivo no nulo ki m, siendo I la matriz identidad. Estos m vectores
originan m soluciones linealmente independientes del sistema Y 0 = AY , de la forma

tki 1
Yi (t) = et [Vi + t(A I)Vi + . . . + (A I)ki 1 Vi ] (2.35)
(ki 1)!

Como la suma de las multiplicidades algebraicas de todos los autovalores (distintos) es n,


se obtienen as n soluciones linealmente independientes del sistema Y 0 = AY .

Si ki = 1, Vi es un autovector de A con autovalor , ya que satisface (A I)Vi = 0,


con (A I)0 Vi = Vi 6= 0, y la solucion (2.35) se reduce a Y (t) = et Vi .

Si en cambio ki > 1 el vector Vi se denomina autovector generalizado asociado a


.

Problema 13: Probar que si se cumple (2.34), entonces (2.35) es solucion de Y 0 = AY .

Problema 14: Probar que si se cumple (2.34), (A I)ki 1 Vi es autovector de A.

Por lo tanto, para encontrar m soluciones linealmente independientes asociadas a un


autovalor de multiplicidad algebraica m y multiplicidad geometrica l < m, un metodo
es el siguiente: Se encuentran primero l autovectores linealmente independientes Vi
((A I)Vi = 0, Vi 6= 0), que generan las l soluciones Yi (t) = et Vi , i = 1, . . . , l.
Para hallar las m l restantes, encontramos luego todos los vectores V que satisfacen

(A I)2 V = 0 con (A I)V 6= 0

y que formen, junto con los l autovectores previos, un conjunto linealmente indepen-
diente. Cada uno de estos nuevos vectores (que a lo sumo seran l) genera una solucion
adicional de la forma
Y (t) = et [V + t(A I)V ]

51
Estas nuevas soluciones formaran, junto con las anteriores, un conjunto ampliado de so-
luciones linealmente independientes.
Si aun no se tienen m soluciones linealmente independientes, se determinan todos los
vectores V linealmente independientes que satisfacen

(A I)3 V = 0 con (A I)2 V 6= 0

y que formen, junto con todos los anteriores, un conjunto linealmente independiente. Cada
uno de estos nuevos vectores (a lo sumo habra l) aportara una solucion adicional

t2
Y (t) = et [V + t(A I)V + (A I)2 V ]
2!
generandose as un nuevo conjunto ampliado de soluciones linalmente independientes.
Este proceso se continua hasta obtener m soluciones linealmente independientes.

Por ejemplo, si es un autovalor de multiplicidad algebraica m = 2 y multiplicidad


geometrica l = 1, dos soluciones linealmente independientes son

Y1 (t) = et V1 (2.36)
Y2 (t) = et [V2 + t(A I)V2 ] (2.37)

con V1 autovector asociado a y V2 un vector que satisface

(A I)2 V2 = 0, (A I)V2 6= 0

Si determinamos primero V2 , podemos directamente elegir

V1 = (A I)V2 (2.38)

ya que cumple V1 6= 0 y (A I)V1 = (A I)2 V2 = 0.


Y si determinamos primero el autovector V1 , podemos elegir V2 como cualquier vector
que satisface (2.38), ya que en tal caso (A I)2 V2 = (A I)V1 = 0.

Problema 15: Mostrar que proponiendo una solucion de la forma

Y (t) = et (V + tW )

con V , W constantes, reemplazando en Y 0 = AY se obtiene el sistema



AW = W ,
(A I)V = W

que indica precisamente que W debe ser autovector de A con autovalor y V un vector
que satisface (A I)V = W (y por lo tanto (A I)2 V = 0).

52
Y en general, si es un autovalor de multiplicidad algebraica m > 1 y multiplicidad
geometrica l = 1, las m soluciones linealmente independientes son

Y1 (t) = et V1 (2.39)
Y2 (t) = et [V2 + t(A I)V2 ] (2.40)
t2
Y3 (t) = e [V3 + t(A I)V3 + (A I)2 V3 ]
t
(2.41)
2!
..
.
tm1
Ym (t) = et [Vm + t(A I)Vm + . . . + (A I)m1 Vm ] (2.42)
(m 1)!

donde Vk , k = 1, . . . , m, satisface

(A I)k Vk = 0, (A I)k1 Vk 6= 0 (2.43)

Si determinamos primero Vm , tal que (A I)m Vm = 0, con (A I)m1 Vm 6= 0,


podemos en este caso obtener todos los vectores restantes directamente como

Vk = (A I)mk Vm , k = 1, . . . , m 1 (2.44)

ya que (A I)k Vk = (A I)m Vm = 0 y (A I)k1 Vk = (A I)m1 Vm 6= 0.

Ejemplo. Consideremos el sistema


 0
x = x + by
(2.45)
y0 = y

que puede escribirse en forma matricial como


 0     
x x 1 b
0 =A , A=
y y 0 1

La ecuacion caracterstica es det (A I) = ( 1)2 = 0, que conduce al unico autovalor


= 1, con multiplicidad algebraica 2.
Si b 6= 0, la matriz A no es diagonalizable, pues el rango de
 
0 b
A I =
0 0

es 1 y por lo tanto la nulidad es 1. Esto indica que existira un solo autovector linealmente
independiente, V1 (10 ). Eligiendo V1 = (10 ), se obtiene la solucion
 
t 1
Y1 (t) = e
0

Buscamos ahora un vector V2 linealmente independiente de V1 tal que

(A I)2 V2 = 0, (A I)V2 6= 0.

53
Como en este caso (A I)2 = (00 00 ), basta con encontrar un vector V2 linealmente
independiente de V1 , por ejemplo V2 = (01 ), que satisface, dado que b 6= 0,
    
0 b 0 b
(A I)V2 = = 6= 0
0 0 1 0

Obtenemos as la solucion linealmente independiente de Y1 (t),


     
t 0 b at bt
Y2 (t) = e +t =e
1 0 1

La solucion general es entonces


   
t 1 t bt
Y (t) = c1 Y1 (t) + c2 Y2 (t) = c1 e + c2 e
0 1

es decir, x(t) = et (c1 + btc2 ), y(t) = c2 et .


Una matriz fundamental de soluciones es entonces
 t 
e btet
M (t) =
0 et

que satisface M (0) = I, Det[M (t)] = e2t 6= 0 t.


En este ejemplo, esta solucion puede obtenerse directamente resolviendo primero la
ecuacion y 0 = y, que esta desacoplada, y luego la ecuacion x0 = x + y, reemplazando en
y la solucion previa. No es posible aqu encontrar combinaciones lineales de x e y en las
que el sistema resulte totalmente desacoplado.

ab
Observacion: Si b 6= 0, la matriz
A = ( a ) es diagonalizable 6= 0, ya que tendra
dos autovalores distintos = a b.
El caso no diagonalizable ocurre unicamente cuando = 0. Los autovalores seran
ambos reales si b 0, y complejos si b < 0. Por lo tanto, el caso no diagonalizable
corresponde al punto crtico = 0, en el que se produce la transicion de autovalores
reales (b > 0) a autovalores complejos (b < 0), es decir, de soluciones Y (t) de tipo
exponencial a soluciones de tipo oscilatorio.

54
Ejercicios VII
1) Mostrar que la solucion general del sistema
 0
x = x y
y 0 = x 3y
es        
x(t) 2t 1 2t 1 2
= c1 e + c2 e +t
y(t) 1 1 2
es decir, x(t) = c1 e2t + c2 e2t (1 + 2t), y(t) = c1 e2t + c2 e2t (1 + 2t).

2) Mostrar que la solucion general del sistema


0
x =y+z
y0 = y z
0
z =yz
es

x(t) 1 0 2 0 0 2 4
y(t) = c1 0 +c2 1 + t 0 +c3 1 + t 2 + t 0
2
z(t) 0 1 0 1 2 0

o sea, x(t) = c1 + 2c2 t + 2c3 t2 , y(t) = c2 + c3 (1 + 2t), z(t) = c2 + c3 (1 + 2t).

3) Mostrar que la posicion y y velocidad v de un movil en ausencia de fuerzas satis-


facen un sistema de ecuaciones diferenciales de primer orden homogeneo asociado a una
matriz no diagonalizable. Determine su solucion.

4) Hallar la solucion del sistema


x0 = 3x 4y


y0 = x y
que satisface x(0) = 1, y(0) = 1.

5) Mostrar que si la ecuacion de segundo orden con coeficientes constantes y 00 +ay 0 +by = 0
tiene races iguales (a2 = 4b) el sistema lineal de primer orden asociado
 0
z1 = z2
z20 = bz1 az2
donde z1 = y, z2 = y 0 , corresponde necesariamente a una matriz no diagonalizable.

6) Encontrar la solucion general del sistema


0
x = 3x 4z
y0 = x + y
0
z =xz

55
2.7. Matriz fundamental
Tanto para el caso (a) (A diagonalizable) como para el caso (b) (A no diagonalizable),
la matriz
X Ak tk
exp[At] =
k=0
k!
es una matriz fundamental del sistema Y 0 = AY con A independiente de t, y es la matriz
fundamental que satisface M (0) = I, con I la matriz identidad.

Esto puede demostrarse directamente a partir de la serie, notando que



0
X kAk tk1 X Ak1 tk1 X Ak tk
exp[At] = =A =A = A exp[At]
k=1
k! k=1
(k 1)! k=0
k!
donde hemos tenido en cuenta que A0 t0 /0! = I (matriz identidad).
Por lo tanto, cada columna Yi (t) de exp[At] satisface tambien Yi0 (t) = AYi (t), siendo
entonces solucion del sistema homogeneo. Ademas, si t = 0, el primer termino de la serie
es el unico termino no nulo y por lo tanto

1 0 ... 0
0 1 ... 0
exp[A(0)] = I =
...
0 0 ... 1
lo que implica que las n columnas Yi (t) son linealmente independientes, pues los n vectores
Yi (0) son linealmente independientes, formando la base canonica de Rn : Yi (0) = ei .
Esto demuestra que exp[At] es una matriz fundamental del sistema en todos los casos,
y es la unica que satisface M (0) = I. Resumiendo,
exp[At] = (Y1 (t), . . . , Yn (t))
donde la columna Yi (t), i = 1, . . . , n, es la solucion del sistema que satisface Yi (0) = ei .
La solucion general del sistema Y 0 = AY puede entonces expresarse como
Y (t) = c1 Y1 (t) + . . . + cn Yn (t) = exp[At]C
donde C = Y (0) es directamente el valor inicial (en t = 0). Esta expresion de la solucion
es analoga a la solucion general del caso elemental de primer orden y 0 = ay, con a cons-
tante, que es y(t) = eat c, con c = y(0).

En el caso diagonalizable, A = SDS 1 , con D diagonal y S = (V1 , . . . , Vn ) una matriz


de autovectores linealmente independientes. Por lo tanto, Ak = SD k S 1 y entonces
exp[At] = exp[S(Dt)S 1 ] = S exp[Dt]S 1
Y como D es diagonal,

1 0 . . . 0 e1 t 0 ... 0
0 2 . . . 2 t
0 0 e
X D k tk ... 0
D= exp[Dt] = =

... k! ...

k=0
0 0 . . . n 0 0 . . . en t

56
por lo que exp[At] puede evaluarse directamente. En el caso no diagonalizable, la evalua-
cion se realiza mediante la denominada forma canonica de Jordan de la misma, que es la
representacion en la base de autovectores generalizados.

Es importante destacar que al tomar la exponencial como matriz fundamental, resulta


muy facil evaluar la matriz inversa M 1 (t):
(exp[At])1 = exp[At]
ya que exp[At] exp[At] = exp[A(t t)] = exp[0] = I.

Observacion: En general exp[A] exp[B] 6= exp[A] exp[B] para matrices. La igualdad


vale cuando AB = BA, como en el caso previo (B = A), pero no en el caso general.

Problema 16: Considere el sistema (2.22), en el que


1 1 2 0 1 1
A = (1 1 ), D = (0 0 ), S = (1 1 )

Pruebe que
 
1 2t 1 + e2t 1 e2t
exp[At] = S exp[Dt]S = S(e0 10 )S 1
= 1
1 e2t 1 + e2t
2

   
1 1 + e2t 1 1 e2t
Por lo tanto, las columnas Y1 (t) = 2 , Y2 (t) = 2 , son soluciones
1 e2t 1 + e2t
linealmente independientes del sistema, que satisfacen Y1 (0) = (10 ), Y2 (0) = (01 ).

Problema 17. Consideremos ahora el caso no diagonalizable (2.45), en el que


       
1 b 1 0 0 b 0 b
A= = + =I+
0 1 0 1 0 0 0 0
Si bien en general exp[B + C] 6= exp[B] exp[C], si B = I tenemos IC = CI C y por
lo tanto exp[(I + B)t] = exp[It] exp[Bt] = et exp[Bt].
Utilizando el resultado anterior, probar que en este caso
     
0 b t 0 b t 1 bt
exp[At] = exp[(I + )t] = e exp[ t] = e
0 0 0 0 0 1

ya que (00 0b )2 = (00 00 ) y entonces (00 0b )k 


= (00 00) k 2.  
t 1 t bt
Por lo tanto, las columnas Y1 (t) = e , Y2 (t) = e son soluciones linealmente
0 1
independientes del sistema Y 0 = AY que satisfacen Y1 (0) = (10 ), Y2 (0) = (01 ).

Problema 18. Si A es de 22 y no diagonalizable, puede mostrarse que (AI)2 = 0.


A partir de este resultado, muestre que si A es no diagonalizable,
exp[At] = et [I + (A I)t]
donde es el unico autovalor de A.

57
2.8. Sistema lineal no homogeneo general de primer orden
Consideremos ahora el sistema no homogeneo
Y 0 = A(t)Y + F (t) (2.46)
que podemos escribir como L[Y ] = F (t), con L[Y ] = Y 0 A(t)Y .
Al igual que en el caso de la ecuacion lineal de orden n, es valido el siguiente teorema:

Teorema 2. La solucion general de (2.46) esta dada por la suma de la solucion general
Yh (t) del sistema homogeneo mas una solucion particular Yp (t) del sistema no homogeneo:

Y (t) = Yh (t) + Yp (t) (2.47)

donde Yh (t) = c1 Y1 (t) + . . . cn Yn (t) es la solucion general (2.16) (satisface Yh0 = A(t)Yh )
mientras que Yp (t) satisface Yp0 = A(t)Yp0 + F (t).

Demostracion: Es similar a la realizada para la ecuacion no homogenea de orden n. Si


Yp (t) es una solucion de (2.46), Yh (t) + Yp (t) es tambien solucion pues
(Yh + Yp )0 = Yh0 + Yp0 = A(t)Yh + A(t)Yp + F (t) = A(t)(Yh + Yp ) + F (t)
Y si Y (t) es otra solucion de (2.46), entonces
(Y Yp )0 = Y 0 Yp0 = A(t)Y + F (t) [A(t)Yp + F (t)] = A(t)(Y Yp )
por lo que Y Yp es solucion del sistema homogeneo y entonces Y (t) = Yh (t) + Yp (t).
Si se conoce la solucion general del sistema homogeneo, es siempre posible obtener
Yp (t) por integracion!

Teorema 3. Si M (t) es la matriz fundamental (2.20) del sistema homogeneo, una solucion
particular de (2.46) es Z
Yp (t) = M (t) M 1 (t)F (t)dt (2.48)

Demostracion: Proponiendo una solucion de la forma



v1 (t)
Yp (t) = M (t)V (t), V (t) = ...

vn (t)

obtenemos, dado que M 0 = A(t)M (ecuacion (2.21)),


Yp0 A(t)Yp = M 0 V + M V 0 A(t)M V = M V 0 = F (t)
Como M (t) es no singular, V 0 = M 1 (t)F (t) y entonces
Z
V (t) = M 1 (t)F (t) dt

58
que conduce a la solucion (2.48). La solucion general (2.47) puede pues escribirse como
Z
Y (t) = M (t)C + M (t) M 1 (t)F (t)dt (2.49)

Notese la semejanza con la solucion (1.66) de la ecuacion lineal de primer orden.


Problema 3: Escribir (2.49) para el caso n = 1 y verificar que se reduce a (1.66).

Problema 4: Mostrar que la solucion particular de (2.46) que satisface Y (t0 ) = Y0


es  Z t 
1 1 0 0 0
Y (t) = M (t) M (t0 )Y0 + M (t )F (t )dt
t0

4. Superposicion: Si Yp1 (t) e Yp2 (t) son soluciones de (2.46) para F1 (t) y F2 (t), una
solucion particular para la combinacion lineal F (t) = c1 F1 (t) + c2 F2 (t) es la combinacion
lineal de soluciones Yp (t) = c1 Yp1 (t) + c2 Yp2 (t):
 0
Yp1 = A(t)Yp1 + F1 (t)
(c1 Yp1 + c2 Yp2 )0 = A(t)(c1 Yp1 + c2 Yp2 ) + c1 F1 (t) + c2 F2 (t)
Yp20 = A(t)Yp2 + F2 (t)

Este resultado, similar al de la ecuacion no homogenea de orden n, es consecuencia


inmediata de la linealidad del sistema y su demostracion se deja como ejercicio.
Tambien se ve directamente de la expresion (2.48) (probar!).
Implica nuevamente que si podemos descomponer F (t) en terminos simples, podemos
hallar una solucion particular encontrando soluciones para cada uno de los terminos.
Y si F (t) F (t) Yp (t) Yp (t)

Ejemplo: Hallar la solucion general del sistema lineal de primer orden


 0
x = x y + f (t)
(2.50)
y 0 = x + y + g(t)

En forma matricial, corresponde al sistema


 0      
x 1 1 x f (t)
= +
y0 1 1 y g(t)
   
0 1 1 f (t)
es decir, Y = AY + F (t), con A = , F (t) = .
1 1 g(t)  
e2t 1
Una matriz fundamental del sistema homogeneo es (ver ejemplo previo) M (t) = .
e2t 1
Por lo tanto,
e2t e2t
 
1 1
M (t) =
2 1 1

59
Aplicando (2.48), obtenemos
Z  2t
e2t
   R 2t 
1 e f (t) 1 eR (f (t) g(t))dt
Yp (t) = M (t) dt = M (t)
2 1 1 g(t) 2 (f (t) + g(t))dt
(2.51)
Definiendo las funciones
Z Z
1 2t 2t 1
v(t) = e e (f (t) g(t))dt, w(t) = (f (t) + g(t))dt
2 2
la solucion general es entonces
 2t     
e 1 v(t) + w(t)
Y (t) = c1 + c2 + (2.52)
e2t 1 v(t) + w(t)
Problema 5: Mostrar que a solucion general de (2.50) para f (t) = 0, g(t) = 1 es
x(t) = c1 e2t + c2 + 1/4 + t/2
y(t) = c1 e2t + c2 1/4 + t/2
Determinar tambien la unica solucion que cumple x(0) = 0, y(0) = 0.

Ecuaciones lineales de orden n como sistema lineal de primer orden:


Las ecuaciones diferenciales lineales de orden n pueden escribirse como un sistema
lineal de n ecuaciones de primer orden n (probar!, en base a lo ya visto para ecuaciones
generales de orden n). Todos los resultados de la primer parte para ecuaciones lineales
de orden n pueden entonces tambien obtenerse a partir de los resultados generales para
sistemas lineales de primer orden.

Problema 6:
a) Mostrar que la ecuacion lineal de segundo orden no homogenea

y 00 + p(t)y 0 + q(t)y = f (t) (2.53)

puede expresarse, definiendo v = y 0 , como el sistema lineal de primer orden no homogeneo


 0      
y 0 1 y 0
= + (2.54)
v0 q(t) p(t) v f (t)

b) Justificar que el teorema 2.1 asegura que existen dos soluciones linealmente indepen-
dientes y1 (t), y2 (t), de (2.53).
c) Mostrar que el determinante de la matriz fundamental M (t) de soluciones del sistema
y1 y2
homogeneo asociado a (2.54), es el Wronskiano: det M (t) = W (t) = 0 .
y1 y20
d) Mostrar que la solucion particular (2.48) para el sistema (2.54) implica la solucion
particular Z Z
y2 (t) y1 (t)
yp (t) = y1 (t) f (t)dt + y2 (t) f (t)dt
W (t) W (t)
de (2.53).

60
2.9. Sistema lineal no homogeneo con coeficientes constantes.
Metodo general y representacion diagonal.
Consideremos ahora el caso no homogeneo de primer orden con A independiente de t,
Y 0 = AY + F (t) (2.55)
Si conocemos una matriz fundamental M (t), podemos aplicar directamente el resultado
general (2.48) para determinar la solucion particular Yp (t):
Z
Yp (t) = M (t) M 1 (t)F (t)dt (2.56)

Si utilizamos M (t) = exp[At], M 1 (t) = exp[At] y entonces


Z
Yp (t) = exp[At] exp[At]F (t)dt (2.57)

La solucion general de (2.55) puede as escribirse como


Z
Y (t) = exp[At] C + exp[At] exp[At]F (t)dt (2.58)

que es completamente analoga! a la solucion general y(t) = eat c + eat eat f (t)dt de la
R

ecuacion de primer orden y 0 = ay + f (t): Se reemplaza el numero a por la matriz A.

Representacion diagonal del sistema no homogeneo. Si A es diagonalizable, tal


que S 1 AS = D, con S = (V1 , . . . , Vn ) la matriz de autovectores y D la matriz diagonal
de autovalores, podemos entender mejor la solucion (2.58) pasando a la representacion
diagonal de (2.55). Multiplicando a izquierda por S 1 (vease seccion 2.5), se obtiene
Z 0 = DZ + G(t) (2.59)
donde Z = S 1 Y es el vector de coordenadas de Y en la base de autovectores y

g1 (t)
G(t) = S 1 F (t) = ...


gn (t)
el vector de coordenadas de F (t) en la misma base de autovectores, tal que
F (t) = g1 (t)V1 + . . . + gn (t)Vn
Como D es diagonal, (2.59) implica n ecuaciones no homogeneas de primer orden
desacopladas:
zi0 = i zi + gi (t), i = 1, . . . , n
La solucion particular de esta ecuacion es
Z
i t
zip (t) = e ei t gi (t)dt (2.60)

y por lo tanto, la solucion particular del sistema es


Yp = SZp (t) = z1p (t)V1 + . . . + znp (t)Vn (2.61)
Problema 19: Mostrar que en el caso diagonalizable, (2.57) conduce a la expresion (2.61)
con los coeficientes (2.60). Utilizar exp[At] = S exp[Dt]S 1 .

61
Ejemplo: Resolver el sistema
 0       
x x 1 1 f (t)
=A + F (t) , con A = , F (t) =
y0 y 1 1 g(t)

Este sistema ya fue resuelto en 2.8 mediante la aplicacion de la ecuacion (2.56). Para
1
aplicar el metodo (2.61), en la base de autovectores de A formada por V1 = (1 ), V2 = (11 ),
g1 (t) f (t) f (t)g(t)
con 1 = 2, 2 = 0, tenemos (g2 (t) ) = S 1 (g(t ) = 12 (f (t)+g(t) ) y por lo tanto
   
f (t) g(t) 1 f (t) + g(t) 1
F (t) = g1 (t)V1 + g2 (t)V2 = + ,
2 1 2 1

Las coordenadas z1 (t), z2 (t) de la solucion en la base de autovectores satisfacen entonces


las ecuaciones desacopladas z10 = 1 z1 + g1 (t), z20 = 2 z2 + g2 (t), o sea,
(
z10 = 2z1 + f (t)g(t)
2
,
0 f (t)+g(t)
z2 = 2

cuyas soluciones generales son

z1 (t) = c1 e2t + e2t e2t [ f (1)g(t)


R
2
]dt = c1 e2t + v(t) (2.62)
z2 (t) = c2 + f (t)+g(t)
R
2
dt = c2 + w(t) (2.63)

donde v(t) y w(t) son las funciones definidas en (2.28). La solucion general es entonces
     2t     
1 1 e 1 v(t) + w(t)
Y (t) = z1 (t) + z2 (t) = c1 + c2 +
1 1 e2t 1 v(t) + w(t)

que coincide con la expresion (2.52).

2.10. Metodo de coeficientes indeterminados


Al igual que en el caso de la ecuacion de orden n, si F (t) es exponencial, seno, coseno,
polinomio o producto de estas funciones y la matriz A es independiente de t, es posible
proponer una solucion particular del mismo tipo que F (t). La razon es que nuevamente, L
aplicado a tal funcion (L[Y ] = Y 0 AY ) sera una funcion del mismo tipo, si se cumplen
ciertas condiciones. No obstante, la propuesta involucra ahora vectores de coeficientes a
ser determinados. Damos a continuacion una tabla de propuestas, similar a la de 1.13.

F (t) Yp (t) Condicion


t
Fe V et no es autovalor de A
m
F0 + F1 t + . . . + Fm t V0 + V1 t + . . . + Vm tm A no singular
et (F0 + F1 t + . . . + Fm tm ) et (V0 + V1 t + . . . + Vm tm ) no es autovalor de A
F cos t o F sen t V1 cos t + V2 sen t i no es autovalor de A
it
Fe V eit i no es autovalor de A
(+i)t
Fe V e(+i)t + i no es autovalor de A

62
donde V , V1 , V2 , etc. son vectores con coeficientes a determinar e independientes de t.
Si no se cumple la condicion se debe multiplicar la propuesta por un polinomio en t (con
coeficientes vectores). Nuevamente es mas efectivo trabajar en forma compleja cuando
F (t) es seno o coseno. La propuesta debe ser completa, aun cuando F tenga componentes
no nulas solo en ciertas filas.

Caso Exponencial. Resolver


Y 0 = AY + et F , (2.64)
con F un vector independiente de t y un numero real o complejo, que no sea autovalor
de A. Proponemos entonces una solucion particular de la forma

Yp (t) = et V

con V un vector independiente de t. Tenemos Yp0 = et V y reemplazando en (2.64), se


obtiene
et V = Aet V + F et
Por lo tanto, debemos resolver el sistema V = AV + F , es decir,

(I A)V = F

que es un sistema lineal no homogeneo para el vector V . El sistema tendra solucion unica
F sii I A es no singular, es decir, si no es autovalor de A (Det (A I) 6= 0),
lo que justifica la condicion requerida. En tal caso,

V = (I A)1 F

Si en cambio coincide con un autovalor de A, el sistema anterior puede no tener


solucion, por ser la matriz A I singular. En tal caso se puede proponer una solucion
de la forma
Yp (t) = et (V1 + tV2 )
con V1 y V2 vectores constantes a determinar. Reemplazando en (2.55) se obtiene el
sistema
(I A)V2 = 0, (I A)V1 = F V2 ,
que muestra que V2 debe ser un autovector de A con autovalor , tal que la segunda
ecuacion sea compatible. Si no existe tal vector, se debe agregar un tercer termino V3 t2
en Yp , aunque en estos casos resulta ya mas conveniente utilizar el metodo general (2.57)
o (2.60)-(2.61).

Ejemplo. Consideremos
x0 = x y + et


y 0 = x + y
   
1 1 1
que corresponde a A = , F = . Proponemos una solucion particular
1 1 0

63
de la forma  
t v1
Yp (t) = e V , con V =
v2
Reemplazando, obtenemos el sistema (I A)V = F , es decir,
    
1 1 v1 1
=
1 1 v2 0

Los autovalores de A son 2 y 0. Si 6= 2 o 6= 0 la matriz anterior es no singular y tiene


la solucion unica
V = (I A)1 F , ( 6= 2, 6= 0)
o sea,    
v1 1 1
=
v2 ( 2) 1
La solucion particular es entonces

et
 
1
Yp (t) = ( 6= 2, 6= 0)
( 2) 1

que coincide con el resultado obtenido de (2.63)(2.62) (probar!).

Caso Polinomial. Resolver

Y 0 = AY + F0 + F1 t + F2 t2 , (2.65)

con F0 , F1 , F2 vectores independientes de t y A no singular.


Proponemos una solucion particular de la forma

Yp (t) = V0 + V1 t + V2 t2

con Vi vectores independientes de t. Tenemos Yp0 = V1 + 2tV2 y reemplazando en (2.64),


se obtiene
V1 + 2tV2 = A(V0 + tV1 + t2 V2 ) + F0 + F1 t + F2 t2
Igualando los terminos de igual grado en t de los dos miembros, obtenemos el sistema

AV0 = V1 F0
AV1 = 2V2 F1
AV2 = F2

Si A es no singular, comenzando con la ultima ecuacion se obtiene el resultado

V2 = A1 F2 , V1 = A1 (2V2 F1 ), V0 = A1 (V1 F0 )

Si en cambio A es singular, se debe proponer un polinomio de grado 3 o mas alto.

64
x0 = x + y + t

Ejemplo. Consideremos
 y 0 =x y +1   
1 1 0 1
que corresponde a A = , F = +t .
1 1 1 0
Proponemos una solucion particular
   
a0 a1
Yp (t) = V0 + tV1 = +t
b0 b1
Reemplazando, obtenemos
V1 = A(V0 + tV1 ) + (01 ) + t(10 )
que conduce al sistema 
AV0 = V1 (01 )
AV1 = (10 )
Como A es no singular, A1 = 21 (11
11 ) y
       
1 1 1/2 1 0 1/2
V1 = A = , V0 = A (V1 )=
0 1/2 1 1
La solucion general del sistema es entonces (probar!)
       
x(t) t cos t t sen t (1 + t)/2
= c1 e + c2 e +
y(t) sen t cos t 1 t/2

Caso Periodico. Consideremos ahora una fuente de frecuencia angular , tal que

Y 0 = AY + F eit

con A y F independientes de t. Supongamos que i no es autovalor de A. Proponiendo

Yp (t) = V eit

se obtiene iV et = AV et + F et y por lo tanto

(iI A)V = F

Dado que iI A es no singular, podemos determinar V como

V = (iI A)1 F

Si A y F son reales, podemos as obtener una solucion particular real de

Y 0 = AY + F cos t

como
Ypr (t) = Re[(iI A)1 F eit ]
Las componentes de esta solucion oscilan con la frecuencia de la fuente F (t) con una
amplitud que depende de la frecuencia, y pueden presentar un desfasaje respecto de F (t).
65
Si en cambio i es autovalor (resonancia!) entonces debemos proponer una solucion
Yp (t) = eit (V1 + tV2 ).

Ejemplo. Resolver
x0 = y + eit

2 6= 1
y 0 = x
01 it
que corresponde a A = (1 0 ), F (t) = F e , con F = (10 ). Proponiendo una solucion
particular Yp (t) = V eit obtenemos, siguiendo el metodo anterior (probar!)
 
1 1 i
V = (iI A) F = 2
1 1

Por lo tanto,  
1 i
Yp (t) = 2 eit
1 1
es una solucion particular del sistema anterior, y la parte real
 
r 1 sin t
Yp (t) = Re[Yp (t)] = 2
1 cos t

una solucion particular del sistema

x0 = y + cos t


y 0 = x

Problema 20: a) Determinar la solucion general de este sistema para 6= 1.


b) Determine una solucion particular en el caso resonante = 1.
Nota: Este sistema puede tambien resolverse como una ecuacion de 2o orden (probar!).

Ejercicios VIII

1) Muestre que las soluciones generales de los siguientes sistemas,


 0  0
x = x + 2y + 1 x = 6x + y 6t
a) 0 b)
y = x + y + 2 y 0 = 4x + 3y 3 4t
 0
x = x + 2y + et
 0
x = 5x + 3y 9et
c) 0 d)
y = x + y + 2 y 0 = x + y et
son:
a) x(t) = c1 (cos t + sin t) + c2 (sin t cos t) + 3, y(t) = c1 cos t + c2 sin t + 1
b) x(t) = c1 e2t + c2 e7t + t, y(t) = 4c1 e2t + c2 e7t + 1
c) x(t) = c1 (cos t + sin t) + c2 (sin t cos t) + 4 et , y(t) = c1 cos t + c2 sin t + 2 et /2.
d) x(t) = c1 e2t + 3c2 e4t + et , y(t) = c1 e2t c2 e4t + et .

2) Halle la solucion de los sistemas anteriores que satisface x(0) = y(0) = 0.

66
3) Determine la solucion general de los sistemas
0 0
 0 x = 2x + z x = x + y
x = 2y + A sen t
a) b) y 0 = x + z c) y 0 = x y + t
y 0 = 2x 0
z = x 2z + e2t
0
z = x z + e2t

De una expresion real en todos los casos. En a) considere los casos 6= 2 y = 2.

4) Halle la solucion general de los sistemas


 0  0
x = 2y + f (t) x = 2x + y
a) 0 b)
y = 2x y 0 = x 2y + f (t)

2.11. Aplicaciones
5) Resolver el problema de una partcula de carga q en un campo magnetico B constante
y campo electrico E. La fuerza es q(v B + E) y la ecuacion

mdv/dt = q(v B + E)

que es un sistema de 1er orden no homogeneo. Considerar que B esta en la direccion z y


a) E es constante y en la direccion z.
b) E es constante y en la direccion x.
c) E(t) = E cos e t, con E en la direccion x. Existe resonancia para algun valor de e ?
Grafique e interprete las soluciones.

6) Determinar las corrientes i1 (t), i2 (t) i3 (t) en el circuito de la figura. Plantear el sistema
de ecuaciones lineales de primer orden correspondiente y resolverlo para a) un fem cons-
tante 0 y b) una fem alterna = V0 cos t, para condicion inicial i1 (0) = i2 (0) = i3 (0) = 0.
Grafique las soluciones. Muestre que el sistema es

= Ldi1 /dt + R(i1 i3 )
0 = Ldi3 /dt + 2R i3 R i1 L R

R
con i1 = i2 + i3 . L

i1 i2 i3

7) Resolver el problema de dos masas acopladas


sujetas a una fuerza externa F (t) aplicada k1 k2 FHtL
sobre la segunda masa. Considerar los casos:
a) F (t) = F (constante) m m
b) F (t) = F cos ex t.
Determine en b) las frecuencias resonantes.
El sistema homogeneo ya fue estudiado en la seccion 2.6.

67
Facultad de Ingeniera
UNLP

Matematica C

X. Resolucion Numerica de Sistemas Lineales:


Normas, Numero de Condicion y Metodos Directos

1
Temario por clase:
Clase 1: Normas de vectores y matrices (norma 1, norma 2 y norma infinito). Condicionamiento
de sistemas lineales. Nmero de condicin.

Clase 2: Metodos Directos: Metodo LU. Resolucion. Pivoteo Parcial. Condicionamiento.

Clase 3: Matrices simtricas definidas positivas. Descomposicin de Cholesky.


Mtodos Iterativos.

Clase 4: Laboratorios Numricos.

Bibliografa:
1. R.L. Burden, J.Douglas Faires, Anlisis Numrico , Grupo Editorial Iberoamericana,
Mxico.

2. J. Demmel, Applied Numerical Linear Algebra, SIAM.

2
1. Normas de vectores y matrices

Las normas son usadas para medir errores en los calculos con vectores y matrices,
as es importante conocer como calcularlas y manipularlas.

Definicion: Dado <n , una norma es una funcion k..k: <n <, que satisface las
siguientes propiedades:

1. kxk 0, x <n , y kxk = 0 si y solo si x = 0.

2. kxk = ||kxk para todo escalar , x <n .

3. kx + yk kxk + kyk (desigualdad triangular).

1.0.1. Ejemplos: Las normas de vectores mas comunes son:


Si x = [x1 , x2 , x3 , . . . , xn1 , xn ]T <n :

a) La norma-2 o Eucldea se define:


v
u n
uX
kxk2 = t xi 2
i=1

Ejemplo: (i)la norma-2 de [1, 1, 1, 1] es2.


(ii) la norma-2 de [1, 1, 1, . . . , 1] <n es n

Ejercicio 1:
P
i) Verificar que el producto escalar xT x = n 2 2
i=1 xi = kxk2 .
ii) Verificar que la norma k..k2 es invariante por la multiplicacion por matrices ortog-
onales. Es decir, si Q es una matriz (n n) ortogonal (sus columnas son ortogonales y
normalizadas (kf ilai k2 = 1, i = 1, . . . , n) entonces
kQxk2 = kxk2 . (Usar: kQxk22 = xT QT Qx = xT x).

(b) La norma infinito de x <n se define:

kxk = max{i=1,...,n} |xi |

Ejemplo:
i)la norma- de [1, 1, 1, 1] es 1.
ii) la norma- de [1, 1, 1, . . . , 1] <n es 1.
iii) la norma- de [1, 0, 0, . . . , 0] <n es 1.

(c) La norma-1 de x <n se define:

3
n
X
kxk1 = |xi |
i=1

Ejemplo:
i) la norm-1 de x = [1, 1, 1, 1]T es 4.
ii) la norma-1 de x = [1, 1, 1, . . . , 1]T <n es n
iii) la norma-1 de x = [1, 0, 0, . . . , 0]T <n es 1

d) Si C es una matriz no singular (n n) y k..k es una norma particular,


entonces tambien es una norma (pesada):

kxkC = kCxk

Observacion Es importante saber elegir la norma apropiada para medir los errores.

Ejemplo: Sean los vectores v = [1, 2, 3]T , y w = [1,01, 2,10, 2,99]T expresados en
metros. Vemos que w es una buena aproximacion al v ya que el error relativo

kv wk
,0033
kvk
En cambio el vector u = [10, 2,01, 2,99]T es una mala aproximaci on pues

kv uk
=3
kvk
Supongamos ahora que la primer componente esta medida en kilometros (en lugar de
metros), as tendramos
v = [,001, 2, 3]T , y u = [,01, 2,01, 2,99]T
ahora en la norma-infinito ambos vectores parecen cercanos al calcular

kv uk
= ,0033
kvk
Sin embargo, deberamos haber considerado iguales unidades en cada componente, o
sino considerar la norma (que las conduce a eso) multiplicando por la matriz C

1000
1
1

Se puede demostrar que valen la siguientes relaciones entre las normas definidas:

i) kxk2 kxk1 nkxk2

ii) kxk kxk2 nkxk

iii) kxk kxk1 nkxk

4
Ejercicio 2: Representar en un grafico (plano) si x <2 el conjunto de puntos que
satisfacen:
i) kxk2 1
ii) kxk 1
iii) kxk1 1

Distancia entre dos vectores u y v de <n :


A partir de las normas de vectores podemos definir la distancia entre vectores:

d(u, v) = ku vk.

3 1
Ejemplo: Dado los vectores u = yv= . Calcular la d(u, v) relativa
2 1
a (a) la norma-2,(b) norma infinito.

1.1. Normas de matrices


Tambien se necesita definir norma de matrices para medir errores en calcu-
los con matrices.

Definicion 2: k..k es una norma sobre las matrices m n si :

1. kAk 0 A <mn , y kAk = 0 si y solo si A = 0.

2. kAk = ||kAk <.

3. kA + Bk kAk + kBk
Tambien una propiedad util, denominada de consistencia, es

4. kABk kAkkBk
Tal propiedad no la cumplen todas las normas de matrices, pero en particular la
satisfacen todas las normas inducidas por las normas de vectores (que veremos).

1.2. Normas de matrices muy usadas:


La norma
qP Frobenius de A: se define
m Pn 2
kAkF = i=1 j=1 (aij )
(es la norma-2 del vector formado con todos los elementos de A) .

Tambien existen las normas inducidas por las de los vectores (k..k2 ,k..k1 ,
k..k ), que se definen:

5
Dada A <mn :

kAxkp
kAkp = max , x <n
x6=0 kxkp
Si se consideran los vectores con kxkp = 1, una definicion equivalente es:

kAkp = max kAxkp , x <n , kxkp = 1


kxkp =1

Intuitivamente, la matriz A tendra una norma grande si su aplicacion a un vector x,


dada por Ax, tiene norma grande comparada con la del vector kxk.

Una cota inferior de kAk se obtiene desde la definicion

kAxk
kAk
kxk

Ademas debe existir un vector xmax tal que

kAxmax k
kAk =
kxmax k
Observar que satisfacen la propiedad de compatibilidad:

kAxkp kAkp kxkp

Tal propiedad proviene de considerar que para todo x 6= 0 vale que

kAxkp
kAkp
kxkp

Para obtener la norma subordinada kAk1 , y kAk , si A <mn , se aplica la


definicion de cada norma y se hacen los calculos directos.

Veamos el caso kAk :


(a) Debe verificarse que
kAk = max kai k1 ,
i=1,m

si ai denota la fila i-esima de A.


Tal resultado se obtiene de considerar, para todo x <n , tal que kxk = 1:

kAk = max kAxk


kxk =1

Como el vector

kAxk = max {|aT1 x|, |aT2 x|, . . . , |aTm x|}


i=1,m

siendo |aTi x| el producto


P de cada fila de A con x.
Cada |aTi x| n j=1 |aij xj |, y cada |xj | 1, entonces ...

6
P
... cada |aTi x| n
j=1 |aij |.
Entonces, sabemos que kAxk , para todo x esta acotada por:
Xn
kAxk max { |aij |}
i=1,m
j=1

Entonces ... n
X
kAk = max kAxk max { |aij |}
kxk =1 i=1,m
j=1

Veamos ahora que hay un x para el cual kAxk alcanza la cota superior:
Si
Pnpara A es imax el ndice de la fila tal que la suma:
j=1 |aimax j | es maxima, se puede lograr un

xmax = [signo(aimax j) 1]n


j=1

con kxmax k = 1, para el cual...


n
X
kAxmax k = |aTimax xmax | = |aimax j |
j=1

coincide con la cota superior.


Por tanto ...
n
X
kAk = max kAxk = |aimax j |
kxk =1
j=1

1 2 2
Ejemplo: Si A = 2 3 1

1 2 1
kAk = 6 = |2| + | 3| + | 1|, que es la suma maxima respecto de las filas de
A.

b) En forma similar al caso previo, se puede demostrar que la norma-1, kAk1 coincide
con:
kAk1 = max kaj k1 ,
j=1,...,n

si aj denota la columna j-esima de A.



1 2 2
Ejemplo: Si A = 2 3 1
1 2 1
kAk1 = 7 = |2| + | 3| + |2|, que es la suma maxima respecto de las columnas de
A.
c) El calculo de la norma-2 de A requiere analizar otros elementos de la matriz, que
se veran mas adelante.

7
Ejercicios

1 2
1. Dado los vectores u = 4 y v = 2 (i) Calcular la norma-2 (Eucldea), la
5 0
norm-1 y la norma infinito de u y v.

(ii) Calcular la distancia de u a v : (a)ku vk2 , (b)en norma infinito.


2. Demostrar que para todo x <n , kxk kxk2 .
3. Calcular lanorma-1 y la norma
infinito de A.
1 3 2
(i)Si A = 4 1 2
5 1 3

0 5 2
(ii)A = 3 1 3
4 4 3

8
2. Sistemas Lineales. Resolucion
2.1. Numero de condicion. Perturbacion
Dado un sistema lineal

Ax = b
donde A <nn no singular(existe A1 ). Sea la solucion exacta (unica) x = A1 b.
Supongamos que el lado derecho del sistema se perturba por un vector b, mientras A
permanece igual.
Queremos analizar cuantopuede cambiar la solucion del nuevo sistema.

2.2. Numero de condicion de una matriz


Dada la perturbacion b. Si x es la solucion exacta de Ax = b.
Si denotamos x + x a la solucion del sistema perturbado , se tiene:

A(x + x) = b + b (1)
Nuestro interes es conocer la magnitud de x en relacion a b.
Desde la igualdad 1, como Ax = b, se obtiene simplificando :

A(x) = b
Luego, multiplicando por A1 ambos miembros
x = A1 b
Luego, kxk = kA1 bk kA1 kkbk
Dividiendo por kxk ambos miembros de la desigualdad anterior. Ademas, usando que
kbk = kAxk kAkkxk (pues kAk kAxk/kxk
por definicion de la norma de A), se obtiene
kxk kbk/kAk.
As reemplazando el denominador kxk por kbk/kAk se obtiene:

kxk kbk
kAkkA1 k (2)
kxk kbk
El termino o cantidad de la derecha da el maximo valor que puede alcanzar el el cambio
relativo en la solucion exacta. Aunque muchas veces esa cota es grande, sin embargo hay ejemplos
(veremos a continuacion para ciertas A, b y b) donde el error relativo iguala a esa cota maxima.

Planteamos ahora el error relativo en la solucion del sistema cuando se perturba la ma-
trizdel sistema, manteniendo fijo el termino independiente b.
As estamos interesados en la solucion exacta x de A + Ax = b.
Si x es la solucion de Ax = b, la solucion del sistema perturbado sera x = x + xA .
Entonces satisface:

A + A(x + xA ) = b
donde el subndice A indica la asociacion con la modificacion de A. Asumimos que A es
sufientemente pequena tal que A + A continua siendo no singular.
Haciendo calculos similares a los previamente realizados,se obtiene aplicando una norma (por
ejemplo, la norma infinito tanto en los vectores como en las matrices).

9
kxA k kAk
kAkkA1 k (3)
kx + xA k kAk

Observacion La cantidad kAkkA1 k aparece en ambas expresiones de los errores. Tal can-
tidad refleja el maximo cambio relativo posible en la solucion exacta de un sistema causado por
un cambio en los datos (A, o b).

Definicion: Definimos el numero de condicion de una matriz no singular A (respecto de


la resolucion de Ax = b) mediante:
(A) = condp (A) = kAkp kA1 kp

donde k.kp indica la norma que se aplica a los vectores y matrices.


Considerando que In = A1 A, como kA1 Akp kA1 kp kAkp , se tiene que para toda
A no singular:

condp (A) 1
Por tanto, una matriz bien condicionada es una cuyo numero de condicion sea proximo a
1. Por otro lado, se dice mal condicionada si cond(A) es muy grande, es decir si es mucho mas
grande que 1.

Una matriz es mal condicionada cuando su aplicacion a vectores de igual magnitud da como
resultado vectores transformados de magnitud extremadamente diferente.
... Si kAxk es grande para un vector de kxk = 1, y pequena para otro de igual longitud,
entonces A es mal condicionada(justamente esa diferencia de magnitudes conduce al mal
condicionamiento).

Ejemplo: Sea A tal



104 0
A=
0 104

1 0
sea x = y sea x =
0 1

104 0
tales que kxk = kxk = 1. Tenemos que Ax = , y Ax =
0 104
As por ejemplo kAxk = 104 , y kAxk = 104

Ejemplo : Sea Ax = b, dado por



1 0
A=
0 106

1
b=
106
Su solucion exacta es x = [1, 1]T
.
1
Si se cambia b por b + b =
2 106
La solucion del sistema perturbado, x + xb = [1, 2]T .

10
Usando la norma infinito sabemos kAk = 1, kA1 k = 106 ,
k b k = 106 , kbk = 1. Ademas kx k = 1, y kxb k = 1
Usando la formula (2) sabemos que el cambio relativo en la solucion del sistema es:
kxb k kbk
kAkkA1 k ,
kx k kbk
reemplazando se obtiene
kxb k
kx k
1,106 ,106 /1.

La cota del error relativo de la solucion es 1.


Por otra parte, calculando el verdadero error relativo en la solucion:
kxb k
=1
kx k

As en este ejemplo hemos visto que el error relativo de x alcanza la cota superior, dada por
la formula (2). Tal error relativo es 106 veces mas grande que el cambio relativo kbk /kbk =
106 del termino independiente del sistema dado.

Observacion: Verifique que el numero de condicion en norma infinito de A es cond(A) =


106 (mal condicionada).

El numero de condicion de A es una medida de la sensibilidad del sistema lineal involucrando a


A respecto de las perturbaciones en los datos. Informalmente hablando si A es mal condicionada
entonces es una matriz cercana .a ser singular.

Observacion Observar que el determinante de una matriz no es una medidadel numero de


condicion.
Por ejemplo : Si A = diag(106 )n i=1 , tiene determinante = 10
6n 0, sin embargo

es
perfectamente
bien condicionadapues su cond(A) = 1. Por otra parte, la matriz A =
104 0
tiene determinante = 1, y tiene Cond(A) = 108 .
0 104

Ejercicios:
1. Hallar el numero de condicion: cond (A) y cond1 (A), si A:

3 1 1 0,99 150 200
(i)A = (ii)A = (iii)A =
4 2 1 1 3001 4002

1 1 1
(iv) A = 5 5 6 .
1 0 0

10 10 100
2. Sea A = ,yb= (a)Calcular cond (A).
10 9 99

0 100
(b)Suponga que b cambia a b =
101
Que tan grande puede ser el cambio relativo que producira ese cambio en la solucion de
Ax = b?. Utilizar la formula (2).
(c) Resuelva en forma directa el sistema Ax = b0 , y compare con la solucion de Ax = b,
y calcule la diferencia relativa entre ambas soluciones.

11
3. Metodos directos para resolver sistemas lineales
Un problema fundamental de algebra lineal es la resolucion de Ax = b para una matriz A
de m n y un vector b de conveniente dimension.
Los algoritmos que presentamos aqu son variaciones del metodo de Eliminacion de Gauss.
Ellos se llaman metodos directos, porque en ausencia de los errores de redondeo ellos daran la
solucion exacta de Ax = b despues de un numero finito de pasos. En contraste a estos metodos
veremos mas adelante metodos iterativos, los que calculan una sucesion de {x0 , x1 , . . . , xk , . . .}
de soluciones aproximadas del sistema (que converge hacia la verdadera solucion), que termina
cuando se halla una aproximacion aceptable(de acuerdo a algun criterio). Uno u otro metodo
puede ser mas rapido o mas exacto dependiendo del problema y tipo de metodo. Por ahora,
diremos que un metodo directo se elige cuando el problema no es demasiado grande, cuando no
se conoce la estructura o caractersticas particulares de la matriz, o si se sabe que la solucion
aportada por esa metodologa tiene garanta de estabilidad y un tiempo aceptable de calculo .

Este captulo esta referido a sistemas Ax = b donde A es no singular.

La idea basica de los metodos directos es transformar el problema a un sistema facil de


resolver.
Caso especial es llevar la matriz del sistema a un producto de matrices triangulares L y U ..

Objetivo Repasar o recordar el ultimo tem del modulo sobre Algebra de Matrices, donde se
planteo la factorizacion LU a partir de la Eliminacion Gaussiana .
Vimos que la transformacion de A en una matriz triangular U ( y el sistema Ax = b en
un sistema triangular), puede formalizarse como un producto de transformaciones o matrices
elementales aplicadas al sistema dado originalmente.
Ahora usaremos esa factorizacion y ampliaremos ese tema....

Definicion : Dada A se denominan submatrices principales a las k k submatrices de A


dadas por los elementos aij con i = 1 : k , j = 1 : k.

Se puede demostrar que los siguientes enunciados son equivalentes:


1. Existe una unica matriz triangular inferior unitaria L, y una matriz no singular triangular
superior U tal que A = L.U
2. Todas las submatrices principales de A son no singulares.
Justificacion:
Veamos
que (1) implica
(2): Si A = L.U , puede escribirse tambien
A11 A12 L11 0 U11 U12
A= = =
A21 A22 L21 L22 0 U22

L11 U11 L11 U12
=
L21 U11 L21 U12 + L22 U22
donde A11 es una submatriz de j j de A. Lo mismo L11 y U11 de L y U . Q El determinante
de A11 es igual al det(L11 U11 ) = det(L11 ). det(U11 ) = 1 det(U11 ) = jk=1 ukk 6= 0,
pues L es triangular unitaria y U es triangular no singular. Por tanto vale (2).
Para probar (1) conociendo (2) lo hacemos por induccion.
Si A es 1 1, entonces A = a. Luego A = 1.a. As cumple que es producto de L.U .
Admitiendo, por la hipotesis inductiva, que vale para una A = An1 de n 1 n 1,
para la que existe L y U ( bajo la hipotesis de (2)) tal que An1 = L.U .

12
Necesitamos ver para A de n n que existen matrices unicas L y U , dos vectores unicos l
y u de n 1 1, y un
unico
escalar
tal que
:
An1 b L 0 U u
A= = =
cT lT 1 0

LU Lu
=
lT U lT u +
Por induccion existen L y U unicas tal que An1 = L.U . Luego, considerando u = L1 b,
lT = cT U 1 , y = b lT u son unicos. Las entradas de la diagonal de U son no nulas,
as 6= 0 pues det(A) = det(U ) 6= 0. c.q.d

0 1 0
Ejemplo: La matriz P = 0 0 1 (es no singular, ortogonal, (P ) = 1 ), sin embargo
1 0 0
no se puede factorizar sino se permutan sus filas.
Observar que : Los menores principales 1 1 , y 2 2 son singulares.
Ese ejemplo demuestra la necesidad de hacer permutaciones de filas ( pivoteo parcial).

3.1. Pivoteo Parcial (intercambio de filas de A)


En cada paso j de la Eliminacion Gaussiana (paso j, cuando se quiere llevar a cerotodos
los elementos de la columna j que estan debajo del respectivo elemento diagonal) se reordenan
las filas de A que van desde la j, . . . , n, eligiendo el elemento de mayor valor absoluto de la
columna j, entre los elementos: ajj , aj+1j , . . . , anj . Es decir , se elige el ndice i de la columna
j tal que
|aij | = maxij |aij |.

Luego se permuta o intercambia la fila i con la fila j. Es decir, se mueve la fila i al


lugar de la j, y la j al lugar donde estaba la i.

Para establecer el algoritmo basico de LU (Eliminacion Gaussiana) comenzamos por definir


la matriz de permutacion....
Definicion: Una matriz P (n n) de permutacion es una matriz identidad con las filas
permutadas. Ejemplo:

0 1 0
P = 0 0 1
1 0 0
Estas matrices de permutacion tienen las propiedades siguientes:
1. P 1 = P T
2. Dada una matriz A, P A es la misma matriz A salvo el orden permutado de las filas (de
acuerdo a la permutacion planteada por P )
3. Si P 1 y P 2 son dos matrices de permutacion, tambien P 1P 2 es una permutacion.

Teorema Si A es no singular, existe una matriz de permutacion P tal que para A = P A


existe una L matriz triangular inferior unitaria, y U triangular superior, no singular, tal que
P A = L.U .

13
(Lo aceptamos sin demostracion. Ver referencia libro de Burden).

Reduccion a una matriz triangular superior:


Asumimos aqu con el objetivo de simplificar notaciones y presentar mas claramente las
ideas basicas del tema, que no necesitamos permutar filas.

Dado Ax = b, queremos llegar a un sistema transformado U x = b, con U matriz triangular


superior.
En cada paso j, hay que eliminar el coeficiente de la variable j en todas las ecuaciones
por debajo de la ecuacion j. Eso implica llegar a un sistema equivalente tal que la columna j
tenga todos los elementos nulos por debajo del elemento de la diagonal.

Como se consigue tal proposito?.


a11
a21
Dada la columna .
..
an1
Si se multiplica el elemento de la primer fila por a21 /a11 y se suma a la 2da. fila, pasa a
0 el segundo elemento de la columna 1. Analogamente, si multiplico por a31 /a11 a la 1ra. fila
y la sumo a la 3ra.fila se lleva a 0 el elemento de la columna 1 de esa fila. As si se multiplica
la primer filapor aj1 /a11 y se suma a la j fila ( para toda j > 1, para el caso de la primer
columna) se lleva a 0.al elemento de la columna 1 en la fila j, y as hasta el ultimo elemento
de esa columna.
Pero tal proceso debe ser aplicado a la matriz total para que quede un sistema equivalente.
Eso se puede formalizar diciendo que se multiplica toda la matriz A por una matriz (que
hace las operaciones antes enunciadas). Tal matriz, en el caso de la columna 1(con el proposito
de anular todos
los elementos que estan por
debajo del primero en la columna 1) es :
1
a21 /a11 1

a31 /a11 0 1
M1 =
.. .. ..
. . .
an1 /a11 0 0 . . . 1
Tal matriz difiere de la identidad por la columna 1 solamente.
Por simplicidad de notacion vamos a denotar con mi1 a los cocientes involucrados en la
primer columna de M1 :
mi1 = ai1 /a11 , para i > 1

Al multiplicar M1 .A= A(2) , A se transforma en una nueva matriz parcialmente reducida.


As la matriz transformada : M1 A = A(2) mantiene la primer fila igual a la de A, y fueron
transformadas todas las filas siguientes mediante los calculos:
(2)
aij = aij mi1 a1j
para cada fila i = 2, . . . , n y para las columnas j = 2, . . . , n ( no es necesario explicitar
la columna 1 ya que se lleva a 0 para toda fila con i > 1). Otra forma de expresar lo anterior (
donde cada ai indica toda la fila i de A ) es :

14

a1
a2 m21 a1


M1 A = A (2)
= a3 m31 a1
..
.
an mn1 a1
Luego, a partir de A(2) se llevaran a 0los elementos de la 2da. columna, que estan por
debajo de la diagonal, y as se seguira el proceso.
La transformacion M2 para anular los elementos de la 2da. columna ( debajo de la diagonal)
esta dada por
:
1
0 1

(2) (2)
M2 = 0 a 32 /a22 1

.. .. ..
.
. .
(2) (2)
0 an2 /a22 0 ... 1
(2) (2)
Denotamos mi2 = ai2 /a22 , para todo i > 2

Se obtendra M2 A(2) = A(3 ) que tiene tambien los elementos de la segunda columna en
0( debajo de la diagonal).
La matriz transformada que se obtiene : M2 A(2) = A(3) , mantiene la 1ra. y 2da. fila iguales
a las de A(2) , y transforma todas las siguientes filas:
(3) (2) (2)
aij = aij mi2 a2j
para cada fila i = 3, . . . , n, y para las columnas j = 3, . . . , n.

En general, para llevar a 0 los elementos de una columna j es necesario multiplicar la fila
(j) (j)
j por el numero : aj+1j /ajj , y sumar a la fila (j+1) para anular el termino j + 1 de esa
(j) (j)
columna j. Luego, por aj+2j /ajj a la fila j, y sumar a la fila (j+2)( que anula el elemento
(j) (j)
j + 2). Se continua hasta multiplicar por anj /ajj , y sumar a la fila n para anular el ultimo
elemento de esa columna j.
As la transformacion Mj es igual a la matriz identidad In salvo por la columna j que tiene
la forma:
0
..
.

1

(j) (j)
columj (Mj ) = aj+1j /ajj
(j) (j)
aj+2j /ajj

..
.
(j) (j)
anj /ajj
donde el 1.esta en la fila j.
(j) (j)
Denotamos con mij = aij /ajj , para toda fila i con i > j.

Luego, del resultado de multiplicar :


Mn1 .Mn2 . . . M3 .M2 .M1 A = U se obtiene la matriz U triangular superior.

15
Ejercicio: Ver que el producto de Mn1 .Mn2 . . . M3 .M2 .M1 es una matriz triangular
inferior unitaria (no singular).

Ejercicio: La inversa de M = Mn1 .Mn2 . . . M3 .M2 .M1 , es :


M 1 = M11 .M21 .M31 . . . Mn1
1
.
Como cada matriz Mj = In vj eTj , donde el vector

0 si i = 1, . . . , j
vj = { (j) (j) }
aij /ajj si i > j

se puede verificar que la inversa de Mj = In vj eTj es :


Mj1 = In + vj eTj ( simplemente multiplicar por Mj y verificar que se obtiene la matriz
identidad In ).

3.2. Obtencion de la descomposicion de A = L.U


Como M A = U entonces A = M 1 U = L.U , donde L es la matriz triangular inferior
unitaria, cuyas columnas son las columnas de M 1 :

0
..
.

1
(j)
(j)
columj (L) = aj+1j /ajj
(j) (j)
aj+2j /ajj

..
.
(j) (j)
anj /ajj
donde el 1 corresponde a la j-esima componente.

Cuando se hace el procedimiento de eliminacion para llegar a U , tambien se obtienen las


(j) (j)
columnas de L, guardando cada cociente calculado: aij /ajj para cada ndice i > j en cada
paso j(cuando se trata cada columna j)del proceso. As

1
l21 1

l31 l32 1
L=
.. .. ..
. . .
ln1 ln2 . . . 1
(j) (j)
donde lij = aij /ajj para los ndices i > j, ljj = 1 para cada j = 1, . . . , n, y los
restantes elementos son 0(triangular inferior unitaria).

3.3. Algoritmo para hallar L.U

Hemos visto, en un ejemplo previo, que sino se hace pivoteo parcial


(intercambio de filas en cada paso k, que corresponde a cada columna k) en el proceso de elim-
inacion puede fallar la descomposicion a pesar de ser no singular la matriz A. Luego, asumimos
ahora que en el paso k se calcula:

16
k = maxik kakik k (4)
Denominamos rk al ndice para el que se da tal maximo, y denominamos elemento de
pivote al ark k . Luego se intercambia la fila rk con la k ( se permuta el orden ). Tal estrategia
se denomina pivoteo parcial.
(k) (k)
Esa estrategia asegura que los elementos mik = aik /akk (se corresponden con las columnas
de L) usados en cada paso k, k = 1, . . . , n 1 del proceso cumplen:
(k) (k)
|mik | = |aik |/|akk | 1 , para i = k+1, . . . , n ya que debido a la permutacion realizada
ahora el denominador es que cualquier numerador.
Entonces el proceso de Eliminacion, si denominamos Pk a la matriz de permutacion que
corresponde a la permutacion realizada en el paso k , se simboliza:

Mn1 .Pn1 .Mn2 .Pn2 . . . . M2 .P2 .M1 .P1 .A = U


pues en cada paso k se tiene : Mk Pk A(k) = A(k+1) , ya que antes de eliminar o anular los
terminos de la columna k se realiza el pivoteo y la permutacion necesaria de filas.

Observacion: En cada paso k, se halla la columna de Mk1 , y se determina la fila k de la


U (permaneciendo identicas las filas previamente calculadas de U , desde el paso 1, . . . , k 1).
El procedimiento tambien modifica el cuadrado aij para i > k , y j > k.

A partir de A se obtendra la U (triangular superior) y la L(inferior), las que seran guardadas


sobreescribiendo los nuevos elementos calculados sobre los elementos aij . As, al terminar la U
aparecera en la parte triangular superior : aij para j = i, . . . , n. Los terminos de L se rescataran
desde los elementos guardados aij con i = j + 1, . . . , n para cada j = 1, . . . , n 1 (parte
triangular inferior, debajo de la diagonal principal, pues la diagonal de L no se requiere guardar
por ser conocida e igual a 1).

Algoritmo( L.U con pivoteo parcial):


Dada A <nn , no singular.
For k = 1, . . . , n 1
Determina p tal que: |apk | = max{i=k,...,n} {|aik |}.
Define rk := p.
Permuta akj por la fila apj ( j = k, . . . , n ), y
(**)tambien para j = 1, . . . , k 1 .
Define el vector: wj := akj , para j = k, . . . , n.
For i = k + 1, . . . , n
:= aik /akk
aik = (elementos para la k-columna de L)

For j = k + 1, . . . , n
aij = aij wj
End For;
End For;

End For.

17
Algoritmo basico para resolver Ax = b utilizando la descomposicion LU obtenida
por eliminacion Gaussiana:

1. Se factoriza A en la forma P A = L U , donde:


P es la matriz de permutacion,
L es la matriz triangular inferior con unos en la diagonal
U es una matriz triangular superior no singular

2. Luego, como el sistema Ax = b es equivalente a P Ax = P b,


se resuelve L U x = b, con b = P b .
Esto ultimo se hace en dos pasos: Definiendo y = U x,

I Primero se resuelve el sistema Ly = b, determinando y mediante sustitucion hacia


adelante, dado que L es triangular inferior.

II Luego se resuelve el sistema U x = y, determinando x mediante sustitucion hacia


atras, dado que U es triangular superior.

Resolucion del sistema triangular Ly = b

El sistema

b1

y1

1 0 ...
l21 1 0 ... y2 b2

y3

l31 l32 1 0 ...
=
b3


... ... ... ... .. ..
. .
ln1 ln2 ln3 . . . lnn1 1 yn bn

se resuelve directamente por sustitucion hacia adelante:


Se obtiene
y1 = b1 , y2 = b2 l21 y1 , . . .
y en general,
i1
X
yi = bi lij yj , i = 2, . . . , n
j=1

En forma analoga pero con sustitucion hacia atras se resuelve el sistema U x = y.

18
Ejercicios:

indica para resolver mediante PC con mathlab u otro software apropiado.


1. Encuentre la factorizacion P A = LU de las siguientes matrices:

0 1 1 3
1 2 1 0 1 4 1 1 1 2
A = 3 6 2 , B = 1 2 1 , C = .
0 1 1 1
1 1 4 1 3 3
0 0 1 1

2. Resuelva el sistema Ax = b, con b = (1, 1, 1), utilizando la factorizacion hallada.


3. Dadas dos matrices L1 y L2 triangulares inferiores,
(a) Probar que el producto es tambien triangular inferior.
(b) Si los elementos diagonales de ambas son 1, muestrar que el producto conserva
esta propiedad.
c) Probar que la inversa de ellas conserva tambien estas propiedades.
Analogos resultados son validos para triangulares superiores.

6 4 2
4. i) Dada A = 0 3 1 , halle det(A) y cond(A) para la norma .
0 0 106
ii) Si b = (1, 1, 1), determine la solucion de Ax = b .
iii) Si b b + b = (1, 1, 1 + 106 ), calcule la nueva solucion y estime ||x|| /||x|| .
5. i) Muestre que si U es una matriz triangular superior no singular, U 1 tiene en su
diagonal los elementos 1/uii .
ii) Muestre que kU k maxi |uii |, y kU 1 k mni1|uii | .
maxi |uii |
iii) Muestre que cond(U ) mni |uii |
, para la norma .
Tal cota es usada como una estimacion del numero de condicion de U .
6. Sea A una matriz no singular, y supongamos que se ha calculado P A = LU .
1
Mostrar que kA1 k kU n k .
Este resultado, conjuntamente con el del ejercicio anterior, implica que A debe ser
mal condicionada si los elementos de la diagonal de U en la factorizacion LU varan
mucho en magnitud. Notese que si no hay pivoteo no vale la conclusion anterior.

0,932 0,443 0,417
7. Considerar la matriz A = 0,712 0,915 0,887
0,632 0,514 0,494
a) ( )Calcular la descomposicion LU de A. Observando a U , puede deducir que A
es mal condicionada?.
b)( ) Calcular cond(A), cond(U ) y cond(L) para la norma .
c) Indique cuan acertadamente estima el numero de condicion de A la aproximacion
dad en el ejercicio previoe. Comparar con el resultado obtenido en b).

19
4. Norma-2 de Matrices
4.1. Matrices simetricas
Si A <nn es simetrica (A = AT ), sabemos que existe una base de vectores
reales ortogonales con norma = 1 que son autovectores de A. Es decir, existen vecto-
res {v1 , v2 , . . . , vn } ortonormales, tales que

Avi = i vi
para cada autovector vi .

Observacion 1 : A real y simetrica se dice que es definida positiva si xT Ax > 0 para


todo x 6= 0. Se puede demostrar la equivalencia:
A simetrica definida positiva todos los autovalores de A son positivos (i (A) > 0 i)

Denominamos max al autovalor mayor de A (simetrica), y min al menor autovalor.

Observacion 2 Justificar que si A es simetrica entonces

min kxk22 xt Ax max kxk22


Sug.: Escribir x = ni=1 yi vP
P
i , usando la base ortonormal de autovectores de A. Notese que
tambien se obtiene xT x =P ni=1 yi2 .
Ademas resulta Ax = ni=1 yi i vi , ya que Avi = i vi .
Luego, multiplicando xT con P Ax, resulta:
xT Ax= ni=1 yi2 i kvi k22 = ni=1 yi2 i
P
Luego, si se reemplaza cada i por el max se obtiene

xT Ax max kxk22

Analogamente, si se sustituye cada i por el min se obtiene:

min kxk22 xT Ax
ya que P
xT Ax = ni=1 yi2 i ni=1 yi2 min = min kxk22
P

Ejercicios de repaso:
a) Verificar que si Au = i u entonces A2 u = (i )2 u (los autovalores de A2 son los
{(i (A))2 }).

b) Si A es no singular (existe A1 ) los autovalores de A1 son { i (A)


1
}. Si Au = u,
1
multiplique por A para ver el resultado.

c) Dada A <nn , no singular. Verificar que los autovalores de At A coinciden con los
de AAT .

20
Observar que si A <mn , con n < m y rango(A) = n, AT A sera de n n no singular.
Pero AAT sera singular de m m, con m n autovalores nulos y los restantes iguales a
los de AT A.

d) Dada A <nn . Verificar que si S es una matriz no singular, entonces


{i (A)} = {i (SAS 1 )}
(e) Verificar que para cualquier norma, si es un autovalor de A entonces || kAk.
Considerar que ||kxk = kAxk kAkkxk para cualquer norma. Ejemplo: Analizar la
norma-, y la norma-1 de una matriz triangular inferior con todos 1 o -1.

4.2. Norma-2 de una matriz simetrica:


Dada A <nn simetrica
kAk2 = maxx kAxk2 , para x 6= 0, tal que kxk2 = 1.
Consideremos,
kAk22 = maxx kAxk22 = maxx xT At Ax = maxx xT A2 x = maxi (i (A))2 .
Por lo tanto,
kAk2 = maxi |i (A)|

Observacion 3 Por lo tanto, kA1 k2 = maxi |i (A1 )| = maxi 1/|i (A)| = 1/ mni |i (A)|
y entonces
maxi |i (A)|
cond2 (A) = kAk2 kA1 k2 =
mni |i (A)|
El N de condicion para la norma 2 es pues el cociente entre el autovalor mas grande y
el autovalor mas chico (ambos en valor absoluto) de A.

Observacion 4 Si A es simetrica definida positiva entonces


kAk2 = max (A).

1000
Ejemplo: Dada A = 1 , obtenemos max = 1000, min = 106 . As
6
10
1 1
kAk2 = 1000, y kA k2 = min (A) = 106

4.3. Matrices no simetricas: Norma-2


En general, dada una matriz A (no simetrica) A <mn , la norma-2 de A,
se puede calcular considerando:

kAk22 = maxx kAxk22 , con kxk2 = 1


As
kAk22 = max xT AT Ax = max (AT A)
x
Luego, p p
kAk2 = max (AT A) = kAt Ak2 .

21
5. Descomposicion triangular de Matrices simetricas
definidas Positivas
Cuando A es una matriz simetrica, es decir A = AT , es natural pensar que una
factorizacion como la LU debera existir, que retenga la propiedad de simetra de A, y
cuyos calculos requieran la mitad del costo del caso no simetrico.
Para matrices simetricas definidas positivas tal factorizacion se denomina descompo-
sicion de Cholesky. Para el caso indefinido existe otro procedimiento de Bunch y Parlett.

Si A es una matriz n n,simetrica no singular, si suponemos que existe su LU sin


necesidad de hacer intercambios de filas, tendremos:
A = LU = AT = U T LT
La unicidad de la factorizacion LU implica que U = diag(uii )LT ( pues L tiene
diagonal con todos 1), entonces
A = LDLT
donde D = diag(uii ).
Esta representacion se llama la representacion LDLT de A ( estuvo basada sobre el
supuesto que no se necesitaban intercambios de filas para hacer la LU inicial).
Desafortunadamente tal supuesto solo se puede mantener cuando
A es simetrica Definida Positiva.
Ejemplo: Si A simetrica no es definida positiva, tiene tambien autovalores negativos
o cero. Veremos
 que
 se necesita en general intercambiar filas y columnas.
0 1
A=
1 0
Si se plantease
 la existencia de   
0 1 T 1 0 d11 0 1 l21
A= = LDL =
1 0 l21 1 0 d22 0 1
se llegara a un sistema contradictorio : d11 = 0, y d11 l21 = 1 (incompatible). Por lo
tanto no existe LDLT de tal A, sin permutaciones.

En cambio si A es Definida Positiva, s existe la descomposicion LDLT de A.


Ademas, no solo existe sino que el procedimiento para encontrarla es eficiente y esta-
ble.

5.1. Factorizacion de Cholesky


Dada una matriz A simetrica y definida positiva( xT Ax > 0 , x 6= 0).

Tales matrices A tienen las siguientes caractersticas:

(i) aii > 0, i = 1, . . . , n (elementos de la diagonal).

(ii) todos los autovalores son reales y positivos.

(iii) el elemento mayor (en valor absoluto) de A esta en la diagonal.

22
(iv) Toda submatriz seleccionada simetrica desde las filas y columnas de A debe ser
definida positiva. En particular, todos las matrices menores principales( 1 1,2
2,. . .,n n1) son no singulares con determinante positivo.

(v) Si se realiza eliminacion Gaussiana en A sin intercambios, la matriz reducida continua


siendo definida positiva en cada paso.

Las propiedades (i) y (v) implican que si A es definida positiva, la factorizacion A =


LDLT siempre existe, y los elementos de D son positivos.

As como
A = LDLT = LD1/2 D1/2 LT .
Si denominamos
R = D1/2 LT , y RT = LD1/2 ,
entonces
A = RT R.
Esta factorizacion se llama de Cholesky, y R es el factor de Cholesky, la que es una matriz
triangular superior con elementos positivos en la diagonal.

La factorizacion de Cholesky puede obtenerse calculando en forma directa cada fila o


columna de R, escribiendo en forma explcita la representacion de A = RT R:

a11 a12 . . . a1n r11 0 0 0 r11 r12 . . . r1n
a12 a22 . . . a2n r12 r22 0 0 0 r22 . . . r2n

=

.. .
... . . . .. .. .
. ..

. . . . 0 0 0
a1n a2n . . . ann r1n r2n . . . rnn 0 0 0 rnn

... por igualacion podemos calcular los terminos de R por filas:

El elemento a11 debe ser igual al producto de la primer fila de RT con la primer
columna de R. As debe igualarse
2
a11 = r11 . Luego, se obtiene r11 = a11 ( se elige el signo positivo por convencion).
Ahora continuando con los elementos de la 1er. fila de A (multiplicando la 1er.
fila de RT por las columnas de R), se tendra :
r11 r12 = a12 , . . .,r11 r1n = a1n , despejando se obtiene:
r1j = a1j /r11 , j = 2, . . . , n
Luego, se continua con la 2da. fila de R ...

Para eso, se calcula el elemento de la diagonal : r22 , haciendo el producto de la 2da.


fila de RT con la 2da. columna de R (son iguales) se obtiene a22 . Igualando
2 2
a22 = r12 + r22

23
2 2
como r12 se conoce,
p se despeja r22 = a22 r12 , que es positivo de acuerdo a (v).
2
Luego, r22 = a22 r12 .
Para calcular los restantes elemntos de la fila 2 se considera el producto de la
2da. fila de RT con cada columna de R desde la j = 3, . . . , n, resultando

r12 r1j + r22 r2j = a2j ,

donde todos son conocidos salvo r2j . As, despejando r2j se obtiene

r2j = (a2j r12 r1j )/r22 , para j = 3, . . . , n

Luego hay que continuar con la fila 3 de R, y continuar con una fila por vez.

En general, en el paso k, se quiere conocer la fila k de R, conociendo las filas


anteriores de R.
Primero obtener el elemento de la diagonal de R: rkk . Para eso
... se considera el producto de la fila k de RT con la columna k de R (de esta columna
se conocen todos los primeros k-1 elementos):
2 2 2 2
r1k + r2k + . . . + r(k1)k + rkk = akk (1)

Se despeja: q
2 2 2
rkk = akk r1k r2k . . . r(k1)k .

Para calcular los restantes elementos de la fila k de R, se multiplica la fila k de RT


con cada columna j = k + 1, . . . , n de R:

r1k r1j + r2k r2j + . . . + r(k1)k r(k1)j + rkk rkj = akj

(unicamente estan involucrados los elementos de la columna j por arriba del ele-
mento k, por tanto se conocen, entonces ...
... cada elemento j desde k + 1, . . . , n, se obtiene

rkj = (akj r1k r1j r2k r2j . . . r(k1)k r(k1)j )/rkk

Algoritmo de Cholesky (calculando las filas de R):

For k = 1, . . . , n
q
rkk = akk k1 2
P
i=1 rik (**)
For j = k + 1, . . . , P
n
rkj = (akj k1 i=1 rik rij )/rkk
End For
End For

24
Observacion 5 En (**) la sumatoria incluye los elementos anteriores de la columna
k anteriores al k (para k=1, es 0). Esta factorizacion requiere n3 /6 operaciones que es
aproximadamente la mitad de las operaciones requeridas por la LU .

Ejercicio:
a) Verificar que son ciertas las propiedades : i), ii), iii) enunciadas arriba.
b) Operaciones:
Xn Xn
(2k + 2k) = n3 /3 + O(n2 )
k=1 i=k+1

Observacion 1 Como cada fila de RT o columna de R satisface (1):


2 2 2 2
r1k + r2k + . . . + r(k1)k + rkk = akk
se concluye que cada elemento de cada columna de R es menor o igual en magnitud

al elemento de la diagonal de A: |rik | akk . Es decir, cada rik es menor en magnitud
que la raz cuadrada del mayor elemento de A.
Se concluye que en la factorizacion de Cholesky no puede ocurrir crecimiento .en los
terminos de las matrices intermedias debido a los pasosntermedios.

Ejercicio: Factorizar:

2 1 0 ...

1 2 1 0 ...

0 1 2 1 0 . . .
A=

.. .. .. ..
. . . .

... 0 1 2 1
0 1 2

si n = 2, 8, 20.

Observacion 2 El metodo de Cholesky es estable (no requiere pivoteo).

Eso se basa en lo siguiente ....

5.2. Relacion entre la norma-2 de A y la de R


Sea kRk22 = maxx6=0 xT RT Rx, asumiendo que p kxk = 1.
Entonces kRk22 = kAk2 . Por lo tanto kRk2 = kAk2
Lo mismo para kRT k2 .
Para kR1 k22 = maxx6=0 xT (RRT )1 x = max ((RRT )1 ) = min (RR
1
T ) . Entonces
1 2 1 1
kR k = min (RT R) = kA k2 .
Luego, p
cond2 (R) = kRk2 kR1 k2 = cond2 (A)

25
5.3. Resolucion de RT Rx = b
Para obtener la solucion x se deben resolver dos sistemas triangulares. Si en RT (Rx) =
b, denominamos y = Rx, entonces...
... primero se plantea RT y = b.
Se resuelve por sustitucion hacia adelante (triangular inferior) para obtener y.
Luego, se resuelve Rx = y, usando que R es una matriz triangular superior, por
sustitucion hacia atras.

Observacion 6 Si la descomposicion de Cholesky se interrumpe en algun paso k, indi-


cara que la matriz dada no es definida positiva.

6. Matrices bandas
Una matriz A se llama banda, con ancho de banda inferior bL y ancho de banda
superior bU , si aij = 0 cuando i > j + bL , o si j > i + bU :

a11 ... a1,(bU +1) 0
..
. a2,bU +2



a ...

A= b +1,1
L

abL +2,2 anbU ,n

.. ..
. .
0 an,nbL ... ann

Este tipo de matrices aparece frecuentemente en la practica y es de utilidad su reco-


nocimiento, ya que en la descomposicion LU los factores L y U son tambien bandas,
resultando mas barato de calcular y almacenar.

Observacion 7 Si A es una matriz banda con ancho bL inferior y bU superior.


(i) Si se hace A = LU sin pivoteo, entonces L mantiene la banda inferior bL , y
U la banda superior bU . Cuando bL y bU son pequenas comparadas con n, el costo de la
descomposicion baja a aprox. 2n.bU .bL de operaciones. El costo de la resolucion de Ax = b
baja a 2n.bU .bL + 2nbU + 2nbL .
Observar haciendo un dibujo de A (con bandas) que en cada paso k de la eliminacion
Gaussiana al restar la fila k a las siguientes no cambia la banda bU . Ademas, en la L se
guardan los cocientes que se corresponden con los elementos debajo de la diagonal (con
banda bL ) en la columna k.

(ii) Si se hace pivoteo parcial para hallar P A = LU , como en cada paso k puede ser
necesario permutar la fila k de la matriz reducida A(k) con otra que le sigue, entonces U
sera un matriz con una banda a lo sumo bU + bL (hacer dibujo).

(iii) En la descomposicion de Cholesky como A es simetrica definida Positiva, no se


necesita hacer pivoteo, as que R mantiene la banda bU = bL .

26
Ejemplo: La matriz TN , tridiagonal TN <N N aparece en problemas de ecuaciones
diferenciales discretizados.

2 1

. .
1 . . . .

TN =

.. ..
. . 1
0 1 2
Ejercicios

1. Mostrar que si A es real simetrica definida positiva, entonces:


(a) los elementos diagonales son positivos : aii > 0 i.
(b) El mayor elemento de A esta en la diagonal.

2. ().
T
Si A es simetrica definida positiva, con factorizacion
de Cholesky LDL , L triangular
2 1
. .
1 . . . .

inferior unitaria, verificar sobre la matriz TN =

. .
. . . . 1

0 1 2
que cond2 (A) dmax /dmin , que es el cociente entre el mayor y menor elemento de
la diagonal de D de la descomposicion de Cholesky.

3. ( ). Sea la misma matriz del previo ejercicio TN


(i) Para n=8, calcular los autovalores. Calcular numero de condicion (en norma-2,
y en norma infinito)
(ii) La descomposicion de Cholesky para n = 8
(iii) Si b = (1, 1, . . . , 1). Resolver usando los dos sistemas triangulares.
(iv) Verificar que el estimado del numero de condicion (en norma-2) dado en el
ejercicio previo, es valido, calculando cond2 (TN ), y calculando el cociente propuesto.

27
Resumen
Metodos directos para la resolucion de
sistemas lineales
1 Factorizacion LU
Definicion 1.1 Se dice que una matriz A admite una factorizacion LU si
dicha matriz puede escribirse como el producto de una matriz triangular infe-
rior, L, cuyos elementos en la diagonal sean iguales a la unidad y una matriz
triangular superior U. Es decir A = LU

Definicion 1.2 Se dice que una matriz A admite una factorizacion LU in-
directa si existe una matriz de permutacion P tal que la matriz P A admita
una factorizacion LU . Es decir, P A = LU

Teorema 1.1 Toda matriz A no singular admite una factorizacion de la


forma P A = LU.

Observacion 1.1 Se denomina matriz de permutacion a toda matriz cuadrada


tal que cada fila y cada columna de la matriz tiene un y solo un elemento
distinto de cero y este toma ademas el valor 1.

Observacion 1.2 Toda matriz de permutacion es no singular y ademas se


verifica: P 1 = P t

Observacion 1.3 Toda matriz A no singular admite una factorizacion LU


indirecta (pero no necesariamente una factorizacion LU).

1.1 Algoritmo para la factorizacion


LU es basicamente una forma modificada de la eliminacion gaussiana. Trans-
formamos la matriz A en una triangular superior U anulando los elementos
debajo de la diagonal. Es decir

E1 E2 ... En A = U

donde E1 , E2 , ..., En son matrices elementales, que representan los distin-


tos pasos de la eliminacion.
Luego recordando que la inversa de una matriz elemental, es otra matriz
elemental:

1
A = (E1 E2 ... En )1 U = L U
1
con L=En1 En1 ... E11 matriz triangular inferior.

Para matrices 3 3,
esto
es:
a11 a12 a13 1 0 0 u11 u12 u13
A = a21 a22 a23 = l21 1 0 0 u21 u23
a31 a32 a33 l31 l32 1 0 0 u33

1.2 Calculo de factorizacion LU con MATLAB


>> [L, U]=lu(A)
Si la matriz A admite una factorizacion LU , la funcion lu devuelve en L
la matriz triangular inferior y en U la matriz triangular superior.
>> [L, U, P]=lu(A)
Si la matriz A admite una factorizacion LU indirecta, la funcion lu de-
vuelve en L la matriz triangular inferior, en U la matriz triangular superior
y en P la matriz de permutacion.

2 Factorizacion de Cholesky
Definicion 2.1 Una matriz A nxn simetrica se define definida positiva si
se verifica que xt Ax > 0 x <n , x 6= 0.

Definicion 2.2 Se dice que una matriz A real admite una factorizacion de
Cholesky si dicha matriz puede escribirse como el producto de una matriz
triangular inferior, R, cuyos elementos en la diagonal son positivos, por la
matriz traspuesta de esta, Rt . Es decir: A = RRt .

Observacion 2.1 Para factorizar una matriz A como A = RRt , procede-


mos a factorilzar a A como LU y realizamos los siguientes calculos: extrae-
mos de U la diagonal y escribimos a U como DLt , y llamando a R = LD1/2
resulta entonces que
A = LU = LDLt = (LD1/2 )(D1/2 Lt ) = RRt

Observacion 2.2 Una matriz A real y simetrica admite factorizacion de


Cholesky si y solo si es definida positiva (esto es, xt Ax > 0 x 6= 0).

Teorema 2.1 Una matriz A nxn simetrica, es definida positiva si y solo si


todos sus autovalores son reales y positivos. (i < y i > 0, i = 1, .., n.).

2
2.1 Calculo de factorizacion de Cholesky con Matlab
>> [U]=chol(A)
Si la matriz A admite una factorizacion de Cholesky, la funcion chol
devuelve en U la matriz triangular superior Rt .

3 Aplicaciones
3.1 Resolviendo sistemas lineales
Dada la ecuacion matricial

Ax = b

Los pasos para resolver el sistema lineal usando la factorizacion Ax =


L(U x) = Ly = b son los siguientes:

Primero, resolvemos Ly = b
Segundo, resolvemos U x = y y obtenemos x.
Es decir que resolvemos dos sistemas triangulares. Este metodo es com-
putacionalmente eficiente. Observar que la factorizacion es independiente del
vector b.
En el caso A admita una factorizacion de la forma P A = LU, entonces
para resolver el sistema lineal Ax = b,calculamos primeramente: P Ax = P b.

3.2 Calculo de la inversa de una matriz


La factorizacion L.U puede ser usada para calcular la matriz inversa de
A. Algunos algoritmos que invierten matrices usan este metodo. Es de-
cir, A1 = (LU )1 = U 1 L1 .Tambien si A es una matriz de nxn y sabiendo
que A.A1 = I si se resuelven n sistemas Avi = ei con ei = (0, ..., 1, 0, ...0),
un 1 en el lugar i-esimo, usando la factorizacion LU se obtiene la matriz
inversa cuyas columnas son los vectores vi .

3.3 Calculo del determinante de una matriz


Las matrices L y U pueden ser usadas para calcular el determinante de la
matriz A:

det(A) = det(L)det(U ).

3
Recordando que el determinante de una matriz triangular es simplemente
el producto de los elementos de la diagonal, y que en este caso en particular,
L es una matriz triangular donde los elementos de la diagonal son todos unos,
entonces: det(L) = 1,y por lo tanto:

det(A) = det(U ) = u11 u22 .... unn .

Si la factorizacion de A es P 1 LU con P matriz de permutacion, por ser


el determinante de una matriz de permutacion 1 o 1 segun sea el numero
de permutaciones de filas en la descomposicion, entonces el

det(A) = (1)u11 u22 .... unn .

4 Ejemplos

2 1 3 1
1. Dada la matriz A = 4 1 3 y el vector b = 0
2 5 5 2
a) Factorizar la matriz A como LU
Realizamos operaciones elementales para llevar a la matriz A a una matriz
triangular
superior U.
2 1 3 2 1 3
f ila2 (2) f ila1
A = 4 1 3 0 3 3
f ila3 (1) f ila1
2 5 5 0 6 8
2 1 3
f ila3 (2) f ila2 0 3 3 = U

0 0 2

2 1 3 1 0 0
Entonces U = 0 3 3 y L = 2 1 0
0 0 2 1 2 1
b) Usando la factorizacion hallar el determinante de A
det(A) = det(LU ) = det(L) det(U ) = (1) (2 (3) 2) = 12
c) Resolver el sistema Ax = b usando la factorizacion LU .
Primero resolvemos el sistema triangular Ly = b. Es decir:

1 0 0 y1 1
2 1 0 . y2 = 0
1 2 1 y3 2

4
y obtenemos como solucion
1 2 1
2. Factorizar la matriz A = 3 6 2
1 1 4
Hacemos operaciones elementales para reducir A a una matriz triangular
superior:

1 2 1 1 2 1
f ila2 (3) f ila1
A= 3 6 2 0 0 5
f ila3 (1) f ila1
1 1 4 0 3 3

la cual no es una matriz triangular superiror, entonces, podemos hacer


intercambio de filas para que si lo sea. Y obtenemos:

1 2 1
U = 0 3 3
0 0 5

De esta manera, P A = LU donde P es la matriz de permutacion de las


filas 2 y 3 :

1 0 0 1 0 0
P = 0 0 1 L = 1 1 0
0 1 0 3 0 1

3. Factorizar A usando la factorizacion de Cholesky, analizando previa-


mente siA es definida positiva.

81 9 0
A = 9 2 2 , autovalores{0.3219, 2.4579, 20.2202}
0 2 20
Son todos reales y positivos, entonces A es definida positiva y se puede
factorizar Cholesky.
Realizamos operaciones elementales para reducir a la matriz a una matriz
triangular
superior:
1 1 0 1 1 0
A = 1 2 2 f ila2 (1)f ila1 0 1 2
0 2 20 0 2 20
1 1 0
f ila3 (2)f ila2 0 1 2
0 0 16
entonces resulta

5

1 1 0 1 0 0 1 1 0
A = 1
2 2 = LU = 1
1 0 0 1 2 = LDLt =
0 2 20 0 2 1 0 0 16
1 0 0 1 0 0 1 1 0
= 1 1
0 0 1 0
0
1 2 =
0 2 1 0 0 16 0 0 1
1 0 0 1 0 0 1 0 0 1 1 0
= 1 1
0 0 1 0 0
1 0 0 1 2 =
0 2 1 0 0 4 0 0 4 0 0 1
1 0 0 1 1 0
= 1 1
0 0 1 2

0 2 4 0 0 4

5 Ejercicios
Dados las siguientes sistemas de ecuaciones Ax = b, factorizar la matriz y
resolver usando la factorizacion.
   
3 1 1
1. A = , b=
9 5 3

1 1 1 0
2. A = 2 3 1 , b= 1
1 1 2 1

0 1 4 0
3. A = 1 2 1 , b= 1
1 3 3 1
   
4 2 1
4. A = , b= (factorizar Cholesky)
2 10 4

6
Facultad de Ingeniera
UNLP

Matematica C

Apndice: Resolucin Numrica de Sistemas Lineales


Metodos iterativos

1
Temario
Clase 1: Luego de Autovalores y Autovectores, se pueden estudiar los mtodos iterativos
numericos para resolver sistenmas lineales. Se estudiaran aqu solo los muy basicos: metodo de
Jacobi y Gauss- Seidel. Para ampliar el tema se puede ver la bibliografa recomendada por los
docentes, como por ejemplo [1].
Clase de Laboratorio.

Referencias
[1] R.L. Burden, J.Douglas Faires, Anlisis Numrico, Grupo Editorial Iberoamericana, Mxico.

Matematica C .
Metodos Iterativos para resolver Sistemas Lineales

Introduccion

Los metodos iterativos se usan en lugar de los metodos directos, como Eliminacion Gaussiana (LU),
cuando estos requieren demasiado tiempo de calculo o demasiado guardado.
Los metodos iterativos, en contraste a los directos, en general (en aritmetica exacta) no hallan una
solucion exacta en un numero finito de pasos, sino que hallan en cada iteracion una aproximacion a la
solucion.
La solucion aproximada obtenida en cada iteracion, decrece el error respecto de la de la iteracion
previa en alguna proporcion.
Las iteraciones terminan cuando la aproximacin (solucin aproximada) cumple con un criterio de
cercana aceptable.
Un mtodo iterativo es efectivo si en cada iteracin el error decrece en una magnitud considerable y si
el costo computacional (operaciones aritmticas) es tan bajo como sea posible.
.... Daremos en detalle solo algunos metodos iterativos basicos. Debido a la brevedad del curso nos
limitaremos a describir solamente el mtodo de Jacobi y de Gauss-Seidel, aunque existen otros
(ver bibliografa, por ejemplo Burden).

1. Metodos iterativos basicos


Describiremos el metodo de Jacobi y el metodo de Gauss-Seidel, los que son los mas basicos de esta
metodologa.
Sus implementaciones se pueden encontrar en NETLIB/templates

Dado un x0 inicial, estos metodos generan una sucesion xk convergente a la solucion exacta x =
A b, del sistema Ax = b, donde cada vector xk+1 se calcula desde la solucion aproximada previa xk ,
1

con muy bajo costo computacional.

Definicion Se dice que se tiene una descomposicion de A denominada splitting o separacion si se


encuentra una matriz M no singular otra K tal que A = M K.
2

2
Tal separacion (o splitting) de A, conduce a plantear:
Como
Ax = M x Kx = b,
se puede despejar
M x = b + Kx.
Como M es no singular, considerando que M x = Kx + b, se puede despejar:
x = M 1 (Kx + b), resultando

x = M 1 Kx + M 1 b (1)

Reemplazando
M 1 K = R, y M 1 b = c,
se obtiene:
x = Rx + c, donde R y c son conocidos. (2)
Un metodo iterativo se desprende de la formula previa considerando:

xk+1 = Rxk + c

Teorema Si kRk < 1 la sucesion generada por la formula previa converge al x , cualquiera sea el x0
inicial.

Demostracion. Dado xk+1 = Rxk + c, le restamos x = Rx + c, donde x es la solucion de


Ax = b, que satisface la (2).
Se obtiene,
xk+1 x = Rxk Rx ,
luego, usando normas

kxk+1 x k = kRxk Rx k kRkkxk x k.

Luego,

kxk+1 x k kRkkxk x k kRkk+1 kx0 x k,


de donde se deduce que la sucesion {xk } x , cuando kRk < 1, ya que la norma kRkk+1 tiende a
cero, cuando k tiende a .

Definicion El radio espectral de R, denominado (R), se define mediante:


(R) = maxi (R) {|i |}
considerando todos los autovalores de R.

Observacion Para cualquier norma k..k el radio espectral (R) kRk. Ademas, para toda R y para
todo > 0 existe una norma k..k tal que kRk (R) + (este resultado no lo demostramos).
Para ver que (R) kRk, consideramos que

kRxk
kRk = max .
x kxk
Sea y el autovector de R tal que se corresponde con el autovalor que define al (R) = maxi (R) |i | =
||, entonces
kRk = maxx kRxkkxk
kRyk
kyk
= |y|/kyk = || = (R).

Teorema La sucesion xk generada por esta metodologa converge a la solucion de Ax = b, para todo
b, y todo punto inicial x0 , si y solo si el radio espectral de R, (R) es menor que 1 (es decir, si y solo
si (R) = maxi (R) {|i |} = || < 1).

3
Justificacion Si fuese el (R) 1, entonces existira un autovector y autovalor tal (R) = || 1.
Entonces, si elegimos un x0 inicial tal que (x0 x ) tenga la direccion de ese autovector, se obtendra :

xk+1 x = R(xk x ) = Rk+1 (x0 x ) = k+1 (x0 x ).

Como supusimos que || 1, entonces kxk+1 x k no tendera a cero, cuando k tiende a .


Entonces, se observa que tal sucesion xk , con tal punto inicial x0 , no converge. Por tanto...,
... para que converja la sucesion xk , para todo punto inicial x0 , es necesario que (R) = || < 1.
Por otro lado, si (R) es menor que 1, desde la Observacion previa, se puede encontrar siempre una
norma k..k tal que kRk < 1, y como consecuencia la sucesion kxk+1 x k tiende a cero, por lo
cual la sucesion xk generada converge.a x .

El objetivo de esta metodologa es elegir una separacion de A = M K tal que:

La matriz R = M 1 K y c = M 1 b sean faciles de calcular, y


(R) < 1, y pequeno.

Los splitting usados aqu si A no tiene ceros en la diagonal, son del tipo:

A = D L U = D(I L U ) (3)
donde D es la diagonal de A, L es la parte triangular estrictamenteinferior de A (sin la diagonal),
U es la parte triangular estrictamentesuperior de A (sin la diagonal). Ademas L = D 1 L, y
U = D 1 U .

1.1. Metodo de Jacobi


Considerando la notacion y splitting dado en (3), se tiene que

Dx Lx U x = b.

Luego, despejado Dx, y multiplicando por D 1 , se obtiene

x = D 1 (b + Lx + U x) = Lx + U x + D 1 b

As
x = (L + U )x + D 1 b
Se define el proceso iterativo de Jacobi:

xk+1 = (L + U )xk + c, donde c = D 1 b. (4)

Si denotamos RJ = D 1 (L + U ) = L + U , esta definicion tiene la forma:


xk+1 = RJ xk + cJ , donde cJ = D 1 b.
Observando (4), cada componente xk+1
i del vector xk+1 , se obtiene del producto de la fila i de
1 k
(L + U ) = D (L + U ) por el vector x , mas la componente i-esima del vector c:
X
xk+1
i = ( ai,j xkj + bi )/ai,i
j6=i

Paso iterativo(k) del Metodo de Jacobi:


For i = 1, .P. . , n
bi aij xk
xik+1 = j6=i
aii
j

end for

Ejemplo Ejemplo 1.- Dado el sistema siguiente calcular varias iteraciones de Jacobi,comenzando desde
x0 = (0, 0)T .
7 1 x1 5
=
3 5 x2 7

4
Desde la formula A = D L U , donde D es la diagonal de A, y las restantes L y U , como se
definieron previamente, se sabe que para toda solucion de Ax = b se debe cumplir:

x = D 1 (Lx + U x + b)

se tiene que :
5 + x2 7 + 3x1
x1 = , y x2 =
7 5
Luego, aplicando el proceso iterativo de Jacobi:

xk+1 = D 1 (L + U )xk + D 1 b
se tiene que que cada componente de xk+1 , usando las componentes del iterado previo xk , cumple
P
k+1
bi j6=i aij xkj
xi =
aii
Entonces,

5 + x02 7 + 3x01
x11 = , y x12 =
7 5
sustituyendo por x0 = (0, 0), se tiene que :

5/7 0,714
x1 =
7/5 1,400
Luego, para calcular el x2 desde el x1 :
5 + x12 7 + 3x11
x21 = , y x22 =
7 5
5 + 1,4 7 + 3(0,714)
x21 = , y x22 =
7 5
Resultando:
2 0,914
x
1,829
As se aplica para calcular x3 desde el iterado x2 ,..., etc, resultando la tabla
x 0 1 2 3 4 5 6
x1 0 0.714 0.914 0.976 0.993 0.998 0.999
x2 0 1.4 1.829 1.949 1.985 1.996 1.999
Se observa que la sucesion xk tiende al vector [1, 2]T que es la solucion exacta del sistema dado.

1.2. Metodo de Gauss-Seidel

La motivacion para este metodo es considerar que cuando se calcula en el metodo de Jacobi la i-esima
componente (i > 1) xk+1
i , ya se han actualizado las componentes de xk+1 desde la 1 a la i 1. Por
tanto, pueden usarse para la actualizacion de las componentes siguientes xk+1
i .

El metodo de Gauss-Seidel usa, para definir cada componente i > 1, de xk+1 , las componentes de
k+1
x previamente actualizadas (desde la 1, . . . , i 1).

Entonces el paso iterativo de este metodo se puede describir:

Paso iterativo(k) del Metodo de Gauss Seidel:


For i = 1, . . . , n
Pi1 Pn
k+1
bi j=1 aij xk+1
j j=i+1 aij xkj
xi = (5)
aii

5
end for Con el proposito de analizar este algoritmo, queremos escribirlo con el formato:

xk+1 = RGS xk + cGS .

Para eso, vemos que (5) puede escribirse


i
X n
X
aij xk+1
j = aij xkj + bi . (6)
j=1 j=i+1

Entonces, usando la notacion de la formula (3), podemos escribir la formula (6):

(D L)xk+1 = U xk + b,

que equivale a

xk+1 = (D(I L))1 U xk + (D(I L))1 b = (I L)1 D 1 U xk + (I L)1 D 1 b (7)

obteniendose
xk+1 = (I L)1 U xk + (I L)1 D 1 b = RGS xk + cGS
Entonces
RGS = (D L)1 U = (I L)1 U ,
donde L = D 1 L, y U = D 1 U .

Ejemplo Aplicamos Gauss-Seidel al mismo sistema del Ejemplo 1,comenzando desde x0 = (0, 0)T .

7 1 x1 5
=
3 5 x2 7

Desde la formula A = D L U , donde D es la diagonal de A, y las restantes L y U , como se


definieron previamente, se sabe que para toda solucion de Ax = b se debe cumplir:

(D L)x = U x + b

se puede considerar :
(D L)xk+1 = U xk + b
Resultando el calculo de cada i- componente de xk+1 :
Pi1 k+1 P
bi aij x n aij xk
xik+1 = j=1 j
aii
j=i+1 j

usando las componentes ya calculadas del xk+1 . As en nuestro caso de dos componentes se tiene,
comenzando con x0 = [0, 0]T :

5 + x02 7 + 3x11
x11 = , y x12 =
7 5
sustituyendo se obtiene:

5+0 7 + 3(0,714)
x11 = 0,714, y x12 = 1,829
7 5

10,714
x
1,829
Luego, para calcular el x2 desde el x1 :

5 + x12 7 + 3(x21 )
x21 = , y x22 =
7 5
5 + 1,829 7 + 3(0,976)
x21 = 0,976, y x22 = 1,985
7 5

6
Resultando:
2 0,976
x
1,985
As se aplica para calcular x3 desde el iterado x2 , y usando las componentes ya calculadas de x3 ..., etc,
resultando la tabla
x 0 1 2 3 4 5
x1 0 0.714 0.976 0.998 1.000 1.000 Se observa que el metodo de Gauss-Seidel tiene una
x2 0 1.829 1.985 1.999 2.000 2.000
convergencia mas rapida.

1.3. Criterios de convergencia para Jacobi y Gauss-Seidel


Estos criterios garantizan la convergencia.

Definicion Matriz estrictamente diagonal dominante Una matriz A es estrictamente diagonal domi-
nante por filas si para cada fila i = 10 . . . , n, satisface
X
|aii | > |aij |
j6=i

Teorema Si A es estrictamente diagonal dominante por filas, entonces ambos metodos de Jacobi y
Gauss-Seidel son convergentes. Se cumple que kRGS k kRJ k < 1. Un resultado analogo existe si
AT es estrictamente diagonal dominante por filas.

Demostracion. Como en Jacobi, xk+1 = RJ xk + cJ , donde RJ = D 1 (L + U ),entonces satisface


kxk+1 x k = kRJ (xk x )k kRJ kkxk x k, si kRJ k < 1 se demuestra que converge cualquiera
sea la norma que se use inducida por la norma de vectores. Nosotros consideraremos la kRJ k , ya que
por hipotesis la matriz A es diagonalmente dominante por filas y en esa definicion estan involucrados los
valores absolutos de los terminos de cada fila, es decir
X
|aii | > |aij |
j6=i

Entonces, la matriz

0 a1,2 /a1,1 a1,n /a1,1
a2,1 /a2,2 0 a2,n /a2,2

RJ = .. .. ..
. . .
an,1 /an,n an,2 /an,n 0

Como la norma infinito kRJ k de una matriz RJ esta dada por la mayor suma de los valores absolu-
tosde los elementos de una fila de la matriz, en nuestro caso
ak,1 ak,k1 ak,k+1 ak,n
kRJ k = | | + ... + | |+| | + ... + | |
ak,k ak,k ak,k ak,k

la que es igual a

| ak,1 | + . . . + | ak,k1 | + | ak,k+1 | + . . . + | ak,n |


kRJ k = < 1,
|ak,k |
por ser A estrictamente diagonal dominante.
El caso de Gauss Seidel se hace de forma similar. .

Ejemplo Calcular para la matriz A = D L U del sistema del Ejemplo 1, la kRJ k .


Verificar que kRJ k = 3/5 < 1.
Usar ese valor para calcular el numero de iteraciones que se requieren para aproximar a la solucion
[1, 2], con una precision de tres lugares decimales (despues de redondear) si el punto inicial es x0 =
[0, 0]T .

7
La solucion xk sera precisa a tres (3) lugares decimales si cada componente del vector xk x es
menor que 0,0005 en valor absoluto.
Necesitamos saber para cual k, la componente maxima de xk x es menor que 0,0005. Para conocer
cual es el k mas pequeno para el cual

kxk x k < 0,0005

usamos la formula
xk = RJ xk1 + cJ
observando que
xk x = RJ (xk1 x )
Entonces, considerando que

kxk x k kRJ k k(xk1 x )k

kRJ k2 k(xk2 x )k . . . ,
resultando
kxk x k kRJ kk k(x0 x )k .
Como kRJ k 0,6 < 1, converge el proceso.
Consideramos que k(x0 x )k k(x0 x1 )k + k(x1 x )k

k(x0 x )k k(x0 x1 )k + kRJ kk(x0 x )k .

Por tanto,
k(x0 x )k k(x0 x1 )k + 0,6kk(x0 x )k , entonces
0,4k(x0 x )k k(x0 x1 )k , de tal manera que k(x0 x )k 10/4k(x0 x1 )k

kxk x k kRJ kk 10/4k(x0 x1 )k = (0,6)k 14/4 < 0,0005

Para despejar el k, aplicando log10 a amos lados de la desigualdad previa:

log10 ((0,6)k .(14/4)) < log10 (5,104 ),

lo cual implica
k log10 (0,6) + log10 (3,5) < log10 (5) 4.
Por tanto,
0,222k + 0,544 < 3,301
Entonces k > 17,3. Por tanto, se necesitan 18 iteraciones para obtener el resultado por Jacobi con 3
cifras decimales exactas.

Definicion Matriz debilmente diagonal dominante Una matriz A es debilmente diagonal dominante por
filas si para cada fila i = 1, . . . , n, satisface
X
|aii | |aij |,
j6=i

y al menos para una fila esa desigualdad es estricta.

Definicion Matriz irreducible Una matriz


A es irreducible
si no existe ninguna matriz de permutaciones
T A11 | A12
P que la reduzca a la forma P AP =
0 | A22

Teorema Si A es debilmente diagonal dominante por filas e irreducible, entonces ambos metodos de
Jacobi y Gauss-Seidel son convergentes. Se cumple que kRGS k < kRJ k < 1.

No lo demostramos, puede encontrarse su justificacion en el libro de Burden.

8
Observar que una A puede no ser diagonal dominante y lo mismo ser convergente la sucesion de
Jacobi y/o Gauss-Seidel, ya que esa condicion es una condicion suficientepara la convergencia, pero no
necesaria. Se se pueden buscar ejemplos que ilustren esa situacion, siendo convergente la xk , como en el
caso :
2 1
A=
1 1

Ejemplo Aplicar al sistema Ax = b, con A dada arriba, el metodo de Jacobi, con b = (1, 1)T , por
ejemplo.

Ejercicios
(I) Resolver el siguiente sistema por Jacobi y Gauss-Seidel, comenzando con x0 = (0, 0)T , redondeando
con 4 dgitos significativos hasta que la diferencia entre dos iterados sucesivos tenga sus componentes
menores a 0.001 :
7 1 x1 5
=
3 5 x2 7
(II) Analizar, y resolver por Gauss-Seidel, comenzando en x0 = (0, 0)T , siendo

1 1 x1 1
=
2 1 x2 5
La solucion es x = (2, 1)T . Observar que las iteraciones no se acercan a ese punto(es no convergente).
Analizar los criterios de convergencia, ver si se cumplen, y explicar porque puede ocurrir eso con Jacobi
o Gauss-Seidel.
(III) Resolver los siguientes sistemas por Jacobi, comenzando con x0 = (0, 0)T , redondeando con 4 dgitos
significativos, hasta que la diferencia entre dos iterados sucesivos tenga sus componentes menores a 0.001.
(i)
7 1 x1 6
=
1 5 x2 4
(ii)
2 1 x1 5
=
1 1 x2 1
(iii)
4,5 0,5 x1 1
=
1 3,5 x2 1
(IV) Resolver los siguientes sistemas Gauss-Seidel, comenzando con x0 = (0, 0)T , redondeando con 4 dgitos
significativos, hasta que la diferencia entre dos iterados sucesivos tenga sus componentes menores a 0.001.
Compare el numero de iteraciones de Jacobi y Gauss Seidel para obtener esa aproximacion:
(i)
7 1 x1 6
=
1 5 x2 4
(ii)
2 1 x1 5
=
1 1 x2 1
(iii)
4,5 0,5 x1 1
=
1 3,5 x2 1
(V)En los siguientes sistemas, calcule las primeras cuatro iteraciones por Gauss-Seidel, desde x0 = (0, 0),
y ver que no converge. Sin embargo, es posible reacomodar el sistema de tal manera que sea diagonal
dominante y as convergente. Usar Gauss-Seidel para hallar una solucion aproximada que sea precisa
hasta 0,001:
(i)
1 2 x1 3
=
3 2 x2 1
(ii) 0 10 1 0 1
1 4 2 x1 2
@0 2 4 A @x2 A = @1A
6 1 2 x3 1

Vous aimerez peut-être aussi