Vous êtes sur la page 1sur 202

Ecuaciones Diferenciales

Ordinarias

Claudio Fernandez y Rolando Rebolledo


con la colaboracion de Felipe Montoya
Direccion de los autores: Universidad Catolica de Chile.Facultad
de Matematicas. Casilla 306,Santiago 22, Chile.
Prefacio

El presente texto esta basado en los materiales recolectados por los


autores en varios anos de ensenanza del curso Ecuaciones Diferenciales
Ordinarias para los alumnos de la carrera de Ingeniera de la Pontificia
Universidad Catolica de Chile.
El punto de vista adoptado esta motivado por el deseo de poner al
alcance del alumno nuevas visiones de la Teora de Ecuaciones Diferen-
ciales, que se han hecho necesarias por la creciente sofisticacion alcan-
zada por la tecnologa contemporanea. Esto no significa el abandono
de metodos cuya utilidad se ha comprobado en la practica y que siguen
teniendo plena vigencia. Mas aun, hemos querido permanecer fieles a
la motivacion primera de esta teora: la Mecanica y la Fsica Clasica.
La ensenanza de las Matematicas esta siendo profundamente cam-
biada, desde sus propios basamentos, con el desarrollo explosivo de
la tecnologa computacional. Hoy en da, la comprension de los mas
abstractos conceptos se facilita con el soporte experimental de los pro-
gramas de caculo simbolico y numerico. As, en el caso particular de
las Ecuaciones Diferenciales, que el alumno sea capaz de plantear cor-
rectamente las ecuaciones que describen un fenomeno dado, es mas im-
portante que imponerle que desarrolle una gran maestra en tecnicas de
resolucion que, sin desconocer de manera alguna su ingenio, pequen por
una excesiva especificidad que oculte la esencia de la teora. En otros
terminos, el enfasis debe estar puesto en la modelacion matematica,
resaltando los aspectos cualitativos y desarrollando las tecnicas de res-
olucion mas generales que dan basamento al tratamiento simbolico y
numerico mediante programas computacionales.
El ingeniero en su vida profesional se vera confrontado a usar difer-
entes paquetes de programas para la resolucion de ecuaciones diferen-
ciales. Para que este realmente en condiciones de discriminar entre
tales instrumentos, debera tener bien comprendidos y asimilados los
pilares de la teora, precioso bagaje de conocimientos que enriquece su
sentido comun.

3
4 PREFACIO

El texto comienza por introducir las ecuaciones diferenciales a partir


de una reflexion sobre la Mecanica de Newton. Luego estudia los con-
ceptos basicos de ecuacion diferencial, problema con valores iniciales
y sus soluciones; muestra, por la va de la reduccion de ecuaciones
de orden cualquiera, que toda ecuacion diferencial se puede entender
como una de primer orden en un espacio vectorial apropiado. En-
seguida se trata las ecuaciones de primer orden escalares y se continua,
como en muchos textos clasicos, con las ecuaciones lineales. En este
ultimo tema, hemos adoptado una presentacion matricial, suponiendo
que el alumno tiene conocimientos mnimos de Algebra Lineal. En un
apendice se establece los resultados mnimos de Algebra Lineal necesar-
ios para la completa comprension de esta parte de la obra. Se continua
luego con el metodo de la transformacion integral de Laplace y el es-
tudio de ecuaciones mediante series de potencia. Temas un poco mas
delicados, como la demostracion de la existencia y unicidad de solu-
ciones y el analisis cualitativo, se abordan al final del libro, con el
objeto de que el alumno tenga el tiempo de madurar antes, los concep-
tos basicos de la teora a traves de los metodos de resolucion y de los
numerosos ejercicios provistos en la obra.
El libro esta previsto para ser usado en un curso semestral de
ecuaciones diferenciales. Los autores han omitido en esta version un
captulo sobre los metodos numericos de resolucion. Hay una extensa
literatura al respecto y excelentes paquetes computacionales disponibles
en el mercado, que el alumno podra consultar.
Esta obra ha podido ver la luz gracias al apoyo prestado por la
Direccion de Docencia de la Vicerrectora Academica de la Pontifi-
cia Universidad Catolica de Chile, a traves de los concursos de do-
cencia y de edicion de textos. Queremos expresar a esta Direccion
nuestro reconocimiento. Ademas, nuestro ayudante Felipe Montoya
ha tenido la paciencia y el talento de reunir ejercicios y de hacernos
multiples sugerencias para mejorar el proyecto original. Tenemos con
el una profunda deuda de gratitud. Asimismo, numerosos colegas nos
han hecho muy valiosos comentarios y correcciones. Vayan nuestros
agradecimientos a los Profesores Mara Angelica Astaburuaga, Martin
Chuaqui, Marta GarcaHuidobro, Ivan Huerta, Ruben Preiss. Nue-
stros alumnos y ayudantes han sido tambien los mejores y mas crticos
jueces. Agradecemos, entre otros, los valiosos comentarios de Claudio
Carvajal, Pa Fernandez, Paula Montes.
Contenidos

Prefacio 3
Captulo 1. Introduccion 7
1. El cambio incesante 7
2. La Mecanica segun Newton 8
3. Las Ecuaciones Diferenciales en otras ciencias 13
Captulo 2. Conceptos basicos 15
1. Terminologa basica 15
2. Reduccion de ecuaciones al primer orden 18
3. Un algoritmo para construir soluciones de la ecuacion
fundamental 21
4. Ejercicios propuestos 22
Captulo 3. Ecuaciones de Primer Orden 25
1. Introduccion 25
2. Ecuaciones con variables separables 25
3. Diferenciales exactos 32
4. Factores Integrantes 36
5. Curvas integrales: caso general 38
6. Reduccion de ecuaciones al caso lineal de primer orden 40
7. Sistemas Dinamicos 42
8. Ejercicios propuestos 44
Captulo 4. Ecuaciones Diferenciales Lineales 49
1. La ecuacion lineal homogenea con coeficientes constantes 49
2. Sistemas no homogeneos con coeficientes constantes 58
3. Sistemas homogeneos con coeficientes variables 67
4. Sistemas no homogeneos con coeficientes variables 74
5. Ejercicios propuestos 79
Captulo 5. La transformacion integral de Laplace 91
1. Transformacion de Laplace 91
2. Aplicacion a la resolucion de ecuaciones diferenciales 94
3. Truncamientos y desplazamientos 101
4. Producto de convolucion 104
5
6 CONTENIDOS

5. Ejercicios propuestos 105


Captulo 6. Series de Potencias y Ecuaciones Diferenciales 109
1. Funciones analticas 110
2. Puntos ordinarios 112
3. Puntos singulares regulares 116
4. La ecuacion de Bessel 123
5. Ejercicios propuestos 127
Captulo 7. Sobre Existencia y Unicidad de Soluciones 137
1. Existencia y unicidad de soluciones locales 137
2. Existencia de soluciones maximales 145
3. Ejercicios propuestos 148
Captulo 8. Estudio cualitativo de Ecuaciones Diferenciales 151
1. Estabilidad, conceptos generales 152
2. Estabilidad de sistemas lineales homogeneos en dimension 2 154
3. Estabilidad para sistemas lineales 161
4. El metodo de Liapunov 162
5. Linealizacion 163
6. Ejercicios propuestos 166
Captulo 9. Apendice: Complementos de Algebra Lineal 171
1. Espacios Vectoriales y Transformaciones Lineales 171
2. Algebra de Matrices 176
3. Funciones de Matrices 180
4. Reduccion de Matrices 185
5. Resumen sobre el calculo de exponenciales de matrices 188
6. Ejercicios propuestos 190
Resultados de ejercicios seleccionados 193
Bibliografa 197
Indice alfabetico 199
CAPTULO 1

Introduccion

1. El cambio incesante
Si usted deseara explicar a un ser inteligente, venido de un mundo
plano, plano el como su mundo, lo que es una esfera, seguramente se
vera en serios problemas de comunicacion. El problema se presentara
en realidad con cada nocion que requiriese de una dimension superior
a 2. En efecto, como representar en un plano una figura que proviene
de un espacio de tres dimensiones? Los pintores enfrentan a menudo
este problema y lo resuelven con la perspectiva. Pero, esta ultima hace
uso de la educacion de nuestros sentidos realizada en un ambiente tridi-
mensional. Nuestro individuo plano no dispondra de ese bagaje. Una
solucion alternativa consistira en la siguiente: se le podra definir el
concepto de esfera diciendole que corresponde a una familia infinita de
circulos concentricos que contiene como punto de partida un punto y
luego el radio aumenta hasta alcanzar un maximo, reduciendose luego
hasta un punto final. Implcitamente estamos definiendo as una esfera
por un mecanismo evolutivo. En efecto, para nosotros, seres que vivi-
mos en un universo con una dimension mayor, la definicion anterior
esta inspirada de la idea de cortar una esfera por un numero infinito
de planos paralelos que podran ser entendidos como el universo plano
del principio, en movimiento de traslacion paralela.
Pero, mejor aun, sabemos que el universo en el cual nosotros nos
movemos tiene mas de tres dimensiones. Podemos decir, para fijar
ideas, que necesitamos tres coordenadas espaciales y una temporal.
Ahora bien, como percibimos nosotros los objetos propios de este es-
pacio de cuatro dimensiones? Copiando la solucion entregada al in-
dividuo plano, podramos decir que percibimos esos objetos mediante
la traza que deja su evolucion en el espacio de tres dimensiones en el
curso de los tiempos. Es por ejemplo la observacion de los albumes de
fotos: observaciones de una persona en distintos instantes de su vida
se considera como representacion de su ser.
En nuestro mundo todo esta sujeto al cambio incesante (evolucion)
y es esa idea fundamental que ha inspirado muchas teoras fsicas y
matematicas. En un principio, ya desde la epoca de Aristoteles, la
7
8 1. INTRODUCCION

percepcion del cambio incesante llevo a los filosofos de la epoca a estu-


diar el movimiento, dando nacimiento a la Mecanica. Esta permanecio
insuficientemente formalizada hasta el siglo XVIII en que Newton le
dio bases mas solidas. De nuestros das la Mecanica que Newton fundo
es una de las muchas teoras usadas para modelar el cambio incesante,
la evolucion. Sistemas Dinamicos, Mecanica Cuantica, Procesos Es-
tocasticos, Teora de Semigrupos, son algunas de dichas teoras. En
todas ellas, se ha buscado modelar los aspectos globales de la evolucion
de los fenomenos, basandose en el conocimiento local que se tenga de
la misma. Las Ecuaciones Diferenciales se adscriben a las formas de
representar este ultimo conocimiento.

2. La Mecanica segun Newton


En esta seccion nos interesa mostrar como las Ecuaciones Diferen-
ciales estan ntimamente ligadas a las ideas de Newton en Mecanica. Es
bien sabido que el objeto de la Mecanica es el estudio del movimiento
de los cuerpos. Veamos como representar esto en el caso de un modelo
discreto del tiempo:
2.1. Mecanica con tiempo discreto. Supongamos que la posicion
de un movil en el instante t se representa por un punto x(t) en el es-
pacio. Para simplificar suponemos t N y x(t) R.
Llamemos t = t (t 1) = 1, x(t) = x(t) x(t 1), para
cada t 1. La velocidad del movil es la tasa de cambio de la posicion
medida con respecto a la variacion temporal, vale decir
x(t)
(2.1) v(t) = = x(t).
t
Ademas, la aceleracion es la tasa de cambio de la velocidad, con
respecto a la variacion temporal y se expresa:
v(t)
(2.2) a(t) = = v(t) = v(t) v(t 1).
t
Con la ayuda de estos conceptos estudiemos dos ejemplos impor-
tantes.
Ejemplo 2.1. Deducir la expresion de la trayectoria x de un movil
en el caso en que su velocidad es constante.
En este caso v(t) = v = constante. Entonces:

t
x(t) = x(0) + (x(s) x(s 1))
s=1
= x(0) + vt
2. LA MECANICA SEGUN NEWTON 9

De esta forma encontramos el resultado conocido desde la Edu-


cacion Media, que describe el movimiento uniforme.
Ejemplo 2.2. Deducir la expresion de la trayectoria de un movil
en el caso en que su aceleracion es constante.
Ahora tenemos que a(t) = a = constante. Entonces,

t
(2.3) v(t) = v(0) + v(s) = v(0) + at
s=1

y reemplazando en la expresion de x que se obtiene de la misma manera


que en el ejemplo anterior:

t
t
(2.4) x(t) = x(0) + x(s) = x(0) + (v(0) + as),
s=1 s=1

luego
t(t + 1)
(2.5) x(t) = x(0) + v(0)t + a , para todo t 1.
2
En la ecuacion (2.5) se puede notar que el termino t(t + 1)/2 corre-
sponde a t(t + t)/2. De modo que si hacemos tender t a cero, en vez
de mantenerlo fijo e igual a 1, entonces x(t) queda representado por
t2
x(t) = x(0) + v(0)t + a .
2
Los dos ejemplos anteriores muestran casos particulares de Ecua-
ciones con Diferencias Finitas. Estas ultimas nos permiten representar
el movimiento de un cuerpo cuando el tiempo es discreto.
Lo que hasta aqu hemos hecho corresponde a la Cinematica de un
punto material. Es decir, el estudio del movimiento de un cuerpo sin
considerar la causa del mismo. El estudio de las causas del movimiento
corresponde a la Dinamica. La Segunda Ley de Newton afirma que
la causa del movimiento es la fuerza externa: ella es proporcional a la
aceleracion alcanzada por el movil. La constante de proporcionalidad
es la masa del cuerpo:
(2.6) F (t) = ma(t).
En los casos anteriores, la fuerza externa es nula, en el primero de
ellos, y es constante e igual a ma en el segundo.
Veamos otro ejemplo de una ecuacion en diferencias finitas que
puede ser resuelta facilmente:
10 1. INTRODUCCION

Ejemplo 2.3. Encontrar una funcion (Z(t); t N) que satisfaga

(2.7) Z(0) = 1,

(2.8) Z(t) = aZ(t 1), t 1.

Observar que

(2.9) Z(1) = Z(1) + Z(0) = (a + 1)Z(0) = (a + 1)

y el lector podra probar sin dificultad la recursion

(2.10) Z(t) = (1 + a)t , t 0.

Observese que si t se toma ahora distinto de 1 e igual a 1/n con


n 1 fijo, entonces, por un metodo similar podemos encontrar la
solucion Zn de la ecuacion en diferencias finitas

(2.11) Zn (0) = 1
(2.12) Zn (t) = aZn (t 1)t,

cuya solucion es
a nt
(2.13) Zn (t) = (1 + ) .
n
Notese que si n entonces Zn (t) exp(at) que satisface la
ecuacion diferencial
d
(2.14) Z(t) = aZ(t)
dt
con la condicion inicial

(2.15) Z(0) = 1

De este modo hemos visto que las ecuaciones de la Mecanica en


el caso del tiempo discreto son un caso particular de ecuaciones en
diferencias finitas. Al pasar al tiempo continuo, ellas se transfor-
man en ecuaciones diferenciales. Segun Newton, en la Naturaleza toda
evolucion queda determinada por dos datos: su estado en el instante
inicial y la ley que permite estudiar su transformacion en un intervalo
de tiempo infinitamente pequeno. Esto se traduce, en el caso de un
movil cuya trayectoria es x(t), en la asignacion del valor x(t0 ) en un
instante inicial t0 y en la formulacion de una ecuacion en diferencias
finitas, o una ecuacion diferencial, que modele su ley de movimiento.
2. LA MECANICA SEGUN NEWTON 11

2.2. Las Ecuaciones de Newton. Al escribir las ecuaciones de la


Mecanica en tiempo continuo debemos entender que si x(t) representa
la trayectoria de un movil, entonces su velocidad v(t) es la primera
derivada x (t). Asimismo, la aceleracion se escribe como la segunda
derivada: a(t) = x (t).
Ejemplo 2.4. Un objeto de masa m se suelta de una altura R0
medida desde el centro de la Tierra. Encontrar la trayectoria descrita
por el movil en su cada.
La fuerza externa que actua sobre el movil es mg, siendo g la
aceleracion de gravedad. Llamando x(t) la posicion del movil medida
desde el centro de la Tierra, tenemos que su aceleracion es x (t) y segun
la segunda ley de Newton, debemos tener:
(2.16) mx (t) = mg,
de modo que, integrando una primera vez, obtenemos
v(t) = x (t) = v0 gt,
donde v0 es una constante (velocidad inicial) y una nueva integracion
nos da finalmente
1 1
(2.17) x(t) = x(0) + v0 t gt2 = R0 + v0 t gt2 , (t 0).
2 2
Ejemplo 2.5. Consideremos un movil de masa m que se desplaza
sobre una superficie plana. Suponemos que su velocidad inicial es v0
y que su movimiento encuentra una resistencia debido al roce. En un
modelo de roce lineal, la fuerza de friccion queda dada por
F (t) = v(t).
Encontrar la trayectoria suponiendo que el movil parte desde el origen
de coordenadas.
Segun la Segunda Ley de Newton, se tiene
(2.18) mv (t) = v(t),

y llamando c al cuociente constante m
, obtenemos
v
= c,
v
de donde, integrando el cuociente entre 0 y t, resulta:
v(t)
log | | = ct
v0
12 1. INTRODUCCION

y, finalmente, v(t) = v0 exp(ct). Integrando una segunda vez, teniendo


en cuenta que x(0) = 0, obtenemos
v0
(2.19) x(t) = exp(ct), (t 0).
c

Ejemplo 2.6.
Un ladrillo de masa m esta sujeto por un resorte que a su vez tiene la
segunda extremidad empotrada en un muro vertical. El ladrillo reposa
sobre una superficie plana, que genera una fuerza de friccion lineal. El
resorte ejerce una fuerza proporcional al desplazamiento con respecto a
la posicion de equilibrio. El origen del sistema de coordenadas se fija en
la posicion de equilibrio del sistema. De modo que si el desplazamiento
es x(t), entonces, la fuerza ejercida por el resorte es F (t) = kx(t),
donde k es constante (constante de elasticidad). Plantear las ecuaciones
del movimiento.
Por la Segunda Ley de Newton:
(2.20) mx (t) = x (t) kx(t)
Y suponemos que las condiciones iniciales son:
(2.21) x(0) = x0 , v(0) = v0
Introduciendo las constantes

k
= = ,
m m
la ecuacion se escribe
(2.22) x + x + 2 x = 0
Veremos mas adelante la forma de resolver esta ecuacion en general.
Por de pronto senalamos que, en el caso de ausencia de roce, se tiene
v0
(2.23) x(t) = sen t + x0 cos t.

3. LAS ECUACIONES DIFERENCIALES EN OTRAS CIENCIAS 13

3. Las Ecuaciones Diferenciales en otras ciencias


Hasta ahora hemos visto como las Ecuaciones Diferenciales Ordi-
narias aparecieron en la Fsica, especialmente en la Mecanica. Pero,
no es la unica ciencia en la cual ellas han servido de pilar para la
construccion de modelos. En la epoca de Newton, la Mecanica era el
prototipo de la Ciencia. Esto genero incluso algunas deformaciones:
la llamada concepcion mecanicista del mundo. Pero tambien sirvio de
base al desarrollo de muchas otras disciplinas.
Veamos a continuacion como se pueden usar las ecuaciones diferen-
ciales en Economa y en Ecologa.
3.1. Un modelo simple de asignacion de precios. Supong-
amos que tenemos un mercado sin incertidumbres. Queremos deter-
minar el precio P (t) de un bono que alcanza su madurez en el tiempo
T . Al alcanzar la madurez, se debe pagar una unidad monetaria, i.e.
P (T ) = 1. Si designamos por (t) la tasa de retorno que produce el
bono al que lo negocia, tendremos que el precio en el instante t T se
calculara como el valor en la madurez menos el retorno que se espera
tener durante el intervalo de tiempo [t, T ], vale decir:
T
(3.1) P (t) = 1 (s)P (s)ds, (t T ).
t
En (3.1), el valor 1 es una condicion terminal y no inicial. Para
expresar dicha ecuacion segun estamos acostumbrados, hagamos una
reversion del tiempo: movamonos desde T hacia 0, as el valor 1 se
transformara en condicion inicial. Esto requiere que cambiemos el
parametro temporal introduciendo la funcion
x(t) = P (T t),
de modo que (3.1) deviene
x(t) = P (T t)
T
= 1 (s)P (s)ds
T t
t
= 1+ (u)x(u)du
0
donde (u) = (T u), u T .
La ecuacion anterior es entonces equivalente al problema con valores
iniciales:
(3.2) x(0) = 1
(3.3) x (t) = (t)x(t), (t [0, T ]),
14 1. INTRODUCCION

que es una ecuacion diferencial lineal. Su solucion es


t
(3.4) x(t) = exp( (s)ds), (t [0, T ]),
0
que se obtiene dividiendo x por x e integrando de 0 a t.
De modo que el precio del bono es
T
(3.5) P (t) = x(T t) = exp( (s)ds), (t [0, T ]).
t

3.2. Poblaciones en competencia. La tasa de crecimiento prome-


dio por individuo, de una poblacion dada, es la diferencia de las tasas
de nacimiento y de muerte, que designamos por y respectivamente.
Supongamos que es constante y que es proporcional a la cantidad
de individuos de la poblacion. Explcitamente, si x(t) denota el tamano
de la poblacion en el instante de tiempo t, entonces (t) = x(t), con
constante. Este modelo se representa por la ecuacion logstica
1
(3.6) x (t) = x(t),
x(t)
vale decir,
(3.7) x (t) = x(t)( x(t)), (t 0).
Consideremos ahora dos especies que compiten por los recursos
disponibles y sean x1 (t), x2 (t), los respectivos tamanos de sus pobla-
ciones. Generalizando las ideas anteriores, obtenemos las llamadas
Ecuaciones de LotkaVolterra:
(3.8) x1 (t) = x1 (t)(1 1,1 x1 (t) 1,2 x2 (t))
(3.9) x2 (t) = x2 (t)(2 2,1 x1 (t) 2,2 x2 (t)).
Tenemos as un ejemplo de un sistema de ecuaciones diferenciales
no lineales de primer orden. Las ecuaciones planteadas entregan infor-
macion incluso sin resolverlas. Por ejemplo, si el termino 1 1,1 x1 (t)
1,2 x2 (t) es positivo, eso significa que la poblacion 1 crece. Si los segun-
dos miembros son nulos, entonces xi (t) = 0 para i = 1, 2 y se alcanza
as un punto de equilibrio. Si los datos iniciales son tales que lo anterior
se cumple para t = 0, entonces obtenemos una solucion constante.
CAPTULO 2

Conceptos basicos

1. Terminologa basica
Es el momento de precisar algunas de las nociones que han sido
introducidas, progresivamente, a traves de los ejemplos del captulo
anterior. Las definiciones principales las resumimos a continuacion.
Definicion 1.1. A lo largo de todo este texto, consideraremos que
la variable independiente es t R, a menos que lo contrario se explicite.
En la mayora de los casos, esta variable representara el tiempo.
Una ecuacion diferencial ordinaria es una que involucra a t
y una funcion desconocida x(t), as como a algunas de sus derivadas.
Las derivadas se designan por los smbolos usuales x , x(k) . El supremo
de los k tales que x(k) aparece en la ecuacion, se llama orden de la
ecuacion. As la forma general de la ecuacion de orden k es
(1.1) F (t, x(t), x (t), . . . , x(k) (t)) = 0.
Diremos que la ecuacion diferencial de orden k se expresa en forma
normal si podemos despejar x(k) de la expresion (1.1), vale decir:
(1.2) x(k) (t) = f (t, x(t), x (t), . . . , x(k1) (t)).
Se puede observar que F en (1.1) es una funcion de k + 2 variables,
en tanto que f depende de k+1 variables. Supondremos, en general, que
x(t) es una funcion con valores en Rd , de modo que sus derivadas en
cada punto t son tambien vectores de Rd . En consecuencia, para que
(1.1) tenga sentido, es necesario que F este definida en un dominio
D(F ) contenido en Rd(k+1)+1 y con valores en R. Por su parte, f debe
estar definida en un dominio D(f ) Rdk+1 con valores en Rd .
El paso de la forma (1.1) a (1.2) se puede hacer gracias al Teorema
de la Funcion Implcita.
Teorema 1.1. Sea F una funcion definida y de clase C 1 sobre un
abierto U Rn , con valores reales. Sea a U , tal que F (a) = 0. Se
supone ademas que
F
(a) = 0.
xn
15
16 2. CONCEPTOS BASICOS

Entonces, existe una vecindad V de (a1 , . . . , an1 ) Rn1 y una


funcion : V R tal que
(i) V (V ) U ,
(ii) F (x1 , . . . , xn1 , xn ) = 0 si y solo si xn = (x1 , . . . , xn1 ).
Ademas es diferenciable y
F
(a1 , . . . , an )
(1.3) (a1 , . . . , an1 ) = x
F
i
.
xi xn
(a 1 , . . . , an )
Prueba. Damos un esquema de la demostracion que puede ser encon-
trada en cualquier buen libro de Calculo.
Sea (x1 , . . . , xn ) = (x1 , . . . , xn1 , F (x1 , . . . , xn )). Se calcula su ma-
triz Jacobiana y luego su determinante, el Jacobiano. Por las condi-
ciones supuestas, este ultimo resulta ser no nulo en a. En consecuencia,
es invertible sobre un conjunto abierto W que contiene a a. Sea
V = (W ),
que contiene a (a1 , . . . , an1 , 0); luego si V1 = {(x1 , . . . , xn1 ); (x1 , . . . , xn1 , 0)
V }, este conjunto es un abierto que contiene (a1 , . . . , an1 ) Rn1 .
Para (x1 , . . . , xn1 ) V1 , se tiene que (x1 , . . . , xn1 , 0) V y, por lo
tanto, existe un unico vector (y1 , . . . , yn ) W , tal que (y1 , . . . , yn ) =
(x1 , . . . , xn1 , 0). Esto significa que y1 = x1 , . . . , yn1 = xn1 y F (x1 , . . . , xn1 , yn ) =
0. As, definiendo (x1 , . . . , xn1 ) = yn se obtiene
1 (x1 , . . . , xn1 , 0) = [x1 , . . . , xn1 , (x1 , . . . , xn1 )]
y F (x1 , . . . , xn1 , (x1 , . . . , xn1 )) = 0.
Finalmente, y 1 son diferenciables sobre V1 y
g(x1 , . . . , xn1 ) = 0 = F (x1 , . . . , xn1 , (x1 , . . . , xn1 ))
sobre V1 . Esto implica que
g F F
=0= + , i = 1, . . . , n 1.
xi xi xn xi

El teorema anterior permite despejar una variable en funcion de las


restantes. Hemos omitido, para simplificar, un resultado mas general
que nos autoriza a despejar k variables en funcion de las otras, y que
es una simple extension del resultado precedente.
Definicion 1.2. Dada una funcion f cuyo dominio de definicion
D(f ) sea una parte de Rnd+1 y con valores en Rd , una solucion de
la ecuacion diferencial de orden n, expresada en forma normal
(1.4) x(n) = f (t, x, x , . . . , x(n1) ),
1. TERMINOLOGIA BASICA 17

es una funcion x = (t), definida en un intervalo D() de la recta real


y con valores en Rd , tal que
(1.5) (n) (t) = f (t, (t), (t), . . . , (n1) (t)),
para todo punto t D().
Cabe hacer notar la importancia de inclur explcitamente el do-
minio D() en la definicion anterior. En efecto, un error muy corriente
en Ecuaciones Diferen-ciales proviene de considerar iguales dos solu-
ciones 1 y 2 que cumplen 1 (t) = 2 (t) para cada t D(1 )D(2 ),
teniendo sin embargo D(1 ) = D(2 ). Por ejemplo, la ecuacion
(1.6) x = x2 ,
admite al menos dos soluciones
1
(1.7) 1 (t) = , t D(1 ) =]0, [,
t

(1.8) 2 (t) = (1 t)n , t D(2 ) =]1, 2[.
n=0

Notese que la serie en (1.8) corresponde al desarrollo de


1 1
= ,
1 (1 t) t
que es valido solo para |1 t| < 1. Por tal motivo ambas funciones
coinciden en la interseccion de sus dominios, pero son soluciones dis-
tintas!
Definicion 1.3. Dadas dos soluciones 1 y 2 de una ecuacion
diferencial, diremos que 2 extiende 1 si D(1 ) D(2 ) y ambas
coinciden sobre D(1 ).
Una solucion es maximal si no existe ninguna otra que la ex-
tienda en forma no trivial.
Cuando analizamos los ejemplos de la Mecanica segun Newton,
aparecio de manera natural la necesidad de fijar condiciones iniciales al
estudiar la evolucion de un sistema fsico. Introduzcamos el concepto
correspondiente en nuestra teora.
Definicion 1.4. Dada una solucion de la ecuacion (1.4) diremos
que resuelve el problema con valores iniciales (t0 , x0 ) R Rd
si
(i) t0 D();
(ii) (t0 ) = x0
18 2. CONCEPTOS BASICOS

Notese que, segun nuestra definicion, D() consiste de aquellos pun-


tos t en que (t) tiene sentido y ademas satisface (1.4). Es, eventual-
mente, posible que pueda ser extendida a conjuntos de definicion mas
grandes donde no necesariamente sea solucion.
Finalmente, si la funcion (x1 , . . . , xn ) 7 f (t, x1 , . . . , xn ) es lineal
entonces diremos que (1.4) es una ecuacion diferencial lineal .

2. Reduccion de ecuaciones al primer orden


En esta seccion veremos como simplificar el estudio de (1.4) llevandola
al caso de una ecuacion de primer orden.
Supongamos primero que d = 1 en (1.4). Consideremos nuevas
funciones x1 (t), . . . , xn (t) que definimos recursivamente como sigue
x1 = x
x2 = x1 = x
x3 = x2 = x
...
xn = xn1 = x(n1)
Segun la escritura anterior, tenemos que (1.4) corresponde a
(2.1) x(n) = xn = f (t, x1 , . . . , xn ).
Si ahora expresamos lo anterior y el cambio de funciones en una
sola ecuacion vectorial, tenemos
(2.2) x = f (t, x),
donde

x1
(2.3) x = ... ,
xn
es una funcion vectorial con valores en Rn , siendo n el orden de la
ecuacion original y

x2
...
(2.4) f (t, x) =

.

xn1
f (t, x1 , . . . , xn )
Hemos usado caracteres en negrita (x, f ) para designar funciones
vectoriales. En lo que sigue y para aliviar la escritura no haremos mas
este tipo de distincion. Las funciones vectoriales seran denotadas por
caracteres simples (sin negrita).
2. REDUCCION DE ECUACIONES AL PRIMER ORDEN 19

El procedimiento anterior se puede generalizar al caso de (1.4) con


d = 1. Este caso corresponde a sistemas de ecuaciones diferenciales de
cualquier orden. Repitiendo el cambio de funciones, pero teniendo en
cuenta las respectivas dimensiones de las componentes, (1.4) se reduce
simplemente al estudio de la ecuacion fundamental:
(2.5) x = f (t, x),
donde x es una funcion con valores en Rnd y f es una funcion definida
en un dominio D(f ) Rnd+1 y con valores en Rnd .
Asimismo, el problema con valores iniciales (t0 , x0 ) R Rnd cor-
responde a la busqueda de una solucion de la ecuacion (2.5) tal que
t0 D() R y (t0 ) = x0 .
Entonces, la teora de Ecuaciones Diferenciales Ordinarias no es
mas que el estudio de la ecuacion de primer orden (2.5), donde f es una
funcion vectorial general. Dicha ecuacion contiene como caso particular
las ecuaciones de cualquier orden y los sistemas de ecuaciones.
Mas aun, para usar mejor la potencia del Analisis Matematico, la
ecuacion (2.5) sera considerada en el contexto siguiente: x sera una
funcion definida en un dominio real y con valores en Cnd ; f , a su vez,
definida en D(f ) R Cnd y con valores en Cnd .
Ejemplo 2.1. Reducir a la forma normal de primer orden la ecuacion
(2.6) x + 2 x = 0
Introduciendo las funciones auxiliares del procedimiento de reduccion
tenemos:
x1 = x
x2 = x1 ,

de modo que la ecuacion se reduce a


( ) ( )( )
x1 0 1 x1
(2.7) = .
x2 2 0 x2
Vale decir, llamando x ahora al vector de coordenadas x1 , x2 , y A
la matriz ( )
0 1
A= ,
2 0
tenemos que la ecuacion reducida se escribe simplemente:
(2.8) x = Ax.
En el ejemplo siguiente generalizaremos este resultado.
20 2. CONCEPTOS BASICOS

Ejemplo 2.2. Reducir al primer orden la ecuacion lineal de orden


n no homogenea
(2.9) x(n) + a1 x(n1) + a2 x(n2) + . . . + an x = g,
donde los coeficientes ai y g son funciones con valores reales o comple-
jos.
Introducimos como antes:
x1 = x
x2 = x1
...
xn = xn1
g an x1 an1 x2 . . . a1 xn = xn ,
Vale decir, si usamos otra vez el smbolo x para denotar el vector
de coordenadas x1 , . . . , xn , nos queda:
(2.10) x = Ax + b,
donde
0 1 0 ...0
0 0 1 ...0

...
A=
...
...0 ... 1
an an1 . . . a1
y
0
0

b=
... .

0
g
Ejemplo 2.3. Reducir a una ecuacion de primer orden el sistema
{
x1 = x1 x2
(2.11)
x = x21 + (x2 )2
Introduzcamos las funciones auxiliares
y1 = x1
y2 = y1
y3 = x2
y4 = y3 .
3. UN ALGORITMO PARA CONSTRUIR SOLUCIONES DE LA ECUACION FUNDAMENTAL
21

Observar que
y2 = y2 y3
y4 = y12 + y42 ,
de modo que se obtiene finalmente
(2.12) y = f (y),
donde y es la funcion vectorial de componentes y1 , . . . , y4 y f la funcion
definida por
y2
y2 y3
f (y) =
y4
.

2 2
y1 + y4

3. Un algoritmo para construir soluciones de la ecuacion


fundamental
En esta ultima seccion del primer captulo, queremos mostrar de
manera intuitiva como se puede estudiar la construccion de soluciones
de (2.5) de manera recursiva. El procedimiento dara lugar mas adelante
a la demostracion rigurosa del Teorema de Existencia y Unicidad de
soluciones de la ecuacion fundamental.
Escribamos (2.5) en forma integral:
t
(3.1) x(t) = x(t0 ) + f (s, x(s))ds,
t0

donde t0 , t se hacen variar en un intervalo de la recta real de modo


que el integrando tenga sentido.
Veamos como construir una solucion al problema con valores ini-
ciales (t0 , x0 ). Definimos una sucesion de funciones (n ) por recurrencia
como sigue:
(3.2) 0 (t) = x0 = cte.
t
(3.3) n+1 (t) = x0 + f (s, n (s))ds, (n 0).
t0

Supongamos por un momento que logramos probar que la sucesion


de funciones (n ) converge uniformemente sobre un intervalo I de
la recta real que contiene a t0 y t. Llamemos a la funcion lmite.
Entonces, por las ecuaciones anteriores tendramos que
(t0 ) = x0 ,
t
(t) = lim n+1 (t) = x0 + lim f (s, n (s))ds.
n n t0
22 2. CONCEPTOS BASICOS

Si en la ultima ecuacion lograramos intercambiar limn e integral, y


luego pudie-semos pasar el lmite al interior de f , entonces ver-
ificara (3.1) y sera en consecuencia una solucion de (2.5). El lector
entendera que las operaciones mencionadas no se pueden efectuar con
cualquier funcion f . Las hipotesis mnimas que permiten el paso al
lmite en las expresiones senaladas son las que estudiaremos cuando
demostremos el Teorema de Existencia y Unicidad de soluciones de
la ecuacion fundamental, que es uno de los resultados cruciales de la
Teora de Ecuaciones Diferenciales Ordinarias.

4. Ejercicios propuestos
(1) Verificar que la funcion x(t) = t es una solucion del problema
con valores iniciales:
(4.1) x = (x t)2/3 + 1
(4.2) x(1) = 1.
Haciendo el reemplazo y(t) = x(t) t, demuestre que y
verifica:
(4.3) y = y 2/3
(4.4) y(1) = 0.
Compruebe enseguida que
( )3
t
(4.5) y(t) = , (t R),
3
es solucion del problema con valores iniciales para y y deter-
mine luego una segunda solucion para el problema con valo-
res iniciales en x. Que ocurre en este caso con el algoritmo
de resolucion de ecuaciones diferenciales tratado en la ultima
seccion?
(2) Elimine las constantes A y B de cada una de las siguientes
expresiones, obteniendo las ecuaciones diferenciales del menor
orden posible que satisface y(x) o x(t):
(i) y = Ax + B
(ii) y = Ae3x + Be2x
(iii) Ax2 + By 2 = 4
(iv) x = A cos(2t) + B sen(2t)
(v) x = A cosh(3t) + B senh(3t)
(vi) x = (A + Bt)e10t
4. EJERCICIOS PROPUESTOS 23

(3) Si x = A1 e2t + A2 et + A3 e3t , pruebe que:


d3 x d2 x dx
4 + + 6x = 0.
dt3 dt2 dt
Confirme que x = 8t2 2t + 3 es una solucion particular de la
ecuacion
d3 x d2 x dx
4 + + 6x = 4(12t2 + t 12).
dt3 dt2 dt
Muestre que la ecuacion diferencial anterior es satisfecha por
x = A1 e2t + A2 et + A3 e3t + 8t2 2t + 3.
(4) Demuestre que la solucion de la ecuacion:
xx = 1 + (x )2
es x = a cosh( at + b), con a y b constantes.
(5) Si x = x2 + t, y x(0) = 1, determine la primera, segunda y
tercera aproximacion de la solucion utilizando el algoritmo de
aproximacion estudiado en este captulo.
(6) Resolver, encontrando la solucion general x(t):
d3 x 2
(i) 3 = 9t4 10t3 + 7t2
dt t
dn x t t
(ii) n = 3e + 4e
dt
(7) La aceleracion de un movil, en el tiempo t es de (5t + 3t2 +
7t5 ) m/s2 , cuando se mueve sobre un lnea recta. Encuentre,
para el tiempo t, la velocidad y el desplazamiento, si en t = 0
estos son de 10 m/s y 50m, respectivamente.
(8) En un cierto ambiente, las bacterias se incrementan en una
tasa proporcional a la cantidad existente. Si el numero de
bacterias se duplica en 30 minutos, cuanto tarda en sextupli-
carse?
CAPTULO 3

Ecuaciones de Primer Orden

1. Introduccion
En este captulo nos concentraremos en el estudio de la ecuacion de
primer orden
(1.1) x = f (t, x),
donde t vara sobre R y la funcion desconocida x(t) toma tambien sus
valores en dicho espacio en un primer caso: as entonces, D(f ) R2 .
Posteriormente, permitiremos a x(t) tomar sus valores sobre el espacio
de los numeros complejos C. En ese caso D(f ) es un subconjunto de
R C.
En la proxima seccion estudiaremos el caso en que f (t, x) se de-
scompone en el producto de una funcion del tiempo t y de una de la
variable espacial x.

2. Ecuaciones con variables separables


Definicion 2.1. Diremos que la ecuacion (1.1) es de variables
separables si la funcion f : D(f ) R se escribe en la forma
(2.1) f (t, x) = g(t)h(x), (t, x) D(f ).
Este tipo de ecuaciones es de muy facil resolucion como veremos a
conti-nuacion.

2.1. Resolucion general de una ecuacion con variables sep-


arables.
Teorema 2.1. Suponemos que la funcion f satisface la descom-
posicion (2.1), donde g (respectivamente 1/h) esta definida y es inte-
grable sobre un intervalo D(g) (respectivamente D(1/h)) de R. En-
tonces, una funcion tal que D() D(g) y (D()) D(1/h) es
solucion de
(2.2) x = g(t)h(x),
25
26 3. ECUACIONES DE PRIMER ORDEN

si y solo si verifica la relacion


(t) t
dy
(2.3) = g(s)ds,
(t0 ) h(y) t0

para todo t, t0 D().


Prueba. La funcion es solucion de (2.2) si y solo si
(t) = g(t)h((t)), (t D()).
Como 1/h es integrable en el dominio de , tenemos que la expresion
anterior, tambien se escribe en forma integral:
t t
(s)
ds = g(s)ds, (t0 , t D()).
t0 h((s)) t0

Haciendo un cambio de variables y = (t) en la integral del primer


miembro vemos que esto equivale a (2.3).

Notese que la relacion (2.3) contiene la solucion de la ecuacion dife-


rencial en forma implcita. En la practica, la ecuacion (2.2) es tratada
as: x se escribe dx/dt, de modo que tenemos
dx
= g(t)h(x)
dt
y separando dx y dt (que es matematicamente incorrecto!) se tiene
la expresion formal
dx
= g(t)dt
h(x)
que es la que luego se integra para llegar a (2.3) (que s tiene sentido
desde el punto de vista matematico). La expresion formal tiene una
ventaja mnemotecnica evidente, si bien su deduccion es incorrecta.
Ejemplo 2.1. Resolver la ecuacion
(2.4) x = x2
En este caso, f (t, x) = x2 , D(f ) = R, g(t) = 1, D(g) = R,
h(x) = x2 , D(h) = R. Se puede observar que 1/h queda definida y
es integrable solo sobre ]0, [, de modo que la relacion (2.3) nos da
(t) t
dy
(2.5) 2 = ds, (t0 , t > 0).
(t0 ) y t0

Vale decir,
1 1
= t t0 ,
(t) (t0 )
2. ECUACIONES CON VARIABLES SEPARABLES 27

de modo que llamando C = 1


(t0 )
t0 , tenemos que la forma general de
las soluciones de (2.4) es
1
(2.6) (t) = , t > 0,
(t + C)
donde C es una constante positiva. Si consideramos el problema con
valores iniciales (t0 , 1/t0 ) asociado, entonces su solucion (la unica) es
1
(2.7) (t) = , t > 0.
t
Ejemplo 2.2. Resolver el problema con valores iniciales
(2.8) x log x = t, (t > 0), x(t0 ) = x0 ,
donde t0 > 0 es fijo.
Separando variables se tiene:
x t
(2.9) log y dy = s ds.
x0 t0
Luego, se obtiene la solucion en forma implcita a traves de la
ecuacion:
1
(2.10) x log x x = x0 log x0 x0 + (t2 t20 ).
2
2.2. Ecuaciones diferenciales lineales de primer orden. Un
caso particular de ecuacion diferencial con variables separables elemen-
tal, pero de gran trascendencia es el caso lineal, vale decir cuando f es
de la forma
f (t, x) = a(t)x, (t, x) R2 .
En este caso, una aplicacion inmediata del Teorema 2.1 muestra
que la forma general de las soluciones de (1.1) es
t
(2.11) (t) = C exp( a(s)ds), (t 0),
0
donde C es una constante.
La funcion (t) dada por (2.11) es la solucion general de x =
a(t)x aun cuando a(t) tenga valores complejos. Para demostrar este
hecho necesitaremos utilizar la nocion de exponencial de un numero
complejo. Comencemos por estudiar una propiedad de la exponencial
de un numero real que permite su generalizacion al plano complejo.
Recordemos que en los cursos de Calculo se demostro que la expo-
nencial de un real x es la suma de una serie:

xn
(2.12) exp(x) = , (x R).
n=0
n!
28 3. ECUACIONES DE PRIMER ORDEN

Mas aun, la serie del miembro izquierdo en (2.12) converge uni-


formemente hacia la exponencial en cada intervalo acotado de la recta
real, vale decir

N n
x
(2.13) sup exp(x) 0 si N ,
xI n!
n=0
donde I es cualquier intervalo acotado de la recta real.
2.3. Recordando los numeros complejos. Procederemos a ex-
tender estas nociones al plano complejo C. Recordemos que un numero
complejo z se representa en la forma z = x + iy donde x = z R
es la parte real del numero z e y = z R, es su parte imaginaria; el
smbolo i es el numero complejo que satisface i2 = 1. Asimismo, una
funcion f con valores complejos se descompone en su parte real f y
su parte imaginaria f . El modulo del complejo z se calcula como

|z| = x2 + y 2 0.
Si z = x + iy su conjugado es el numero z = x iy.
Observese que, si 1 N M , entonces
M M n
zn z
, (z C).
(2.14) n!
n!
n=N +1 n=N

La ecuacion (2.14) nos dice que las sumas parciales



N
zn
SN (z) = , N 1, z C,
n=0
n!
forman una sucesion de Cauchy en C. Como en el espacio C toda
sucesion de Cauchy converge (es completo), entonces la serie de termino
general z n /n! converge y se tiene:
n
z n z
= exp(|z|),
(2.15) n!
n!
n=0 n=0

puesto que la serie de termino general real |z n /n!| es convergente, de


suma exp(|z|).
La convergencia de la serie de termino general z n /n! en C nos per-
mite definir la exponencial de un numero complejo:

zn
(2.16) exp(z) = , (z C).
n=0
n!
La desigualdad (2.15) se escribe, entonces
(2.17) | exp(z)| exp(|z|), (z C).
2. ECUACIONES CON VARIABLES SEPARABLES 29

La funcion exponencial extendida a C mantiene las propiedades:


(2.18) exp 0 = 1
(2.19) exp(z1 ) exp(z2 ) = exp(z1 + z2 ), (z1 , z2 C).
Ejercicio 2.1. Considere el complejo z = i y calcule su exponen-
cial. Por comparacion con los desarrollos en serie de Taylor que usted
conoce para las funciones trigonometricas, demuestre que
(2.20) exp(i) = cos
(2.21) exp(i) = sen ,
de modo que
(2.22) exp(i) = cos + i sen , ( R),
que es la conocida formula de Euler.
Dado luego un complejo z = x + iy, probar que, gracias a las
formulas anteriores, este se puede expresar en la forma
(2.23) z = rei ,
donde r 0 y son numeros reales que usted debe determinar en
funcion de x e y. Esta representacion es conocida como la repre-
sentacion polar de un numero complejo.
2.4. La ecuacion lineal con coeficientes complejos. Estudiemos
ahora la ecuacion lineal de primer orden homogenea con coeficientes
complejos:
(2.24) z = a(t)z,
donde t R y tanto a como z son funciones con valores en C.
El tratamiento de esta ecuacion es enteramente similar al caso de
coeficientes reales. En efecto, comencemos por observar que
Proposicion 2.1. Dado un numero complejo = +i, la funcion
(t) = exp(t) es derivable en todo punto t y satisface
d
(2.25) (t) = (t), (t R).
dt
Prueba. En efecto,
(t) = exp(t + it)
= exp(t) exp(it)
= exp(t)(cos(t) + i sen(t))
= [exp(t) cos(t)] + i[exp(t) sen(t)]
30 3. ECUACIONES DE PRIMER ORDEN

y se observa que las expresiones entre corchetes son funciones reales


diferenciables, que corresponden a e respectivamente. En con-
secuencia es diferenciable en todo punto y el calculo de su derivada
se hace directamente
d d d
(t) = (t) + i (t)
dt dt dt
= [e cos t et sen t]
t

+ i[et sen t + et cos t]


= ( + i)et (cos t + i sen t)
= (t).

La proposicion anterior nos muestra una propiedad importante de la


exponencial, pero ademas nos entrega un metodo para extender tanto el
calculo diferencial como el integral a funciones f : R C. En efecto,
para derivar (respectivamente integrar) este tipo de funciones, basta
que sepamos derivar (resp. integrar) sus partes reales e imaginarias.
Generalicemos el resultado anterior:
Ejercicio 2.2. Dada una funcion compleja continua a : R C,
probar que
( t )
(2.26) z(t) = exp a(s)ds , (t R),
0

es derivable en todo punto t y se tiene:


( t )

(2.27) z (t) = a(t) exp a(s)ds = a(t)z(t), (t R).
0

En efecto,
t por la nota anterior, basta observar que si llamamos
(t) = 0 a(s)ds su derivada en todo punto t existe por el Teorema
Fundamental del Calculo y se tiene (t) = a(t), de donde:
d d d
(2.28) z(t) = z = a(t)z(t), (t R).
dt d dt
Usando el ejercicio anterior tenemos, entonces, la proposicion que
sigue.
Proposicion 2.2. Dada una funcion a : R C continua, la forma
general de las soluciones de la ecuacion lineal homogenea de primer
orden
(2.29) z = a(t)z
2. ECUACIONES CON VARIABLES SEPARABLES 31

es
( t )
(2.30) (t) = C exp a(s)ds , (t R),
t0

donde C C es una constante arbitraria y t0 un punto inicial arbi-


trario.
La demostracion se omite pues corresponde a una aplicacion directa
del ejercicio precedente.
En la expresion (2.30) C y t0 son arbitrarios, pero estan relaciona-
dos: (t0 ) = C. Si se dan condiciones iniciales, estas fijan C y t0 .

2.5. Solucion de la ecuacion lineal no homogenea. La ecuacion


homogenea resuelta por (2.30) tiene siempre una solucion trivial posi-
ble: (t) = 0 para todo t. Estudiemos ahora una situacion distinta.
Sea b : R C otra funcion continua y busquemos una solucion de la
ecuacion no homogenea
(2.31) z = a(t)z + b(t).
Para ver si es posible construir una solucion parecida a (2.30) in-
troduzcamos
( t )
(2.32) z(t) = u(t) exp a(s)ds , (t R),
t0

donde hemos reemplazado la constante C por una funcion u(t).


Reemplacemos z en (2.31):
( t ) ( t )

z = u exp a(s)ds + ua(t) exp a(s)ds
t0 t0
= a(t)z + b(t).
Cancelando los terminos que se repiten en los dos miembros de la
ecuacion, nos queda, finalmente
( t )

(2.33) u = b(t) exp a(s)ds .
t0

En estas ecuaciones hemos supuesto un tiempo inicial arbitrario t0 .


Integremos la ecuacion anterior con la misma convencion:
t ( s )
(2.34) u(t) = u(t0 ) + b(s) exp a( )d ds,
t0 t0

donde el valor u(t0 ) = C0 es una constante arbitraria.


32 3. ECUACIONES DE PRIMER ORDEN

Al reemplazar en (2.32) obtenemos entonces que la solucion de


la ecuacion lineal no homogenea de primer orden es
(2.35) ( t ) ( t ( s ) ) ( t )
(t) = C0 exp a(s)ds + b(s) exp a( )d ds exp a(s)ds .
t0 t0 t0 t0
En la expresion anterior se podra observar que el primer sumando
del miembro derecho es la solucion general de la ecuacion homogenea;
el segundo es una solucion particular de la ecuacion no homogenea:
aquella que se anula en t = t0 . La suma de ambas soluciones nos provee
de la forma general de las soluciones de la ecuacion no homogenea.
El metodo seguido aqu arriba para encontrar una solucion particu-
lar de la ecuacion no homogenea reemplazando la constante C en (2.30)
por una funcion u(t) es general: recibe el nombre de metodo de la
variacion de parametros o de constantes. Volveremos sobre el
mas adelante.
Finalmente, definamos:
t
(2.36) G(s, t) = exp( a( )d ), ((s, t) R2 ).
s
Entonces (2.35) se escribe
( t ) t
(2.37) (t) = C0 exp a(s)ds + G(s, t)b(s)ds, (t R).
t0 t0
La funcion G
t recibe el nombre de funcion de Green. Hacemos notar
que (t) = t0 G(s, t)b(s)ds es la solucion de la ecuacion no homogenea
(2.31) que satisface la condicion inicial (t0 ) = 0.

3. Diferenciales exactos
Consideremos una funcion de dos variables U (t, x) que sea diferen-
ciable. Hemos visto en los cursos de Calculo Diferencial, que el dife-
rencial de U se calcula como
U U
(3.1) dU = (t, x)dt + (t, x)dx.
t x
Que significa (3.1)? Significa que en una vecindad del punto (t, x)
podemos aproximar los incrementos infinitesimales de la funcion U por
una funcion lineal de variables locales dt, dx. Supongamos ahora que
en vez de plantear (3.1) en cada punto (t, x), los escogemos segun el
grafico de una funcion x = (t) de modo que sobre ese grafico U (t, x) =
U (t, (t)) sea constante. En ese caso tendremos dU = 0, vale decir
U U
(3.2) (t, x)dt + (t, x)dx = 0,
t x
3. DIFERENCIALES EXACTOS 33

para x = (t) o bien, en forma equivalente, podemos decir que es


solucion de la ecuacion diferencial de primer orden:
U
M (t, x)
(3.3) x = U
t
= ,
x
N (t, x)
que tambien suele escribirse
(3.4) M (t, x)dt + N (t, x)dx = 0.
Queremos aprovechar la discusion anterior para abordar ecuaciones
del tipo (3.4). Si se nos da una tal ecuacion, en que caso pode-
mos asegurar que M , N son los coeficientes del diferencial de una
funcion U (t, x)? En tal caso la relacion U (t, (t)) = constante define
implcitamente las soluciones de (3.4).
Observemos que si M (t, x) = U t
(t, x) y N (t, x) = U
x
(t, x), en-
tonces, puesto que
2U 2U
= ,
tx xt
tenemos que
M N
(3.5) (t, x) = (t, x).
x t
Vemos entonces que (3.5) es una condicion necesaria para que M , N
sean los coeficientes de un diferencial. En ese caso se dice que la
ecuacion (3.4) es exacta. En el teorema siguiente veremos que (3.5) es
tambien condicion suficiente para tener tal propiedad.
Teorema 3.1. Sean M/N , M/x, N/t funciones continuas
para < t < , a < x < b. Entonces, una condicion necesaria y
suficiente para que
M (t, x)
(3.6) x =
N (t, x)
sea una ecuacion exacta , es que se cumpla la ecuacion (3.5), para todo
punto (t, x) ], []a, b[.
Prueba. Ya hemos probado la necesidad de la condicion. Probemos
su suficiencia.
Sea,
x t
U (t, x) = N (t, u)du + M (s, x0 )ds, < t, t0 < , a < x, x0 < b.
x0 t0
34 3. ECUACIONES DE PRIMER ORDEN

Calculemos las derivadas de U :


x
U N
(t, x) = (t, u)du + M (t, x0 )
t x0 t
x
M
= (t, u)du + M (t, x0 )
x0 u
= M (t, x) M (t, x0 ) + M (t, x0 )
= M (t, x).
De manera similar se prueba que
U
(t, x) = N (t, x).
x
En consecuencia,
d U U
U (t, x) = + x = M (t, x) + x N (t, x) = 0.
dt t x

Ejemplo 3.1. Resolver la ecuacion


x2 t2
(3.7) x = .
2xt
En este caso, M (t, x) = x2 t2 , N (t, x) = 2xt. Se puede ver
facilmente que las funciones M y N cumplen las condiciones del teo-
rema anterior para (t, x) R . Como de costumbre, usamos la notacion
2

f (x)dx para denotar la primitiva de f . Busquemos una funcion U


para la cual M y N correspondan a sus derivadas parciales. Ensayemos

U (t, x) = N (t, x)dx + g(t),

donde g es una ecuacion a determinar. Por los datos del enunciado


tenemos
U (t, x) = tx2 + g(t),
luego, como debemos tener U t
= M (t, x) obtenemos una ecuacion dife-
rencial para la funcion desconocida g:
x2 + g (t) = x2 t2 .
g (t) = t2 .
De aqu se obtiene
t3
(3.8) g(t) = + C0 ,
3
3. DIFERENCIALES EXACTOS 35

donde C0 es una constante. En consecuencia, U debe ser de la forma


t3
(3.9) U (t, x) = tx2 + C0 .
3
Para encontrar ahora la solucion de (3.7), debemos despejar x en
funcion de t cuando U (t, x) = C1 = const. En consecuencia, se debe
cumplir
t3
tx + C0 = C1 ,
2
3
vale decir, ( )
t2
t x 2
= C = const.
3
De la ultima relacion se deduce entonces que las soluciones de (3.7)
son de la forma

C t2
(3.10) x(t) = + , (t R, t = 0).
t 3
Ejemplo 3.2. Sea a una constante real y b(t) una funcion continua.
Resolver la ecuacion diferencial
aeat x b(t)eat
(3.11) x = .
eat
En este caso,
M (t, x) = aeat x b(t)eat
N (t, x) = eat .
Ensayamos la funcion U de la forma

U (t, x) = eat dx + g(t) = xeat + g(t).

Derivando con respecto a t:


U
= axeat + g (t)
t
= M (t, x)
= aeat x b(t)eat ,
de donde
(3.12) g (t) = b(t)eat .
Se obtiene, entonces

(3.13) U (t, x) = xe
at
b(t)eat dt,
36 3. ECUACIONES DE PRIMER ORDEN

y haciendo U = C = constante para despejar x, llegamos a



at at
(3.14) x=e C +e b(t)eat dt.

4. Factores Integrantes
Ejemplo 4.1. Resolver la ecuacion diferencial
x2 cos xt
(4.1) x = .
2 sen xt + xt cos xt
Se puede observar por una aplicacion del Teorema 3.1, que la ecuacion
planteada no es exacta. En efecto, la derivada del numerador con re-
specto a x no es igual a la derivada del denominador con respecto a t
Que hacer entonces? No escapara al lector sagaz que si multiplicamos
el numerador y el denominador por x la fraccion no cambia, pero si
ahora denotamos
M (t, x) = x3 cos xt
N (t, x) = 2x sen xt + x2 t cos xt,
entonces,
M N
= 3x2 cos xt x3 t sen xt = .
x t
Y ahora podemos aplicar el Teorema 3.1, introduciendo

U (t, x) = 2x sen xtdx + x2 t cos xtdx + g(t) = x2 sen xt + g(t),

U
= x3 cos xt + g (t) = x3 cos xt,
t
de donde g(t) = c = const. Las soluciones x(t) de la ecuacion propuesta
quedan expresadas, entonces, en forma implcita:
(4.2) x2 (t) sen x(t)t = Const.
4.1. Factores Integrantes. El ejemplo anterior nos sirve de ilus-
tracion para un metodo conocido con el nombre de busqueda de fac-
tores integrantes. El proposito es resolver una ecuacion diferencial de
la forma
P (t, x)
(4.3) x = ,
Q(t, x)
cuando
P Q
(4.4) (t, x) = (t, x),
x t
para algun punto (t, x) en el dominio de definicion comun a P y Q.
4. FACTORES INTEGRANTES 37

El metodo consiste en multiplicar a la vez P y Q por un factor in-


tegrante (t, x), de modo que las funciones M (t, x) = (t, x)P (t, x) y
N (t, x) = (t, x)Q(t, x) satisfagan (3.5). Esto determina una condicion
sobre las derivadas parciales de , pero no determina este tipo de fun-
ciones de manera unica. En efecto, (3.5) implica
P Q
(4.5) ( ) + P =( ) + Q .
x x t t
Obviamente (4.5) no permite determinar completamente. En
algunos casos es util agregar alguna informacion sobre la forma deseada
de . Por ejemplo, supongamos que buscamos un factor integrante que
se escriba en la forma de un producto de funciones:
(4.6) (t, x) = a(x)b(t).
Reemplazando en (4.5) y reagrupando terminos segun a y b, se obtiene:
a (x) P b (t) Q
(4.7) P + =Q + ,
a(x) x b(t) t
y para resolver esta ultima ecuacion, podemos escoger a /a (o b /b)
igual a una funcion conocida de x (o de t), resolviendo la ecuacion para
el otro cuociente.
Ejemplo 4.2. Encontrar un factor integrante que permita re-
solver la ecuacion
x3
(4.8) x = ,
t log xt
por el metodo de diferenciales exactos.
En este caso, P (t, x) = x3 ; Q(t, x) = t log xt. Buscamos un factor
integrante de la forma (t, x) = a(x)b(t). Reemplazando en (4.7),
a (x) b (t)
x3 3x2 = t log xt + log xt + 1.
a(x) b(t)
Sea
b (t) 1
= ,
b(t) t
eleccion motivada por el deseo de simplificar la expresion del segundo
miembro de la ecuacion anterior, entonces
a
x3 3x2 = 1,
a
38 3. ECUACIONES DE PRIMER ORDEN

que es una ecuacion que se resuelve facilmente por el metodo de vari-


ables separables:
1 1 1
(4.9) a(x) = x3 exp( 2 ), b(t) = , (t, x) = t1 x3 exp( 2 ).
2x t 2x
Ejercicio 4.1. Aprovechando el ejemplo anterior, resolver la ecuacion
(4.8).

5. Curvas integrales: caso general


El metodo de los diferenciales exactos tiene una interpretacion geometrica
que permite su generalizacion a ecuaciones de orden superior al primero.
En efecto, como hemos visto, la funcion U (t, x) que aparece ligada a
los coeficientes M y N en el Teorema 3.1, se relaciona con las soluciones
de la ecuacion
M (t, x)
(5.1) x = f (t, x) = ,
N (t, x)
en la forma siguiente: es solucion de (5.1) si y solo si U (t, (t))
es constante, para todo t D(). Extendamos esta idea para una
ecuacion de orden n.
Definicion 5.1. Dada la ecuacion diferencial de orden n en su
forma normal
(5.2) x(n) = f (t, x, . . . , x(n1) ),
y designando por D el dominio de la funcion f , diremos que una
funcion U definida en el mismo dominio D, es una integral de la
ecuacion precedente, si para cada solucion de ella se cumple que
U (t, (t), . . . , (n1) (t))
es constante para todo t D().
En este caso se dice, tambien, que la curva que recorre el grafico de
, vale decir t 7 (t, (t)), es una curva integral de la ecuacion. Esta
es una curva sobre la superficie que corresponde a la representacion
espacial de U .
Ejemplo 5.1. Interpretar las integrales de las ecuaciones diferen-
ciales de la Mecanica Clasica, en el caso de fuerzas autonomas inde-
pendientes de la velocidad (que no dependen ni del tiempo ni de la
velocidad).
Recordemos que la Segunda Ley de Newton se expresa
(5.3) x (t) = F (x),
5. CURVAS INTEGRALES: CASO GENERAL 39

donde hemos supuesto por simplicidad que la masa del movil es uni-
taria.
Suponemos que F deriva de un potencial:
(5.4) F (x) = V (x),
donde representa el operador gradiente.
Segun lo visto en la definicion, la integral U debe tener el mismo
dominio de definicion que la funcion que determina la ecuacion dife-
rencial, que en este caso es f (t, x, y) = F (x), (y corresponde a la co-
ordenada que sera llenada por la primera derivada posteriormente).
Introducimos entonces la funcion
1
(5.5) U (t, x, y) = y 2 + V (x).
2
Si x = (t) es una solucion de la ecuacion de Newton, reemplazando
en U tenemos:
d d 1 2
U (t, (t), (t)) = ( (t) + V ((t)))
dt dt 2
= 0
De modo que U es una integral de la ecuacion de Newton: corre-
sponde a la Energa total del sistema. En su expresion, el termino
1 2
2
y corresponde a la energa cinetica del movil; V (x) es su energa
potencial. Se dice que F = U es una fuerza conservativa.
Ejemplo 5.2. Resolver la ecuacion del oscilador armonico sin roce,
vista en el primer captulo: corresponde a la ecuacion del movimiento
de un objeto sobre una superficie plana, adherido a un resorte cuya
segunda extremidad esta empotrada en una pared vertical. Vale decir,
k
(5.6) x + 2 x = 0, ( 2 = ),
m
donde m es la masa del movil y k la constante de elasticidad del resorte
al cual esta adherido.
Aplicando el ejemplo anterior (pero esta vez con la masa m = 1),
tenemos
kx2
V (x) =
2
y la energa cinetica es
1 2
my ,
2
donde y corresponde a la coordenada de la velocidad.
40 3. ECUACIONES DE PRIMER ORDEN

Entonces,
1 kx2
(5.7) U (t, x, y) = my 2 + ,
2 2
es una integral de la ecuacion propuesta: la energa total U debe ser
constante para x = (t), y = (t) donde es solucion de (5.6). Esto
permite despejar en funcion de :
1 k2
m +
2
= const.,
2 2
o sea, debe resolver la ecuacion

(5.8) x = C 2 2 x2 ,
donde C es constante.
Esta ultima ecuacion se resuelve por separacion de variables:

dx
= dt,
C 2 2 x2
y obtenemos
x
Arccos = (t + ),
C
donde es una constante de integracion.
Luego, la solucion de la ecuacion del oscilador armonico se ex-
presa:
C
(5.9) (t) = cos(t + )

(5.10) = c1 cos t + c2 sen t, (t R).
Vemos, as, que la busqueda de las integrales de una ecuacion dife-
rencial ayuda a reducir el orden del problema, pues, sabiendo que U
debe ser constante, dicha relacion provee una ecuacion diferencial de
un orden menor que la inicial.

6. Reduccion de ecuaciones al caso lineal de primer orden


En esta seccion estudiaremos algunos casos notables de ecuaciones
no lineales que pueden ser reducidas al caso lineal.
6.1. La Ecuacion de Bernoulli. Consideremos la ecuacion
(6.1) x + p(t)x = q(t)xn ,
donde p y q son funciones reales continuas definidas sobre un intervalo
I de la recta real.
La funcion x(t) = 0 resuelve la ecuacion anterior. Pero, obviamente,
estamos interesados en las soluciones no triviales. Para encontrarlas,
6. REDUCCION DE ECUACIONES AL CASO LINEAL DE PRIMER ORDEN 41

suponemos que x(t) = 0 en el intervalo I, de modo que podemos dividir


por xn ambos miembros de (6.1):
xn x + x(n1) p(t) = q(t).
Sustituyamos ahora y = x(n1) . Luego
d dy dx
y = y = = (n 1)xn x
dt dx dt
y la ecuacion (6.1) se transforma en
(6.2) y = (n 1)p(t)y (n 1)q(t),
que es una ecuacion lineal no homogenea que sabemos resolver: su
solucion general esta dada por (2.35) (o equivalentemente por (2.37)):
( t )
(6.3) = C exp (n 1)
y(t) p(s)ds
t0
( t ) ( t )
q( ) exp((n 1) p(s)ds)d exp (n 1) p(s)ds .
t0 t0 t0

De aqu se obtiene luego la solucion de (6.1) haciendo la susti-


tucion
(t) = y n1 (t).
1

Ejemplo 6.1. Resolver la ecuacion


(6.4) x + x tan t = x3 sec4 t.
Haciendo el reemplazo y = 1/x2 se llega a
(6.5) x = (2 tan t)y 2 sec4 t.

Recordemos que exp (2 tan t)dt = cos2 t, en consecuencia, la
ecuacion anterior se reduce a
d
(y cos2 t) = 2 sec2 t.
dt
Por integracion despejamos y y luego x:
(6.6) cos2 t = x2 (C 2 tan t).
6.2. Ecuaciones nolineales homogeneas de grado 0. Nos refe-
rimos a ecuaciones del tipo
x
(6.7) x = f ( )
t
cuando t = 0, t R, y f es una funcion continua.
En este caso una sustitucion del tipo x = tv nos da
x = v + tv ,
42 3. ECUACIONES DE PRIMER ORDEN

que reemplazada en la ecuacion diferencial, la transforma en


(6.8) v + tv = f (v),
que puede ser resuelta por separacion de variables.
Ejemplo 6.2. Resolver
t2 2tx + 5x2

(6.9) x = .
1 + 2tx + x2
Colocando x = tv se llega a
1 3v + 3v 2 v 3 (1 v)3
(6.10) tv = = .
1 + 2v + v 2 (1 + v)2
Para resolver mas facilmente la ecuacion con variables separadas, se
puede hacer un nuevo cambio de variables: u = 1 v. Se llega entonces
a
2 4
log t = C + 2 log u.
u u
Y, finalmente,
2t2 4t x
log t = C + log(1 ).
(x t) 2 xt t

7. Sistemas Dinamicos
Para terminar este captulo reflexionemos una vez mas sobre el ob-
jeto de este curso. A la luz de las primeras ecuaciones que hemos
aprendido a resolver, podemos reinterpretar el papel que esta Teora
juega en el desarrollo de la Fsica Clasica y de la Mecanica en particu-
lar.
En la Mecanica de Newton un sistema fsico queda representado
por dos datos: su posicion q(t) y su momento p(t) (que es igual a su
masa por la velocidad, de modo que tambien se puede usar q (t) en
vez de p(t)). El par x(t) = (q(t), p(t)) recibe el nombre de estado del
sistema en el tiempo t. Llamemos el espacio de estados, tambien
conocido como espacio de fase. En general, es un subconjunto de
Rd Rd .
La Fsica Clasica asegura, entonces, que el sistema queda comple-
tamente determinado si conocemos
(i) Un estado inicial x(t0 ) = (q(t0 ), p(t0 ));
(ii) su evolucion en un intervalo de tiempo infinitesimal [t, t+dt].
Para escribir rigurosamente la frase (ii) disponemos ahora de los utiles
matematicos apropiados: las ecuaciones diferenciales. En particular,
en el caso de la Mecanica, las ecuaciones de Newton.
7. SISTEMAS DINAMICOS 43

Vale decir, retomando nuestras notaciones, escribamos el tipo de


ecuacion diferencial que satisfacen los estados:
(7.1) x = f (t, x)
y supondremos que dada una condicion inicial, el problema asoci-
ado tiene una solucion unica (se vera en un captulo posterior la de-
mostracion de ese teorema fundamental).
Definamos una transformacion sobre de la manera siguiente:
(t0 ,t) : ,
de modo que para cada x0 , (t0 ,t) (x0 ) = (t) es la solucion del
problema con valores iniciales (t0 , x0 ). En otros terminos (t0 ,t) enva
el estado inicial al estado del sistema en el instante t. Esta aplicacion
recibe el nombre de flujo de las soluciones de la ecuacion diferencial.
En ella se resumen los postulados (i) y (ii) de la Fsica Clasica.
Proposicion 7.1. El flujo satisface las propiedades
(7.2) (t,t) = identidad,

(7.3) (t1 ,t) (t0 ,t1 ) = (t0 ,t) .


Prueba. La primera propiedad es evidente, ya que
t
(7.4) (t0 ,t) (x0 ) = x0 + f (s, (t0 ,s) (x0 ))ds.
t0

La segunda propiedad es bastante intuitiva. En efecto, si se observa


el significado del miembro izquierdo, este nos dice que si se evoluciona
primero de t0 a t1 , llegando a un estado (t0 ,t1 ) (x0 ), y se continua luego
la evolucion hasta t, se llega finalmente al estado (t1 ,t) (t0 ,t1 ) (x0 ). La
igualdad nos dice que lo anterior equivale a evolucionar de t0 a t sin
interrupcion. La demostracion se hace probando que (t1 ,t) (t0 ,t1 ) (x0 )
y (t0 ,t) (x0 ) son dos soluciones de la ecuacion diferencial con igual valor
en el punto t1 y deben, por lo tanto, coincidir porque hemos supuesto
unicidad de la solucion.

7.1. El flujo de una ecuacion autonoma. Supongamos ademas


que f (t, x) = f (x) no depende de t. Se dice que la ecuacion es
autonoma. Notemos que entonces tenemos
Proposicion 7.2. Para todos t0 , t, h R:
(7.5) (t0 +h,t+h) = (t0 ,t)
44 3. ECUACIONES DE PRIMER ORDEN

Prueba. Sea x0 y llamemos (t) = (t0 +h,t+h) (x0 ). Esta funcion


verifica:
(t) = f ((t))
(t0 ) = x0 .
No es difcil obtener entonces la igualdad anunciada pues (t0 ,t) (x0 )
es tambien solucion de la misma ecuacion y satisface la condicion
(t0 ,t0 ) (x0 ) = x0 .

Las propiedades del flujo nos muestran que podemos escoger t0 = 0,


por ejemplo y denotar t el operador (0,t) . Entonces, se tendra que
t : satisface las propiedades siguientes
(7.6) 0 = identidad
(7.7) t s = s+t , (s, t R).
Se dice que la familia de transformaciones (t )tR es un Sistema
Dinamico sobre el espacio de estados . Un tal sistema define un
grupo de transformaciones diferenciables de clase C 1 sobre .

7.2. Diagramas de fase. Un sistema dinamico como el anterior,


puede ser estudiado en forma cualitativa mediante graficos de las fun-
ciones t 7 t (x0 ) cuando x0 vara sobre . Son los llamados diagramas
de fase. Para ilustrar este tipo de estudio, veamos el caso del oscilador
armonico. En ese caso cada estado sera x(t) = (q(t), p(t)) donde q es
la posicion, que verifica la ecuacion
k
(7.8) q + 2 q = 0, ( 2 = ).
m
y tomamos m = 1.
Entonces, como hemos visto,
q(t) = c1 cos t + c2 sen t,
y p(t) = q (t), que fueron obtenidos a partir de la integral
1 2 k2 2
U (q, p) = p + q .
2 2
Para obtener los distintos graficos bastara expresar las curvas de
nivel de U en , vale decir, aquellas t 7 (q(t), p(t)) para las cuales
U (q(t), p(t)) = const. Dichas curvas son elipses en el plano. Quiere
decir que para cada x0 = (q0 , p0 ) , el flujo t 7 t (x0 ) describe la
elipse U (t (x0 )) = U (q0 , p0 ).
8. EJERCICIOS PROPUESTOS 45

8. Ejercicios propuestos
(1) Resolver las ecuaciones siguientes:
x2
(8.1) x = ,
tx t2
(8.2) x = x x2 .
(2) Resolver la ecuacion diferencial
x
(8.3) x = .
1 + xet
(3) (a) Resolver la ecuacion
(8.4) (2t + 3x2 )dt + 6txdx = 0.
(b) Sean (t, x) y (t, x) dos factores integrantes de la ecuacion:
(8.5) M (t, x)dt + N (t, x)dx = 0.
Suponiendo que (t, x) = (t, x)/(t, x) no es identicamente
constante, demuestre que (t, x) = C = const. define,
implcitamente, la solucion general de (8.5).
(4) La poblacion de una ciudad en 1993 era de 200.000 habitantes
y la tasa de crecimiento estimada es de 4%, medida con re-
specto a la poblacion existente en el instante. Predecir el
tamano de la poblacion al ano 2013.
(5) Cuando un proyectil es disparado en el agua, encuentra una
resistencia proporcional al cuadrado de su velocidad. Si U es
la velocidad inicial y si ella disminuye a U/2, despues de viajar
una distancia S, encontrar la velocidad que el proyectil tiene
al alcanzar una distancia horizontal d y el tiempo que le toma
el alcanzarla, despreciando los efectos de la gravitacion.
(6) La Segunda Ley de Newton, que expresa que la fuerza F es
igual a la masa m por la aceleracion a de un movil, suele
enunciarse tambien en la forma
d
(8.6) F (t) = (m(t)v(t)), (t R),
dt
donde v es la velocidad del cuerpo. Esta formulacion se presta
al analisis de la dinamica cuando la masa no es constante.
Un cohete se lanza verticalmente, propulsado mediante la
eyeccion de material con velocidad constante u (hacia abajo)
relativa al cohete. La masa del cohete en el instante t T ,
(donde T < 1/k), esta dada por m0 (1 kt), donde m0 es la
masa inicial y k es una constante mayor que g/u.
46 3. ECUACIONES DE PRIMER ORDEN

(a) Expresar la fuerza que ejerce sobre el cohete el material


que se expulsa usando (8.6).
(b) Usar ahora la Segunda Ley de Newton en su expresion
usual para probar que la aceleracion del cohete en el tiempo
t es:
(8.7) a(t) = ku(1 kt)1 g.
(c) Suponiendo que la velocidad inicial es nula y suponiendo
g constante, deducir la velocidad y la altura alcanzadas
al tiempo t.
(d) Suponiendo que la eyeccion de material termina en el
tiempo T , comportandose el cohete como cualquier otro
proyectil a partir de ese instante, escriba la nueva ecuacion
diferencial que describe el movimiento a partir del tiempo
T.
(7) Encontrar los valores de n para que la expresion
(x2 + t2 )n (tx2 dt t2 xdx)
sea un diferencial exacto.
(8) Dibujar los diagramas de fase para las siguientes ecuaciones,
trazando esquematicamente algunas curvas solucion:
(a)
3
x = 4 ;
x+t
(b)
x = t/x.
(9) La ecuacion:
dx 1
= k1 (p x)2 k2 ( x)2 k1 , k2 > 0,
dt 2
representa la rapidez de una reaccion qumica. Pruebe que
1 1
pt k1 k2 = log[{p k1 ( k1 k2 )x}/{ k1 ( k1 + k2 )x}].
2 2
(10) Pruebe, resolviendo la ecuacion para y(x):
(1 + (y )2 )3/2
=c (c constante),
y
que la unica curva plana con curvatura constante es una cir-
cunferencia.
(11) Resuelva las ecuaciones:
dy
(i) = e3x2y , y(0) = 0
dx
8. EJERCICIOS PROPUESTOS 47

dy y
(ii) + = x3 , y(1) = 2
dx x
dy
(iii) = ey sen x, y(0) = 0
dx
dy
(iv) + y cot x = cos x, y( ) = 1
dx 2
dx
(v) 2t3 = x2 + 3tx2 , x(1) = 1
dt
dx
(vi) t x = t3 cost, x() = 0.
dt
(12) Resuelva las siguientes ecuaciones:
dx
(i) = 8xt
dt
2
dx
(ii) 2 sen2 t = 1
dt
dx
(iii) t + x =0
dt
dx
(iv) t3 = x .
dt
(13) La ecuacion diferencial que modela la deflexion w de un disco
circular cuando la carga esta distribuida simetricamente con
respecto al eje, esta dada por:
[ { }]
1 d d 1 d dw p
r (r ) = ,
r dr dr r dr dr D
donde r es la distancia al eje y D es una constante. Obtenga
la solucion general de esta ecuacion cuando la presion p es
constante.
(14) Si se tiene que:
p + t + r dp
dr
=0
p t = 2
con por determinar, y p(r1 ) = p1 , p(r2 ) = p2 ,
obtenga p(r) y t(r).
(15) Encuentre las soluciones generales de:
t(1 t2 ) dx
dt
+ (2t2 1)x = t3
dx x3 3t2 x
= 3
dt t + 3tx2
dx
= x tant 2 sent
dt
dx
t + x = x2 log t
dt
(x2 3t2 )t dx
dt
= (t2 3x2 )x
dx
t = x + t2 x3
dt
48 3. ECUACIONES DE PRIMER ORDEN

dx t2 + tx x2
=2
dt t2 + x2
(2t 3x + 1)dt + (6x 4t + 3)dx = 0
x(1 + t4 x3 )dt + t d x = 0
(x2 + tx + 2t2 ) dx dt
= x(x + 3t)
[(1 + t ) + x]dt + [(1 + x2 )1/2 + t]dx = 0
2 1/2

(x + (t2 tx)1/2 )dt = tdx


et dx
dt
= t ex
(t x + 1) dx dt
= (t + x + 1)
(t log t)(1 dx dt
)=x
t(x + 5t) dt + t 4tx 3x2 = 0
dx 2

(1 dx dt
)tan t = 2x
t dt 2x + t2 x2 = 0
dx

5t4 (1 x) + t2 x3 + (t5 + t3 x2 ) dx dt
=0
d2 x
x dt2 + ( dt ) = 0
dx 3

(2t + x 3)dt = (2t + x)dx


2
(1 x) ddt2x = (2 x) ( dx )2 , x(0) = 0
dt
dx
dt
(0) = 1
2
x(t xt + x ) tx (t + tx + x ) = 0
2 2 2
x(1) = 1
xx + 2x 2 = 0
xx = (x )2
(1 tx)x = x2
(2t 3x + 1)dt + (2x 3t + 5)dx = 0
tdx + xdt = t cos t dt
(1 + t2 )x + tx = 0
x + 2t(x )2 = 0
(1 + t2 )x + 2tx = 4t3
(et 3x2 t2 )x + xet = 2tx3
t2 x 2tx = 3x4
x2 dt = (t3 tx)dx
cos(x + t)dt = t sen(x + t)dt + t sen(x + t)dx
(t2 + x)dt = tdx
x + 2tx et = 0
2

txdx = t2 dx + x2 dt
t(x tcost) + t = 0
t2 x + tx = 1
(t2 x3 + x)dt = (t3 x2 t)dx
(6t + 4x + 3)dt + (3t + 2x + 2)dx = 0
xx + (x )2 2xx = 0
(x2 3xt 2t2 )dt = (t2 xt)dx
8. EJERCICIOS PROPUESTOS 49

1 + n(x t)
x =
n(x t)
sen x dt + cos x dx et (x sen(xt)dt + t sen(xt)dx) = 0.
CAPTULO 4

Ecuaciones Diferenciales Lineales

Uno de los mas importantes casos de ecuaciones diferenciales es el de


las lineales. Hemos visto en los captulos anteriores que las ecuaciones
diferenciales lineales de orden n con coeficientes constantes se reducen
a un caso particular de sistema de primer orden. El proposito de las dos
primeras secciones de este captulo es, entonces, estudiar los sistemas
de primer orden con coeficientes constantes de tipo mas general, vale
decir, aquellos que se escriben en la forma
(0.8) X = AX + b(t),
donde A es una matriz de coeficientes complejos de d d, X(t) es
una funcion real con valores en Cd , al igual que b(t) (y que pueden ser
consideradas como matrices de d 1).
Comenzaremos por tratar el caso homogeneo.

1. La ecuacion lineal homogenea con coeficientes constantes


Manteniendo las notaciones anteriores, nuestro proposito en esta
seccion es resolver la ecuacion
(1.1) X = AX.
Teorema 1.1. La solucion general del sistema homogeneo (1.1) es
de la forma
(1.2) (t) = eAt C.
Prueba. Consideremos (t) definida por la expresion (1.2). Entonces,
su derivada es
(t) = AeAt C
= A(t),
pues como se ve en el apendice sobre Algebra Lineal, la derivada de la
funcion exponencial exp(At) es A(exp(At)) = (exp(At))A, calculada a
partir de la definicion como serie de potencias. Notese que A conmuta
con exp(At). En consecuencia, (t) definida por (1.2) es solucion de la
ecuacion homogenea.
51
52 4. ECUACIONES DIFERENCIALES LINEALES

Supongamos ahora que existe otra solucion de la ecuacion ho-


mogenea. Probaremos que debe tener, tambien, la forma (1.2). En
efecto, sea C = (0) y definamos
(t) = eAt C,
entonces (0) = C = (0). Ahora bien, la diferencia (t) = (t)(t)
es tambien solucion de la ecuacion (1.1), pero, ademas,
(0) = 0.
Ahora bien, la funcion identicamente nula 0(t) = 0 es solucion de
(1.1) y vale 0 en t = 0. El Teorema de Existencia y Unicidad de
soluciones de una ecuacion diferencial que probaremos en un captulo
posterior asegura entonces que 0(t) es la unica solucion de (1.1) que
vale cero en t = 0; como (t) tambien es solucion de ese problema
con valores iniciales, se debe tener necesariamente (t) = 0 para todo
t R. Luego, (t) = (t) tiene la forma (1.2).

Corolario 1.1. El espacio vectorial de soluciones del sistema de


ecuaciones (1.1) es de dimension d.
Prueba. En efecto, sea (C1 , . . . , Cd ) una base del espacio Cd y defi-
namos:
i (t) = eAt Ci , (t R, i = 1, . . . , d).
Las funciones i son soluciones de (1.1) y toda combinacion lineal
de ellas tambien lo sera. Probemos que ellas son linealmente indepen-
dientes. Si 1 , . . . , d son escalares tales que
1 1 (t) + . . . + d d (t) = 0,
para todo t R, entonces en particular para t = 0 se tiene
1 C1 + . . . + d Cd = 0
y como los vectores Ci C son linealmente independientes, entonces
1 = 2 = . . . = d = 0.
Finalmente, demostremos que las funciones i generan el espacio
vectorial de soluciones. Si es una solucion de (1.1), entonces tiene la
forma (1.2) y C = (0). Basta entonces expresar el vector C Cd en
terminos de la base (Ci )di=1 :
C = 1 C1 + . . . + d Cd
y se tiene
(t) = 1 1 (t) + . . . + d d (t),
1. LA ECUACION LINEAL HOMOGENEA CON COEFICIENTES CONSTANTES
53

para todo t R. En efecto, la expresion de la derecha es tambien


solucion de (1.1) y en t = 0, su valor es C al igual que . Por el Teorema
de Existencia y Unicidad de soluciones entonces, 1 1 (t)+. . .+d d (t)
coincide con (t) en todo punto t R.
Los dos resultados anteriores nos permiten resolver en toda generalidad
tanto sistemas de ecuaciones como ecuaciones lineales de orden n.
Corolario 1.2. Dada la ecuacion diferencial lineal homogenea de
orden n, con coeficientes constantes,
(1.3) L(D)x = x(n) + a1 x(n1) + . . . + an1 x + an x = 0,
el espacio vectorial de sus soluciones es de dimension n.
Prueba. Basta recordar que la ecuacion se reduce a un sistema de
ecuaciones de la forma (1.1) con d = n y

0 1 0 ... 0
x(t)
0 0 1 ... 0
x (t)
.
X(t) = .. , A = ... ... ... ... ...
. 0 0 0 ... 1
x(n1) (t) an an1 an2 . . . a1

Lo anterior nos entrega un metodo de resolucion de esta clase de ecua-


ciones diferenciales.

1.1. Metodo de resolucion: principios generales. Para re-


solver el sistema homogeneo (1.1) (o la ecuacion (1.3)) se puede pro-
ceder de la forma siguiente:
Caso 1 Si la matriz A tiene la forma de un bloque de Jordan, vale
decir
(1.4) A = J,m = I + N,
donde C y N es nilpotente de orden m, i.e. N m = 0. En
tal caso,
( )
1 m1 m1
exp(At) = exp(t) I + N t + . . . + N t .
(m 1)!
Entonces, se puede determinar de inmediato la forma general
de las soluciones usando (1.2).
En caso contrario,
Caso 2 La matriz A no tiene la forma anterior que permite calcular
facilmente exp(At), entonces por el Teorema de Jordan, dado
54 4. ECUACIONES DIFERENCIALES LINEALES

que su polinomio caracterstico L() se puede escribir de la


forma
(1.5) L() = ( 1 )m1 ( 2 )m2 ( q )mq ,
donde mi es la multiplicidad de la raz i , (i = 1, . . . , q, m1 +
. . . + mq = d), se tiene que existe una matriz de cambio de
base P tal que
(1.6) A = P JP 1 ,
donde J es una matriz que, escrita en bloques, es de la forma

J1 ,m1 0 ... 0
0 J2 ,m2 . . . 0
(1.7) J =
,

...
0 0 . . . Jq ,mq
donde cada Ji ,mi es un bloque de Jordan de la forma (1.4).
En tal caso,
(1.8) exp(At) = P 1 (exp(Jt)) P
y

eJ1 ,m1 t . . . 0
(1.9) exp(Jt) = ... .
Jq ,mq t
0 ... e
En la expresion anterior, cada bloque exp(Ji ,mi t) se calcula
como
( )
1 mi 1 mi 1
exp(Ji ,mi t) = exp(i t) I + Ni t + . . . + N t .
(mi 1)!
Lo anterior constituye el metodo general de resolucion de
(1.1). Deduciremos luego procedimientos de calculo basados
en estos principios teoricos generales.
Veamos un ejemplo del primer caso senalado en el metodo anterior.
Ejemplo 1.1. Resolver el sistema

8 1 0
X = 0 8 1 X.
0 0 8
En este caso la matriz

8 1 0
A = 0 8 1 ,
0 0 8
1. LA ECUACION LINEAL HOMOGENEA CON COEFICIENTES CONSTANTES
55

puede descomponerse en la forma,


A = 8I + N,
donde
0 1 0
N = 0 0 1 ,
0 0 0
es una matriz nilpotente: N 3 = 0. Luego, la solucion general del
sistema es
( )
At 8t 1 2
(t) = e C = e I + N t + (N t) C,
2
vale decir,
1 2

1 t 2
t c1
8t
(t) = e 0 1 t c2 .
0 0 1 c3
Estudiemos ahora el segundo caso del metodo anterior. Entonces A
no es un bloque de Jordan. Sin embargo, escogiendo adecuadamente los
coeficientes C, podemos fabricar una base de soluciones de la ecuacion.
Tenemos basicamente dos posibilidades:
Caso 2.1 A admite valores propios 1 , . . . , d simples y respectivamente
d vectores propios linealmente independientes C1 , . . . , Cd . Vale
decir, el polinomio caracterstico tiene d races distintas. En
ese caso, podemos fabricar una base de soluciones i (t), (i =
1, . . . , d), donde:
(1.10) i (t) = eAt Ci = ei t Ci , (i = 1, . . . , d),
pues (At)n Ci = ni tn Ci .
Caso 2.2 Si las multiplicidades de las races son distintas de 1, entonces
para cada valor propio i de multiplicidad mi se podra en-
contrar, a lo mas, mi vectores linealmente independientes Cji ,
j = 1, . . . , mi , que resuelvan la ecuacion
(1.11) (A i I)mi Cji = 0, (j = 1, . . . , mi ),
donde i vara entre 1 y q, m1 + . . . + mq = d.
Notese que sobre los vectores Cji se tiene:

eAt Cji = ei t e(Ai I)t Cji


1
(1.12) = ei t [I + (A i ) + . . . + (A i )mi 1 ]Cik .
(mi 1)!
56 4. ECUACIONES DIFERENCIALES LINEALES

Se reordenan enseguida todos los vectores (Cji ; i = 1, . . . , mi ; i =


1, . . . , q), de manera de tener una coleccion de vectores V1 , . . . , Vd ,
que constituya una base del espacio Cd :
Vk = Ckm1 , k m1 ;

Vk = Cjmi , si k = mi1 + j, j mi , i = 2, . . . , q.
De este modo, dado cualquier vector constante C, el se
expresa como una combinacion lineal
C = 1 V1 + . . . + d Vd ,
de donde
(1.13) eAt C = 1 eAt V1 + . . . + d eAt Vd
y las funciones j (t) = exp(At)Vj que se calculan segun (1.12),
constituyen una base de soluciones de la ecuacion diferencial
propuesta.
En otros terminos, si se quiere expresar el caso anterior
mediante matrices de cambio de base, introducimos la matriz
P cuyas columnas son los vectores Vj obtenidos reordenando
los vectores Cji . Ademas, llamamos J a la matriz de Jordan,
que tiene bloques diagonales de la forma Ji = i I + Ni , i =
1, . . . , q y bloques nulos en el complemento. Entonces,
(1.14) exp(At) = P exp(Jt)P 1 ,
donde exp(Jt) es una matriz que tiene bloques diagonales de
la forma exp(Ji t).
Ejercicio 1.1. Encontrar la solucion de cada uno de los sistemas
siguientes:
(1)
{
x = 2x y
y = 2y.
(2)
{
x = 2x y
y = x + 2y.
(3)
{
x = y
y = x.
1. LA ECUACION LINEAL HOMOGENEA CON COEFICIENTES CONSTANTES
57

(4)

x = 2x
y = x 2y

z = y 2z.

1.2. Un caso particular: las ecuaciones lineales de orden n.


Como caso particular de lo anterior, estudiemos las ecuaciones diferen-
ciales lineales con coeficientes constantes, de orden n. Analicemos la
forma que toman las bases de soluciones (i ; i = 1, . . . , n).
Corolario 1.3. Dada la ecuacion diferencial lineal homogenea de
orden n, con coeficientes constantes,
(1.15) L(D)x = x(n) + a1 x(n1) + . . . + an1 x + an x = 0,
cuyo polinomio caracterstico L() se escribe en la forma
(1.16) L() = ( 1 )m1 ( q )mq ,
con m1 + . . . + mq = n, entonces una base de soluciones (i , i =
1, . . . , n) se obtiene en la forma
(1.17) i (t) = ti1 e1 t , i = 1, . . . , m1 ;
(1.18) m1 +i (t) = ti1 e2 t , i = 1, . . . , m2 1;
...
(1.19) m1 +m2 +...+mq1 +i (t) = ti1 eq t , i = 1, . . . , mq .
En el caso particular en que todas las multiplicidades son unitarias
(mi = 1, i = 1, . . . , n), la base se escribe simplemente
(1.20) i (t) = ei t , i = 1, . . . , n.
Prueba. Usando el procedimiento de reduccion a un sistema, la matriz
asociada a la ecuacion L(D)x = 0 es

0 1 0 ... 0
0 0 1 ... 0

A= . . . . . . . . . . . . . . . .

0 0 0 ... 1
an an1 an2 . . . a1
Y llamando
x(t)
x (t)
X(t) =
.. ,

.
x(n1) (t)
58 4. ECUACIONES DIFERENCIALES LINEALES

la ecuacion original se transforma en X = AX. Las soluciones de tal


sistema seran de la forma

(t)
(t)
(t) =
.. ,

.
(n1) (t)
y nos interesa determinar la primera componente que es solucion de la
ecuacion de orden n.
Observese que, para cada i = 1, . . . , q, dado un vector V Cn , tal
que
(A i I)mi V = 0,
entonces la funcion vectorial
(t) = eAt V
= ei t e[(Ai )t V ]
1 mi 1 mi 1
= e i t
I + (A i )t + . . . + (A i ) t V,
(mi 1)!
es solucion del sistema asociado a A. De este vector, su primera com-
ponente contiene una solucion de la ecuacion de orden n y, segun lo
anterior, se escribe como una combinacion lineal de las funciones
ei t , tei t , . . . , tmi 1 ei t .
Por ende, el metodo del calculo de la exponencial (exp(At))C nos
muestra que, en general, toda solucion de la ecuacion de orden n
se escribe como combinacion lineal finita de las funciones linealmente
independientes (i ; i = 1, . . . , n) del enunciado del corolario.

Ejemplo 1.2. A ttulo de ejemplo, veamos una ecuacion de segundo


orden, lineal, homogenea y con coeficientes constantes.
(1.21) x + px + qx = 0.
Estudiaremos los distintos casos de resolucion de este tipo de ecua-
ciones. Su polinomio caracterstico es
(1.22) L() = 2 + p + q.
Llamemos = (p/2)2 q. Tendremos dos casos principales:
Caso 1: = 0. Entonces, hay dos races distintas del polinomio car-
acterstico. Distingamos dos subcasos:
1. LA ECUACION LINEAL HOMOGENEA CON COEFICIENTES CONSTANTES
59
( p )2
a) 2
> q. Entonces ambas races son reales:
p p
1 = + , 2 = .
2 2
Una base de soluciones de la ecuacion diferencial esta dada
por las funciones:
p
1 (t) = exp( + )t,
2
p
2 (t) = exp( )t.
2
La solucion general se escribe entonces:
pt

(t) = e 2 [c1 et
+ c2 et
],

(donde
) c1 y c2 son constantes.
p 2
b) 2 < q. Las races son complejas conjugadas:
p p
1 = + i , 2 = i .
2 2
Una base de soluciones esta constituda por las funciones:
p
1 (t) = exp([ + i ]t),
2
p
2 (t) = exp([ i ]t).
2
La solucion general se escribe
pt
(t) = e 2 (c1 eit
+ c2 eit
),
donde c1 y c2 son constantes. De manera equivalente, se
puede usar la representacion de las exponenciales comple-
jas en terminos de senos y cosenos, cambiando las cons-
tantes por otras d1 y d2 de modo de expresar la solucion
general en la forma:
pt
(t) = e 2 [d1 cos(t ) + d2 sen(t )].
Caso 2: = 0. En este caso el polinomio caracterstico posee una raz
doble:
p
= .
2
Una base de soluciones esta dada por:
pt pt
1 (t) = e 2 , 2 (t) = te 2 .
La solucion general se escribe:
pt
(t) = e 2 (c1 + c2 t).
Ejercicio 1.2. Resolver las ecuaciones siguientes:
60 4. ECUACIONES DIFERENCIALES LINEALES

(1) x + 7x + x = 0.
(2) x + 6x + 9x = 0.
(3) x 9x + 24x 16x = 0.

2. Sistemas no homogeneos con coeficientes constantes


Consideramos ahora la ecuacion no homogenea
(2.1) X = AX + b(t),
donde A es, como en la seccion anterior, una matriz de coeficientes
constantes y b(t) es una funcion cuyo dominio de definicion esta con-
tenido en R y sus valores pertenecen a Cd .
Comencemos por observar la estructura que poseen las soluciones
generales de (2.1).
Proposicion 2.1. Toda solucion de la ecuacion no homogenea
(2.1) se escribe como una suma
(2.2) = g + p ,
donde g es solucion general de la ecuacion homogenea
X = AX
y p es una solucion particular cualquiera de la ecuacion no homogenea
(2.1).
Prueba. Supongamos que sea una funcion con valores vectoriales
que posea la forma (2.2). Entonces,
= g + p
= Ag + Ap + b(t)
= A + b(t).
Vale decir, resuelve (2.1).
Recprocamente, supongamos que es cualquier solucion de la
ecuacion no homogenea y demostremos que se descompone en la forma
(2.2). Consideremos un punto t0 arbitrario en la recta real. Llamemos
p (t) a la unica solucion de (2.1) que asume el valor 0 en t0 . Entonces,
si definimos g = p esta funcion verifica:
g = p
= A + b(t) Ag b(t)
= Ag ,
de modo que g es solucion de la ecuacion homogenea y verifica la
descomposicion (2.2).
2. SISTEMAS NO HOMOGENEOS CON COEFICIENTES CONSTANTES 61

Teorema 2.1. La solucion general de la ecuacion no homogenea


(2.1) se escribe en la forma
t
(2.3) At
(t) = e C + eA(ts) b(s)ds, (t R),
t0

donde t0 es un punto arbitrario de R y C es un vector constante


cualquiera en Cd .
Prueba. Para probar este teorema comenzamos por observar que el
primer termino en el segundo miembro de (2.3) es la solucion general
de la ecuacion homogenea asociada a la matriz A. La demostracion se
reduce, entonces, a verificar que el segundo termino de dicha expresion
es una solucion particular p de la ecuacion no homogenea. Ahora bien,
derivando con respecto a t se tiene

d d t A(ts)
p (t) = e b(s)ds
dt dt t0

d At t As
= (e e b(s)ds
dt t0
t
= Ae At
eAs b(s)ds + eAt eAt b(t)
t0
= Ap (t) + b(t).
Luego p es, efectivamente, una solucion particular de la ecuacion no
homogenea, y la demostracion esta concluda.

2.1. Variacion de parametros. Es importante notar que p , en


el teorema anterior, puede ser obtenida a partir de la solucion general
(exp(At))C de la ecuacion homogenea, usando el metodo de variacion
de parametros. En efecto, si se busca p (t) = (exp(At))U (t) tal que
p (t0 ) = 0, su reemplazo en (2.1) nos da un problema con valores
iniciales de primer orden para U
(2.4) eAt U (t) = b(t)
(2.5) U (t0 ) = 0,
cuya solucion es de la forma
t
U (t) = eAs b(s)ds.
t0

Una forma equivalente de escribir lo anterior, y que se revelara particu-


larmente util en la seccion siguiente cuando tratemos las ecuaciones con
62 4. ECUACIONES DIFERENCIALES LINEALES

coeficientes variables, es la siguiente. Supongamos que hemos encon-


trado una base de soluciones 1 (t), . . . , d (t) de la ecuacion homogenea.
Cada una de estas soluciones tiene la forma i (t) = (exp(At))Ci , donde
cada Ci es un vector constante que forma parte de una base de Cd .
Llamemos (t) la matriz que se forma tomando como columnas los
vectores 1 (t), . . . , d (t). Observese que, entonces

(t) = eAt [C1 , . . . , Cd ],

donde [C1 , . . . , Cd ] denota la matriz que tiene por columnas a los vec-
tores Ci . Si hemos escogido los Ci iguales a los de la base canonica de
Cd se tendra [C1 , . . . , Cd ] = I y (t) = exp(At). Buscamos entonces
una solucion p (t) de la ecuacion no homogenea que se escriba de la
forma

p (t) = (t)U (t),

donde U (t) es una funcion vectorial desconocida que se quiere deter-


minar por reemplazo en (2.1). Repitiendo el procedimiento de aqu
arriba, llegamos a

t
(2.6) U (t) = 1 (s)b(s)ds
t0

t
(2.7) p (t) = (t) 1 (s)b(s)ds,
t0

es una solucion particular de (2.1) que se anula en t = t0 .


La matriz (t) que contiene en sus columnas a una base de solu-
ciones de la ecuacion homogenea recibe el nombre de solucion funda-
mental del sistema.
Este metodo puede ser usado directamente si no se recuerda la
forma de p probada en el teorema; en particular en el caso de las
ecuaciones lineales de orden n. As, si se debe resolver una ecuacion
del tipo

(2.8) L(D)x = x(n) + a1 x(n1) + . . . + an x = f (t),


2. SISTEMAS NO HOMOGENEOS CON COEFICIENTES CONSTANTES 63

que equivale a trabajar con el sistema


(2.9) X = AX + b(t), con

x
x
(2.10) X = ..

.
x(n1)

0 1 0 ... 0
0 0 1 ... 0

(2.11) A =
... ... ... ... ...

0 0 0 ... 1
an an1 an2 . . . a1

0
0
(2.12) b(t) =
.. ,
.
f (t)
comenzamos por encontrar una base de soluciones 1 , . . . , n de la
ecuacion homogenea L(D)x = 0. Siguiendo el procedimiento que se
usa en la reduccion de la ecuacion a un sistema, llamemos

i (t)
i (t)
i (t) =
.. , i = 1, . . . , n.

.
n1 (t)
Estas funciones son linealmente independientes y la matriz (t) que se
forma con tales columnas,

1 (t) 2 (t) . . . n (t)
1 (t) 2 (t) . . . n (t)
(t) = ...
,

(n1) (n1) (n1)
1 2 . . . n
es invertible y corresponde a la matriz fundamental de soluciones del
sistema asociado.
Entonces,

g (t)
g (t)

(2.13) g (t) = .. = (t)C,
.
(n1)
g (t)
64 4. ECUACIONES DIFERENCIALES LINEALES

donde C es un vector de constantes, es la solucion general del sistema


asociado a la ecuacion de orden n y su primera componente contiene
la solucion general de (2.8).
Una solucion particular p (t) de (2.8) se encuentra, entonces, como
primera componente del vector
t
(2.14) p (t) = (t) 1 (s)b(s)ds.
t0

El calculo anterior se simplifica enormemente en este caso pues b(s)


tiene todas sus coordenadas nulas salvo la ultima que es f (s). Veamos
esto a traves de un ejemplo simple.
Ejemplo 2.1. Resolver la ecuacion
(2.15) x + x = cos 3t.
El polinomio caracterstico tiene dos races distintas i y i, de modo
que la solucion general de la ecuacion homogenea es
g (t) = c1 eit + c2 eit .
Aplicamos el metodo de variacion de parametros para encontrar p .
La matriz fundamental es
( it it )
e e
(t) = ,
ieit (i)eit
cuya inversa es
( )
1 1 eit (i)eit
(t) = .
2 eit ieit
Ademas en este caso ( )
0
b(t) = ,
cos 3t
de modo que el producto 1 (s)b(s) se reduce a la funcion vectorial
( ) ( )
1 (i)eis cos 3s i e2is + e4is
= ,
2 ieis cos 3s 4 e4is + e2is
que integrado entre 0 y t nos da
( )
1 2e2it e4it 1
.
4 e4it 2e2it + 1
Para completar nuestro calculo de la solucion particular p (t), basta
ahora multiplicar por (t) el vector anterior, mejor aun, puesto que p
es la primera componente de tal producto, hacemos solo el producto
2. SISTEMAS NO HOMOGENEOS CON COEFICIENTES CONSTANTES 65

matricial de la primera fila de por el vector aqu arriba, lo que nos


da finalmente,
i
(2.16) p (t) = [3 sen 3t sen t].
2
La solucion general de la ecuacion planteada es entonces,
i
(2.17) (t) = c1 eit + c2 eit + [3 sen 3t sen t].
2
2.2. Funcion de Green. Otra forma de escribir (2.3) es mediante
la funcion de Green G(t, s) definida por
(2.18) G(t, s) = eA(ts) , (t, s) R2 .
Entonces, la solucion de la ecuacion no homogenea se escribe
t
At
(2.19) (t) = e C + G(t, s)b(s)ds.
t0

2.3. Aniquiladores. Cuando la funcion b es solucion de una ecuacion


diferencial homogenea con coeficientes constantes, los calculos ante-
riores, conducentes a una solucion particular p de (2.1), pueden ser
simplificados, segun veremos a continuacion.
Sea B otra matriz de d d, tal que
(2.20) b (t) = Bb(t).
Consideremos (2.1) junto con (2.20): tenemos un nuevo sistema de
2d ecuaciones diferenciales. Introducimos el vector de 2d componentes,
( )
X
Y =
b
y la matriz de 2d 2d que consta de 4 bloques de d d:
( )
A I
Q= .
0 B
Con las notaciones anteriores, las dos ecuaciones (2.1) y (2.20) se
sintetizan en:
(2.21) Y = QY.
Hemos cambiado as el problema de resolver una ecuacion no ho-
mogenea por el de una ecuacion homogenea con mayor numero de
incognitas. La ecuacion (2.21) puede ser resuelta usando las tecnicas de
la seccion precedente, pero hay que tener en cuenta que al encontrar su
solucion general, hay d componentes de ella, las que corresponden a b en
el vector Y , que son en realidad conocidas y eso hace que las d primeras
componentes (las que contienen X) solo dependeran de d constantes
66 4. ECUACIONES DIFERENCIALES LINEALES

de integracion, como se vera en el ejemplo mas abajo. Observese que


si L() es el polinomio caracterstico de A y M () es el de B, entonces
L()M ()
es el polinomio caracterstico de Q.
Este truco de calculo se conoce como el metodo de aniquilacion (se
aniquila el termino no homogeneo). Aplicado en el caso particular de
ecuaciones lineales de orden n, se puede interpretar as. El problema
inicial consiste en resolver L(D)x = f (t). Se observa enseguida que f (t)
resuelve una ecuacion homogenea de la forma M (D)f = 0. Entonces,
se aplica M (D) a la ecuacion original aniquilando el segundo miembro:
M (D)L(D)x = M (D)f = 0.
El nuevo operador diferencial Q(D) = M (D)L(D) tiene polinomio car-
acterstico
Q() = M ()L().
Se procede luego a resolver la ecuacion homogenea asociada a Q(D).
Ejemplo 2.2. Resolver el sistema
{
x = y sen t
(2.22)
y = x + cos t.
En este caso la matriz A es
( )
0 1
A= .
1 0
La funcion vectorial b(t) es
( )
sen t
b(t) = ,
cos t
que es solucion de la ecuacion b = Bb donde
( )
0 1
B= .
1 0
Tenemos entonces una nueva matriz Q de 4 4, con bloques
( )
A I
,
0 B
cuyo polinomio caracterstico es (2 1)(2 + 1). De modo que Q
posee cuatro distintos valores propios 1 = 1, 2 = 1, 3 = i, 4 =
i, y es posible encontrar una base de vectores propios respectivos
v1 , . . . , v4 . Es importante hacer notar la estructura de los vectores
2. SISTEMAS NO HOMOGENEOS CON COEFICIENTES CONSTANTES 67

propios correspondientes. Designemos los vectores v C2d por dos


componentes vectoriales:
( )
u
v= , u, w Cd .
w

Si es un valor propio de Q que es al mismo tiempo valor propio de A


y u Cd es un vector propio de A correspondiente a ese valor propio,
entonces
( ) ( )
u (A I)u + w
(Q I) = .
w (B I)w
De modo que el vector v de componentes u y w es un vector propio de
Q si y solo si w = 0, puesto que en este caso A y B no tienen valores
propios comunes.
Por otra parte, si es un valor propio de B y w un vector propio
de la misma matriz, entonces el vector v anterior es vector propio de
Q, si y solo si (A I)u + w = 0. Como en este caso no es valor
propio de A, entonces u se calcula como

u = (A I)1 w.

Teniendo en cuenta lo anterior, procedemos a buscar vectores pro-


pios de Q linealmente independientes. Un calculo rapido nos da los del
primer tipo (con componente w = 0):

1 1
1 1
v1 =
0 , v2 = 0 .

0 0

Para calcular los dos ultimos, determinamos primero vectores pro-


pios w de B, linealmente independientes:
( ) ( )
1 i
w3 = , w4 = .
i 1

Ahora, calculamos las componentes u3 , u4 correspondientes:


( )( ) ( )
1 1 i 1 1 0
u3 = (A iI) w3 = = ;
2 1 i i 1
( )( ) ( )
1 1 i 1 i 0
u4 = (A + iI) w4 = = .
2 1 i 1 i
68 4. ECUACIONES DIFERENCIALES LINEALES

Luego, juntando las componentes u y w respectivas:



0 0
1
v3 = ; v4 = i .
1 i
i 1

La solucion general de la ecuacion en Y es

(2.23) Y = 1 et v1 + 2 et v2 + 3 eit v3 + 4 eit v4 ,

donde los coeficientes i son constantes arbitrarias. La expresion an-


terior contiene mas informacion de la que necesitamos para resolver la
ecuacion original en X. En efecto, basta que del vector Y tomemos
sus d primeras componentes (que corresponden a X); las dos ultimas
componentes deben coincidir con b(t). De modo que
( ) ( ) ( )
sen t it 1 it i
(2.24) b(t) = = 3 e + 4 e ,
cos t i 1

de donde se obtiene 3 = 1/2i y 4 = 1/2.


Finalmente, la solucion general del sistema original es
(2.25) ( ) ( ) ( ) ( )
1 t 1 1 it 0 1 it 0
(t) = 1 et
+ 2 e + e e .
1 1 2i 1 2 i

2.4. Coeficientes indeterminados. Veamos ahora algunos casos


en que p puede ser obtenida reemplazando una funcion de una clase
determinada en la ecuacion original. Es otra variante del metodo de
aniquilacion. Sabemos que una forma de solucion particular queda
dada por
t
p (t) = eAt
eAs b(s)ds.
t0

Supongamos que b(s) se escriba

(2.26) b(s) = eBs v,

donde B es una matriz de d d y v un vector constante. Esto equivale


a que b resuelva una ecuacion lineal homogenea asociada a la matriz
B. Estudiemos algunos de los casos en que (2.26) se simplifica. Uno
de los mas simples es cuando v es un vector propio correspondiente a
un valor propio de B. Supongamos que no es valor propio de
3. SISTEMAS HOMOGENEOS CON COEFICIENTES VARIABLES 69

A. Entonces, si escogemos t0 = 0,
t
p (t) = e At
eAs es vds v es vector propio de B,
0
t
= eAt e(IA)s vds
0
= eAt (I A)1 [e(IA)t I]v
= (I A)1 [et eAt ]v,
pues A y (I A) conmutan.
El calculo anterior nos muestra que p tendra una forma exponen-
cial, determinada por las exponenciales de matrices. En general, si b(t)
es (exp(Bt))v, sus componentes seran de la forma p(t) exp(t) donde
p(t) es un polinomio y es raz del polinomio caracterstico de B.
Asimismo, p (t) tendra una forma similar en dicho caso y en vez de
perdernos en largos calculos, podemos ensayar una solucion p de la
ecuacion no homogenea reemplazando en ella una funcion con com-
ponentes de la forma q(t) exp(t), donde q(t) es un polinomio, cuyos
coeficientes se determinaran por simple identificacion. Ilustremos este
metodo con el siguiente ejemplo.
Ejemplo 2.3. Resolver la ecuacion
(2.27) x 3x + 2x = t2 e5t .
En este caso el polinomio caracterstico 2 3 + 2 tiene races 1 y
2. La solucion general de la ecuacion homogenea es
g (t) = c1 et + c2 e2t .
Ensayemos ahora p (t) = (a + bt + ct2 )e5t . Reemplazando en (2.27),
se observa que es posible simplificar por exp(5t) y se debe tener una
igualdad entre dos polinomios, para que p sea solucion:
12(a + bt + ct2 ) + 7(b + 2ct) + 2c = t2 ,
de modo que los coeficientes deben satisfacer a = 1/72, b = 1/72,
c = 1/12.
Luego, la solucion general de la ecuacion (2.27) es
1 1 1
(2.28) (t) = c1 et + c2 e2t + [ t + t2 ]e5t .
72 72 12
3. Sistemas homogeneos con coeficientes variables
En esta seccion estudiaremos la ecuacion homogenea con coefi-
cientes variables:
(3.1) X = A(t)X,
70 4. ECUACIONES DIFERENCIALES LINEALES

donde X es el vector de incognitas



x1 (t)
x2 (t)
X(t) =
...

xn (t)
y A(t) es la matriz de coeficientes del sistema:

a11 (t) a12 (t) a1n (t)
A(t) = ..
.
..
.
..
. .
an1 (t) an2 (t) ann (t)
Supondremos en todo lo que sigue que las funciones aij (t) son con-
tinuas, de modo que por la teora que desarrollaremos en el Captulo
7, dado cualquier x0 Cn , el problema con valores iniciales
{
X = A(t)X
(3.2)
X(t0 ) = x0 ,
tiene una unica solucion.
Al igual que en el caso de coeficientes constantes, el conjunto de
todas las soluciones de la ecuacion (3.1) es un espacio vectorial. Mas
aun:
Teorema 3.1. El conjunto de todas las soluciones de la ecuacion
(3.1) es un espacio vectorial de dimension n.
Prueba. Para j = 1, 2, . . . , n sea j (t) la solucion del problema con
valores iniciales
{
X = A(t)X,
(3.3)
X(t0 ) = ej ,
donde
1 0 0
0 1 0
e1 = .
..
, e2 = . , . . . , en = .
.. ..
.

0 0 1
Si 1 , 2 , . . . , n son escalares que verifican
1 1 + 2 2 + + n n = 0,
entonces, evaluando en t0 y usando que {e1 , e2 , . . . , en } es un conjunto
linealmente independiente, obtenemos que 1 = 2 = = n = 0.
Es decir, {1 , 2 , . . . , n } es un conjunto linealmente independiente.
3. SISTEMAS HOMOGENEOS CON COEFICIENTES VARIABLES 71

Por otra parte, sea (t) cualquier solucion de la ecuacion (3.1) y


sean 1 , 2 , . . . , n escalares tales que
(t0 ) = 1 e1 + 2 e2 + + n en .
Entonces, (t) y 1 1 (t) + 2 2 (t) + + n n (t) son soluciones del
mismo problema con valores iniciales,
{
X = A(t)X,
X(t0 ) = (t0 ).
Por unicidad conclumos que ambas soluciones son identicas. En
otras palabras, toda solucion de (3.1) es generada por {1 (t), 2 (t), . . . , n (t)}.
As, el conjunto {1 (t), 2 (t), . . . , n (t)} es una base para el espacio
vectorial de todas las soluciones y, por lo tanto, la dimension de este
es exactamente n.

Llamamos espacio solucion de la ecuacion (3.1) al conjunto de to-


das sus soluciones. Para caracterizar dicho espacio, basta encontrar un
conjunto linealmente independiente {1 (t), 2 (t), . . . , n (t)} que con-
siste de exactamente n soluciones. La solucion general de (3.1) se
expresa entonces como:
(t) = c1 1 (t) + c2 2 (t) + + cn n (t),
donde c1 , c2 , . . . , cn son constantes arbitrarias.
Recordemos que en el caso de coeficientes constantes
(3.4) X = AX,
la solucion general esta dada por (t) = eAt C, donde C es un vector
de constantes. Notemos que eAt C es una combinacion lineal, con co-
eficientes arbitrarios, de las columnas de eAt . Esto expresa el hecho
que las columnas de eAt generan al espacio solucion y por lo tanto
constituyen una base.
Asociado a la ecuacion (3.1), consideremos el sistema matricial
(3.5) = A(t),
donde (t) es una matriz n n.
Es facil ver que (t) es una solucion de esta ecuacion si y solo si
sus columnas son soluciones de la ecuacion (3.1).
Definicion 3.1. Sea (t) una matriz solucion del sistema (3.5).
Decimos que (t) es una matriz fundamental para la ecuacion (3.1)
si (t) es invertible para todo t.
En otras palabras, una matriz fundamental es una matriz cuyas
columnas forman una base para el espacio solucion.
72 4. ECUACIONES DIFERENCIALES LINEALES

En el resultado que sigue, tr A denota la traza de una matriz A,


es decir, la suma de los elementos de su diagonal principal.

Teorema 3.2 (Formula de Liouville). Sea (t) una matriz cuyas


columnas son n soluciones de la ecuacion (3.1). Entonces,
t
tr A(s)ds
(3.6) det (t) = det (t0 )e t0
.

Prueba. Demostracion Sean 1 (t), 2 (t), . . . , n (t) las columnas de la


matriz (t). Escribamos, para cada j = 1, 2, . . . , n,

ij (t)
2j (t)
j (t) =
.. ,

.
nj (t)

de modo que el que j sea solucion de la ecuacion (3.1) se traduce en


que:


n
(3.7) ij = aik kj ,
k=1

para cada i = 1, 2, . . . , n.
Usamos ahora una conocida formula que permite calcular la derivada
de un determinante y que puede ser demostrada facilmente usando in-
duccion.
Esta es,

(3.8)

11 12 1n 11 12 1n
d 21 22 2n 21 22 2n
(det (t)) = det
...
+ det
.. +

dt .
n1 n2 nn n1 n2 nn
(3.9)

11 12 1n
21 22 2n
+ det
...


n1 n2 nn

Consideremos, por ejemplo, el primer sumando en el lado derecho de


la identidad (3.8). Reemplazando las de derivadas de 11 , 12 , . . . , 1n
3. SISTEMAS HOMOGENEOS CON COEFICIENTES VARIABLES 73

por sus expresiones dadas en (3.7), observemos que


n
n n

a1k k1 a1k k2 a1k kn



d k=1 k=1 k=1
(det (t)) = det 21 22 2n .
dt . . ..
.. .. .
n1 n2 nn
Si a la primera fila le restamos ahora a12 veces la segunda fila, luego
a13 veces la tercera y as, sucesivamente, el vector del determinante no
cambia y se reduce a:

a11 11 a11 12 a11 1n
21 22 2n
det
.
.. .
.. .. = a11 det (t).

.
n1 n2 nn
Procediendo de manera similar con los demas sumandos del lado
derecho de (3.8), obtenemos, finalmente, que
d
(det (t)) = a11 det (t) + a22 det (t) + + ann det (t)
dt
= (a11 + a22 + + ann ) det (t).
Es decir,
d
(det (s)) = tr A(s) det (s),
ds
e integrando en s, de t0 a t, se obtiene la formula (3.6).

El factor que contiene la funcion exponencial en el lado derecho de


la identidad (3.6) nunca se anula. De aqu sigue de manera inmediata
el resultado siguiente:
Corolario 3.1. Sea (t) una matriz cuyas columnas son n solu-
ciones del sistema (3.1). Entonces, det (t) es identicamente cero si
y solo si det (t0 ) = 0, para algun t0 . En otras palabras, n soluciones
1 (t), . . . , n (t) son linealmente independientes si y solo si los vectores
de Cn , 1 (t0 ), . . . , n (t0 ) lo son.
Corolario 3.2. Sea (t) una matriz fundamental para el sistema
(3.1). Entonces, la solucion general es (t)C, donde C es un vector de
constantes.
Definicion 3.2. El Wronskiano de n soluciones 1 (t), . . . , n (t)
de la ecuacion (3.1) es
(3.10) W (t) = W (1 (t), 2 (t), . . . , n (t)) = det (t),
74 4. ECUACIONES DIFERENCIALES LINEALES

donde (t) es la matriz cuyas columnas son las soluciones dadas.


Ejemplo 3.1. Consideremos un sistema homogeneo con coeficientes
constantes
X = AX,
donde A = (aij ) es una matriz (n n) de constantes. Demostrar que
det eAt = e(trA)t .
Es facil ver que la exponencial eAt es una matriz fundamental de la
ecuacion. La formula de Liouville se traduce en este caso en
det eAt = e(trA)t .
Ejemplo 3.2. Considere el sistema X = A(t)X y sea (t) una ma-
triz fundamental. Demuestre que los coeficientes del sistema satisfacen
A(t) = (t)1 (t).
En efecto, como es una matriz de soluciones, tenemos que:
(t) = A(t)(t),
a partir de lo cual, usando el hecho que (t) es invertible, resulta lo
pedido.
( ) ( )
t t log t
Ejemplo 3.3. Verifique que 1 (t) = y 2 (t) =
t2 t2 log t + t2
son dos soluciones linealmente independientes del sistema


x1 = 2 x1 1 x2
t t2
1
x2 = x1 + x2 ,
t
en el intervalo (0, ).
Es facil comprobar que 1 (t) y 2 (t) son efectivamente soluciones.
Ademas, su Wronskiano es

t t log t
W (t) = 2 = t3 ,

t t2 log t + t
el cual no se anula en (0, ). De aqu conclumos que estas soluciones
son linealmente independientes.
Finalizamos esta seccion aplicando los resultados anteriores a la
ecuacion lineal homogenea de orden n, ya que esta ultima siempre
puede ser escrita como un sistema de n ecuaciones de primer orden.
Consideremos, entonces,la ecuacion,
(3.11) x(n) + a1 (t)x(n1) + a2 (t)x(n2) + + an (t)x = 0,
donde los coeficientes ai (t) son funciones continuas.
3. SISTEMAS HOMOGENEOS CON COEFICIENTES VARIABLES 75

Recordemos que el cambio de variables



x(t)
x (t)
(3.12) X(t) =
.. ,

.
x(n1) (t)
transforma la ecuacion (3.11) en el sistema de primer orden
(3.13) X = A(t)X,
donde la matriz de coeficientes es

0 1 0 0
0 0 1 0
.

A(t) = .. .

0 0 0 1
an an1 an2 a1
Sean ahora x1 (t), x2 (t), . . . , xn (t) n soluciones de la ecuacion (3.11) y
sean

x1 x2 xn
x11 x12 x1n

1 = .. , 2 = .. , . . . , n = .. .
. . .
(n1) (n1) (n1)
x1 x2 xn
Lema 3.1. El conjunto {x1 (t), . . . , xn (t)} es linealmente independi-
ente si y solo si {1 (t), . . . , n (t)} es linealmente independiente.
Prueba. Demostracion Supongamos que {1 (t), . . . , n (t)} es un con-
junto linealmente independiente y sean 1 , 2 , . . . , n escalares tales
que:
(3.14) 1 x1 (t) + 2 x2 (t) + + n xn (t) = 0.
Derivando la ecuacion (3.14) n 1 veces, obtenemos,
(3.15) 1 x1 (t) + 2 x2 (t) + + n xn (t) = 0,
..
.
(n1) (n1)
(3.16) 1 x1 (t) + 2 x2 (t) + + n xn (t) = 0.
(n1)

Todas estas ecuaciones simplemente se traducen en:


1 1 (t) + 2 2 (t) + + n n (t) = 0.
Por hipotesis, concluimos que 1 = 2 = = n = 0, lo que demues-
tra que {x1 (t), . . . , xn (t)} es linealmente independiente.
76 4. ECUACIONES DIFERENCIALES LINEALES

La demostracion de la afirmacion recproca es inmediata y queda


propuesta al lector.

Notemos que la matriz (t) cuyas columnas son 1 (t), 2 (t), . . . , n (t)
es una matriz de soluciones del sistema (3.13).
Definicion 3.3. El Wronskiano de n soluciones x1 (t), x2 (t), . . . , xn (t)
de la ecuacion lineal homogenea (3.11) es:
W (t) = W (x1 (t), x2 (t), . . . , xn (t))
= det (t)

x1 (t) x2 (t) xn (t)
x1 (t) x
(t) xn (t)
2
= det .. .. .. .
. . .
(n1) (n1) (n1)
x1 (t) x2 (t) xn (t)
Gracias al lema anterior, los resultados de esta seccion pueden ser
aplicados al caso que estudiamos, resultando el Teorema que sigue,
cuya demostracion es inmediata.
Teorema 3.3. Sean x1 (t), x2 (t), . . . , xn (t) n solucion de la ecuacion
lineal homogenea (3.11). Entonces, su Wronskiano satisface
t
a1 (s)ds
W (t) = W (t0 )e t0
.
Ademas, estas soluciones son linealmente independientes si y solo si
W (t) = 0, para todo t y esto ultimo equivale a que W (t0 ) = 0, para
algun t0 .

4. Sistemas no homogeneos con coeficientes variables


La teora que hemos presentado en la Seccion anterior puede ser
aplicada al estudio de la ecuacion lineal no homogenea:
(4.1) X = A(t)X + b(t),

b1 (t)
b2 (t)
donde b(t) =
... es un vector cuyas coordenadas son funciones
bn (t)
continuas de t.
Nuestro proposito es encontrar una solucion particular del sistema
(4.1) y para esto consideraremos el sistema homogeneo asociado:
(4.2) X = A(t)X.
4. SISTEMAS NO HOMOGENEOS CON COEFICIENTES VARIABLES 77

Suponemos que 1 (t), 2 (t), . . . , n (t) son n soluciones linealmente


independientes de (4.2). Los resultados de la seccion anterior permiten
decidir facilmente cuando n soluciones dadas son linealmente indepen-
dientes. Sin embargo, no existe un metodo general para encontrar
soluciones de sistemas homogeneos con coeficientes variables. Solo es
posible, como mostraremos en los ejemplos de esta seccion, construir
soluciones una vez que algunas de ellas son conocidas de antemano.
Lema 4.1. Sea (t) la matriz cuyas columnas son 1 (t), 2 (t), . . . , n (t).
Entonces,
d 1
( (t)) = 1 (t)A(t).
dt
Prueba. Si derivamos con respecto a t ambos miembros de la identidad
(t)1 (t) = I, obtenemos:
d d
(4.3) ((t))1 (t) + (t) (1 (t)) = 0.
dt dt
d
Pero, como (t) es una matriz de soluciones, se tiene que ((t)) =
dt
A(t)(t). As, reemplazando en (4.3) sigue que
d 1
(t) ( (t)) = A(t),
dt
lo que concluye la demostracion.

Teorema 4.1. El vector


t
(4.4) p (t) = (t)1 (s)b(s)ds
t0

es una solucion particular de la ecuacion no homogenea (4.1). La


solucion general es g (t) + p (t), donde h (t) es la solucion general
de la ecuacion homogenea (4.2), es decir,
g (t) = (t)C,
donde C es un vector de constantes.
Prueba. Notemos primero que la matriz 1 (t) es, en algun sentido,
un factor integrante de la ecuacion no homogenea (4.1). En efecto, por
el lema anterior tenemos que:
d 1
( X) = AX + 1 X
dt
= 1 (X AX).
78 4. ECUACIONES DIFERENCIALES LINEALES

As, componiendo con 1 por el lado izquierdo, la ecuacion (4.1) equi-


vale a
d 1
( X) = 1 b.
dt
Esta ultima ecuacion puede integrarse desde t0 a t, obteniendo,
t
1 1
(t)X(t) (t0 )X(t0 ) = 1 (s)b(s)ds,
t0

de donde,
t
1
(4.5) X(t) = (t) (t0 )X(t0 ) + (t)1 (s)b(s)ds.
t0

Esto concluye la demostracion, pues C = 1 (t0 )X(t0 ) es un vector de


constantes.

Una vez mas hacemos notar que el calculo de la matriz (t)1 (s)
permite encontrar facilmente una solucion particular p (t) de la ecuacion
no homogenea. Esta solucion satisface ademas la condicion inicial
p (t0 ) = 0.
Definicion 4.1. La funcion de Green para el problema X = A(t)X
es la matriz G(t, s) = (t)1 (s), donde (t) es una matriz fundamen-
tal.
Es posible demostrar que la funcion de Green no depende de la
eleccion particular de la matriz fundamental y satisface
{
d
(4.6) G(t, s) = A(t)G(t, s)
dt
G(s, s) = I.
Observemos tambien, que la solucion general de la ecuacion no
homogenea, dada por la identidad (4.5) es de hecho una version del
metodo de variacion de parametros, puesto que dicha solucion puede
ser escrita como:
t
1
(t) = (t)( (t0 )X(t0 ) + (s)b(s)ds)
t0
= (t)C(t),
donde t
1
C(t) = (t0 )X(t0 ) + 1 (s)b(s)ds
t0
es un vector variable. Ciertamente, cuando C es un vector de constan-
tes, (t) = (t)C es la solucion general de la ecuacion homogenea.
4. SISTEMAS NO HOMOGENEOS CON COEFICIENTES VARIABLES 79

Para finalizar con este captulo estudiaremos la ecuacion lineal no


homogenea con coeficientes variables,
(4.7) L(D)x = x(n) + a1 (t)x(n1) + a2 (t)x(n2) + + an (t)x = f (t),
donde L(D) = Dn + a1 (t)Dn1 + + an1 D + an I.
Consideremos la ecuacion homogenea asociada
(4.8) L(D)x = 0.
Sean x1 (t), . . . , xn (t) n soluciones linealmente independientes de
(4.8) y consideremos la matriz fundamental

x1 x2 xn
x11 x 2
x1n
2
(t) = .. .. .. .
. . .
(n1) (n1) (n1)
x1 x2 xn
Como ya hemos indicado, la ecuacion (4.7) puede ser escrita como
un sistema de primer orden
(4.9) X = A(t)X + b(t),
donde
0
...
b(t) =
0 .

f (t)
Ademas, por el Teorema 4.1, una solucion particular del sistema
(4.9) esta dada por
t
(4.10) p (t) = G(t, s)b(s)ds,
t0

donde G es la funcion de Green G(t, s) = (t)1 (s).


As, para encontrar una solucion particular de la ecuacion no ho-
mogenea (4.7), basta encontrar la primera componente del vector p (t).
Sea

v1
v2
(4.11) V =
... = b.
1

vn
Entonces, la primera componente de G(t, s)b(s) es:
(4.12) x1 (t)v1 (s) + x2 (t)v2 (s) + + vn (t)vn (s).
80 4. ECUACIONES DIFERENCIALES LINEALES

Ademas, v1 (s), v2 (s), . . . , vn (s) se calculan a partir del sistema lineal


siguiente, el cual equivale a (4.11),
x1 v1 + x2 v2 + + xn vn = 0,
..
.
(n1) (n1)
x1 v1 + x2 v2 + + x(n1)
n vn = f (t).
Ejemplo 4.1. Encontrar una expresion explcita para la funcion
de Green para la ecuacion de segundo orden
x + p(t)x (t) + q(t)x = f (t).
Sean x1 (t), x2 (t) dos soluciones linealmente independientes de la
ecuacion homogenea asociada:
x + p(t)x + q(t)x = 0.
Sean v1 (s), v2 (s) las soluciones del sistema
x1 v1 + x2 v2 = 0,
x1 v1 + x2 v2 = f.
Es decir,

0 x2 (s) x1 (s) 0

f (s) x2 (s) x1 (s) f (s)
v1 (s) = , v2 (s) =
x1 (s) x2 (s) x1 (s) x2 (s)

x1 (s) x2 (s) x1 (s) x2 (x)

Entonces, la identidad (4.10) entrega una solucion particular de la


ecuacion no homogenea de la forma
t
xp (t) = (x1 (t)v1 (s) + x2 (t)v2 (s))ds
t0
y( )
(x2 (s)f (s)) x1 (s)f (s)
= x1 (t) + x2 (t) ds
t0 W (s) W (s)
t
x1 (s)x2 (t) x1 (t)x2 (s)
= f (s)ds.
t0 W (s)
As, la funcion de Green es
x1 (s)x2 (t) x1 (t)x2 (s)
G(t, s) = .
x1 (s)x2 (s) x1 (s)x2 (s)
Ejemplo 4.2. Sea x1 (t) una solucion no trivial de la ecuacion ho-
mogenea x + p(t)x + q(t)x = 0. Encontrar una segunda solucion x2 (t)
que sea linealmente independiente de x1 (t).
5. EJERCICIOS PROPUESTOS 81

Sabemos que si x1 , x2 son dos soluciones linealmente independi-


entes, entonces,
t p(s)ds
W (t) = W (t0 )e t0 ,
( )
x1 (t) x2 (t)
donde W (t) es el Wronskiano W (t) = det .
x1 (t) x2 (t)
As, x2 (t) debe satisfacer,
t

x1 (t)x2 (t) x1 (t)x2 (t) = (x1 (t0 )x2 (t0 ) x1 (t0 )x2 (t0 ))e
p(s)ds
t0
.
Escogiendo x2 (t0 ), x2 (t0 ) de modo que C = x1 (t0 )x2 (t0 )x1 (t0 )x2 (t0 ) =
0, obtenemos la ecuacion lineal de primer orden para x2 (t),
x1 x2 x1 x2 = f (t),
t
p(s)ds
donde f (t) = C e t0 . Esta ultima ecuacion se resuelve usando
los metodos del Captulo 2.

5. Ejercicios propuestos
(1) Encuentre la solucion general de la ecuacion X = AX, donde
la matriz (
de coeficientes
) A esta dada por:
3 2
(a) A = .
1 1

1 5 0
(b) A = 1 3 0 .
0 0 1

1 1 1
(c) A = 2 1 1 .
3 2 4

1 1 2
(d) A = 1 1 1 .
2 1 3

3 2 1
(e) A = 3 2 1 .
3 2 1
(2) En los casos 1b, 1c, 1d , 1e, resuelva el problema de valores
iniciales


X = AX

1
(5.1)

X(0) = 1 .


1
(3) Para cada matriz del ejercicio 1 encuentre exp(At).
82 4. ECUACIONES DIFERENCIALES LINEALES

(4) Resolver los sistemas


[ homogeneos
] x = Ax, con: [ ]
7 15 15 64
a) A = b) A =
8 15 1 1

[ ] 3 0 0
1 1
c) A = d) A = 1 1 0
90 5
1 1 1

0 1 0 0 1 0
e) A = 0 1 1 f) A = 125 50 64
336 56 6 125 50 65

1 1 1 45 37 125
g) A = 12 3 6 h) A = 45 36 125
12 2 6 1 1 1

17 4 17 21
34 8 34 43
i) A = 16 4 17 21

17 4 18 22
(5) (a) Resolver el siguiente sistema de ecuaciones diferenciales

dx
dt = 3x + y
(5.2) dy
= 4x y
dt
dz = 8x 8y + 2z.
dt

(b) Determine la solucion de (5.2) que satisface


x(0) = 1, y(0) = 2, z(0) = 0.
(6) Encuentre la solucion general de la ecuacion no homogenea
X = AX + b(t),
siendo, ( ) ( )
3 2 t
(a) A = , b(t) = .
1 1 t

1 1 1 1
(b) A = 2 1 1 , b(t) = 0 .
3 2 4 t

1 5 0 0
(c) A = 1 3 0 , b(t) = 0 .
0 0 1 1
5. EJERCICIOS PROPUESTOS 83

(7) Sea A(t) una matriz de 10 10 cuya diagonal es


1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
y sea (t) una matriz cuyas columnas son 10 soluciones de
X = A(t)X. Demostrar que
(5.3) det (t) = det (0).
(8) Sea (U (t); t R) una familia de matrices de dd que satisface
(i) U (0) = I;
(ii) U (t + s) = U (t)U (s), para todos s, t R;
(iii) U (t) es diferenciable con respecto a t.
Sea A = dUdt
(0). Demostrar que
(5.4) U (t) = eAt .
(9) Resolver
(a) x(4) x = 0, sujeta a las condiciones:
x(0) = 1, x (0) = 2, x (0) = 1, x (0) = 0.
(b) x 4x = et + 1.
(c) x + 2x + x = 1.

(d) x + 4x 3x = t t.
(10) Verificar que cos(t2 ) es una solucion particular de la ecuacion
1
(5.5) x x + 4t2 x = 0, t > 0.
t
Use lo anterior para encontrar la solucion general de (5.5).
(11) Resolver la ecuacion
( )
1 1 1 2
(5.6) x + + x = 0, t > 0,
t 4t 4t t t2

sabiendo que 1 (t) = t2 exp( t) es una solucion particular de
ella.
(12) Resolver el problema con valores iniciales
( )
2 1 1 1
(5.7) x + x + 4 x = 4 cos
t t t t
2
(5.8) x( ) =

2
(5.9) x ( ) = 0.

Comience por resolver el caso homogeneo usando el cambio
de variables s = 1/t.
84 4. ECUACIONES DIFERENCIALES LINEALES

(13) (a) Cuando un sistema es de 2 2 o de 3 3, hallar una


ecuacion linealmente dependiente en el sistema (AI)v =
0 es, relativamente, sencillo. Como lo hara en un caso
de orden mayor?
(b) Resuelva, usando las ideas obtenidas en a), el sistema
x = Ax, con:

15070 13709 6833 11779 15192 15082
7537 6855 3417 5892 7596 7543

7532 6855 3417 5889 7595 7541
b.1) A =
22608 20564 10249 17670 22789 22624
15073 13710 6834 11782 15193 15085
7539 6854 3416 5891 7597 7542

En que los valores propios son 1, 2, 3, 4, 5, 6.



261 109 76 179 273 275
128 53 37 87 134 135

390 163 113 266 408 411
b.2) A =
261 108 75 178 273 275
261 108 75 178 272 274
129 52 36 87 134 135
con p() = ( + 1)6
(14) Dada la ecuacion diferencial
x + 2zwn x + wn2 x = AH(t) (t > 0)
{
1 t>0
con H(t) = , x (0) = 0
0 t<0
z, wn y A constantes, y 0 z < 1.
(a) Encuentre la expresion general para x(t) en funcion de los
parametros indicados anteriormente, para t > 0.
(b) Sean: t1 el primer punto crtico, t2 el segundo, etc.
n
Demuestre que tn =
wn 1 z 2
(c) Encuentre el valor de z que minimiza el valor maximo de
x(t). Recuerde que 0 z < 1.
(15) Dada la ecuacion diferencial:
x + 5x + 6x = 3H(t)
(a) Obtenga x(t) para t > 0
(b) Determine L = lim x(t).
t
(c) Calcule el punto de inflexion.
5. EJERCICIOS PROPUESTOS 85

(d) Grafique x(t), considerando los puntos anteriores.


(16) Un tenista quiere saber con que rapidez e inclinacion debe salir
golpeada la pelota para que pase 1 cm. sobre el borde superior
de la red, y golpee en el piso justo sobre la lnea lmite.
Suponga que:
- La cancha tiene 23.77 metros de largo.
- El movimiento esta en un plano vertical paralelo a los
bordes laterales de la cancha.
- El golpe se realiza a 2 metros de altura, justo sobre el
borde anterior de la cancha.
- La red tiene una altura de 0.915 metro, y la lnea lmite
se encuentra 6,4 metros despues de la red.
- El roce con el aire es fr = kv, con k = 0.001 Nms , y v la
velocidad.
- La masa de la pelota es de 58.47 g., y se considera una
partcula.
(17) En un mercado se transan tres bonos, de precios pi (t), (i =
1, 2, 3) que tienen el mismo tiempo de madurez T . Al llegar
a madurez se paga una unidad monetaria por cada uno, vale
decir pi (T ) = 1, (i = 1, 2, 3). Se supone que el mercado no
tiene incertidumbre de modo que la dinamica de los tres bonos
se puede considerar determinada por las siguientes ecuaciones
integrales:
3 T

(5.10) pi (t) = 1 ai,j (s)pj (s)ds,
j=1 t

donde cada coeficiente ai,j (s) depende del tiempo y representa


la tasa de retorno determinada por el bono i sobre el bono j,
(i, j = 1, 2, 3).
Deducir la ecuacion diferencial que verifica el vector de
precios
p1 (t)
P (t) = p2 (t) .
p3 (t)
Estudiar el caso particular en que los coeficientes ai,j no
dependen del tiempo y tienen los valores:
a1,1 = 0.7 a1,2 = 0.3 a1,3 = 0
a2,1 = 0 a2,2 = 0.7 a2,3 = 0.3 .
a3,1 = 0 a3,2 = 0 a3,3 = 0.7
(18) (a) Demuestre que si el sistema:
86 4. ECUACIONES DIFERENCIALES LINEALES

x = Ax + bu
tiene un polinomio caracterstico
p() = n + an1 n1 + + a1 + a0 ,
entonces, la matriz cambio de base T definida por

a1 a2 a3 an1 1
a2 a3 1 0
[ ] a3


T = b .. Ab .. A2 b .. .. An1 b
. . . .
...



a 1
n1
1 0 0
transforma al sistema en uno de la forma:

0 1 0 0 ... 0 0
0 0 1 0 ... 0 0

b bbU,
x = Ax+ con b=
A
.. .. ..
, bb =

..

. . . .
0 0 0 0 ... 1 0
a0 a1 a2 a3 . . . an1 1
(Indicacion: usar un metodo inductivo).
(b) Dado el sistema:
x1 = 9x1 + 6x2 + 3x3
x2 = 17x1 11x2 5x3
x3 = x1 x3
sin resolverlo, hallar una ecuacion diferencial lineal con
coeficientes constantes que satisfaga x1 .
(19) Se tiene el sistema real lineal:
x = Ax + bu
y = cT x
Donde
8 10 4 1
A = 8 10 5 , b = 1 , c =
7 9 6 1

0
0 ,
1

x1
x = x2
x3
u es una funcion conocida, e y se calcula a partir de x.
(a) Determinar los valores propios del sistema si u 0
5. EJERCICIOS PROPUESTOS 87

k1
(b) Si se hace u = k T x, con k = k2 , determine k tal que
k3
los nuevos
valores propios
del sistema sean 2, 3, 4.
5
(c) Si x(0) = 5 , determine x(t) para los casos a) y
5
b), grafique cada componente en el tiempo y compare lo
obtenido en cada caso.
(20) En el diseno de un controlador, se quiere minimizar la ex-
presion:
J= (xT Qx + ru2 )dt.
0
Siendo Q simetrica positiva definida y r positivo.
(a) Demuestre que si P es solucion de la ecuacion

P A + AT P P b r1 bT P + Q = 0
entonces, el valor de u que minimiza la expresion J es:
u = r1 bT P x.
(b) Dado el sistema x = Ax, con
[ ] [ ]
3/2 1/2 1
A= x(0) = ,
1 0 1
determine y grafique cada componente de x(t).
(c) Dado, el sistema [ ]
1
x = Ax + bu, con A y x(0) de b) y b = , si Q =
0
[ ]
1 0
y r = 4, determine u que minimice J definido en
0 2
a), y calcule y grafique los componentes de x(t). Compare
con (b).
(21) Resolver t3 x + t2 x + tx = 1.
(22) Encontrar una funcion f (x2 + y 2 ) que satisfaga la ecuacion:
2f 2f
+ =0
x2 y 2
con las condiciones iniciales f (1) = 0, f (1) = 1.
(23) Resolver:
(a) x + 7x + 10x = 0
(b) x + 4x + 4x = 0
(c) x + x + x = 0
88 4. ECUACIONES DIFERENCIALES LINEALES

(24) Demostrar que una condicion necesaria y suficiente para que el


Wronskiano de dos soluciones linealmente independientes sea
constante es que p 0.
(25) Encontrar las funciones g(x, y) que satisfacen:
g g
y =x
x y
y que son de la forma g(x, y) = u(x) v(y).
(26) Encontrar una expresion para
T
x= tn et dt nN
0

en funcion de T y n.
(27) Dada la ecuacion diferencial parcial:
2f 2f 2 f
2
f f
xy( 2
2
) (x2
y ) +y x =0
x y xy x y
(a) Demostrar que si se hace el cambio
x = r cos
y = r sen ,
entonces,

f
x
= cos f
r
1
r
sen f

(r = 0)
f
y
= sen f
r
+ 1
r
cos f

(b) Demostrar que la ecuacion anterior, bajo el cambio dado


en (a), se reduce a:
2f
= 0.
r
r
(c) Encontrar la forma general para f .
(d) Determinar 2 funciones de (x, y) que sean soluciones par-
ticulares no triviales de la ecuacion anterior.
(28) (a) Se sabe que la ecuacion diferencial
t2 x + 4tx + (t2 + 2)x = 0
tiene una solucion de la forma x1 = tk cos t.
Halle la solucion general.
(b) Resuelva, hallando la solucion general, la siguiente ecuacion:
t2 x + 4tx + (t2 + 2)x = 1.
5. EJERCICIOS PROPUESTOS 89

(c) Encuentre la solucion de la ecuacion de (b) que satisface


las condiciones:
x() = 1
x () = 0
(29) Se tiene la ecuacion de tercer orden
x + a(t)x + b(t)x + c(t)x = 0
y dos soluciones de ella: x1 (t) y x2 (t).
Se quiere, a partir de estas dos soluciones, hallar una ter-
cera solucion.
(a) Suponiendo que la tercera solucion es de la forma x3 (t) =
c1 (t)x1 (t) + c2 (t)x2 (t), y haciendo el supuesto adicional
(ya que hay una ecuacion y dos incognitas) de que c1 x1 +
c2 x2 = 0, demostrar que:
c1 x1 + c2 x2 + c1 (2x1 + ax1 ) + c2 (2x2 + ax2 ) = 0.
(b) Demuestre que la expresion para x3 (t) esta dada por:

t
x1 (t)x2 (s) x1 (s)x2 (t)
a(s)ds
x3 (t) = e ds
t0 [x1 (s)x2 (s) x1 (s)x2 (s)]2
para algun t0 .
(c) Hallar la solucion general de la ecuacion:
(t2 t + 1)x (t + t2 )x + (t2 + t + 3)x + (4 + t t2 )x = 0
sabiendo que una solucion es de la forma tk cos(t).
(30) Dadas las ecuaciones:
i) t2 x + tx x = 0
ii) t2 x + tx + x = 0
(a) Resuelva i) sabiendo que una solucion es un polinomio en
t.
(b) Repita a) para la ecuacion ii) Que sucede?
(c) Resuelva ahora i) suponiendo que la solucion de de la
forma xk , con k por determinar.
(d) Utilice la idea dada en c) para resolver ii), y exprese la
solucion como una combinacion lineal de dos soluciones
reales.
(e) Resuelva ahora ambas ecuaciones mediante el cambio de
variable t = eu . Compare con los resultados anteriores.
(31) Exprese, en la forma mas explcita que pueda, la solucion ge-
neral del sistema:
90 4. ECUACIONES DIFERENCIALES LINEALES

1/t 1 t
x = Ax con A = 0 3t2 + 1 0
0 5t 2
(32) Dado el sistema homogeneo de ecuaciones:
x = Ax
(a) Demostrar que si se hace un cambio de base x = P x, los
valores propios del sistema no cambian.
(b) Demostrar que si los valores propios son 1 , 2 , . . . , n ,
(no necesariamente distintos) y A = [aij ], i, j =
1, . . . , n, entonces,
n
n
k a = 0.
k=1 =1

(c) Demostrar que si se hace un cambio de base x = P x, la


nueva matriz del sistema es A = P 1 AP .
(d) Disene un sistema homogeneo de ecuaciones diferenciales
cuyos valores y vectores propios sean, respectivamente:

1 0 1
1 = 1, 2 = 2, 3 = 3, v1 = 0 , v2 = 1 , v3 = 1 .

1 1 0
(e) Disene un sistema cuyos valores propios sean 1 = 2 =
3 = 2, y ningun coeficiente de la matriz del sistema sea
nulo. (Hay infinitas soluciones).
(33) (a) Dada la ecuacion de cuarto orden lineal:
xiv + a(t)x + b(t)x + c(t)x + d(t)x = 0
y tres soluciones linealmente independientes de ella, x1 (t), x2 (t)
y x3 (t), demostrar que una cuarta solucion linealmente in-
dependiente de las anteriores esta dada por la expresion:
t
x1 (t)W23 (s) + x2 (t)W31 (s) + x3 (t)W12 (s) ss a(u)du
x4 = e 0 ds,
t0 W 2 (s)
donde

x1 x2 x2 x3 x3 x1
W12
= , W23
= , W31
=
x1 x2 x2 x3 x3 x1
y
x1 x2 x3

W = x1 x2 x3 .
x1 x2 x3
5. EJERCICIOS PROPUESTOS 91

(b) Dada la ecuacion lineal de orden n:


x(n) + an1 (t)x(n1) + + a1 (t)x + a0 (t)x = 0
y n 1 soluciones linealmente independientes de ella,
x1 (t), . . . , xn1 (t), demostrar que la n-esima solucion esta
dada por:

x1 (t) x2 (t) xn1 (t)

x1 (s) x 2 (s) xn1 (s)

x1 (s) x (s) xn1 (s)
2
.. .. ..
. . .
(n3)
t x (s) x2
(n3)
(s) xn1 (s)
(n3) s
1 an1 (u)du
xn (t) = 2 e s0 ds.
x1 (s) x2 (s) xn1 (s)
t0

x1 (s) x2 (s) xn1 (s)

.. .. ..
. . .
(n2)
x (s) x2
(n2)
(s) xn1 (s)
(n2)
1
CAPTULO 5

La transformacion integral de Laplace

En este captulo estudiaremos el uso de una transformacion inte-


gral que permite abordar el estudio de ecuaciones diferenciales lineales
transformandolas en ecuaciones algebraicas.

1. Transformacion de Laplace
Sea f una funcion definida sobre [0, [ y con valores en Cd .
Definicion 1.1. Supongamos que la funcion Tf es localmente inte-
grable, vale decir, para todo T > 0, la integral 0 f (t)dt existe. Dado
un complejo = + i, diremos que la transformada de Laplace
de f existe en el punto si la integral impropia
T
t
(1.1) f (t)e dt = lim f (t)et dt,
0 T 0

existe y en ese caso escribimos



(1.2) Lf () = f (t)et dt.
0

El conjunto de valores C para el cual el lmite en (1.1) existe es


el dominio de la funcion Lf y se designara por D(Lf ). Obviamente,
interesa el caso en que D(Lf ) es no vaco y en tal caso 7 Lf ()
define una aplicacion de D(Lf ) en C.
Ejemplo 1.1. Transformada de una funcion exponencial.
Sea c C. Designamos por Ec la funcion Ec (t) = exp(ct). Un
calculo simple muestra que

1
LEc () = e(c)t dt = ,
0 c
si satisface la condicion > c, pues de otra manera la integral
diverge. Luego,
D(LEc ) = { C : > c}.
93
94 5. LA TRANSFORMACION INTEGRAL DE LAPLACE

Proposicion 1.1. Dadas dos funciones f , g de [0, [, con valores


en Cd y localmente integrables, entonces para todo par de escalares a, b
y para todo D(Lf ) D(Lg) se cumple
(1.3) aLf () + bLg() = L(af + bg)().
Vale decir, la transformacion de Laplace es lineal.
La demostracion es evidente y se omite. Estudiemos algunas apli-
caciones de esta propiedad.
Ejemplo 1.2. Calculo de la transformada de funciones trigonometricas.
Sean S (t) = sen t, C (t) = cos t. Como:
1
S = (Ei Ei ),
2i
1
C = (Ei + Ei ),
2
el calculo realizado en el ejemplo anterior nos da:
[ ]
1 1 1
(1.4) LS () = = 2 .
2i i + i + 2
[ ]
1 1 1
(1.5) LC () = + = 2 .
2 i + i + 2
Ejemplo 1.3. Consideremos ahora las funciones
f (t) = et sen t, g(t) = et cos t, (t 0, , R).
En otros terminos,
1
f= E [Ei Ei ],
2i
1
g = E [Ei + Ei ].
2
En consecuencia, por la linealidad de la transformacion de Laplace
obtenemos:
[ ]
1 1 1
Lf () =
2i ( + i) i

= .
( )2 + 2

Lg() = .
( )2 + 2
1. TRANSFORMACION DE LAPLACE 95

La definicion de la transformacion de Laplace depende de la inte-


grabilidad de las funciones t 7 f (t) exp(t) sobre toda la semirecta
real positiva. Dicha integrabilidad se logra, muy en particular, si la
funcion f es acotada, pero, obviamente, en muchos casos practicos tal
suposicion es demasiado restrictiva. Los ejemplos analizados anteri-
ormente muestran que se puede permitir a f no ser acotada siempre
que su crecimiento sea adecuadamente controlado. Precisaremos este
concepto en la definicion siguiente.
Definicion 1.2. Una funcion f : [0, [ C es de orden expo-
nencial al infinito si es seccionalmente continua1 y si existen dos
constantes M, > 0 y un valor t0 > 0 de su dominio, tales que:
(1.6) |f (t)| M et , para todo t t0 .
Lo anterior se denota por comodidad en la forma
f (t) = O(et ), si t .
Proposicion 1.2. La transformacion de Laplace existe para toda
funcion de orden exponencial al infinito. Mas aun, si f (t) = O(et ),
entonces el dominio de su transformada de Laplace D(Lf ) incluye al
conjunto { C : > }.
Prueba. Supongamos f (t) = O(et ) si t . Entonces, de acuerdo
a la definicion, existen M, , t0 > 0, tales que (1.6) se cumple. Luego,
si = + i, tenemos
(1.7) |f (t)et | |f (t)|et M e()t , (t t0 ).
Ahora bien, la integral impropia de la funcion t 7 M exp[()t]
converge si y solo si > .
Por otra parte,
t0
t t
|f (t)e |dt = |f (t)e |dt + |f (t)et |dt
0 0 t0
t0
|f (t)et |dt + M e()t dt.
0 t0

La integral entre 0 y t0 es finita pues la funcion f es seccionalmente


continua y t0 < . En consecuencia, la transformada de Laplace de f
en el punto C existe si > .

1O sea, la funcion es continua salvo en un numero finito de puntos


96 5. LA TRANSFORMACION INTEGRAL DE LAPLACE

2. Aplicacion a la resolucion de ecuaciones diferenciales


Para ilustrar el metodo que propondremos en esta seccion comence-
mos por analizar un ejemplo simple y que hemos resuelto de otra forma.
Se trata de la conocidsima ecuacion del oscilador armonico.
Ejemplo 2.1. Resolver la ecuacion del oscilador armonico
(2.1) x + 2 x = 0,
usando la transformacion de Laplace.
De un analisis anterior de la ecuacion (2.1) sabemos que ella tiene
soluciones de tipo exponencial compleja. De modo que es lcito suponer
que ellas tienen transformada de Laplace. Luego veremos un teorema
general que permitira reconocer ecuaciones cuyas soluciones poseen
transformada de Laplace.
En primer lugar, tenemos que si es solucion de (2.1), su transfor-
mada de Laplace es

L() = (t)et dt
0

y para calcular la transformada de usamos integracion por partes:




L () = (t)et dt
0

[ ]
t t=
= (t)e t=0
+ (t)et dt
0
= L() (0).
El procedimiento anterior puede ser luego aplicado para calcular
L :
L ( = L () (0)
= (L() (0)) (0)
= 2 L() (0) (0).
Tomamos transformada de Laplace a ambos miembros de la ecuacion
(2.1) y reemplazamos los valores de las transformadas de y de sus
derivadas:
2 L() (0) (0) + 2 L() = 0,
de donde se obtiene
(0)
(2.2) L() = (0) + .
2 + 2 2 + 2
2. APLICACION A LA RESOLUCION DE ECUACIONES DIFERENCIALES 97

Finalmente, es necesario reconocer la funcion cuya transformada


de Laplace esta dada por (2.2). Ella es
(0)
(2.3) (t) = (0) cos t + sen t, (t 0).

Se observa que en (2.3) la solucion queda explcitamente determi-
nada por los valores iniciales (0) y (0). Esto hace que el metodo de
la transformada de Laplace es, particularmente, util cuando se trata de
resolver problemas con valores iniciales en que estos se toman a partir
de t = 0.
Formalizaremos a continuacion el calculo de transformadas real-
izado en el ejemplo precedente.
Teorema 2.1. Sea una funcion vectorial con derivadas continuas
hasta el orden n 1, y de orden exponencial al infinito. Supongamos
que la nesima derivada (n) sea al menos seccionalmente continua.
Entonces, para cada 1 r n, la transformada de Laplace de la
resima derivada, L(r) , existe y esta dada por:
(2.4) L(r) () = r L() r1 c1 . . . cr1 cr ,
donde c1 = (0), c2 = (0), . . . , cr = (r1) (0).
Prueba. La prueba se hace por induccion. Para r = 1 resulta direc-
tamente, usando integracion por partes como en el ejemplo anterior.
En efecto, por hipotesis, es de orden exponencial al infinito, sea
(t0 = O(et ), de modo que su transformada de Laplace existe. Si
T > 0 es arbitrario, se tiene
T T
t t t=T
(2.5) (t)e dt = [(t)e ]t=0 + (t)et dt.
0 0

Como
|(T )eT | Const. e()T
y ademas L() existe si > , de lo anterior se deduce que L ()
existe en el mismo dominio y se tiene, haciendo tender T a ,
(2.6) L () = L() (0).
Hemos probado as el caso k = 1. Supongamos ahora que la
propiedad se cumple para 1 k (r 1) y probemos que es tambien
cierta para k = r. Basta llamar (t) = (r1) y aplicar el primer caso
demostrado: tiene transformada de Laplace y su valor queda dado
por la formula
L () = L() (0)
98 5. LA TRANSFORMACION INTEGRAL DE LAPLACE

y se concluye usando (2.4) hasta el orden r 1 para calcular L() =


L(r1) ().

Veamos ahora como el calculo anterior puede ser aprovechado en


las ecuaciones diferenciales lineales con coeficientes constantes.
Teorema 2.2. Considerar la ecuacion diferencial lineal
(2.7) X = AX + b(t),
donde A es una matriz constante de dd y b(t) es una funcion vectorial
de d componentes.
Si b es de orden exponencial al infinito, entonces cada solucion de
(2.7) es del mismo orden y tiene transformada de Laplace.
Prueba. Si A = (ai,j ) consideremos su norma matricial dada por

d
(2.8) |A| = |ai,j |.
i,j=1

Sean M > 0 y > |A|, tales que


(2.9) |b(t)| M et , (t 0).
Si es solucion de (2.7), se tiene
t
At
(t) = e C + eA(ts) b(s)ds,
0
luego,
t
|A|t
|(t)| e |C| + M e|A|(ts) es ds
( 0
) ( )
1 |A|t 1
|C| e + e|A|t
|A| |A|
< (|C| + 1)et , (t 0).
Por ende, es de orden exponencial al infinito y su transformada
de Laplace existe con dominio > > |A|.

Los teoremas 2.1 y 2.2 son los esenciales para la aplicacion de la


transformacion de Laplace a las ecuaciones diferenciales. Un corolario
importante del teorema 2.2 es el referido a ecuaciones escalares de orden
n que enunciamos a continuacion.
Corolario 2.1. Sea f una funcion escalar de tipo exponencial al
infinito. Entonces, cada solucion de la ecuacion
(2.10) x(n) + a1 x(n1) + . . . + an1 x + an x = f (t),
2. APLICACION A LA RESOLUCION DE ECUACIONES DIFERENCIALES 99

es de orden exponencial al infinito y tiene transformada de Laplace.


Antes de estudiar las aplicaciones de los ultimos resultados, es-
tudiemos algunos procedimientos adicionales de calculo de transfor-
madas de Laplace.
Proposicion 2.1. Sea k 1 un entero y f una funcion de orden
exponencial al infinito. Entonces, la funcion g(t) = tk f (t), (t 0) es,
tambien, de orden exponencial al infinito y su transformada de Laplace
esta dada por la formula
dk
(2.11) Lg() = (1)k Lf (), ( D(Lf ).
dk
Prueba. Observar que:
dk t
k
e = (1)k tk et .
d
Como f es continua y de orden exponencial al infinito, podemos derivar
con respecto a bajo el signo integral, obteniendo
T k T
k t k d
(2.12) t e f (t)dt = (1) et f (t)dt,
0 dk 0
en consecuencia, si T , la integral del lado izquierdo converge si y
solo si aquella del lado derecho lo hace, vale decir, si Lf () existe. De
esto resulta
dk
(2.13) Lg() = (1)k k Lf (),
d
para todo D(Lf ).

Analicemos ahora la forma en que la integracion indefinida modifica


la transformada de Laplace.
Proposicion 2.2. Si f es de tipo exponencial al infinito, entonces
su primitiva t
g(t) = f (u)du, (t 0),
0
tambien lo es y su transformada de Laplace es
1
(2.14) Lg() = Lf ().

Prueba. Supongamos que f (t) = O(et ), entonces existe un M > 0
tal que t
|g(t)| M es ds,
0
100 5. LA TRANSFORMACION INTEGRAL DE LAPLACE

vale decir,
M t
|g(t)| (e 1)

y, en consecuencia, g(t) = O(et ).
Enseguida, g es nula en 0 y es derivable, de derivada f . Por lo
tanto, como Lg () = Lg(), se obtiene (2.14).

Las funciones periodicas seccionalmente continuas tienen transfor-


mada de Laplace. Esto resulta de que la integracion sobre toda la
semirecta real positiva se reduce al calculo sobre el intervalo que da el
ciclo de la funcion, es decir, un intervalo del mismo largo que el perodo.
Estudiemos este importante caso en la proposicion siguiente.
Proposicion 2.3. Sea f una funcion periodica, seccionalmente
continua, de perodo T , definida sobre R+ . Entonces f posee trans-
formada de Laplace y esta verifica:
T t
e f (t)dt
(2.15) Lf () = 0 , ( > 0).
1 eT
Prueba. Como hemos dicho anteriormente, la periodicidad de f reduce
el calculo de la transformada a un ciclo y a una serie geometrica de
razon eT .

Lf () = et f (t)dt
0
(k+1)T

= et f (t)dt
k=0 kT

T
T k
= e et f (t)dt
k=0 0
T t
0
e f (t)dt
= , ( > 0).
1 eT

A menudo tendremos que identificar funciones a partir de su trans-


formada de Laplace. No toda funcion queda determinada en cada punto
por su transformada de Laplace, sin embargo el siguiente teorema, de-
bido a Lerch, nos permite caracterizar funciones en sus puntos de con-
tinuidad, que es a menudo suficiente en las aplicaciones practicas.
Teorema 2.3 (Lerch). Si dos funciones f y g poseen transformadas
de Laplace con igual dominio, y en el coinciden, entonces f (t) = g(t)
en todo punto t en que ambas funciones son continuas.
2. APLICACION A LA RESOLUCION DE ECUACIONES DIFERENCIALES 101

El teorema anterior explica la dificultad que se tiene para definir la


inversa de una transformada de Laplace: ella no es unica.
Definicion 2.1. Dada una funcion () definida sobre el plano
complejo, decimos que una funcion f (t), definida sobre [0, [ y que
posea transformada de Laplace, es una transformada inversa de si
satisface
(2.16) Lf () = ().
A causa del Teorema de Lerch, una tal funcion f esta unicamente
determinada solo sobre sus puntos de continuidad. Haciendo un abuso
de lenguaje escribimos por comodidad
f = L1 ,
teniendo el cuidado de recordar que L1 representa en realidad una
clase de funciones que satisfacen la relacion (2.16).
Estudiemos ahora un ejemplo de aplicacion de la transformada de
Laplace a la resolucion de una ecuacion diferencial lineal.
Ejemplo 2.2. Resolver la ecuacion homogenea
(2.17) x + 3x + 3x + x = 0.
Como el segundo miembro es nulo, f (t) = 0, las soluciones tienen
transformada de Laplace. En consecuencia, obtenemos la siguiente
ecuacion para la transformada de Laplace Lx de x:
(2.18)
(3 +32 +3+1)Lx() = x(0)2 +(x (0)+3x(0))+(x (0)+3x (0)+3x(0)).
De esta ecuacion despejamos Lx(). El polinomio que acompana a
Lx() en el primer miembro de (2.18) es ( + 1)3 , en consecuencia, al
dividir por el, nos queda en el segundo miembro una fraccion donde el
numerador es un polinomio de grado dos y el denominador es de grado
tres. Reducimos tal cuociente a una suma de fracciones parciales:
A B C
(2.19) Lx() = + + .
+ 1 ( + 1)2 ( + 1)3
Para calcular A, B, C, procedemos a hacer la suma anterior e igualar
el numerador que resulta, A( + 1)2 + B( + 1) + C, con aquel obtenido
directamente de (1a), a saber, x(0)2 + (x (0) + 3x(0)) + (x (0) +
3x (0) + 3x(0)). Con este procedimiento obtenemos las ecuaciones
(2.20) A = x(0)
(2.21) 2A + B = x (0) + 3x(0)
(2.22) A + B + C = x (0) + 3x (0) + 3x(0).
102 5. LA TRANSFORMACION INTEGRAL DE LAPLACE

De lo anterior resulta A = x(0), B = x (0) + x(0), C = x (0) +



2x (0) + x(0) y por ende,
x(0) x (0) + x(0) x (0) + 2x (0) + x(0)
(2.23) Lx() = + + .
+1 ( + 1)2 ( + 1)3
Para terminar, usamos la proposicion 2.1 para reconocer las trans-
formadas de funciones del segundo miembro y aplicamos el Teorema de
Lerch para obtener que las soluciones de la ecuacion inicial son de la
forma:
(2.24)
1
(t) = (0)et + ((0) + (0))tet + ((0) + 2 (0) + (0))t2 et .
2
Se invita al lector a comparar esta solucion general con aquella
obtenida usando los metodos del captulo 4.
Observacion 2.1. El metodo usado en el ejemplo anterior per-
mite reobtener la forma general de las soluciones de cualquier ecuacion
diferencial lineal homogenea con coeficientes constantes. En efecto,
consideremos la ecuacion
(2.25) L(D)x = 0,
n (n1)
donde L(D) = D + a1 D + . . . + an I. Aplicando transformacion
de Laplace obtenemos:
(2.26)
L()Lx() = c1 (n1) +(c2 +a1 c1 )(n2) +. . .+(cn +a1 cn1 +. . .+an1 c1 ),
donde c1 = x(0), c2 = x (0), . . . , cn = x(n1) (0).
Descomponemos el polinomio caracterstico en la forma usual
L() = ( 1 )m1 ( k )mk ,

con ki=1 mi = n, y despejamos la transformada de Laplace de (2.26)
expresandola como suma de fracciones parciales:
1,1 m1 ,1
Lx() = + ... +
1 ( 1 )m1
1,k mk ,k
+ + ... + .
k ( k )mk
Al igual que en el ejemplo anterior, los coeficientes i,j se determinan
a partir de los valores c . Finalmente, la transformada de Laplace
anterior corresponde a una funcion de la forma:

k
( )
(2.27) x(t) = 1,r + 2,r t + . . . + mr ,r tmr 1 er t , (t 0).
r=1

Ejercicio 2.1. Calcular L1 para las funciones:


3. TRUNCAMIENTOS Y DESPLAZAMIENTOS 103

a)
1
;
2 + 2 + 2
b)
+1
;
2 + 2 + 2
c)
3 + 2
;
2 + 2 + 2
d)


n .
n=1

Ejercicio 2.2. Calcular Lf para las funciones f (t) dadas por


a) tn ;
b) tn ect ;
c) tn sen t;
d) tn cos t.

3. Truncamientos y desplazamientos
En esta seccion estudiaremos la transformacion de Laplace de al-
gunas funciones especiales y, asimismo, el efecto que producen trun-
camientos y desplazamientos sobre la transformada de una funcion
cualquiera. Comencemos por introducir las funciones de Heaviside.
Definicion 3.1. La funcion de Heaviside con salto en 0 se
define como
{
1 si t 0,
(3.1) H(t) =
0 si t < 0.
La funcion de Heaviside con salto en c > 0 es Hc (t) = H(t
c), (t R).
Observacion 3.1. Calculo de transformadas de Laplace de H y
Hc .
Un calculo directo nos da

LH() = et dt
0
1
(3.2) = , ( > 0).

104 5. LA TRANSFORMACION INTEGRAL DE LAPLACE

Y, para todo c > 0,



LHc () = et dt
c
c
e
(3.3) = , ( > 0).

Consideremos ahora una funcion f definida sobre R y denotemos
fc la funcion desplazada en c > 0, vale decir, fc (t) = f (t c), (t R).
Entonces, el producto Hc fc es
{
f (t c) si t c,
(3.4) Hc fc (t) =
0 si t < c.
Tenemos as el siguiente resultado.
Proposicion 3.1. Si la transformada de Laplace Lf () de la funcion
f existe, entonces, lo mismo ocurre con aquella de Hc fc y se tiene la
igualdad
(3.5) LHc fc () = ec Lf ().
Prueba. La demostracion resulta de un calculo directo pues

LHc fc () = f (t c)et dt (y haciendo el cambio de variables s = t c)

c

= f (s)ec es ds
0
c
= e Lf ().

La funcion de Heaviside se usa corrientemente en la modelacion de


impulsos o fuerzas que actuan durante un tiempo limitado. Ilustramos
este tipo de aplicaciones en el ejemplo siguiente.
Ejemplo 3.1. Consideremos un sistema fsico constitudo por un
bloque de masa 1 Kg. apoyado en una superficie sin roce y unido a
una pared vertical por un resorte de coeficiente de elasticidad k = 1
Newton/m. En t = 0 el bloque esta en posicion de equilibrio y se
pone en movimiento por una fuerza de 3 Newton que actua sobre el,
comprimiendo el resorte durante un segundo. Determinar la ecuacion
del movimiento y determinar la trayectoria descrita por el bloque.
Asimilamos el bloque a un punto de masa unitaria y llamamos x(t)
a su posicion en el tiempo t. Suponemos, ademas, que la pared vertical
esta ubicada a la izquierda del bloque, de modo que la fuerza F (t)
3. TRUNCAMIENTOS Y DESPLAZAMIENTOS 105

actua, tambien, hacia la izquierda. De acuerdo al enunciado, dicha


fuerza se expresa:
F (t) = 3(H(t 1) H(t)).
En consecuencia, el problema con valores iniciales para el bloque es
(3.6) x + x = 3(H(t 1) H(t))
(3.7) x(0) = x (0) = 0.
Como F (t) es, obviamente, de orden exponencial al infinito, la
solucion del problema con valores iniciales posee transformada de Laplace
y podemos, en consecuencia, derivar la ecuacion que dicha transfor-
mada satisface.
3
(3.8) (2 + 1)Lx() = (e 1).

Observar que
( )
1 1
(3.9) =3 .
(2 + 1) 2 + 1
Por ende, despejando Lx() de (3.8), obtenemos
e e 3
Lx() = 3 3 2 +3 2 ,
+1 +1
de donde,
(3.10) x(t) = 3(H(t 1) H(t)) + 3 cos t 3H(t 1) cos(t 1),
o equivalentemente,
{
3 + 3 cos t, si 0 < t < 1,
(3.11) x(t) =
3 cos t 3 cos(t 1), si t > 1.

Hemos visto que un desplazamiento en el argumento de una funcion


modifica la transformada de Laplace con un factor exponencial. Es-
tudiemos ahora que ocurre si modificamos una funcion por un factor
exponencial.
Teorema 3.1. Sea f una funcion qu posee transformada de Laplace
y sea g(t) = eat f (t), para todo t 0. Entonces, la transformada de
Laplace de g existe y
(3.12) Lg() = Lf ( a),
para todo D(Lf ) + a.
106 5. LA TRANSFORMACION INTEGRAL DE LAPLACE

Prueba. Basta observar que


T T
t
e g(t)dt = e(a)t f (t)dt,
0 0

para todo T > 0. En seguida, dado que la transformada de f existe, las


cantidades anteriores poseen lmite cuando T , si D(Lf ) + a,
y se cumple
(3.13) Lg() = Lf ( a).

4. Producto de convolucion
Definicion 4.1. Dadas dos funciones f y g integrables sobre [0, [,
definimos su producto de convolucion f g por la expresion:
t
(4.1) f g(t) = f (s)g(t s)ds, (t 0).
0

El principal interes del producto de convolucion reside en el resul-


tado siguiente que lo relaciona con el producto de transformadas de
Laplace.
Teorema 4.1. Sean f y g dos funciones de tipo exponencial al
infinito, entonces su producto de convolucion posee transformada de
Laplace y se tiene
(4.2) Lf g() = Lf ()Lg(),
para todo D(Lf ) D(Lg).
Prueba. En primer lugar, si f (t) = O(et ) y g(t) = O(et ), f g es
tambien de tipo exponencial puesto que
t
|f g(t)| = | f (s)g(t s)ds|
0
t
|f (s)||g(t s)|ds
0
t
MN et e(ts) ds,
0

donde M, N > 0 son constantes. De la ultima desigualdad se puede


deducir que f g(t) = O(e(+)t ).
5. EJERCICIOS PROPUESTOS 107

Luego, un calculo directo y una aplicacion del Teorema de Fubini


que permite intercambiar integrales iteradas, nos da
t
t
Lf g() = e f (s)g(t s)dsdt

0 0

= et f (s)g(t s)1[0,t] (s)dsdt


0 0
= es e(ts) f (s)g(t s)1[0,[ (t s)dsdt
0 0 ( )
s u
= e f (s) e g(u)du duds
0 0
= Lf ()Lg(),
para todo que pertenece a los dominios de las transformadas de f y
g a la vez.

5. Ejercicios propuestos
(1) Dado el sistema:
x = Ax , x(0) = x0
(a) Demostrar que su solucion se puede expresar de la forma:
x = L1 [(I A)1 ] x0
(b) Demostrar que L[eAt ] = (I A)1
(c) Usar lo anterior para

1 0 0 1

A = 0 0 1 , x0 = 1

0 1 0 1
(2) Resolver la ecuacion:

N
x 2x + x = ent
n=1

con x(0) = 0, x (0) = 1
(3) Dada la ecuacion
x(n) +an1 x(n1) + +a1 x +a0 x = bm u(m) +bm1 u(m1) + +b1 u +b0 u
(a) Demostrar que si u(t) = beat , una solucion particular es
de la forma xp (t) = Aeat . Determinar A y la condicion
para que esto se cumpla.
108 5. LA TRANSFORMACION INTEGRAL DE LAPLACE

(b) Demostrar que si u(t) = Csen(t), una solucion particu-


lar es de la forma xp (t) = Rsen(t + ). Determinar R,
y la condicion para que esto se cumpla.
eiwt eiwt
[Indicacion: sen(t) = ]
2i
(c) Resolver:
i) x + 3x + 2x = 3e5t + 4e4t
ii) 4x + 8x + 5x = 4cos( 21 t)
(4) (a) Demostrar que:
dX
L[t x(t)] = , con X = L[x].
d
d t
Indicacion: (e ) = t et
d
(b) Demostrar que:
dn X
L[tn x(t)] = (1)n , con n N.
dn
(c) Demostrar que:
n!
L[tn ]() =
n+1
(d) Resolver
tx + x = 0, con x(0) = 0
(5) Demostrar que la solucion de la ecuacion:
t

tx + eu x(t u)du = 0
0

con x(0) = 0, x (0) = 1 es:
[ ]
1 1
x(t) = C(t + (1) n
tn+1 )
n=1
(n!) 2 (n + 1) [(n 1)!] 2 n(n + 1)

Indicacion: usar la serie de ex cuando sea pertinente.


(6) Demostrar que la solucion de la ecuacion:
t
x(u)x(t u)du = sen t
0



(1)n (t/2)2n
es x(t) =
n=0
(n!)2
[Indicacion: usar serie binomial cuando sea pertinente.]
5. EJERCICIOS PROPUESTOS 109

(7) (a) Dada la funcion


{
0 t < t0
f (t) =
g(t t0 ) t t0
Demostrar que F () = et0 G(), donde F = L[f ] y G =
L[g].
(b) Demostrar que si h(t) es periodica de perodo T , entonces
T
1
L[h]() = et h(t)dt
1 eT 0
(c) Dada la funcion diente de sierra, definida por:
{ 1
4
t 0t<4
f (t) =
t 1 t < 0
y periodica de perodo 5, calcule L[f ].
(8) Se define la funcion escalon unitario o Heavyside como:
{
1 t>0
H(t) =
0 t<0
(a) Demostrar que L[H]() = 1
(b) Expresar la funcion definida en 7c, (ejercicio anterior), en
terminos de H(t), y usar 7a para calcular L[f ]. Comparar
con el resultado de 7c.
(9) Demostrar que si existiese una funcion (t) que satisfaga la
relacion:

{
t2
f (t0 ) t1 t0 t2
f (t)(t t0 )dt =
t1 0 en caso contrario,
para toda f continua en t0 , entonces se tendra L[] = 1.
Hacemos notar que (t) no es una funcion; es mas bien
una distribucion. Su construccion rigurosa utiliza la Teora
de Distribuciones, al interior de la cual se puede justificar la
propiedad anterior. Esto permite que dicha propiedad sea uti-
lizada en la resolucion formal de algunas ecuaciones diferen-
ciales que aparecen muy corrientemente en Ingeniera.
(10) (a) Usando el ejercicio anterior, resolver formalmente la ecuacion
diferencial:
x(iv) = K(t L), (K constante)
con las condiciones de borde:
x(0) = 0, x (0) = 0, x (2L) = 0, x (2L) = 0
110 5. LA TRANSFORMACION INTEGRAL DE LAPLACE

(b) Obtener una expresion para L1 [p], donde p() es un poli-


nomio de la forma:
p() = 0 + 1 + + n n .
(11) Un sistema dinamico lineal, de una variable de entrada u y
una salida y, se puede representar por la ecuacion diferencial
lineal:
y (n) + an1 y (n1) + + a1 y + a0 y = bm u(m) + bm1 u(m1) + + b1 u + b0 u
Esta ecuacion diferencial se puede transformar en una ecuacion
algebraica, cambiando el dominio del tiempo al dominio de
Laplace, .
(a) Se pide:
Aplicar L a la ecuacion, suponiendo condiciones iniciales
Y ()
en cero para y y para u. Obtener la funcion G() = ,
U ()
donde Y = L[y], U = L[u].
(b) Suponga que la ecuacion es:
y + 3y + 2y = u u
obtener G() para este caso.
(c) A partir de la relacion Y () = G()U (), obtenga y
grafique y(t) para los siguientes casos; usando la ecuacion
de (b):
- u(t) = H(t)
- u(t) = (t)
- u(t) = sen t
- u(t) como la funcion de diente de sierra introducida en
7c.
(d) Repita lo anterior para: x + 2x + 2x = u u.
(12) Demostrar que existe una funcion que es solucion comun a las
dos ecuaciones siguientes:
t

tx + x + tx = 0 y x(u)x(t u)du = sen t
0
CAPTULO 6

Series de Potencias y Ecuaciones Diferenciales

Este captulo explica uno de los metodos mas populares de res-


olucion de ecuaciones diferenciales lineales con coeficientes variables:
el llamado metodo de las series de potencias. Las series de poten-
cias estan relacionadas con la representacion de una funcion mediante
funciones mas simples, a saber, combinaciones de potencias de la
variable independiente t. Vale decir, funciones que se escriben en la
forma

(t) = an tn .
n=0
Ilustremos con un ejemplo el tipo de metodo que queremos in-
troducir en este captulo, tomandonos algunas licencias con el rigor
matematico.
Ejemplo 0.1. Resolver el problema con valores iniciales
(0.1) x + 2tx + 2x = 0,
(0.2) x(0) = 1,
(0.3) x (0) = 0.
Supongamos que existe una solucion de la forma (t) del problema
anterior y que ademas su derivada se puede calcular derivando termino
a termino la serie de termino general an tn :

(t) = an tn ,
n=0


(t) = (n + 1)an+1 tn ,
n=0

(t) = (n + 2)(n + 1)an+2 tn .
n=0

Reemplazamos las series en la ecuacion, obteniendo





n n+1
(0.4) (n + 2)(n + 1)an+2 t + 2 (n + 1)an+1 t +2 an tn = 0.
n=0 n=0 n=0
111
112 6. SERIES DE POTENCIAS Y ECUACIONES DIFERENCIALES

Razonamos en seguida as: el miembro izquierdo de la ecuacion (0.4) es


una serie de potencias de t; el derecho, es tambien una serie de potencias
de t, donde todos los coeficientes son nulos. La unica posibilidad de
que esto ocurra es que los correspondientes coeficientes de tn en la serie
del miembro izquierdo y en aquella del lado derecho sean iguales. En
consecuencia, obtenemos las ecuaciones:
(0.5) (n + 2)(n + 1)an+2 + 2nan + 2an = 0, (n 0),
de donde se obtiene la relacion de recurrencia:
2an
(0.6) an+2 = , (n 0).
n+2
Para calcular todos los coeficientes bastara entonces conocer dos
de ellos: a0 y a1 . Usemos las condiciones iniciales, observando que
(0) = a0 = 1, (0) = a1 = 0. Aplicando (0.6) se obtiene que todos
los coeficientes con subndices impares son nulos y si n = 2m es un
coeficiente con subndice par, entonces
a2m
a2(m+1) = ,
m+1

1
(0.7) a2(m+1) = (1)m+1 , (m 0).
(m + 1)!
Finalmente, la solucion buscada es


t2m
(0.8) (t) = (1)m .
m=0
m!

Recordemos algunos hechos basicos sobre funciones representables


en serie de potencias o funciones analticas.

1. Funciones analticas
Definicion 1.1. Una funcion f definida en un dominio D(f ) de
R y con valores en Cd , es analtica en un punto t0 D(f ) si existe una
sucesion de coeficientes (an )n en Cd y un intervalo abierto alrededor de
t0 , tal que para cada t en dicho intervalo se cumpla la igualdad


(1.1) f (t) = an (t t0 )n .
n=0

Una funcion f es analtica en un conjunto I D(f ) si es analtica


en cada punto de I.
1. FUNCIONES ANALITICAS 113

Observacion 1.1. Recordemos que las series de potencia del tipo


(1.1) tienen un radio de convergencia R 0 que es el mayor numero
positivo tal que la serie converge para cada t ]t0 R, t0 +R[. Los casos
extremos son R = 0, que corresponde a una serie divergente en todo
punto; R = , que determina una serie convergente en toda la recta
real. Tal radio de convergencia queda determinado por la expresion
(1.2) R = lim sup (|an |)1/n .
n

En efecto, si |tt0 | < R, entonces la serie de termino general |an ||tt0 |n


converge pues,
lim sup(|an ||t t0 |n )1/n < lim sup |An |1/n R 1
n n

y basta aplicar el criterio de convergencia de dAlembert. Mas aun, si


tomamos r < R, la convergencia es uniforme sobre |t t0 | r. En
efecto,

N


sup | an (t t0 )n an (t t0 )n | | |an |rn ,
|tt0 |r n=0 n=0 n=N +1

que es el resto de una serie convergente.


La observacion anterior permite derivar las series de potencia termino
a termino al interior de |t t0 | r, con r < R, en el caso que R > 0.
En efecto, sea f dada por (1.1), entonces, para cada h = 0, tal que
|h| r < R, se tiene
f (t0 + h) f (t0 ) hn

= an
h n=0
h
y como la convergencia es uniforme al interior de |t t0 | r, podemos
pasar al lmite con h 0, obteniendo que la derivada de f existe en t0
y vale
f (t0 ) = a0 .
Asimismo, se puede repetir el procedimiento anterior para las derivadas
de orden superior, obteniendose
f (n) (t0 ) = n!an , (n 1).
Esto determina de manera biunvoca los coeficientes del desarrollo
en serie de potencias de una funcion analtica, como ya ha sido conocido
al estudiar el Teorema de Taylor:
f (n) (t0 )
(1.3) an = , (n 0).
n!
114 6. SERIES DE POTENCIAS Y ECUACIONES DIFERENCIALES

2. Puntos ordinarios
En esta seccion comenzamos por estudiar las ecuaciones de la forma:
(2.1) X = A(t)X, (t ], [),
donde A(t) es una funcion analtica sobre todo el intervalo ], [ con
valores matrices de d d. Decimos que en cada punto del intervalo de
analiticidad es un punto ordinario.
Teorema 2.1. Bajo las hipotesis anteriores, dado un punto ordi-
nario t0 ], [, toda solucion de la ecuacion (2.1) se puede expresar
en la forma de una serie de potencias:


(2.2) (t) = ck (t t0 )k ,
k=0

donde cada coeficiente ci es un vector de Cd y el radio de convergen-


cia de la serie es menor o igual a inf{(t0 ), ( t0 )}. Mas aun,
(t0 ) = c0 y los otros coeficientes ci se pueden obtener por sustitucion
e identificacion.
Prueba. Dado que A(t) es analtica en todo punto de ], [, se repre-
senta en la forma

(2.3) A(t) = Ak (t t0 )k ,
k0

para |t t0 | < R = inf{(t0 ), ( t0 )}, donde los coeficientes Ak


son matrices complejas de d d.
Reemplazando una serie de la forma (2.2) en la ecuacion original,
se obtiene una relacion entre los coeficientes ci y Ak . De modo que
c0 = (t0 ), y

1
k
(2.4) ck+1 = Ar ckr , (0 k d).
k + 1 r=0

Demostremos que la serie depotencias de coeficientes ck converge.


Sea L < R. Ya que la serie k Ak (t t0 )k converge si |t t0 | < R,
entonces existe M > 0 tal que |Ak (t t0 )k | M si |t t0 | L, para
todo k 0. En particular, se tiene |Ak | M Lk , para cada k 0.
Usando (2.4) sigue que

1 k
|ck+1 | M |ckr |,
k + 1 r=0
2. PUNTOS ORDINARIOS 115

desigualdad que multiplicada por (k + 1)Lk+1 y haciendo un cambio de


ndices j = k r en la suma, lleva a

k
(2.5) (k + 1)L k+1
|ck+1 M L Lj |cj |, (k 0).
j=0

La desigualdad (2.5) implica la convergencia buscada. En efecto,


observese que aplicandola recursivamente hasta el orden k + 1 se tiene:
|c1 | M |c0 |
M
|c2 | (1 + M L)|c0 |
2L
... ...
M L(1 + M L) (k + M L) |c0 |
|ck+1 | .
(k + 1)! Lk+1
Llamemos Mk+1 el termino que aparece en el segundo miembro de la
ultima relacion. Probemos que si |t t0 | < L, entonces k=0 Mk (t
t0 )k < . En efecto, haciendo el cuociente entre dos terminos sucesivos
Mk+1 (t t0 )k+1 y Mk (t t0 )k se obtiene
Mk+1 (t t0 )k+1 k + M L |t t0 |
| |= ,
Mk (t t0 ) k k+1 L
luego, si |t t0 | < L, entonces
Mk+1 (t t0 )k+1
(2.6) lim | | < 1,
k Mk (t t0 )k
de modo que la serie de termino general Mk |t t0 |k converge. Esto
determina la convergencia de la serie de potencias que define (t), para
|t t0 | < L.

Ejemplo 2.1. Resolver el problema con valores iniciales


( ) ( )( )
x t 1 x
(2.7) = ;
y 1 t y
( ) ( )
x(0) 1
(2.8) = .
y(0) 0
En este caso, A(t) = A0 + A1 t, donde
( )
0 1
A0 = ,
1 0
( )
1 0
A1 = .
0 1
116 6. SERIES DE POTENCIAS Y ECUACIONES DIFERENCIALES

Usando la ecuacion (2.4) que permite calcular los coeficientes ck ,


tenemos:
( )
1
c0 = ,
0
1
c1 = A 0 c0
1
( )( )
0 1 1
=
1 0 0
( )
0
= ,
1
1
c2 = (A0 c1 + A1 c0 )
2 )
(
1
= ,
0
... ....
Corolario 2.1. Si se tiene n coeficientes complejos a1 (t), . . . , an (t)
analticos en el intervalo ], [ y un punto t0 en dicho intervalo, en-
tonces toda solucion de la ecuacion
(2.9) x(n) + a1 (t)x(n1) + . . . + an (t)x = 0,
se escribe en la forma de una serie de potencias,


(2.10) (t) = ck (t t0 )k ,
k=0

cuyo radio de convergencia es mayor que el nfimo entre (t0 ) y


( t0 ). Para k = 0, . . . , n 1, ck = (k) (t0 )/k!, y los otros coeficientes
pueden ser encontrados por sustitucion en la ecuacion de la serie (2.10)
e igualando coeficientes correspondientes a iguales potencias de (tt0 ).
Ejemplo 2.2. Consideremos la ecuacion
1
(2.11) x + x = 0, 0 < t < 2,
t

(2.12) x(1) = 0, x (1) = 0.


Usando conocimientos elementales sobre la serie geometrica, obten-
emos el desarrollo
1 1
(2.13) = = (1)k (t 1)k ,
t 1 + (t 1) k0
2. PUNTOS ORDINARIOS 117

que es valido para |t 1| < 1. Reemplazando la serie



(t) = ck (t 1)k ,
k0

en la ecuacion propuesta obtenemos


( )( )

(k+2)(k+1)ck+2 (t1)k + (1)k (t 1)k ck (t 1)k = 0.
k0 k0 k0

Se llega entonces a la ecuacion de recurrencia


1 k
(2.14) ck+2 = (1)kr cr .
(k + 2)(k + 1) r=0
As c0 = (1) = 0, c1 = (1) = 1, c2 = (1/12)C0 = 0, c3 =
(1/6)c1 = 1/6, c4 = 1/12, c5 = 1/24, c6 = 1/40, . . .. De modo
que el desarrollo de la solucion hasta el orden 5 nos da:
(t 1)3 (t 1)4 (t 1)5
(2.15) (t) = t 1 + + ....
6 12 24
Ejemplo 2.3. [Ecuacion de Hermite] Sea una constante real pos-
itiva. Resolver la ecuacion debida a Hermite
(2.16) x 2tx + 2x = 0, (t R).
Los coeficientes son analticos sobre toda la recta real, escogemos el
punto 0 como centro de desarrollo para las soluciones de la ecuacion:

(2.17) (t) = ck tk .
k0

Reemplazando en la ecuacion se obtiene la relacion de recurrencia:


(k + 2)(k + 1)ck+2 2(k )ck = 0,
de donde,
2(k )
(2.18) ck+2 = ck , (k 0).
(k + 2)(k + 1)
Conociendo los datos iniciales c0 = (0) y c1 = (0), se pueden calcu-
lar todos los coeficientes restantes usando (2.18):
( 2) ( + 2 2k)
(2.19) c2k = (1)k 2k c0 ,
(2k)!

( 1)( 3) ( + 1 2k)
(2.20) c2k+1 = (1)k 2k c1 , (k 1).
(2k + 1)!
118 6. SERIES DE POTENCIAS Y ECUACIONES DIFERENCIALES

3. Puntos singulares regulares


En esta seccion consideraremos ecuaciones diferenciales lineales con
coeficientes no analticos cuyo tratamiento puede reducirse al caso de la
seccion anterior. Para ilustrar el tipo de procedimiento que empleare-
mos, comencemos por un ejemplo muy simple que corresponde a un
caso particular de la ecuacion de Euler.

Ejemplo 3.1. Resolver la ecuacion

(3.1) (t )2 x + (t )b1 x + b2 x = 0, ( < t < ),

donde b1 y b2 son constantes y = .


Se trata de una ecuacion no normal. Para escribirla en forma nor-
mal, es necesario dividir por (t )2 , de donde los nuevos coeficientes
quedan:
1 1
a1 (t) = b1 , a2 (t) = b2 .
t (t )2
Se observa que a1 (t) y a2 (t) ya no son analticos. Sin embargo,
un cambio de variables permite transformar esta ecuacion en una con
coeficientes analticos. En efecto, si definimos

s = s(t) = log(t ),

que es posible si < t < , entonces la funcion x(t) se nos cambia


en una funcion y(s) (x(t) = y(s(t))) y aplicando la regla de la cadena
para el calculo de las derivadas obtenemos:
d
x (t) = x(t)
dt
d
= y(s(t))
dt
d ds
= y(s)
ds dt
1 d
= y(s).
t [ ds ]
d d ds
x (t) = y(s)
dt ds dt
( )2
d2 ds d d2 s
= y(s) + y(s)
ds2 dt ds dt2
[ 2 ]
1 d d
= y(s) y(s) .
(t )2 ds2 ds
3. PUNTOS SINGULARES REGULARES 119

Reemplazando en la ecuacion original llegamos a


d2 d
(3.2) 2
y(s) + (b1 1) y(s) + b2 y(s) = 0,
ds ds
que es una ecuacion diferencial lineal con coeficientes constantes. Para
resolverla, estudiemos su ecuacion caracterstica:
(3.3) 2 + (b1 1) + b2 = 0.
Tenemos entonces dos casos:
Caso 1 La ecuacion caracterstica tiene dos races simples 1 , 2 . En-
tonces, la solucion y(s) se escribe
(3.4) y(s) = c1 e1 s + c2 e2 s ,
de donde la solucion a la ecuacion original es de la forma
(3.5) x(t) = c1 (t )1 + c2 (t )2 .
Caso 2 Existe una sola raz de la ecuacion caracterstica y que tiene
en consecuencia multiplicidad 2. Entonces la solucion y(s) es
de la forma
(3.6) y(s) = c1 es + c2 ses
y luego,
(3.7) x(t) = c1 (t ) + c2 (t ) log(t ).
El ejemplo anterior ilustra el tipo de metodo que desarrollaremos
en esta seccion. Para precisar mejor nuestro problema, introduciremos
algunas definiciones previas.
En lo que sigue consideraremos sistemas diferenciales de dos ecua-
ciones.
Definicion 3.1. Dada una ecuacion de la forma
(3.8) X = A(t)X, (t ], [),
donde A(t) es una funcion con valores en las matrices complejas de
22, diremos que es un punto singular regular si la funcion A(t)
puede escribirse en la forma
1
(3.9) A(t) = B(t),
t
donde B(t) es una funcion analtica sobre todo el intervalo [, [.
Si es un punto de singularidad de la funcion A(t) que no satisface
la propiedad anterior, se dira que es un punto singular irregular.
120 6. SERIES DE POTENCIAS Y ECUACIONES DIFERENCIALES

Ejemplo 3.2. Consideremos nuevamente la ecuacion de Euler del


ejemplo 3.1. Para escribirla en forma de sistema, introduzcamos vari-
ables auxiliares de manera un poco distinta al procedimiento de re-
duccion usual:
x1 = x; x2 = (t )x ,
( )
x1
X= ,
x2
de modo que
x2
x1 =
t
x2 = (t )x1 + x1
b2
= (1 b1 )x x
t
b2 1 b1
= x1 + x2 ,
t t
obteniendose:
(3.10) X = AX, (t ], [).
Donde
1
(3.11) A(t) = B(t)
t
y
( )
0 1
(3.12) B(t) = .
b2 1 b1
Se podra observar que la ecuacion caracterstica (3.3) es exacta-
mente
det(B I) = 0.
Ejemplo 3.3. La ecuacion general de Euler es de la forma
(3.13) x + a1 (t)x + a2 (t)x = 0, (t ], [),
donde
1 1
a1 (t) = b1 (t), a2 (t) = b2 (t),
t (t )2
siendo los coeficientes b1 (t) y b2 (t) analticos. Un cambio de variables
como el anterior, la transforma en
(3.14) X = A(t)X, (t ], [),
donde
1
(3.15) A(t) = B(t)
t
3. PUNTOS SINGULARES REGULARES 121

y
( )
0 1
(3.16) B(t) = ,
b2 (t) 1 b1 (t)
es una funcion analtica con valores matriciales, de modo que la ecuacion
de Euler general es tambien un caso particular de ecuaciones del tipo
(3.8) y (3.9).
Uno de los resultados fundamentales de esta seccion es el siguiente
teorema debido a Frobenius y Fuchs.
Teorema 3.1. Supongamos que B(t) es analtica para t <
y que los valores propios 1 y 2 de B() no son iguales ni difieren por
un entero. Entonces la ecuacion
1
(3.17) X = B(t)X, t <
t
tiene dos soluciones de la forma


(3.18) 1 (t) = (t ) 1
ck (t )k ,
k=0

(3.19) 2 (t) = (t )2 dk (t )k
k=0
y son linealmente independientes sobre t < . Los coeficientes ck
y dk pueden ser evaluados por sustitucion.
Prueba. Comenzamos por hacer la sustitucion X = (t )1 Y en la
ecuacion original, que se transforma en


(3.20) (t )Y = A0 Y + Ak Y (t )k ,
k=1
donde


A0 = B0 1 I, Ak = Bk , para k 1, B(t) = Bk (t )k .
k=0

Probaremos que (3.20) tiene una solucion en serie de potencias



(3.21) Y1 = ck (t )k .
k=0

Sustituyendo la serie (3.21) en (3.20), obtenemos


( )


(3.22) kck (t )k = A0 c0 + Akm ck (t )k .
k=1 k=1 m=0
122 6. SERIES DE POTENCIAS Y ECUACIONES DIFERENCIALES

Para que esto sea una identidad es necesario y suficiente que


(B0 1 )Ic0 = A0 c0 = 0,
y que, para k 1

k
k1
kck = Akm ck = A0 ck + Akm ck .
m=0 m=0

Para resolver la primera de las ecuaciones anteriores, escogemos c0


como un vector propio de B0 = B() correspondiente al valor propio
1 . Para resolver la segunda, observar que A0 kI = B0 (1 + k)I.
Ya que el valor propio 2 no difiere de 1 por un entero, se tiene que
para cada k 1, det(A0 kI) = 0 y su inverso existe. Luego, los
coeficientes ck pueden ser calculados recursivamente de la relacion

1
k1
1
(3.23) ck = (A0 kI) Akm ck .
k m=0

Resulta entonces que de manera formal


1 (t) = (t )1 Y1 (t)
satisface la ecuacion (3.17).
Dado que 1 2 no es entero, el mismo procedimiento produce
una segunda solucion formal


2 (t) = (t ) Y2 (t) = (t )
2 2
dk (t )k ,
k=0

donde d0 es un vector propio de B0 que corresponde al valor propio 2 .


Nos dedicaremos ahora a probar que la serie que nos da 1 (t) con-
verge. Sea L > 0 tal que L < . Puesto que la serie de termino
general Ak (t )k converge para |t | < , existe una constante
Q tal que |Ak (t )| < Q para todo |t | L y todo k 0. En
particular se tiene |Ak | QLk . Usando la formula de recurrencia
(3.23), vemos que

k1
1
(3.24) |ck | |(A0 kI) |Q |ckm |Lk+m .
m=0

Ahora bien, la matriz A0 kI es de la forma


( )
ak b
,
c dk
3. PUNTOS SINGULARES REGULARES 123

y, en consecuencia, su inversa debe ser de la forma


( )
1 dk b
.
(a k)(d k) bc c a k
De esto resulta que cada elemento de k(A0 kI)1 es acotado para
todo k 0. Entonces, existe R > 0 tal que |k(A0 kI)1 | < R. para
cada k 0. La desigualdad (3.24) implica entonces

k1
Lk k|ck | QR |cm |Lm .
m=0

Pero esta desigualdad tiene la misma forma que aquella (2.5) usada en
la demostracion del Teorema 2.1. Repitiendo el mismo argumento
de-
sarrollado en ese teorema se concluye entonces que Y1 (t) = k=0 k
c (t
) converge para |t | < ya que L puede ser arbi-
k

trariamente pequeno. Analogamente, resulta la prueba de que la serie


de Y2 converge.
Demostremos ahora que 1 (t) y 2 (t) son linealmente independi-
entes sobre < t < . Escribamos 1 = 1 + i1 , 2 = 2 + i2 , donde
1 2 , para fijar ideas y sean 1 , 2 constantes, tales que
(3.25) 1 (t )1 Y1 (t) + 2 (t )2 Y2 (t) = 0,
para < t < . Entonces
(3.26) 1 (t )1 2 Y1 (t) + 2 (t )Y2 (t) = 0,
para < t < .
Tenemos dos casos:
Si 1 > 2 , entonces
(3.27)
(t)1 2 = (t)1 2 (cos(1 2 )(t ) + i sen(1 2 )(t )) ,
tiende a cero si t . Luego, 2 Y2 (t) = 2 d0 = 0 y como
d0 es un vector propio, 2 = 0. De la ecuacion (3.25) resulta
tambien 1 = 0.
Si 1 = 2 , entonces 1 = 2 ya que 1 = 2 . La ecuacion
(3.27) nos dice entonces que (t )1 2 no tiene lmite si t
tiende a por la derecha. Sin embargo, Y2 (t) converge a Y2 ()
si t , t > , y la ecuacion (3.26) implica que 1 = 0. Pero
este determina tambien que 2 = 0 y la demostracion esta
terminada.
124 6. SERIES DE POTENCIAS Y ECUACIONES DIFERENCIALES

Corolario 3.1. Supongamos que los coeficientes b1 y b2 son analticos


para t < y que las races 1 y 2 de la ecuacion indicial
(3.28) ( 1) + b1 () + b2 () = 0,
no son iguales ni difieren por un entero. Entonces la ecuacion
(3.29) (t )2 x + (t )b1 (t)x + b2 (t)x = 0,
tiene dos soluciones de la forma


(3.30) 1 (t) = (t )1 ck (t )k
k=0


(3.31) 2 (t) = (t )2 dk (t )k
k=0

y ellas son linealmente independientes sobre t < . Los coefi-


cientes ck y dk pueden ser determinados por sustitucion.
Observar que la independencia lineal entre las soluciones 1 y 2 en
el Teorema 3.1 se pierde si 2 1 = r N. En efecto, en tal caso al
escribir
(t )2 = (t )1 (t )r ,
ambas soluciones quedan de la misma forma
(t )1 una serie de potencias.
Por tal motivo es necesario modificar una de las soluciones para obtener
una base. Se tiene entonces el resultado siguiente:
Teorema 3.2. Supongamos que B es anltica para t < y que
los valores propios 1 y 2 de B() son ya sea iguales o bien, difieren
por un entero, digamos 2 1 = r N. Entonces,
1
(3.32) X = B(t)X, < t < ,
t
tiene una solucion de la forma


(3.33) 1 (t) = (t )1
ck (t )k
k=0

y una segunda solucion de la forma




(3.34) 2 (t) = (t )2 dk (t )k + c1 (t) log(t ),
k=0

donde c es una constante que puede ser evaluada por sustitucion al


igual que los coeficientes ck y dk .
4. LA ECUACION DE BESSEL 125

Corolario 3.2. Supongamos que los coeficientes b1 y b2 son analticos


para t < y que las races 1 y 2 de la ecuacion indicial
(3.35) ( 1) + b1 () + b2 () = 0,
son iguales o difieren por un entero. Entonces la ecuacion
(3.36) (t )2 x + (t )b1 (t)x + b2 (t)x = 0,
tiene una solucion de la forma


(3.37) 1 (t) = (t ) 1
ck (t )k
k=0
y una segunda solucion


(3.38) 2 (t) = (t ) 2
dk (t )k + c1 (t) log(t ),
k=0
donde c es una constante que puede ser evaluada por sustitucion al
igual que los coeficientes ck y dk .

4. La ecuacion de Bessel
La Trigonometra puede ser vista como el estudio de las soluciones
de la ecuacion del oscilador armonico
x + 2 x = 0.
De manera similar, la teora de las Funciones de Bessel se reduce
al estudio de las soluciones de la ecuacion
(4.1) t2 x + tx + (t2 2 )x = 0,
donde es una constante. Esta ecuacion se conoce como la Ecuacion
de Bessel de parametro . Tiene un punto singular regular en t = 0
y la teora desarrollada hasta aqu se aplica en el intervalo ]0, [.
Supongamos por simplicidad que es real y 0. La ecuacion
indicial es en este caso
(4.2) 2 2 = 0,
vale decir, sus races son 1 = , 2 = . Luego 1 2 = 2 y
tendremos dos casos notables: el primero, si 2 es un numero entero;
el segundo, si lo anterior no ocurre.
Caso 2 Z :
En este caso hay dos soluciones de la ecuacion de Bessel, linealmente
independientes, que denotamos


(4.3) (t) = ck tk+ ,
k=0
126 6. SERIES DE POTENCIAS Y ECUACIONES DIFERENCIALES



(4.4) (t) = dk tk .
k=0

Para calcular los coeficientes cn y dn , reemplazamos en la ecuacion


de Bessel. Obtenemos as, en el caso de los coeficientes cn ,




( + k)( + k + 1)ck t+k + (+)ck t+k+2 2 ck t+k
k=0 k=0 k=0



= (2 + 1)c1 + {[( + k)2 2 ]ck + ck2 }t+k = 0.
k=2
Dado que = 1/2, se tiene c1 = 0. Los otros coeficientes satisfacen
la ecuacion recursiva
ck2
(4.5) ck = , (k 2).
( + k)2 2
Luego, ck = 0 si k es impar. Si k es par, de la forma k = 2m, la
relacion anterior conduce a
(1)m c0
c2m = 2m , (m 1).
2 m!( + 1) . . . ( + m)
Para simplificar la escritura de los coeficientes recurramos a la
funcion Gama, (), definida para > 0 como sigue:

(4.6) () = t1 et dt.
0

Es facil ver que (1) = 1. Ademas, usando la formula de integracion


por partes en la expresion integral que corresponde a ( +1) se obtiene
la importante relacion:

(4.7) ( + 1) = (),
que extiende la propiedad de los factoriales. En efecto, de la propiedad
precedente se tiene que (n + 1) = n! sobre los enteros. Asimismo,
la ecuacion (4.7) hace posible tabular la funcion gama para > 1 sin
tener que evaluar la integral de (4.6). En el mismo espritu, uno define
la funcion gama como (1/)( + 1) para negativo y diferente de
todo entero. Se sabe, por ejemplo, que (1/2)
= . De esto se
deduce que (3/2) = /2 y (1/2) = 2 .
Con la funcion gama podemos entones escribir los productos de la
forma:
( + 1) . . . ( + k),
4. LA ECUACION DE BESSEL 127

como
( + k + 1)
.
()
De este modo, si se escoge el coeficiente c0 de segun
1
c0 = ,
2 ( + 1)
la correspondiente solucion es denotada por el smbolo J y es cono-
cida con el nombre de Funcion de Bessel de primera especie de ndice
. Se tiene as:
( ) ( )2k
t (1)k t
(4.8) J (t) = .
2 k=0
k!( + k + 1) 2
Y si se considera la otra raz de la ecuacion indicial, , se llega a
la funcion de Bessel de ndice :

( ) ( )2k
t (1)k t
(4.9) J (t) = .
2 k=0
k!( + k + 1) 2
La solucion general de la ecuacion de Bessel planteada tiene en-
tonces la forma

(t) = constante J (t) + constante J (t).


Caso 2 Z :
En este caso, se aplica el corolario 3.2 y se concluye que J (t) es
una solucion y existe otra, linealmente independiente de ella, que tiene
la forma:



(4.10) (t) = t dk tk + cJ (t) log t.
k=0

Cuando es un multiplo entero impar de 1/2, se encuentra c = 0


y una apropiada eleccion de d0 permite reencontrar (t) = J (t).
Luego, la solucion general de la ecuacion de Bessel tiene la forma

(t) = constante J (t) + constante J (t),


toda vez que > 0 no sea un entero. Si 0 es un entero, no es muy
dficil probar que J (t) = (1) J (t), lo que implica que J y J son
linealmente dependientes.
De la misma manera que las funciones trigonometricas satisfacen
identidades, tambien lo hacen las funciones de Bessel. As por ejemplo,
128 6. SERIES DE POTENCIAS Y ECUACIONES DIFERENCIALES

( )
J (t)
J+1 (t) = 2 J1 (t),
t
para todo = 0, = 1. La existencia de identidades entre las funciones
de Bessel permite tabularlas a partir de los valores de J (t) y J (t)
para 0 1.
Cuando 2 no es entero ni un multiplo entero impar de 1/2, en-
tonces mismo debe ser un entero. El corolario 3.2 se aplica entonces
en toda generalidad y existe una solucion de la forma (4.10) con
c = 0, linealmente independiente de J . Reemplazando dicha forma de
solucion en la ecuacion de Bessel para calcular los coeficientes, obten-
emos:


2cJ (t) + [( 1) ]d1 t
2 2 1
+ {[(k )2 2 ]dk + dk2 }tk = 0.
k=2

Enseguida, se puede substituir el desarrollo en serie de J (t) y nos


queda:

(2m + )
2c (1)m 2m+
t2(m+)
m=0
m!( + m)!2



= (1 2)d1 t + {[(k )2 2 ]dk + dk2 }tk .
k=2

Observese que la primera serie, que corresponde al miembro izquierdo


de la igualdad, no posee potencias impares de t. En consecuencia,
tampoco puede haber tal tipo de potencias en el miembro derecho, de
donde se desprende que d1 = 0 y para todo m 1:
[(2m + 1 )2 2 ]d2m+1 + d2m1 = 0.
Lo anterior implica que para todo m 1, se cumple d2m+1 = 0. Cam-
biamos en consecuencia los ndices de suma a la izquierda tomando
j = m + y a la derecha, j = k/2. Entonces
(4.11)

(2j )
2c (1) (j) 2j
t = {[(2j )2 2 ]d2j +d2j2 }t2j .
j=
(j )!j!2 2j
j=1

Analicemos en primer lugar el caso = 0. Dando a la constante c


el valor 1 y escogiendo d0 = 0, la solucion que resulta es conocida
con el nombre de Funcion de Neumann-Bessel de segunda especie de
ndice cero y se denota usualmente por el smbolo Y (0) (t). Esta funcion
5. EJERCICIOS PROPUESTOS 129

queda, entonces, expresada por


( ) ( )2j
(0) (1)j+1 1 1 t
Y (t) = 2
1 + + ... + + J0 (t) log t, (t > 0).
j=1
(j!) 2 j 2
Para = 1, la ecuacion (4.11) nos lleva a las relaciones:
d0 = c,
[ ]
1 2d0 (1)j1 (2j 1)
d2j = dj2 + , (j 2).
4j(j 1) (j 1)!j!22j1
El coeficiente d2 queda indeterminado. Escogiendo c = 1, d2 = 1/2,
se obtiene la solucion llamada Funcion de Neumann-Bessel de segunda
especie, de ndice 1:
[ ]( )
1 t 1 (1)j
j 2j+1
1 t
Y (t) =
(1)
1+ +J1 (t) log t, (t > 0).
t 4 2 j=1 j!(j + 1)! r=0
r+1 2
De manera analoga se pueden obtener los desarrollos en serie de
las funciones de Bessel de segunda especie de ndices N, ( 2),
denotadas Y () .

5. Ejercicios propuestos
(1) Utilizando el metodo de series de potencias, encuentre la solucion
general de las siguientes ecuaciones lineales:
(a) (1 + t2 )x 6tx + 12x = 0
(b) 2(1 + t2 )x 2tx 6x = 0
(c) 6(3 + t2 )x + tx + x = 0
(d) (1 + 21 t2 )x + 81 tx + 16
1
x=0
2
(e) (2 + 7t )x + 35tx + 28x = 0
(f) (3 + 5t2 )x + 20tx + 10x = 0
(g) (2 + 3t2 )x 15tx + 27x = 0
Determine, en cada caso, el radio de convergencia.
(2) En la ecuacion 4x + (4k t2 + 2)x = 0, con k constante:
(a) Demuestre que los coeficientes de la serie estan relaciona-
dos por una recurrencia de tres terminos.
(b) Demuestre que si se hace el cambio de variables x = y
et /4 , la recurrencia tiene ahora dos terminos.
2

(c) Encuentre la solucion general de la ecuacion.


(3) Indique, para cada ecuacion que sigue, si t = 0 es punto ordi-
nario, singular regular o irregular.
(a) t3 (t 1)x 2(t 1)x + 6tx = 0
(b) (2t + 1)tx 3(t + 1)x + x = 0
(c) x + (sent)x = 0
130 6. SERIES DE POTENCIAS Y ECUACIONES DIFERENCIALES

(d) t3 x + (sent)x = 0
(e) x + tntx + tx = 0
(f) costx + x + 2x = 0
(4) Dada la ecuacion de Bessel con p = 0:
tx + x + tx = 0
(a) Recordando que la Transformada de Laplace tiene la propiedad
de que:
d
L(t x(t)) = L(x(t)),
ds
demuestre que una solucion de la ecuacion satisface:
1
L(x(t)) =
2
s +1
(b) Usando el metodo de serie de Frobenius, demuestre que
una solucion es:

(1)n (t/2)2n
x(t) =
n=0
(n!)2

(c) Demuestre algebraicamente que las soluciones obtenidas


en a) y b) coinciden.
(d) Demuestre que otra solucion linealmente independiente
de la anterior es:

(1)n n
1
x2 = nt + 2
(nt )(t/2)2n .
n=1
(n!) k=1
k

(5) Encuentre la solucion general de las siguientes ecuaciones:


(a) t2 x tx + (1 2t2 )x = 0
(b) 2t2 x + 3tx + (5t2 1)x = 0
(c) 3t2 x tx + (1 + t2 )x = 0
(d) 12t2 x + 5tx + (1 + 3t2 )x = 0
(e) t2 x 3tx + (8 t2 )x = 0
(f) t2 x tx + (4 + 4t2 )x = 0
(6) Dada la ecuacion diferencial
t2 x + tp(t)x + q(t)x = 0,
suponiendo que admite soluciones del tipo


x= c(n, r)tn+r ,
n=0
5. EJERCICIOS PROPUESTOS 131

(a) demostrar que si las races de la ecuacion indicial son r1


y r2 , entonces el Wronskiano de las dos soluciones es:


W = tr1 +r2 ( (j i + r2 r1 )c(i, r1 )c(j, r2 ))tk
k=0 i+j=k

(b) demostrar que si la ecuacion indicial tiene races iguales


r = r0 , y la otra solucion se obtiene como x2 = x 1
| , el
r r0
wronskiano es:
c(j, r0 ) k
W = t2r0 ( (j i)c(i, r0 ) )t
k=0 i+j=k
r

(7) Dada la ecuacion diferencial


t2 x + 3tx + (2 + 4t2 )x = 0
(a) Demuestre que es factible encontrar soluciones de la forma


x= cn tn+r
n=0
(b) Demuestre que la ecuacion indicial es r2 + 2r + 2 = 0
(c) Demuestre que t+i = t (cos(nt) + isen(nt)), t >
0.
(d) Demuestre que dos soluciones L.I. de la ecuacion son:

(1)n n
1
x1 (t) = t [cos(nt)+ cos(nt+ Arctgk
n=1
n + 1(n!)3/2 k=1
n 2n
)t ]
2

(1)n n
x2 (t) = 1t [cos(nt)+ sen(nt+ Arctgk
n + 1(n!)3/2
n=1 k=1
n 2n
)t ]
2
(8) Dada la ecuacion diferencial:
t2 x 3tx + (4 + t2 )x = 0
(a) Demuestre que la ecuacion indicial es
r2 4r + 4 = 0
(b) Demuestre que una solucion de la ecuacion es:


(1)n t2n
2
x1 (t) = t (1 + )
n=1
22n (n!)2
132 6. SERIES DE POTENCIAS Y ECUACIONES DIFERENCIALES

(c) Utilizando el hecho de que otra solucion puede obtenerse


de:
x1
x2 = (t, r)|r=r0 ,
r
donde r0 es raz de la ecuacion indicial, demuestre que la
solucion general es:


(1)n t2n
(1)n1 1 2n
n
2
x = t [(c1 + c2 nt) + c2 ( )t ]
n=0
22n (n!)2 n=1
22n (n!)2 k=1 k

(9) (a) En algunas ocasiones, en las recurrencias, dado un cierto


valor de r, existe un valor de n que indetermina la ex-
presion. Es decir, en
f (n, r)
cn = cn1
g(n, r)
existe un cierto n0 , para un valor r0 dado, que cumple que
g(n0 , r0 ) = 0. Como solucionara este problema?
Indicacion: Piense que pasa si f (n0 , r0 ) = 0.
(b) Resuelva, encontrando la solucion general, la siguiente
ecuacion:
t2 x + tx + (t2 1)x = 0
(10) La ecuacion de Hermite es :
x 2tx + 2px = 0
con p constante
(a) Demuestre que dos soluciones L.I. de esta ecuacion son:


(1)n 2n n1 (p 2k)
x1 = 1 + k=0
t2n
n=1
(2n)!



(1)n 2n n1 (p 2k 1)
x2 = t + k=0
t2n+1
n=1
(2n + 1)!
(b) Demuestre que si p es un entero, una de las dos soluciones
es un polinomio. Determine estos polinomios para p =
0, 1, 2, 3, 4, 5.
(c) Cuando el termino que contiene a la potencia mas alta
de t es de la forma 2n tn , se conoce como polinomio de
Hermite, Hn (t) y se sabe que estan dados por la formula:
2 dn t2
Hn (t) = (1)n et e
dtn
5. EJERCICIOS PROPUESTOS 133

Demuestre que Hn (t) satisface la ecuacion diferencial, para


p = n.
(11) Una ecuacion muy importante, por sus propiedades, es la ecuacion
hipergeometrica de Gauss:
t(1 t)x + [c (a + b + 1)t]x abx = 0
(a) Demuestre que una solucion, conocida como serie hiper-
geometrica, esta dada por


a(a + 1) (a + n 1)b(b + 1) (b + n 1)
x=1+ tn
n=1
n!c(c + 1) (c + n 1)
siempre que c no sea cero o entero negativo.
Si se denota a la serie hipergeometrica, en funcion de sus
parametros y de t, como
H(a, b, c, t),
(b) Demuestre que H(1, b, b, t) = 1t
1

(c) Demuestre que si c no es entero negativo o cero, al hacer


el cambio de variables
x = t1c y,
una segunda solucion de la ecuacion hipergeometrica esta
dada por
x = t1c H(a c + 1, b c + 1, 2 c, t)
(d) Demuestre las siguientes propiedades de H:

(1 + t)p = H(p, b, b, t)
n(1 + t) = t H(1, 1, 2, t)
1 1 3
Arcsen t = t H( , , , t2 )
2 2 2
t
et = lim H(a, b, a, )
b b
(e) Demuestre que la solucion general de la ecuacion de Tcheby-
shev:
(1 t2 )x tx + p2 x = 0
se puede expresar, mediante el reemplazo
1
u = (1 t)
2
134 6. SERIES DE POTENCIAS Y ECUACIONES DIFERENCIALES

como
1 1t 1t 1 1 3 1t
x = c1 H(p, p, , ) + c2 ( )H(p + , p + , , )
2 2 2 2 2 2 2
(f) Demuestre que
d ab
H(a, b, c, t) = H(a + 1, b + 1, c + 1, t)
dt c
(g) Demuestre que en la ecuacion de Legendre
(1 t2 )x 2tx + n(n + 1)x = 0
la solucion polinomica, para un entero positivo n dado, es
1
Pn (t) = H(n, n + 1, 1, (1 t))
2
y que esta se puede expresar como

[n/2]
(1)k (2n 2k)!
Pn (t) = tn2k
k=0
2n k!(n k)!(n 2k)!
donde [n/2] es el mayor entero menor o igual a n/2.
(12) En el problema anterior se mencionaron las soluciones de la
ecuacion de Legendre conocidas como Polinomios de Legendre,
Pn (t). Estos polinomios pueden expresarse en forma mas com-
pacta como:
1 dn 2
Pn (t) = (t 1)n
2n n! dtn
(a) Demuestre la propiedad de ortogonalidad, que dice que:
{
1
0 m = n
Pm (t)Pn (t)dt = 2
1 2n+1
m=n
(b) Demuestre que otra forma de escribir la ecuacion de le-
gendre es:
d
((1 t2 )x ) + n(n + 1)x = 0
dt
(c) Utilice el resultado de b) para demostrar que:
1
Pm (t)Pn (t)dt = 0 si m = n
1

(13) La ecuacion de Bessel de orden p es


t2 x + tx + (t2 p2 )x = 0
5. EJERCICIOS PROPUESTOS 135

(a) Demuestre que una solucion esta dada por



(1)n (t/2)2n+p
x=
n=0
n!(p + n)!
cuando p es un entero positivo o cero.
(Esta funcion se conoce como Jp (t), la funcion de Bessel
de primer tipo de orden p).
(b) Demuestre que
d
(J0 (t) t J1 (t)) + J1 (t) + tJ0 (t) = 0
dt
y que
d p
[t Jp (t)] = tp Jp1 (t)
dt
(c) Demuestre que si se hace el cambio de variables:
t = a ub , x = y tc , a, b, c constantes, la ecuacion se
transforma en
d2 y dy
u2 2 + (2c + 1)u + (a2 b2 u2b + (c2 p2 b2 )y = 0
du du
(d) Demuestre que la solucion general de la ecuacion de Airy:
x + tx = 0
es
2 2
x = t1/2 [c1 J 1 ( t3/2 ) + c2 J 1 ( t3/2 )]
3 3 3 3

(e) Demuestre que, para p = 21 , se cumple que:



t J 1 (t) = a cost + b sent
2
t J 1 (t) = c cost + d sent
2
para ciertas constantes a, b, c y d. Concluya que

2 2
J 1 (t) = sent , J 1 (t) = cost
2 t 2 t
(14) Una aplicacion muy utilizada de las ecuaciones diferenciales
es en la modelacion de sistemas dinamicos. Cuando se conoce
muy poco el sistema, es difcil caracterizarlo por un modelo
fenomenologico, y es all donde la estadstica es util.
Suponga que se tiene un sistema dinamico de primer orden,
de la forma:
x (t) = a(t)x + b(t) + c(t)u(t)
que representa a un proceso, es decir, es un modelo del pro-
ceso, en este caso lineal. Con dos sensores, se ha medido N
136 6. SERIES DE POTENCIAS Y ECUACIONES DIFERENCIALES

valores de la salida x y de la entrada u, siendo estos valores


almacenados en la matriz M :

x1 u1
x2 u2
. ..

M = .. .

x u
N 1 N 1
xN uN
Haciendo la aproximacion
x(t + t) x(t)
x (t) =
t
Se pide determinar a(t), b(t) y c(t) en el caso en que son cons-
tantes obteniendo el modelo del proceso. Para ello, realice los
siguientes pasos:
(a) Demuestre que con la aproximacion de la derivada la
ecuacion queda:
x(t + t) = [(1 + a)x(t) + b + cu(t)]t
(b) Lo mas logico es considerar t como el perodo de muestreo
de los valores en M . Suponga que este perodo es de 1 seg
y que en este caso, la ecuacion, llamada modelo discreto,
queda:
x(t + 1) = (1 + a)x(t) + b + cu(t)
(c) Demuestre que si se tienen los datos de M , entonces:

x2 x1 1 u1
x3 x2 1 u2 1 + a
. = . .. .. b
.. .. . . c
xN xN 1 1 uN 1
(d) Lo expuesto en c) es un sistema lineal de N ecuaciones y
3 incognitas. Lo que se hace es, a falta de una solucion
exacta, encontrar la mas aproximada posible, haciendo:

N
min( (xi (1 + a)xi1 b cui1 )2 ).
a,b,c
i=2

Esto se llama metodo de mnimos cuadrados. Demuestre


que la solucion que resuelve la minimizacion esta dada
por:
5. EJERCICIOS PROPUESTOS 137


x2 x1 1 u1
1+a x3 x2 1 u2

b = (AT A)1 AT .. con A= .. .. ..
c . . . .
xn xN 1 1 uN 1
(e) Obtenga un modelo dinamico lineal de primer orden, del
tipo
x = ax + b + cu
con t = 1, para los siguienes datos:

0.80 1
0.90 0.6

0.99 1.8

0.91 1.5
M =
1.29 2.5
1.11 2

1.41 3.1
0.75 0.5
(f) Usando el modelo discreto, haga una simulacion del mod-
elo a partir de los datos de u, y compare con los datos de
x.
CAPTULO 7

Sobre Existencia y Unicidad de Soluciones

En este captulo, estudiaremos bajo que condiciones es posible garan-


tizar la existencia de una unica solucion de una ecuacion diferencial
ordinaria dada.
Las ecuaciones para las cuales es posible encontrar soluciones explcitas
constituyen solo una nfima parte de aquellas a las que se aplican los
resultados de este captulo.

1. Existencia y unicidad de soluciones locales


Consideremos la ecuacion
(1.1) x (t) = f (t, x)
donde f : D Rn es una funcion continua y D Rn+1 un dominio
(conjunto abierto y conexo).
Cuando decimos que una funcion (t) es una solucion de la ecuacion
(1.1), implcitamente asumimos que:
es una funcion diferenciable, con dominio en un intervalo
I R, y valores en Rn ,
para todo t I, (t, (t)) D
(t) = f (t, (t)), para todo t I.
El primer problema es, por cierto, el de dar condiciones sobre la
funcion f que garanticen que la ecuacion (1.1) posee soluciones. Esto
se consigue agregando una condicion inicial que permita demostrar la
existencia de una unica solucion; dado que esta condicion puede ser
elegida en forma casi arbitraria, podremos concluir la existencia de
muchas soluciones de (1.1).
Escojamos pues un punto (t0 , x0 ) D. El tiempo t0 sera el instante
inicial y x0 , la condicion inicial.
Recordemos que, segun la definicion 1.4, una solucion del problema
con valores iniciales
{
x (t) = f (t, x),
(1.2)
x(t0 ) = x0 ,
139
140 7. SOBRE EXISTENCIA Y UNICIDAD DE SOLUCIONES

es una funcion (t) que satisface la ecuacion 1.1 y que ademas verifica,
(i) t0 I = Dom();
(ii) (t0 ) = x0 .
El concepto de solucion incluye implcitamente la existencia de un
intervalo en el cual esta verifica la ecuacion. En 1.3 hemos definido los
conceptos de extension de soluciones y el de solucion maximal. Cuando
el intervalo de definicion de una solucion es toda la recta real, ella es
obviamente maximal. En ese caso decimos que la solucion es global.
Aqu, demostraremos solo criterios de existencia local de soluciones,
cuyo dominio I es posiblemente pequeno.
Ejemplo 1.1. La funcion (t) = 1t , (t D() =]0, [) es una
solucion (de hecho es la unica solucion global) del problema con valores
iniciales
{
x (t) = x2 (t),
(1.3)
x(1) = 1.
En este caso, f (t, x) = x2 es una funcion infinitamente diferenciable
en todo R2 , pero la solucion solo tiene sentido para t ]0, [.
El siguiente es un resultado sobre existencia de soluciones locales.
Se conoce como el Teorema de Cauchy-Peano y su demostracion puede
encontrarse por ejemplo en el libro de F. Simmons y esta basada en
una aproximacion de la solucion mediante curvas poligonales. En este
teorema, D Rn+1 es una region dada por :
D = I R
= {(t, x) : t I, x = (x1 , .., xn ), ai xi bi }
donde I = (a, b) es un intervalo en R.
Teorema 1.1. Sea (t0 , x0 ) D y sea f : D Rn una funcion
continua. Entonces, existe > 0 tal que el problema con valor inicial:
{
x (t) = f (t, x),
(1.4)
x(t0 ) = x0 ,
tiene una solucion (t) con dominio en el intervalo ]x0 , x0 + [.
Hacemos notar que la solucion (t) es local y de hecho el intervalo
]x0 , x0 + [ podra ser muy pequeno. Por otra parte, el teorema solo
garantiza la existencia de una solucion. El ejemplo que sigue muestra
que esta, en general, no es unica, aun cuando satisface una condicion
inicial dada.
1. EXISTENCIA Y UNICIDAD DE SOLUCIONES LOCALES 141

Ejemplo 1.2. Verifique que la funcion :

{
0, si 0 t
(1.5) (t) =
( 32 (x ))3/2 , si t 1,

es una solucion del problema:

{
x (t) = x1/3
(1.6)
x(0) = 0,

definida en el intervalo ]0, 1[.

En este ejemplo la funcion f (t, x) = x1/3 es continua, por lo que el


Teorema de Cauchy-Peano asegura la existencia de una solucion. De
hecho, en este caso existen infinitas soluciones (t), pues es una
constante arbitraria en ]0, 1[.
En lo que sigue presentaremos el metodo de las aproximaciones
sucesivas, o metodo de Picard. Este metodo es de gran utilidad com-
putacional y esta basado en una expresion equivalente al problema con
valor inicial (1.2). Esta expresion consiste de una ecuacion integral, la
cual se obtiene integrando el problema (1.2). Esta ecuacion se llama in-
tegral, pues la incognita aparece bajo el signo de integracion, y consiste
de:

t
(1.7) x(t) = x0 + f (s, x(s))ds.
t0

Notemos que si x(t) es una solucion de la ecuacion (1.1), entonces


integrando desde t0 a t y usando la condicion inicial, se obtiene la
ecuacion integral (1.7).
Recprocamente, si x(t) es una solucion de la ecuacion integral,
entonces evaluando en t = t0 y derivando se obtiene de inmediato que
esta resuelve tambien (1.2).
La ecuacion (1.7) es aparentemente menos restrictiva que el prob-
lema con valor inicial, pues podemos buscar sus soluciones en un con-
junto (el de las funciones continuas) mas amplio que el que usaramos
para una ecuacion diferencial (el de las funciones derivables).
Por simplicidad, tomamos el tiempo inicial t0 = 0 y buscamos
soluciones definidas en un intervalo simetrico [, ] en torno al origen.
As, es natural considerar el conjunto:
142 7. SOBRE EXISTENCIA Y UNICIDAD DE SOLUCIONES

(1.8) M = {v : [, ] Rn : v es continua}.
Dado que una funcion continua definida en un intervalo cerrado y
acotado es automaticamente acotada, podemos usar la expresion:

(1.9) d(u, v) = supt |u(t) v(t)|,


para medir la distancia entre dos elementos u, v M .
Es facil verificar que esta funcion es efectivamente una distancia (o
metrica), es decir, que posee las propiedades:
d(u, v) 0, para todo u, v M ,

d(u, v) = 0 si y solo si u = v,

d(u, v) = d(v, u)

d(u, v) d(v, w) + d(w, v), para todo u, v, w M .


La propiedad siguiente es mucho mas profunda. Sera esencial en la
demostracion del Teorema de Existencia y Unicidad (1.3) y se deja al
lector verificar su demostracion.
Teorema 1.2. La distancia d(u, v) hace de M un espacio metrico
completo, es decir, toda sucesion (vn ) M que es de Cauchy, es
convergente.
Hacemos notar que (vn ) M es una sucesion de Cauchy si d(vn , vm )
tiende a cero cuando n, m tienden a infinito. Esto equivale a d(vn+k , vn )
tiende a cero cuando n tiende a infinito, para cualquier k.
As, (vn ) M es una sucesion de Cauchy si y solo si

sup |vn+k (t) vn (t)|


t
converge a 0, cuando n tiende a .
Observemos que el lado derecho de la ecuacion integral (1.7) define
una funcion T : M M , dada por:
t
(1.10) (T v) = x0 + f (s, v(s))ds.
0

Es claro que (t) es una solucion de la ecuacion integral si y solo si


T = . En otras palabras, podemos formular el problema de existen-
cia de soluciones en terminos de buscar puntos fijos de T en el espacio
1. EXISTENCIA Y UNICIDAD DE SOLUCIONES LOCALES 143

M . Esto se formula precisamente en el siguiente resultado, conocido


como Teorema de Picard:
Teorema 1.3. Supongamos que f : D Rn es continua y que
satisface:

(1.11) |f (t, u) f (t, v)| c|u v|,


para todo (t, u), (t, v) D.
Entonces, si es suficientemente pequeno, T tiene un unico punto
fijo en M
Prueba. Sean u, v M . La hipotesis (1.11) implica inmediatamente
que:

t
|T u(t) T v(t)| = | (f (s, u(s)) f (s, v(s))ds|
0
t
|f (s, u(s)) f (s, v(s))|ds
0
t
c|u(s) v(s)|ds
0
t
cd(u, v) ds
0
cd(u, v),
para t 0. Para t 0, esta desigualdad se demuestra de manera
analoga, de modo que obtenemos:

d(T u, T v) cd(u, v)
Ahora, escogemos suficientemente pequeno de modo que: =
c < 1. Entonces,

(1.12) d(T u, T v) d(u, v).


Construyamos a continuacion las aproximaciones sucesivas. Estas
constituyen una sucesion (n (t)) M que definimos de manera recur-
siva como sigue:
1) 0 (t) = x0
t
2) n+1 (t) = x0 + 0
f (s, n (s))ds,
144 7. SOBRE EXISTENCIA Y UNICIDAD DE SOLUCIONES

para todo t [, ].
En otras palabras, tomamos 0 la funcion con valor constante x0 , 1 =
T 0 , 2 = T 1 y, en general, n+1 = T n .
La desigualdad (1.12) da de inmediato que:

d(n+1 , n ) d(n , n1 )
Ademas, usando recursivamente esta relacion, obtenemos:

d(n+1 , n ) n d(1 , 0 ).
Por otra parte,
t
|1 (t) 0 (t)| = | f (s, x0 )ds|
0
t
|f (s, x0 )|ds
0
L,

donde L es el supremo de la funcion f (t, x0 ) para t , el cual


es un numero finito pues f es una funcion continua. As,

(1.13) d(n+1 , n ) n L

Por lo tanto,

d(n+2 , n ) d(n+2 , n+1 ) + d(n+1 , n )


n+1 L + n L
= (1 + )n L.

Analogamente,

d(n+3 , n ) d(n+3 , n+2 ) + d(n+2 , n )


n+2 L + n+2 L + n L
= (1 + + 2 )n L.

En general, tenemos que:

d(n+k , n ) (1 + + 2 + k1 )L.
1. EXISTENCIA Y UNICIDAD DE SOLUCIONES LOCALES 145

Pero,
1 + + 2 + k1 1 + + 2 +

= k
k=0
1
= ,
1
donde hemos usado que la serie geometrica converge puesto que
< 1.
Por lo tanto, para todo n, k numeros naturales hemos demostrado
que la sucesion n (t) verifica,

L
(1.14) d(n+k , n ) n1 .
1
Esto demuestra que (n (t)) es una sucesion de Cauchy y por lo
tanto converge a una funcion (t) M .
Solo resta verificar que la funcion lmite (t) es el unico punto fijo
de T .
Tomando lmite cuando k tiende a infinito en (1.14), obtenemos
primero,

L
(1.15) d(, n ) n1 .
1
Usando esta relacion y la estimacion (1.12) sigue que,

d(, T ) d(, n+1 ) + d(n+1 , T )


= d(, n+1 ) + d(T n , T )
L
n + d(n , )
1
L L
n + n1
1 1
L
= 2n .
1
Tomando lmite cuando n tiende a infinito, conclumos que d(, T ) =
0, o sea = T . En otras palabras, (t) es un punto fijo de T .
Supongamos por ultimo que (t) es, tambien, un punto fijo de T .
Entonces,
146 7. SOBRE EXISTENCIA Y UNICIDAD DE SOLUCIONES

d(, ) = d(T , T )
d(, ),
de donde
0 (1 )d(, ) 0
y como < 1 obtenemos que d(, ) = 0, o sea = .

La condicion (1.11) es, entonces, la unica hipotesis que debe veri-


ficar la funcion f (t, x) para que el problema:
{
x (t) = f (t, x),
(1.16)
x(f0 ) = x0 ,
tenga una unica solucion, definida en algun intervalo (posiblemente
pequeno) en torno a t0 .
En general, una funcion g(u) que satisface,

|g(u1 ) g(u2 )| c|u1 u2 |


se llama una funcion de Lipchitz y la constante c una constante de
Lipschitz para g. Notemos que si g esta definida sobre un conjunto
cerrado y acotado y es diferenciable entonces, por el Teorema del Valor
Medio, tendremos que:

g(u1 ) g(u2 ) = g ()(u1 u2 )


donde es un punto entre u1 y u2 .
Pero como g es continua, y su dominio es un conjunto cerrado y
acotado, esta resulta ser una funcion acotada. Por lo tanto, existe
C > 0 tal que,

|g(u1 ) g(y2 )| C|u1 u2 |


En otras palabras, g es de Lipschitz.
Corolario 1.1. Supongamos que f : D Rn satisface,
i) f (t, x) es continua
ii) f (t, x) es diferenciable con respecto a su segunda variable.
Entonces, para suficientemente pequeno, el problema:
{
x (t) = f (t, x),
(1.17)
x(t0 ) = x0 ,
tiene una unica solucion definida en el intervalo [t0 , t0 + ].
2. EXISTENCIA DE SOLUCIONES MAXIMALES 147

Observacion 1.1. Tanto o mas importante que la formulacion del


Teorema de Picard es su demostracion. En efecto, en ella esta contenido
el metodo de las aproximaciones sucesivas.
Sea c una constante de Lipchitz para f (t, x), con respecto a su
segunda variable. Por ejemplo, si f x
existe y es continua, podemos
f
tomar c como el supremo de x . Sea suficientemente pequeno, de
modo que 0 < < 1/c.
Definimos entonces las iteraciones n : [t0 , t0 + ] Rn por:
i) 0 (t) = x0 , t
ii) n+1 (t) = x0 + t0 f (s, n (s))ds
El teorema de Picard (mas bien su demostracion) asegura que esta
sucesion converge a la unica solucion de (1.2).
Pero, ademas, conocemos el orden de esta convergencia. En efecto,
si (t) es la solucion, entonces, por (1.15), tenemos que:

(c)n L
(1.18) |n (t) (t)| ,
1 c
donde L es el supremo de f (t, x).
Esta es una expresion explcita del error cometido al aproximar la
solucion (t) por la n-esima aproximacion n (t). Para estimarla, basta
conocer la constante de Lipschitz c y el supremo L de la funcion f (t, x).
El radio del intervalo de existencia queda determinado por la relacion
c < 1.

2. Existencia de soluciones maximales


En la seccion anterior hemos estudiado las condiciones que deter-
minan la existencia local de soluciones de un Problema con Valores
Iniciales (PVI). El teorema 1.3, debido a Picard, asegura que si f es
una funcion que satisface una condicion de Lipschitz en un cierto do-
minio D y que (t0 , x0 ) D, entonces existe > 0 de modo que hay
una unica solucion del PVI asociado a (t0 , x0 ), sobre el intervalo
D() =]t0 , t0 + [. Pero, en muchos casos una solucion puede existir
sobre un intervalo mas grande que ]t0 , t0 + [. Considerese, por
ejemplo, el PVI
{
x = 1 + x2 ,
(2.1)
x(0) = 0.
del cual una solucion es (t) = tan t sobre D() =] /2, /2[. En
este caso, f (t, x) = 1 + x2 no vara con t y ambas, f y f /x son
continuas sobre el plano completo R R. Para determinar el maximo
148 7. SOBRE EXISTENCIA Y UNICIDAD DE SOLUCIONES

valor de segun el procedimiento visto en la seccion anterior, tomemos


un rectangulo en torno al punto (0, 0):
D = {(t, x) : |t| a, |x| b}.
Sobre D, se tiene que |f (t, x)| = |1 + x2 | 1 + b2 = M . Asimismo,
|f (t, x) f (t, y)| = |x2 y 2 | 2b|x y| sobre D, vale decir c = 2b es la
menor constante de Lipschitz que podemos tomar en tal dominio. La
observacion hecha al final de la seccion precedente establece que se
escoja, entonces, en el intervalo ]0, 1/2b[, de modo que disponemos de
soluciones unicas b (t) definidas sobre intervalos D(b ) =]1/2b, 1/2b[.
Debido a la unicidad probada, se tiene b (t) = tan t, sobre ]1/2b, 1/2b[
si b > 1/.
Lo anterior puede parecer un problema artificial bastante molesto.
Sin embargo, tal tipo de dificultades puede ser evitado gracias a la
nocion de solucion maximal introducida en la definicion 1.3 y que recor-
daremos a continuacion, agregando previamente algunas notaciones que
facilitaran la exposicion ulterior.
Acordemos de designar por P V I(t0 , x0 ) el conjunto de todas las
soluciones (D(), ) del problema con valores iniciales
{
x = f (t, x),
.
x(t0 ) = x0 .
La funcion vectorial f satisface las hipotesis de la seccion precedente
en lo que respecta a su dominio de definicion y su rango. El conjunto
P V I(t0 , x0 ) podra obviamente ser vaco: es el caso en que el PVI no
tiene solucion alguna.
Si P V I(t0 , x0 ) = , una solucion maximal (D(), ) P V I(t0 , x0 )
cumple que si otra solucion (D(), ) verifica D() D(), entonces
D() = D() y ambas soluciones coinciden.
En lo que sigue diremos que una funcion es localmente Lipschitz en
un dominio D si dado cualquier rectangulo R D, existe una constante
cR > 0 (que en general depende de R) tal que |f (t, x) f (t, y)|
cR |x y| para todo (t, x), (t, y) R.
Teorema 2.1. Sea f una funcion continua y localmente Lipschitz
en un dominio D de Rn+1 . Si (t0 , x0 ) D, entonces el problema con
valor inicial {
x = f (t, x),
,
x(t0 ) = x0 .
tiene una unica solucion maximal . El dominio de definicion de es
un intervalo abierto de la forma D() =] (t0 , x0 ), + (t0 , x0 )[.
2. EXISTENCIA DE SOLUCIONES MAXIMALES 149

Prueba. En primer lugar, observemos que la propiedad de Lipschitz


local implica que el conjunto P V I(t0 , x0 ) no sea vaco. En efecto, basta
considerar un rectangulo R en torno a (t0 , x0 ) que quede includo en
D. El resultado de existencia de soluciones locales se aplica al interior
de dicho rectangulo: existe un > 0 y una solucion unica del problema
con valores iniciales definida sobre ]t0 , t0 + [.
En segundo lugar, sean (D(1 ), 1 ), (D(2 ), 2 ) dos elementos de
P V I(t0 , x0 ). Entonces 1 (t) = 2 (t) para todo t D(1 ) D(2 ).
En efecto, si D(1 ) D(2 ) = la propiedad se cumple trivialmente;
si D(1 ) D(2 ) = , sobre tal dominio se verifica la propiedad de
unicidad local, pero sobre el 1 y 2 son soluciones, luego 1 (t) = 2 (t)
para todo t D(1 ) D(2 ).
Definamos ahora el conjunto D() como la reunion de todos los
dominios de soluciones:

(2.2) D() = D().
(D(),)P V I(t0 ,x0 )

Lo anterior significa que t D() si y solo si existe una solucion


(D(), ) tal que t pertenezca al dominio D(). Entonces se define
en ese punto t como (t) = (t). Por el resultado de unicidad local
queda as definida sobre todo D() sin ambiguedad.
Mas aun, si (D(), ) es cualquier solucion, por la definicion dada
de D() se tiene obviamente que D() D(). Y si se supone que
D() D(), entonces viene D() = D(), coincidiendo y a
consecuencia del resultado de unicidad local. En consecuencia, es
una solucion maximal.
Si tuviesemos mas de una solucion maximal, por ejemplo, supong-
amos que 1 sea otra solucion de aquellas, entonces, sobre todo otro
dominio D() correspondiente a una solucion (local) del PVI se tendra:

(2.3) (t) = (t) = 1 (t), (t D()),

pues las soluciones maximales extienden las locales. Pero lo ante-


rior implica la igualdad de y 1 sobre todo D(). En efecto, dado
cualquier punto t D(), por la definicion de ese dominio, existe
(D(), ) P V I(t0 , x0 ) tal que t D() y se cumple entonces (2.3).
En consecuencia, la solucion maximal es unica.
Finalmente, siendo intervalos abiertos los dominios D() de las
soluciones locales, la reunion de ellos es tambien un intervalo abierto,
lo que permite deducir la forma del dominio D().
150 7. SOBRE EXISTENCIA Y UNICIDAD DE SOLUCIONES

Ejemplo 2.1. Considerar el problema con valores iniciales


{
x = 2tx2 ,
(2.4)
x(t0 ) = x0 .
Si x0 = 0, la unica solucion maximal es (t) = 0, (t > 0). Si x0 = 0,
entonces la unica solucion maximal satisface
(t)
= 2t,
2 (t)
para |t t0 | suficientemente pequeno. Luego,
1
(t) = ,
1
x0
+ t20 t2

para (t0 , x0 ) = 1
x0
+ t20 t2 < t < + (t0 , x0 ) = 1
x0
+ t20 t2 .

3. Ejercicios propuestos
(1) Considerar el problema con valores iniciales


x = y

y = sen(xy)
(3.1)

x(0) = 0


y(0) = 0.
que puede ser escrito en representacion vectorial en la forma
X = F (X),
donde
( ) ( )
x y
F (X) = F = .
y sen(xy)
a) Pruebe que la funcion F satisface una condicion de Lips-
chitz. Deduzca que existe una solucion unica del problema
en [, ] para algun
> 0.
b) Pruebe que C = 6 es una constante de Lipschitz apropi-
ada y que existe una
unica solucion en el intervalo [1/ 6, 1/ 6].
c) Escoja = 1/10 6 y determine una cota para el error
cometido al usar la aproximacion de Picard con n itera-
ciones.
d) Determine el numero n de iteraciones necesarias para tener
un error 0, 01 al usar el metodo de aproximacion de Pi-
card.
3. EJERCICIOS PROPUESTOS 151

(2) Considere el problema con valores iniciales:




x = x2 2 ,


x +y
y = y , (t > 0)
(3.2) x2 +y 2



x(0) = 0,

y(0) = 0.

a) Demuestre que en todo punto t > 0 en que x(t) no es


nula, se tiene
y(t)
= Const.
x(t)
b) Pruebe, tambien que
d 2
x (t) + y 2 (t) = 1.
dt
c) Inspirado de lo anterior, exhiba soluciones del problema
con valores iniciales.
d) Compare lo obtenido con las conclusiones del Teorema de
Existencia y Unicidad de soluciones de ecuaciones difer-
enciales.
(3) Encuentre todas las soluciones del problema de valores iniciales
{
x = |x|,
.
x(0) = 0.
Hacia cual solucion convergen las aproximaciones sucesi-
vas?
CAPTULO 8

Estudio cualitativo de Ecuaciones Diferenciales

No hemos enfatizado lo suficiente el hecho que no hay metodos


generales para resolver la ecuacion
(0.3) x = f (t, x),
en el caso en que f es una funcion no lineal de las variables x =
(x1 , x2 , , xn ) y aun en el caso lineal con coeficientes variables. Dado
que en muchas aplicaciones, las ecuaciones que modelan los fenomenos
naturales involucran terminos no lineales, es conveniente contar con
herramientas que permitan un estudio cualitativo de las soluciones, sin
conocerlas explcitamente. En la practica, este estudio es muchas ve-
ces suficiente para la comprension del fenomeno mismo. Como ejemplo,
recordemos el modelo para poblaciones en competencia que discutimos
en el Captulo 1, vale decir las Ecuaciones de Lotka-Volterra, (3.8), (3.9)
que reescribimos a continuacion para facilitar su referencia:

x1 (t) = x1 (t)(1 1,1 x1 (t) 1,2 x2 (t))


x2 (t) = x2 (t)(2 2,1 x1 (t) 2,2 x2 (t)),
donde x1 (t) y x2 (t) representan los tamanos de dos especies que com-
piten por los recursos disponibles, en el instante de tiempo t. Bajo
condiciones iniciales dadas, ciertamente sera interesante conocer el
valor exacto de las soluciones. Sin embargo, desde el punto de vista del
estudio global de las poblaciones en competencia, bastara responder a
preguntas como las siguientes:
Existen soluciones constantes x1 (t) x1 ,x2 (t) x2 ? Dichas
soluciones se conocen como puntos estacionarios o puntos crticos
( o puntos de equilibrio) y corresponden a tamanos de las es-
pecies tales que ellas puedan coexistir en equilibrio.
Si x1 (t) x1 ,x2 (t) x2 son soluciones estacionarias, que
sucede cuando agregamos ( o sacamos) al sistema unos pocos
individuos a una de estas especies?. Se mantendran ambas
poblaciones en tamanos cercanos a sus puntos de equilibrio, o
una de ellas crecera sin control?
153
154 8. ESTUDIO CUALITATIVO DE ECUACIONES DIFERENCIALES

Es interesante destacar que es posible responder a preguntas como


las anteriores con bastante precision, aun cuando no conozcamos las
soluciones en forma explcita. De hecho, la primera pregunta tiene una
respuesta inmediata.

1. Estabilidad, conceptos generales


Definicion 1.1. Sea f (t, x) una funcion definida en I D, donde
I es un intervalo y D es una region en Rn . Un punto crtico o punto
de equilibrio de la ecuacion x = f (t, x) es un valor x0 D para el
cual se tiene que f (t, x0 ) = 0.
Notemos que la funcion x(t) x0 es una solucion de la ecuacion
diferencial que tiene valor inicial x(t0 ) = x0 , de modo que este valor es
un estado estacionario o de equilibrio del problema.
Ejemplo 1.1. Encontrar las soluciones de equilibrio del sistema
{
x1 = 20x1 + x22 + 24
x2 = 2x1 x2
Solucion. El sistema algebraico
{
20x1 + x22 + 24 = 0
2x1 x2 = 0
tiene como soluciones (3, 6), (2, 1). As, las soluciones de equilibrio son
x(t) 3, x2 (t) 6, ademas de x1 (t) 2, x2 (t) 1.
Ejemplo 1.2. Encontrar los puntos crticos de la ecuacion x +
4x + x = 8.
Primero escribimos la ecuacion como el sistema de primer orden
{
x =y
y = 8 4x y
Claramente, el unico punto de equilibrio es (2, 0).
La segunda pregunta que recien formulamos da origen al concepto
de estabilidad, el cual es el problema principal en la teora cualitativa de
ecuaciones diferenciales y mas generalmente, en el estudio de sistemas
dinamicos. Mas alla de las aplicaciones de la teora de estabilidad en
el estudio del fenomeno mismo, esta es de gran importancia practica,
debido a que toda medicion o dato emprico conlleva un error. As, los
datos iniciales que se observan o imponen para determinar una unica
solucion a una ecuacion dada, pueden contener algun error, el que puede
causar (cuando hay inestabilidad) que la solucion sea globablemente
muy distinta a la solucion exacta.
1. ESTABILIDAD, CONCEPTOS GENERALES 155

Ejemplo 1.3. Es facil verificar que x1 (t) = 0, x2 (t) = 0 es la unica


solucion del sistema {
x1 = x1 + x2
x2 = x2
que satisface las condiciones iniciales x1 (0) = 0, x2 (0) = 0. Supong-
amos que nuestras mediciones admitan un error del orden de 103 ,
por ejemplo, consideremos condiciones iniciales x1 (t) = 0.002, x2 (t) =
0.001. Entonces, la solucion es x1 (t) = (0.001t + 0.002)et , x2 (t) =
0.001et . Claramente, al incrementar el tiempo t, esta ultima se aleja,
de manera exponencial de la solucion exacta.
El estudio de la estabilidad de soluciones de una ecuacion diferencial
es bastante complicado en general. Aqu, solo nos ocuparemos del caso
autonomo, vale decir, de la ecuacion,
(1.1) x = f (x),
donde f es una funcion con valores en Rn , definida en una region D
Rn .
Definicion 1.2. Decimos que una solucion (t) de la ecuacion
x = f (x) es estable si dado > 0, existe > 0 tal que si es
otra solucion para la cual se verifica que ||(0) (0)|| < , entonces,
||(t) (t)|| < , para todo t. En otras palabras, es estable cuando
toda otra solucion que parte, inicialmente en t = 0, cerca de (0), se
matiene cerca de (t), para todo instante de tiempo futuro t.
Una solucion es asintoticamente estable si es estable y si toda
otra solucion que parte suficientemente cerca de (0), converge a
(t), cuando t converge a infinito, vale decir, si existe un numero ,
suficientemente pequeno , para el cual se verifica que si ||(0)(0)|| <
, entonces ||(t) (t)|| converge a cero, cuando t converge a infinito.
Esta definicion se refiere a una solucion cualquiera pero, en la
practica, muchas veces estamos interesados en estudiar la estabilidad
de las soluciones que son puntos de equilibrio. Notemos que una tal
solucion (t) x0 , es asintoticamente estable si y solo si toda otra
solucion que parte suficientemente cerca de x0 no solo se mantiene cerca
de este valor , sino ademas converge a el, cuando t .Esto corre-
sponde, en el caso de poblaciones en competencia, a aquellos tamanos
de las especies para los cuales , si agregamos o sacamos unos pocos
individuos, las poblaciones tenderan a un punto de equilibrio.
Ejemplo 1.4. El sistema no lineal
{
x1 = 4x1 2x1 x2
x2 = x2 x1 x2
156 8. ESTUDIO CUALITATIVO DE ECUACIONES DIFERENCIALES

describe, por ejemplo, la interaccion de dos especies de tamanos x1 (t),


x2 (t) respectivamente. Sus puntos crticos son (0, 0) y (1, 2) y rep-
resentan tamanos (en unidades adecuadas) en los cuales las especies
conviven en equilibrio. La estabilidad de uno de estos puntos crticos
representa el hecho que si cambiamos un poco uno de estos puntos,
entonces las especies se mantendran cerca de este valor. La estabilidad
asintotica significa que ademas, las especies se acercaran en dicho valor,
cuando el tiempo t crece.

2. Estabilidad de sistemas lineales homogeneos en dimension


2
En la siguiente seccion presentaremos un estudio general acerca de
la estabilidad para sistemas lineales con coeficientes constantes. Aqu,
comenzamos por el caso mas simple, el de los sistemas de dos ecuaciones
en dos incognitas. Consideremos entonces el sistema,

X = AX,
donde, ( )
a b
A=
c d
El polinomio caracterstico de la matriz de coeficientes A, puede ser
escrito
L() = 2 tr(A) + det(A).
El discriminante vale entonces:
= (tr(A))2 4det(A)
Caso 1. Los valores propios de A son reales, distintos y tienen el
mismo signo. Esto ocurre cuando (tr(A))2 4det(A) y det(A) > 0
En este caso, existen vectores propios linealmente independientes
v1 , v2 con Av1 = 1 v1 , Av2 = 2 v2 . Ademas, la solucion general tiene
la forma,
(t) = c1 eAt v1 + c2 eAt v2
= c1 e1 t v1 + c2 e2 v2 ,
con c1 y c2 constantes arbitrarias.
El comportamiento asintotico de la solucion general, para valores
grandes de t, depende directamente del signo de los valores propios.
El origen es nodo estable o atractor o foco: 1 , 2 < 0.
En este caso, (t) 0, cuando t y, por lo tanto, toda
solucion es asintoticamente estable, para t positivo.
2. ESTABILIDAD DE SISTEMAS LINEALES HOMOGENEOS EN DIMENSION157
2

El origen es nodo inestable o repulsor o fuente: 1 , 2 >


0. Esta vez toda solucion converge a infinito cuando t .
158 8. ESTUDIO CUALITATIVO DE ECUACIONES DIFERENCIALES

Caso 2. Los valores propios son reales e iguales. Esto ocurre si


tr(A)2 = 4dete(A).
En este caso, la solucion general tiene la forma (t) = et (v1 + tv2 ),
con = 1 = 2 .
De nuevo el origen es un nodo estable si < 0 e inestable si > 0.
Algunos autores llaman a este tipo de nodos, nodos impropios.
2. ESTABILIDAD DE SISTEMAS LINEALES HOMOGENEOS EN DIMENSION159
2

Caso 3. Los valores propios satisfacen 1 < 0 < 2 . Este caso se da


cuando tr(A)2 > 4det(A) y det(A) < 0.
En este caso, hay soluciones de dos tipos: e1 t v1 , que converge a
cero cuando t y e2 t v1 , que converge a infinito.
Aqu decimos que el origen es un punto silla.
160 8. ESTUDIO CUALITATIVO DE ECUACIONES DIFERENCIALES

Caso 4. Los valores propios son numeros complejos conjugados, lo que


ocurre si tr(A)2 < 4det(A) .
En este caso, las soluciones son espirales o elipses.

Si tr(A) < 0, tenemos orbitas en espiral, el origen es asintoticamente


estable. Se dice que es un pozo o atractor en espiral.
Si tr(A) > 0, el origen es un repulsor en espiral.
Si tr(A) = 0, las orbitas son periodicas. El origen es estable y
se dice que es un centro.
2. ESTABILIDAD DE SISTEMAS LINEALES HOMOGENEOS EN DIMENSION161
2
162 8. ESTUDIO CUALITATIVO DE ECUACIONES DIFERENCIALES

Atractores det (A) Repulsores

=0
Espirales Espirales

Centros
<0,tr=0
Fo
co

s
s

Nodos co Nodos
Fo >0, tr>0
>0, tr<0
tr (A)

Sillas
3. ESTABILIDAD PARA SISTEMAS LINEALES 163

3. Estabilidad para sistemas lineales


El caso general de sistemas lineales con coeficientes constantes de
cualquier dimension, puede ser analizado de manera similar al caso de
dimension 2. Dicho caso general tiene una respuesta completa, puesto
que al menos teoricamente, sabemos como encontrar todas las solu-
ciones de manera explcita. Por cierto, resulta mas interesante el estu-
dio de los sistemas no lineales, pero, como veremos mas adelante, en
algunos situaciones, este ultimo podra reducirse a un caso lineal.
Consideremos entonces el sistema lineal
(3.1) x = Ax,
donde A es una matriz constante nn. Notemos que la solucion trivial
(t) 0 es un punto estacionario y por el resultado siguiente, basta
estudiar su estabilidad.
Lema 3.1. Toda solucion del sistema x = Ax es estable si y solo
si la solucion trivial es estable.
Prueba. Supongamos que la solucion nula es estable y sea (t) una
solucion cualquiera. Demostraremos que esta ultima es estable y para
eso consideremos otra solucion (t) tal que (0) esta cerca de (0). En-
tonces, la diferencia (t) (t) es una solucion cuyo valor inicial esta
cerca de 0 y como la solucion trivial es estable, conclumos se mantiene
cerca de 0, para todo valor de t. O sea ,(t) se mantiene cerca de (t),
para todo t.

Teorema 3.1. Si todos los valores propios de la matriz A tienen


su parte real negativa, entonces las soluciones de x = Ax son es-
tables , para valores positivos de t. Mas aun, la solucion trivial es
asintoticamente estable.
Prueba. Recordemos que en un captulo anterior mostramos como
calcular la solucion general de un sistema con coeficientes constantes.
En general, esta solucion sera una combinacion lineal de vectores de la
forma et v o, cuando la matriz A no es diagonalizable, un polinomio en
t por una combinacion lineal de ese tipo. En cualquier caso, cuando los
valores propios tienen su parte real negativa, la solucion convergera a
cero, cuando t tienda a imfinito. Dejamos como ejercicio verificar que ,
si la solucion parte inicialmente cerca del origen, entonces se mantiene
cerca del origen para todo t > 0. Esto demuestra que la solucion trivial
es estable y, por el lema anterior, todas las soluciones son estables.
164 8. ESTUDIO CUALITATIVO DE ECUACIONES DIFERENCIALES

4. El metodo de Liapunov
Presentaremos en lo que sigue, el metodo de Liapunov para analizar
la estabilidad de un punto de equilibrio. Este tiene como base la idea
intuitiva de que cuando la energa de una partcula tiene un valor
mnimo, entonces ella esta en un estado estable. Consideremos el sis-
tema autonomo
{
x1 = f1 (x1 , x2 )
(4.1) ,
x2 = f2 (x1 , x2 )
donde f = (f1 , f2 ) es una funcion definida en una region D R R,
con valores reales.
Suponemos que el origen (0, 0) es un punto crtico del sistema, que
esta en el interior de D.
Una funcion de Liapunov para este sistema , es una funcion E(x1 , x2 ),
de clase C 1 , definida en D R R que verifica,
(i) E(0, 0) = 0 y E(x1 , x2 ) > 0 , para todo (x1 , x2 ) D con
(x1 , x2 ) = (0, 0).
(ii) la funcion F (x1 , x2 ) = x
E
1
E
f1 + x 2
f2 satisface F (0, 0) = 0
y F (x1 , x2 ) 0 , para todo (x1 , x2 ) D con (x1 , x2 ) = (0, 0).
Una funcion E(x1 , x2 ) que satisface la propiedad (i) se llama definida
positiva o de tipo positivo, en cambio una que verifica (ii) se llama neg-
ativa semipositiva o de tipo seminegativo. En forma similar, se definen
las funciones negativa definida y positiva semidefinida.
Intuitivamente, si E(x1 , x2 ) es positiva definida, entonces el grafico,
en el espacio R3 , de la superficie x3 = E(x1 , x2 ) se parece a un paraboloide
que se abre hacia arriba del plano (x1 , x2 ), con vertice en el origen.
La importancia de una funcion de Liapunov para el sistema de ecua-
ciones, proviene del hecho que si (t) = (x1 (t), x2 (t)) es una solucion del
mismo, entonces , a lo largo de la trayectoria (x1 (t), x2 (t)), la funcion
e(t) = E(x1 (t), x2 (t)) tiene derivada,
d E E
E(x1 (t), x2 (t)) = f1 + f2 ,
dt x1 x2
que es siempre negativa semidefinida, por lo que e(t) es decreciente.
Usando este hecho, se puede demostrar el siguiente resultado.
Teorema 4.1. Si existe una funcion de Liapunov para el sistema
(fsisnoli), entonces el origen (0, 0) es estable.
E E
Si ademas la funcion F (x1 , x2 ) = x 1
f1 + x 2
es negativa definida,
entonces el origen es asintoticamente estable.
5. LINEALIZACION 165

Prueba. Supongamos que existe una funcion de Liapunov E(x1 , x2 )


para el sistema (??.5). Sea la circunferencia de radio centrada en el
origen y supongamos que es pequeno de modo que la bola (crculo) de
este radio esta contenido en el interior de la region D. Como E(x1 , x2 )
es una funcion continua en , ella tiene un valor mnimo m en esta
curva. Por otra parte, E(0, 0) = 0 y tambien por continuidad, se tiene
que existe > 0 tal que E(x1 , x2 ) < m, para todo x = (x1 , x2 ) que este
en la bola B de radio .
Sea ahora (t) = (x1 (t), x2 (t)) una solucion con dato inicial (0) en
la bola B . Por una observacion previa, tenemos que e(t) = E(x1 (t), x2 (t))
es una funcion decreciente y, por lo tanto, e(x1 (t), x2 (t)) < m, para todo
t positivo. Pero entonces la trayectoria (t) = (x1 (t), x2 (t)) no puede
cruzar la circunferencia y debe quedar enteramente contenida en la
bola de radio . Es decir, el origen es estable. La demostracion de la
estabilidad asintotica, cuando e(t) es estrictamente decrecienta, queda
propuesta como ejercicio.

Ejemplo 4.1. Consideremos el movimiento de un bloque de masa


m sujeto a un resorte. Si tomamos en cuenta el roce, entonces dicho
movimiento se modela por la ecuacion de Newton,
mx = kx cx .
Esta ecuacion equivale al sistema
{
x1 = x2
(4.2) ,
x2 = ax1 + bx2
donde a = m k
y b = mc . El unico punto crtico de esta ecuacion
es el origen. Ademas, la energa correspondiente es E(x1 (t), x2 (t)) =
1
2
mx22 + 12 kx21 . Es facil verificar que esta ultima es, de hecho, una
funcion de Liapunov, por lo que podemos concluir que (0, 0) es estable.
Notemos que la funcion F (x1 , x2 ) en (ii) es, en este caso, solamente
positiva semidefinida, por lo que no podemos asegurar que el origen
sea asintoticamente estable.
Hacemos notar en este punto que en muchas situaciones pude re-
sultar muy difcil encontrar funciones de Liapunov. Conviene para
ello, recordar los criterios para decidir cuando una forma cuadratica
ax21 + bx1 x2 + cx22 es positiva o negativa definida.

5. Linealizacion
Consideremos nuevamente el sistema nolineal
166 8. ESTUDIO CUALITATIVO DE ECUACIONES DIFERENCIALES

{
x1 = f1 (x1 , x2 )
(5.1)
x2 = f2 (x1 , x2 ),
donde F (x1 , x2 ) = (f1 (x1 , x2 ), f2 (x1 , x2 )) es una funcion diferenciable
que satisface F (0, 0) = (0, 0)
Cuando la funcion F (x1 , x2 ) ( o cada una de sus coordenadas) es
analtica, entonces el sistema pude ser escrito en la forma,
{
x1 = ax1 + bx2 + a2 x21 + a3 x22 + a4 x1 x2 +
(5.2)
x2 = cx1 + dx2 + b2 x21 + b3 x22 + b4 x1 x2 + ,
donde las series de potencias en las variables (x1 , x2 ) no tienen terminos
constantes, puesto que F (0, 0) = (0, 0).
Consideramos ahora el sistema lineal asociado,
{
x1 = ax1 + bx2
(5.3)
x2 = cx1 + dx2 ,
para el cual, de acuerdo a un resultado anterior, tenemos un respuesta
completa al estudio de la estabilidad de la solucion trivial (0, 0), en
terminos de los valores propios de la matriz de coeficientes,
( )
a b
A=
c d
Notemos que la diferencia entre ambos sistemas, vale decir, los
terminos nolineales, es grande, pero, para valores de (x1 , x2 ) cercanos
al origen (0, 0), ella es despreciable. Por esta razon, resulta razonable
pensar que la estabilidad de la solucion trivial para la ecuacion no li-
neal dada, este relacionada con su estabilidad para la ecuacion lineal
asociada. Esta ultima depende solo de los valores propios de la matriz
A.
El teorema que sigue establece esencialmente este hecho. En su
enunciado usaremos la notacion
f1 (x) = ax1 + bx2 + a2 x21 + a3 x22 + a4 x1 x2 + = ax1 + bx2 + g1 (x),
f2 (x) = cx1 + dx2 + b2 x21 + b3 x22 + b4 x1 x2 + = cx1 + dx2 + g2 (x).
Es decir, la funcion G(x) = (g1 (x), g2 (x)), con x = (x1 , x2 ), representa
a los terminos nolineales.
Teorema 5.1. Supongamos que la funcion G(x) ||x||
es continua y se
anula en el origen. Entonces, la solucion trivial (0, 0) de la ecuacion
nolineal es asintoticamente estable si la solucion trivial de la ecuacion
lineal asociada tambien es asintoticamente estable.
5. LINEALIZACION 167

Prueba. Supongamos que los valores propios de la matriz A tienen su


parte real negativa. Este es el caso cuando el origen es asintoticamente
estable. Ademas, se tiene que las soluciones de la ecuacion lineal aso-
ciada decrecen exponencialmente cuando t , o sea,
||eAt v|| ceat ||v||,
para todo v R2 . Dejamos como ejercicio la demostracion de este
hecho, ascomo de la desigualdad v Av a||v||2 , donde u v denota
el producto interior de dos vectores u, v.
Sea (t) una solucion. Demostremos primero que si el dato inicial
(0) es suficientemente pequeno, entonces , a medida que transcurre el
tiempo, esta solucion se acerca al origen. Para esto, basta demostrar
que ||(t)||2 es una funcion decreciente de t. Ahora bien,
d 1 1d
( ||(t)||2 ) = ((t) (t))
dt 2 2 dt
d
= (t) (t)
dt
= (t) (A(t) + G((t)))
a||(t)||2 + (t) G((t)).
Pero, por la hipotesis del teorema, tenemos que existe un radio r > 0
tal que si ||v|| < r, entonces ||G(v)|| a2 ||v||. Luego, por la desigualdad
de Cauchy Schwarz,
d
(||(t)||2 ) a||(t)||2 + ||(t)||||G((t))||
dt
a
a||(t)||2 + ||(t)||2
2
a
= ||(t)|| ,2
2

para cada instante t para el cual ||(t)|| < r. As, si el dato inicial es
suficientemente pequeno , entonces la norma de la solucion decrece en
el tiempo. Por lo tanto, la solucion trivial es estable. Por otra parte,
de las desigualdades anteriores tambien se obtiene que,
a
||(t)||2 + ||(t)||2 0,
2
de donde se concluye facilmente que la norma de la solucon es expo-
nencialmente decreciente y, por lo tanto, la solucon trivial es, de hecho,
asintoticamente estable.

Notemos finalmente que se demuestra en forma similar que , si la


matriz A tiene un valor propio con parte real positiva, entonces, la
168 8. ESTUDIO CUALITATIVO DE ECUACIONES DIFERENCIALES

solucion trivial es inestable. Es posible obtener resultados mas gen-


erales que los presentados aqu, pero sus demostraciones utilizan con-
ceptos que no corresponden al contenido de este texto.
Ejemplo 5.1. Consideremos el sistema
{
x1 = 4x1 x2 + x21 + x22
(5.4) .
x2 = 2x1 + x2 + 3x22
La matriz de coeficientes del sistema linearizado es
( )
4 1
A=
2 1
Como sus valores propios son numeros positivos, el origen es un punto
de equilibrio inestable.
Notemos que el metodo de linearizacion se aplica en este caso,
puesto que los terminos nolineales satisfacen,

x2 + x22
1 x21 + x22 ,
x21 + x22

3x22
3 x21 + x22 .
x21 + x22
Estas ultimas son funciones continuas que se anulan en el origen
Ejemplo 5.2. El sistema
{
x1 = x1 + 2x2 + x31
(5.5) .
x2 = 2x1 + 2x2 + 3x32
tambien puede ser estudiado usando linearizacion. La matriz de coefi-
cientes del sistema linearizado es
( )
1 2
A=
2 2
Como sus valores propios son numeros 1 y 2, el origen es un punto
de equilibrio asintoticamente inestable.

6. Ejercicios propuestos
(1) Recordando que un punto de equilibrio es una solucion cons-
tante de una ecuacion, encuentre los puntos de equilibiro de
las siguientes ecuaciones y sistemas:
(a) x + 5x + 6x = 1
(b) x1 = sen(x2 )
x2 = ex1 x2 1
6. EJERCICIOS PROPUESTOS 169

x1 + x2
(c) = x1
x1 + x2
x1 x2
= x2
x1 + x2

(d) (x + 1)ex = x 1
(2) Determine si el punto de equilibrio de los sistemas siguientes
es estable o inestable:
(a) x = 4x 6y
y = x + y
(b) x = 2x + y
y = 6x 3y
(c) x = 21 x
y = 41 x + 12 y
(d) x = 7x + 12y + 12z
y = x + 3y + 3z
z = 7x 13y 13z
(e) x = 7y + 13z
y = 4y + 8z
z = 3y 6z
(f) x = x + y
y = y + z
z = 3x 9y 7z 5w
w = 4x + 8y + 8z + 4w
(g) x = 21 x 12 z 12 w
y = 25 x y + 72 z + 32 w
z = x + z + w
w = 27 x + y 32 z 12 w
170 8. ESTUDIO CUALITATIVO DE ECUACIONES DIFERENCIALES

(3) Cuando un sistema lineal es no homogeneo de la forma x =


Ax + b, con b constante, el analisis de los puntos de equilibrio
se hace por medio de una traslacion. Encuentre el punto de
equilibrio y analice su estabilidad para los siguientes casos:
(a) x = x + y 2
y = 12x 6y + 18
(b) x = 49x 81y + 567
y = 25x + 41y 287
(c) x = 3x 6y + 45
y = x + 2y 15
(d) x = 10x + 14y + 15z 224
y = x + 3y + 3z 39
z = 10x 15y 16z + 235
(e) x = 2x 7y 17z + 102
y = 4x + 16y + 35z 212
z = 2x 8y 17z + 104
(f) x = 5x 5y 9z 5w + 104
y = 4x + 4y + 8z + 5w 90
z = x + z + w 14
w = y + z 7
(g) x = 13x + 100y + 40z + 78w 844
y = 15x 101y 40z 81w + 875
z = 29x + 205y + 81z + 163w 1756
w = x + w 13
(4) Cuando un sistema lineal es homogeneo, de la forma x =
Ax + b(x), con b(x) tal que:
b(x)
lim =0
x0 x

entonces, se puede hacer un analisis de estabilidad utilizando


el sistema lineal asociado cx = Ax. Cerifique esta condicion
en los siguientes sistemas y si se cumple, analice la estabilidad
de los puntos de equilibrio.
(a) x = 2x + y + x2
y = 20x 7y + xy
(b) x = x + x3
4
y = x y2
(c) x = 6x 2y 2(1 cosx)
y = 13x + 4y + exy 1
(d) x = 4x + 9y + 23z + senx2
y = 2x + 5y + 13z xy 5
z = 2x 4y 11z + 4xyz
6. EJERCICIOS PROPUESTOS 171

(e) x = x y + z + 1
y = x + y
z = 3x 4y 3z
(f) x = 3x 10y x2
y = x + y + xy 4
(g) x = 10x 3y + y 3 /x
y = 21x + 6y 2x/y
(5) En el caso de sistemas no lineales, del tipo x = F (x), tambien
se puede hacer un analisis de los puntos de equilibrio. Si x0
es tal que F (x0 ) = 0, se puede hacer la traslacion x = x x0
de modo que el nuevo sistema tendra en x = 0 un punto de
equilibrio.
(a) Demuestre que si se define G(x) = F (x + x0 ), entonces
G(x) = G (0)x + 0(x)
con G matriz Jacobiana de G, y 0(x) tal que:
0(x)
lim = 0.
x0 x

(b) Demuestre que la estabilidad de los puntos de equilibrio


esta dada en general por la matriz G (0), y en que casos
particulares esto no se da.
(6) Dado el sistema:
dx1
= sen(x1 + x2 )
dt
dx1
= ex1 1
dt
(a) Demuestre que los puntos de equilibrio son de la forma:
x1 = 0
x2 = n , nZ.
(b) Demuestre que si n es impar, el punto de equilibrio es
estable, mientras que si n es par, es inestable.
(7) Se tiene un pendulo simple, formado por una masa m sujeta
a un punto fijo por una barra ideal (sin peso) de largo L. Sea
el angulo que forma la barra con una vertical bajo el punto
fijo, medido en sentido antihorario. Suponga que no hay roce.
(a) Demuestre que la ecuacion de movimiento, definida a par-
tir de , es:
g
+ sen = 0

Se recomiendo usar coordenadas polares.
172 8. ESTUDIO CUALITATIVO DE ECUACIONES DIFERENCIALES

(b) Demuestre que existen dos posiciones de equilibrio.


(c) Demuestre que solo una de ellas es estable.
(8) Se quiere ahora analizar la estabilidad de las ecuaciones en las
cuales x no se puede despejar.
Sea la ecuacion:
f (x, x ) = 0
y suponga que x0 es un punto de equilibrio.
(a) Demuestre que si se definen
x = x xo
g(x, x1 ) = f (x + x0 , x1 )
la condicion de estabilidad del punto x0 es:
g
(0, 0) g
x
>0 (con (0, 0) = 0)
g
x1
(0, 0) x1
(b) Analice la estabilidad del sistema
F (x, x ) = 0
utilizando el concepto de a).
(c) Analice la estabilidad del punto de equilibrio de:

(x 1)e2x = x
CAPTULO 9

Apendice: Complementos de Algebra Lineal

Este apendice no pretende desarrollar las materias que son propias


de un curso de Algebra Lineal. En nuestra opinion, es siempre preferi-
ble que quien se interna en el mundo de las ecuaciones diferenciales
lo haga provisto de buenos conocimientos en algunos temas de Alge-
bra Lineal, que nos han parecido util resenar aqu para una mas facil
referencia. En consecuencia, las demostraciones de los principales re-
sultados de este captulo seran omitidas, salvo aquellas propiedades
que no se encuentran con facilidad en la literatura corriente de Alge-
bra Lineal. Si el lector desea mayor profundidad en estas materias, le
recomendamos estudiarlas en el libro Linear Algebra & Matrix Theory
de Evar Neering, por ejemplo.

1. Espacios Vectoriales y Transformaciones Lineales


Consideraremos en todo este captulo que nuestros escalares son
numeros complejos, a menos que lo contrario se especifique.
Definicion 1.1. Un espacio vectorial sobre C es un conjunto
V , cuyos elementos se llaman vectores, dotado de dos operaciones: la
suma vectorial, denotada +, y el producto de un escalar por un vec-
tor, que se escribe por yuxtaposicion, cuyas propiedades se indican a
continuacion.
(1) (V, +) es un grupo conmutativo con elemento neutro 0, donde
cada elemento x posee un inverso x;
(2) El producto por un escalar es distributivo con respecto a la
suma:
(x + y) = x + y, ( C, x, y V );

( + )x = x + y, (, C, x V );
(3) x = x, ( C, x V ) y ademas 1x = x, 0x = 0, (x V ).
Un subconjunto W de V es un subespacio vectorial (o simple-
mente subespacio) de V , si es un espacio vectorial con las operaciones
de V convenientemente restringidas. Al respecto, notese que W V es
173
174 9. APENDICE: COMPLEMENTOS DE ALGEBRA LINEAL

un subespacio si y solo si W es cerrado para la suma y la multiplicacion


por un escalar:
x + y W, x W, (para todos C, x, y W ).
Ejemplo 1.1. (1) V = Cd es un espacio vectorial;
(2) V = C es un espacio vectorial, donde C denota el conjunto
de todas las sucesiones (zn )nN donde zn C para cada n. Las
operaciones se definen componente por componente. Notar
que 0 es en este caso la sucesion de componentes nulas.
(3) V = {(zn )nN C : (zn )nN converge}, es un espacio vecto-
rial. 1
(4) V = {f : f es funcion de [0, 1] en C, tal que 0 |f (t)|dt <
}, es espacio vectorial. Las operaciones corresponden a la
suma de funciones usual y al producto de una funcion por un
escalar. El vector 0 es en este caso, y en todos los referidos a
espacios de funciones, la funcion identicamente nula ( 0(t) = 0
para todo t).
(5) V = { : es solucion de x = a(t)x}, donde a(t) es una
funcion de R en C, es un espacio vectorial con las mismas
operaciones que en el caso anterior.
(6) V = { : es solucion de x + p(t)x + q(t)x = 0} donde
p(t) y q(t) son funciones continuas con valores complejos, es
un espacio vectorial.
1.1. Independencia lineal y bases. Las siguientes nociones seran
usadas de manera fundamental en nuestro curso.
Definicion 1.2. Una coleccion x1 , . . . , xn de vectores del espacio
vectorial V es linealmente independiente si toda vez que una com-
binacion lineal sea nula, vale decir

n
i xi = 0,
i=1

donde i C para todo i = 1, . . . , n, entonces necesariamente los


coeficientes escalares son nulos:
i = 0, (i = 1, . . . , n).
De manera equivalente, un conjunto de vectores es linealmente in-
dependiente, para n 2, cuando no es posible escribir uno de sus
elementos como combinacion lineal de los demas.
El espacio vectorial V se dice que es generado por una familia
G de vectores si se tiene que cada elemento x V se escribe como
1. ESPACIOS VECTORIALES Y TRANSFORMACIONES LINEALES 175

una combinacion lineal de vectores de G. Acostumbramos interpre-


tar combinacion lineal como combinacion lineal de un numero finito
de vectores. Vale decir, G genera a V si para cada x V , existen
k C, xk G, k = 1, . . . , n tales que
n
x= k xk .
k=1

Una base (de Hamel) del espacio vectorial V es una coleccion de


vectores linealmente independientes B que genera a V .
Ejemplo 1.2. Considerar el espacio vectorial V de todas las solu-
ciones de la ecuacion diferencial del oscilador armonico:
(1.1) x + 2 x = 0.
Probar que 1 (t) = cos t y 2 (t) = sen t son dos vectores lineal-
mente independientes.
Supongamos que existen escalares 1 , 2 C, tales que
(1.2) 1 1 (t) + 2 2 (t) = 0, (para todo t R).
Si evaluamos lo anterior en t = 0, obtenemos
1 = 0,
si lo hacemos en t = /2, se encuentra
2 = 0.
En consecuencia, B = {1 , 2 } es un conjunto linealmente inde-
pendiente. Mejor aun: B es una base de V . En efecto, segun vimos en
el ejemplo 5.2 del captulo anterior, toda solucion de (1.1) se escribe:
(t) = c1 cos t + c2 sen t,
en consecuencia, V es generado por B.
Lo ultimo tambien se puede obtener de la siguiente manera. Supong-
amos que V . Entonces, conocemos sus valores iniciales x0 = (0),
v0 = (0). (x0 , v0 ) es un vector en C2 . En dicho espacio, (1, 0) y
(0, ) constituyen una base, de modo que existen c1 , c2 C, tales que
(x0 , v0 ) = c1 (1, 0) + c2 (0, ). Obviamente, c1 = x0 y c2 = v0 /. Notese
entonces que y x0 1 + (v0 /)2 son dos soluciones del problema
con valores iniciales (x0 , v0 ) que tiene solucion unica. En consecuencia,
tales soluciones deben coincidir y se obtiene que V es generado por B.
Teorema 1.1. Si un espacio vectorial tiene una base con un numero
finito de elementos, entonces, todas las otras bases son finitas y tienen
el mismo numero de elementos.
176 9. APENDICE: COMPLEMENTOS DE ALGEBRA LINEAL

Definicion 1.3. Un espacio vectorial con una base finita se llama


de dimension finita y el numero de elementos de una base cualquiera
es la dimension del espacio.
El Teorema 1.1 justifica la definicion de dimension de un espacio
vectorial de dimension finita. El espacio vectorial con solo un elemento,
el vector cero, tiene un subconjunto linealmente independiente: el con-
junto vaco. El conjunto vaco es tambien un generador y, por lo tanto,
una base de {0}. En consecuencia, {0} tiene dimension cero.
Ejemplo 1.3. Sea P OLn el conjunto de todos los polinomios en
la indeterminada x, con coeficientes complejos, de grado n 1, in-
cluyendo al polinomio nulo. P OLn es un espacio vectorial de dimension
finita n.
En efecto, el conjunto {1, x, . . . , xn1 } es una base de P OLn .
Ejemplo 1.4. Sea P OL el conjunto de todos los polinomios en
la indeterminada x, con coeficientes complejos. P OL es un espacio
vectorial infinitodimensional, vale decir, no tiene dimension finita.
La familia {1, x, . . . , xn , . . .} de todas las posibles potencias de x es
un generador de P OL linealmente independiente cuya cardinalidad no
es finita. Si se supone que existe una base finita, tendramos entonces
una contradiccion.
Hay muchos ejemplos de espacios vectoriales infinitodimensionales,
tales como el espacio de todas las funciones definidas en R con valores
en Cd , el espacio de todas las funciones reales continuas, etc. En nues-
tra teora encotraremos a menudo espacios de dimension finita, como
subespacios de uno de dimension infinita. Tomese el caso del espacio V
de soluciones de la ecuacion del oscilador armonico: es un subespacio
de dimension 2 contenido en el espacio de dimension infinita de todas
las funciones de clase C 2 .
Definicion 1.4. Sean V y W dos espacios vectoriales sobre el
cuerpo de los complejos. Una aplicacion o transformacion lineal
de V en W es una aplicacion L : V W que satisface
L(x + y) = L(x) + L(y),
para todo par de escalares , y todo par de elementos x, y de V .
Vale decir, L transforma combinaciones lineales del dominio de
definicion en combinaciones lineales del dominio de valores. 1
1Una observacion notacional: a menudo se escribe L(x) omitiendo los
parentesis, vale decir, en la forma Lx.
1. ESPACIOS VECTORIALES Y TRANSFORMACIONES LINEALES 177

Designamos por L(V, W ) el conjunto de todas las transformaciones


lineales de V en W . Si W = C, decimos que L L(V, C) es una
forma lineal. El conjunto V = L(V, C) de todas las formas lineales
definidas sobre V se conoce como el dual algebraico de V .
Proposicion 1.1. Dados V y W espacios vectoriales, el conjunto
L(V, W ) es tambien un espacio vectorial.
Si (vj )jJ es una base del espacio vectorial V y (wi )iI es una base
del espacio W , dada una transformacion A L(V, W ), denotemos
(1.3) wj = Avj W, (j J).
Como cada wj es un elemento de W , se expresa como una combinacion
lineal de elementos de la base (wi )iI , vale decir,

(1.4) wj = ai,j wi , (j J).
iI
Ahora bien, cualquier elemento x V se puede escribir en terminos
de la base (vj ) en la forma

(1.5) x= xj vj
jJ

y su imagen Ax se puede calcular como



Ax = A xj vj
jJ

= xj Avj
jJ

= xj ai,j wi .
jJ iI

Vale decir, la imagen queda completamente determinada por las


coordenadas de x en la base (vj ) y por la familia de coeficientes
(ai,j )(i,j)IJ que a su vez esta biunvocamente asociada a la transfor-
macion A.
Definicion 1.5. La familia (ai,j ) de numeros complejos anterior
recibe el nombre de matriz asociada a la transformacion lineal A. Si
I (respectivamente J) tiene m elementos (resp. n elementos), decimos
que ella es una matriz de m n. Obviamente, la representacion de
una aplicacion lineal mediante matrices depende de las bases escogidas
en los espacios de definicion y de recorrido. Veremos luego como estas
representaciones se ven afectadas por un cambio de base.
Si A L(V, V ) entonces I y J tienen el mismo numero de elemen-
tos y la matriz (ai,j ) se llama cuadrada.
178 9. APENDICE: COMPLEMENTOS DE ALGEBRA LINEAL

Ejemplo 1.5. Considerar el plano V = W = R2 . Tomemos la


base {(1, 0), (0, 1)}. Encontrar la matriz que describe una rotacion de
angulo , en el sentido contrario a los punteros de un reloj.

La aplicacion R que corresponde a la rotacion de angulo enva


(1, 0) en el vector de componentes (cos , sen ) y a (0, 1) en ( sen , cos ).
En consecuencia la matriz correspondiente es
( )
cos sen
(1.6) .
sen cos

2. Algebra de Matrices
Las operaciones sobre matrices se definen a partir de aquellas cor-
respondientes a las transformaciones lineales.

2.1. Suma y Producto. Dadas dos aplicaciones lineales LB :


U V y LA : V W , donde U , (respectivamente V , W ) es un
espacio vectorial de dimension n (resp. m, k), tenemos que LA y LB
i=k,j=m j=m,l=n
quedan representadas por matrices A = (ai,j )i=1,j=1 , B = (bj,l )j=1,l=1
de n m y m k, respectivamente. El producto de las matrices
i=1,l=1 de n k que corresponde a la
anteriores es una matriz C = (ci,l )i=k,l=n
representacion de la composicion LA LB : U W . Vale decir,

n
ci,l = ai,j bj,l .
j=1

Este producto de matrices sera denotado en la forma usual por


yuxtaposicion.
Si S, T : V W son dos aplicaciones lineales, la matriz suma es
aquella que permite representar la suma de aplicaciones S +T : V W
y se obtiene simplemente sumando las componentes de igual ndice en
la representacion de S y de T .
La definicion del producto de matrices permite tambien representar
la accion de una aplicacion lineal sobre un vector como un producto de
matrices. En efecto, si L : V W se representa por A = (ai,j ) segun
una base (vj )nj=1 en V y (wi )mi=1 en W , entonces, dado x V , sea


x1
X = ...
xn
2. ALGEBRA DE MATRICES 179

la matriz de n 1 que da sus coordenadas segun la base de V . Se tiene


( n )

Lx = L xj vj
j=1
( )

m
n
= ai,j xj wi ,
i=1 j=1

de modo que la matriz Y de m 1 que da las coordenadas de Lx en


W es
(2.1) Y = AX
Consideremos en lo que sigue, el espacio V = Cd . Denotemos Md el
conjunto de las matrices cuadradas de dd con coeficientes complejos.
Sobre este conjunto la suma define una estructura de grupo. Notar que
el producto no es conmutativo pero s es distributivo con respecto
a la suma. La matriz identidad, I = (i,j ) es un neutro a la izquierda
y a la derecha para el producto. Si A : V V es una aplicacion
lineal, el conjunto imagen {Ax : x V } es un espacio vectorial. Su
dimension es el rango de A. Asimismo, {x : Ax = 0} es otro espacio
vectorial, conocido como el nucleo de A. La aplicacion A es entonces
una biyeccion lineal o un automorfismo si y solo si su rango es d y su
nucleo se reduce al espacio con un unico elemento {0}. En tal caso la
inversa A1 existe y se dice que la matriz de A es no singular.

2.2. Determinante de una matriz cuadrada y calculo de la


matriz inversa. Si A = (ai,j ) es una matriz cuadrada de d d, la
traspuesta de A es la matriz AT = (aTi,j ) donde

(2.2) aTi,j = aj,i ,


vale decir, en la traspuesta, sus filas corresponden a las columnas de
A.
Designemos por Ai,j la matriz de (d 1) (d 1) que se obtiene
de A por eliminacion de su fila i y de su columna j. El determinante
de A se define en forma recursiva como sigue.
Definicion 2.1. Si A = (A1,1 ), es una matriz de 1 1, su deter-
minante se define como det A = a1,1 . Suponiendo que el determinante
ha sido definido para matrices hasta el orden (d 1) (d 1), (d 2),
y sea A = (ai,j ) una matriz de d d, entonces, definimos
det A = a1,1 (1)1+1 det A1,1 + . . . + a1,d (1)1+d det A1,d .
180 9. APENDICE: COMPLEMENTOS DE ALGEBRA LINEAL

Se podra notar que det AT = det A y det (AB) = (det A)(det B)


para dos matrices de d d.
El siguiente Teorema debido a Laplace provee otra forma de calcular
el determinante.
Teorema 2.1. Sea A una matriz de d d, entonces,
(2.3) det A = ai,1 (1)i+1 det Ai,1 + . . . + ai,d (1)i+d det Ai,d ,
para cada i = 1, . . . , d.
El numero det Ai,j se conoce con el nombre de menor asociado
al elemento ai,j ; el coeficiente con signo, Ci,j = (1)i+j det Ai,j es el
cofactor de ai,j en el desarrollo del determinante de A.
La matriz adjunta A de A es la traspuesta de la matriz de los
cofactores, vale decir,
(2.4) A = (Ci,j )T .
Se tiene entonces:
Teorema 2.2. La matriz cuadrada A es no singular si y solo si det
A = 0 y en este caso su matriz inversa es
1
(2.5) A1 = A.
det A
2.3. Cambio de base. Sobre un espacio vectorial V de dimension
n, consideremos dos bases BV = (vi )i y BV = (vj )j . Cada elemento de
la segunda base se puede obtener en terminos de la primera:

n
(2.6) vj = pi,j vi , j = 1, . . . , n.
i=1

La matriz P = (pi,j ) es llamada matriz de transicion en el cambio de


base. Sus columnas dan las coordenadas de la nueva base en terminos
de la antigua. En consecuencia, estas columnas son linealmente in-
dependientes y el rango de P es n, de donde se obtiene que P es no
singular.
Estudiemos el efecto que este cambio de base produce sobre las
coordenadas de los vectores de V . Sea x V . Sus coordenadas con re-
specto a la primera base las escribimos (xi ) y aquellas que corresponden
a la nueva base, por (xi ). Entonces,

n
n
x= xj vj = xi vi .
j=1 i=1
2. ALGEBRA DE MATRICES 181

Y teniendo en cuenta (2.6),



n
x = xj vj
j=1
( n )

n
= xj pi,j vi
j=1 i=1
( n )

n
= pi,j xj vi
i=1 j=1
n
= xi vi .
i=1

De modo que, si introducimos las matrices n1 (filas) que las coor-


denadas de x definen segun una y otra base, a saber, X = (x1 , . . . , xn )
y X = (x1 , . . . , xn ), tendremos que el calculo anterior se puede escribir
en forma sintetica:
(2.7) X = P X .
Consideremos ahora una transformacion lineal L : V W , donde
W es otro espacio vectorial de dimension m y de base BW = (wk ) que

se cambia en una base BW = (wk ) por medio de una matriz de trans-
ferencia Q. Como hemos dicho antes, la representacion de L depende
de las bases que escojamos en V y en W . Para evitar confusiones en
esta parte, senalaremos en un par ordenado las bases que se consid-
eren, as, designamos por A = (ai,j ) la matriz que representa a L segun
(BV , BW ).
Estudiemos, en primer lugar como cambia A si cambiamos BV por
BV . Sea A la matriz que representa a L segun (BV , BW ). Entonces,
( m )
n
n
(2.8) Lvj = pk,j Lvk = ai,k wi
k=1 k=1 i=1
( n )
m
= ai,k pk,j wi
i=1 k=1
m
= ai,j wi .
i=1

De aqu obtenemos que ai,j = k=1 nai,k pk,j y la matriz A satisface
(2.9) A = AP.
182 9. APENDICE: COMPLEMENTOS DE ALGEBRA LINEAL

Notese que (2.9) puede obtenerse de una manera mas directa usando
(2.1) y (2.7). En efecto, dado cualquier x V , cuyas coordenadas
expresamos por columnas X o X segun la base BV o BV respectiva-
mente, tenemos que si Y designa la columna de coordenadas de Lx en
W , entonces,
Y = AX = A X
pero, X = P X , luego AP X = A X de donde resulta (2.9).
Apliquemos el ultimo metodo anterior para estudiar lo que ocurre
si cambiamos la base de W , sin cambiar aquella de V : entonces las
coordenadas Y de Lx se cambian en Y segun la relacion:
Y = QY .
En consecuencia, si llamamos A la matriz de la representacion de L

segun (BV , BW ), resulta Y = A X y
AX = Y = QY = QA X,
de donde
(2.10) A = Q1 A.
Finalmente, si cambiamos ambas bases (en V y en W ), obtenemos
que la nueva matriz que representa a L es
(2.11) Q1 AP.
En el caso particular de las transformaciones lineales de V en V
(endomorfismos), tenemos que si se cambia la base del espacio segun
una matriz de transferencia P , dada una representacion matricial A de
L L(V, V ) en la primera base, ella se transforma en P 1 AP . Esto
justifica la definicion siguiente:
Definicion 2.2. Dos matrices A y B de n n son equivalentes si
existe una matriz de transferencia P , tal que
B = P 1 AP.
Segun lo anterior, esto significa que ambas matrices representan la
misma transformacion lineal.

3. Funciones de Matrices
Consideremos nuevamente el espacio Md de las matrices comple-
jas de d d. Sobre este espacio vectorial hemos introducido ademas
una operacion de multiplicacion que lo transforma en un algebra no
conmutativa.
Una funcion de variable real con valores matriciales es sim-
plemente una aplicacion M : R Md .
3. FUNCIONES DE MATRICES 183

Ejemplo 3.1. La aplicacion t 7 Rt que asocia a cada real t la


matriz de la rotacion de angulo t en el plano, es una funcion matricial:
( )
cos t sen t
Rt = .
sen t cos t
3.1. Normas sobre el espacio de matrices. Nos interesa ex-
tender las nociones y tecnicas de calculo a las funciones con valores
matriciales. Para ello necesitamos introducir una nocion de distancia
en Md , lo que haremos mediante una norma. La norma generaliza las
propiedades del modulo de los complejos, razon por la cual usaremos
el mismo smbolo | |.
Sea A = (ai,j ) una matriz. Una norma posible para A esta dada
por la expresion

d
d
(3.1) |A| = |ai,j |.
i=1 j=1

Esta aplicacion A 7 |A| de Mn en R verifica las propiedades


(N1) |A| 0 para todo A Mn y |A| = 0 si y solo si A = 0;
(N2) |A| = |||A|, para todo A Mn y todo C;
(N3) |A + B| |A| + |B|, para todos A, B Mn .
Ejercicio 3.1. Probar que si se define
(3.2) |A| = sup |ai,j |,
i,j

para cada A Md , la aplicacion A 7 |A| tambien verifica (N1),


(N2), (N3). Esta aplicacion es, tambien, una norma para las matrices.
Probar que existen constantes c y C tales que
(3.3) c|A| |A| C|A| ,
razon por la cual se dice que las dos normas anteriores son equiva-
lentes: los lmites para una de ellas lo seran tambien segun la otra.
Ejercicio 3.2. Probar que para todo k N y toda matriz A Md
se tiene
(3.4) |Ak | |A|k .
[Indicacion: proceder por induccion sobre k].
Desde los cursos de Calculo se sabe que sobre el espacio C, con la norma
definida por su modulo, toda sucesion (an )n que verifique la propiedad
de Cauchy (limn,m |an am | = 0) es convergente. Se dice que C
es completo. Los espacios Ck son tambien espacios completos para
184 9. APENDICE: COMPLEMENTOS DE ALGEBRA LINEAL
( )1/p
cualquiera de las normas |z|p = k
i=1 |zi |
p
, donde 1 p < y
z = (z1 , . . . , zk ) C .
k

Md con la norma que hemos definido, puede ser puesto en corre-


spondencia con Cd . En efecto, a cada A = (ai,j ) Md , le asociamos
2

el vector a = (a1 , . . . , ad2 ) Cd de la forma siguiente:


2

a1 = a1,1 , a2 = a1,2 , . . . , ad = a1,d


ad+1 = a2,1 , ad+2 = a2,2 , . . . , a2d = a2,d
...
ad(d1)+1 = ad,1 , . . . , ad2 = ad,d .
Se puede observar que la norma del vector a Cd coincide con
2

la norma de A Md . De modo que la propiedad de completitud del


espacio Cd tambien puede extenderse a Md :
2

Proposicion 3.1. Sobre Md una sucesion es convergente si y solo


si verifica la propiedad de Cauchy.
Estudiemos un caso importante de sucesion de matrices.
Ejemplo 3.2. Probar que la sucesion
n
1 k
(3.5) Sn = A ,
k=0
k!
donde A Md , es convergente.
En efecto, puesto que |Ak | |A|k , tenemos que para todos m, n
tales que m n,
m
Ak
|Sm Sn | = | |
k=n+1
k!
m
|A|k
,
k=n+1
k!
ahora bien,
m
|A|k
k=n+1
k!
tiende a cero si n, m , pues la serie de termino general real |A|k /k!
converge y su suma es exp |A|. Por lo tanto,
|Sm Sn | 0,
si n, m . La sucesion (Sn )n satisface la propiedad de Cauchy y en
consecuencia converge sobre Md .
3. FUNCIONES DE MATRICES 185

3.2. Recordando la exponencial. Como vimos en el captulo 2,


la exponencial de un numero z C es la suma de la serie
zn
(3.6) exp z = .
n0
n!
La introduccion de la norma de una matriz nos permite ahora ex-
tender la nocion de exponencial.
Definicion 3.1. Dada una matriz A su exponencial eA (o exp A)
es la suma de la serie de potencias de termino general n!1 An :
1
(3.7) exp A = An .
n0
n!

Ejemplo 3.3. Calcular la exponencial de la matriz de d d:



0 ...
0 ...
D=
.

...
0 ...
Observar que D = I, de modo que Dn = n I para todo n N y
se obtiene
e 0 0 ...
0 e 0 . . .
eD = e I =

.

...

0 ... e
Ejemplo 3.4. Calcular la exponencial de la matriz
( )
0 1
N= .
0 0
Observar que N k = 0 para todo k 2. De modo que
( )
N 1 1
e =I +N = .
0 1
Ejemplo 3.5. Calcular la exponencial de la matriz
( )
1
A= .
0
Observar que A puede ser escrita como la suma de una matriz
diagonal y de una del tipo N anterior: A = I + N . Ademas como I
y N conmutan, tenemos: exp A = exp(I) exp N , de modo que
( )
A e e
e = .
0 e
186 9. APENDICE: COMPLEMENTOS DE ALGEBRA LINEAL

Proposicion 3.2. Si A y B son dos matrices que conmutan, AB =


BA, entonces exp(A + B) = exp A exp B. En particular, para s, t R,
exp sA exp tA = exp(s + t)A.
Si no se cumple la conmutatividad, entonces la propiedad es falsa.
Ejercicio 3.3. Sean
( )
0 1
N= ,
0 0
( )
1 0
B= .
0 3
Calcular N B, BN , exp N exp B, exp B exp N .
Definicion 3.2. Un bloque de Jordan de orden d es una matriz
cuadrada de d d, J que se escribe en la forma
J = I + N,
donde N es una matriz nilpotente de la forma

0 1 0 ...
0 0 1 ...

N = . . . .

0 0 ... 1
0 ... 0
Una tal matriz N satisface N k = 0 para k d.
De la definicion anterior resulta que
1 1
(3.8) exp J = e (I + N + N 2 + . . . + N k1 ).
2 (k 1)!
Ejercicio 3.4. Calcular exp tJ .
Segun lo anterior,
t2 2 tk1
exp tJ = exp(tI +tN ) = exp t((I +tN + N +. . .+ N k1 ).
2 (k 1)!
Proposicion 3.3. Si A y B son matrices equivalentes, entonces
sus exponenciales exp A y exp B tambien lo son.
Prueba. Basta notar que si A = P 1 BP , entonces An = P 1 B n P ,
para cada n N, donde P es una matriz de transferencia. En conse-
cuencia, exp A = P 1 (exp B)P .

Lo anterior nos da un potente metodo para calcular exp A: basta


encontrar una base segun la cual A sea equivalente a una matriz cuya
4. REDUCCION DE MATRICES 187

exponencial se calcule mas facilmente (por ejemplo, una matriz diago-


nal o un bloque de Jordan). Estudiaremos esto en la proxima seccion.

4. Reduccion de Matrices
Sea V un espacio vectorial de dimension d y consideremos T
L(V, V ). Decimos que un subespacio W de V es invariante por T si
T x W para todo x W (vale decir, T (W ) W ).
Dados dos subespacios de V , sean E y F , la suma directa de ellos,
que escribimos E F es el espacio generado por E F .
Si V se puede escribir como V = W1 . . . Wq donde cada Wi
es invariante para T , entonces podemos considerar las restricciones
Ti = T |Wi de T sobre cada espacio y se escribe:
T = T1 . . . Tq .
Veremos enseguida el caso mas simple de subespacio invariante.
4.1. Valores y Vectores propios. Supongamos en primer lugar
que T admite un subespacio invariante de dimension 1. Esto quiere
decir que existe un vector x V , tal que
(4.1) T x = x,
para algun escalar C. El vector x recibe entonces el nombre de
vector propio y el escalar , es un valor propio.
Si existen d escalares 1 , . . . , d que sean valores propios y para
los cuales se encuentren vectores propios respectivos v1 , . . . , vd que,
ademas, constituyan una base de V , entonces
V = W1 . . . Wd ,
donde Wi es el espacio unidimensional engendrado por vi , (i = 1, . . . , d).
En este caso la aplicacion T se escribe:
(4.2) T = 1 I . . . d I.
Por ende, si la representamos matricialmente segun la base (v1 , . . . , vd )
su matriz D es de tipo diagonal:

1 0 0 ...
0 2 0 . . .
(4.3) D=
.

...
0 0 . . . d
El procedimiento de diagonalizacion de una matriz consiste en
la busqueda de d valores propios y de respectivos d vectores propios,
linealmente independientes con los cuales se pueda construir una base
de V . As por ejemplo, si T tiene una representacion matricial A segun
188 9. APENDICE: COMPLEMENTOS DE ALGEBRA LINEAL

una base distinta (e1 , . . . , ed ), entonces A es diagonalizable, pues dado


que L se representa segun D, tenemos: A = P 1 DP donde P es la
matriz de transferencia entre las bases:

d
vj = pi,j ei .
i=1

Vale decir, las columnas de P contienen las coordenadas de cada vj


en terminos de la antigua base.

4.2. Polinomio caracterstico. Supongamos que la aplicacion T


introducida aqu arriba tiene la representacion matricial A y deseamos
calcular sus valores propios. Debemos entonces buscar los escalares
para los cuales la ecuacion
(4.4) AX = X,
pueda tener solucion no trivial (X es la columna de coordenadas de
un vector arbitrario de V expresadas en funcion de la base inicial
(e1 , . . . , ed )). Esto equivale a buscar los escalares para los cuales
la matriz A I no posea inversa, vale decir, sea singular. Esto solo
es posible si
(4.5) L() = det (A I) = 0.
L() es un polinomio en conocido con el nombre de polinomio car-
acterstico de la matriz A. Sus races determinan los valores propios
de A (es decir de T ).
Teorema 4.1. La matriz A es diagonalizable si existen d escalares
distintos 1 , . . . , d que sean races de L(). En ese caso el polinomio
se escribe:
(4.6) L() = ( 1 ) . . . ( d ).
Ejercicio 4.1. Sea T una aplicacion tal que T 2 = I. Probar que
T es diagonalizable.
Ejercicio 4.2. Probar que T es diagonalizable si y solo si (T I)
tiene un nucleo no trivial para d valores 1 , . . . , d de . En ese caso,
los espacios W (k ) = {x V : (T k )x = 0} son invariantes.
Supongamos que V sea suma de q espacios invariantes, V = W1
. . .Wq para T y consideremos una base (e11 , . . . , e1n1 , e21 , . . . , e2n2 , . . . , eq1 , . . . , eqnq ),
donde los vectores eij (j = 1, . . . , ni ) constituyan una base de Wi ,
(n1 + . . . + nq = d). Entonces, dada una representacion matricial A
4. REDUCCION DE MATRICES 189

de T , ella se puede tambien escribir en la forma de una diagonal de


bloques Ai , i = 1, . . . , q

A1 0 ...
0 A2 ...
(4.7) A=
,

...
0 0 . . . Aq
donde cada Ai es una matriz de ni ni . Con esta representacion
tendremos

exp A1 0 ...
0 exp A2 ...
(4.8) exp A =

.

...
0 ... exp Aq
Ejercicio 4.3. Dada la ecuacion diferencial lineal homogenea de
orden n
(4.9) L(D)x = Dn x + a1 D(n1) + . . . + an x = 0,
probar que la matriz A que permite escribirla en forma de un sistema
(4.10) X = AX,
tiene por polinomio caracterstico
(4.11) L() = n + a1 (n1) + . . . + an .
En efecto, basta recordar que

0 1 0 ...
0 0 1 ...

A= . . . .

0 0 ... 1
an an1 . . . a1
Un calculo directo del determinante de A I permite concluir el
ejercicio.
4.3. Forma Canonica de Jordan. La generalizacion de la nocion
de valor propio se obtiene en la forma del ejercicio 4.2. Supongamos
que ahora buscamos los valores tales que (T I) sea nilpotente. El
Teorema de Jordan afirma entonces que
Teorema 4.2. Dada cualquier transformacion lineal T represen-
tada por una matriz A de d d sobre el cuerpo de los complejos, su
polinomio caracterstico se puede escribir en la forma
(4.12) L() = ( )m1 . . . ( q )mq ,
190 9. APENDICE: COMPLEMENTOS DE ALGEBRA LINEAL

donde los valores i son sus races sobre C y los numeros mi las respec-
tivas multiplicidades. Designando por W (i ) el nucleo de (T i I)mi ,
el espacio V puede descomponerse entonces en la suma
(4.13) V = W (1 ) . . . W (q ).
La restriccion de T i I a cada espacio W (i ) es nilpotente, ((T
i I)mi = 0), y por ende puede representarse por una matriz nilpotente
de mi mi . En consecuencia, la restriccion de T a tales subespacios
queda representada por un bloque de Jordan de la forma Ji .
Existe entonces una matriz de cambio de base P , tal que la matriz
A verifique
A = P 1 JP,
donde J es una matriz que, escrita en bloques, es de la forma

J1 0 ...
0 J2 . . .
(4.14) J =
.

...
0 0 . . . J q
Una aplicacion importante del teorema anterior es que la exponen-
cial de cualquier matriz A se puede calcular en la forma
(4.15)
exp J1 0 ...
0 exp J2 ...
exp A = P 1 (exp J)P, exp J =

.

...
0 ... exp Jq

5. Resumen sobre el calculo de exponenciales de matrices


En primer lugar, recordar que si D = I es una matriz diagonal,
eD = e I. Si N es una matriz nilpotente tal que N k = 0, para todo
k n, entonces, eN = I + N + 21 N 2 + . . . + (n1)!
1
N n1 . De modo que
para un bloque de Jordan de la forma J = I + N se tiene
1 1
eJ = (e I)(I + N + N 2 + . . . + N n1 ).
2 (n 1)!
Veamos ahora algunos trucos de calculo:
(1) Sea v1 , . . . , vn una base del espacio y w = c1 v1 + . . . + cn vn . Si
A es una matriz,
(5.1) eA w = c1 eA v1 + . . . + cn eA vn ,
y basta entonces hacer el calculo de eA aplicado a los elementos
de una base comoda.
5. RESUMEN SOBRE EL CALCULO DE EXPONENCIALES DE MATRICES191

(2) Si v es un vector propio de A, Av = v, se tiene:


Ap p
(5.2) v= v = e v = eA v.
p0
p! p0
p!

Luego, si los vectores propios de A forman una base v1 , . . . , vn ,


llamamos P a la matriz cuyas columnas son los vi . Es una
matriz de transferencia y A se escribe:
A = P DP 1 ,
donde es la matriz diagonal que contiene los valores propios
i sobre la diagonal principal. Como Ak = P Dk P 1 , se tiene
eA = P eA P 1 .
At
(
Ejercicio 5.1.
) Calcular e para las siguientes matrices:
1 1
(a) A =
1 1
( )
0 1
(b) A =
1 0
( )
0 1
(c) A =
1 0

1 1 1
(d) A = 1 1 1
1 1 1

(3) El caso de matrices N nilpotentes ya lo mencionamos mas


arriba.


Ejercicio 5.2. Calcular
eA en los casos siguientes:
0 1 0
(a) A = 0 0 1
0 0 0

0 1 2 4
0 0 3 5
(b) A =
0

0 0 6
0 0 0 0

(4) Para todo complejo , I conmuta con toda matriz, por lo


tanto,
(5.3) eA = eAI e = e eAI .
Ejercicio 5.3. Calcular eA para las matrices siguientes:
192 9. APENDICE: COMPLEMENTOS DE ALGEBRA LINEAL

7 1 2 4
0 7 3 5
(a) A =



0 0 7 5
0 0 0 7

7 1 0 0
0 7 1 0
(b) A =



0 0 7 1
0 0 0 7
(5) El caso general se puede tratar as. Si el polinomio carac-
terstico de la matriz es L() = det(AI) = (1 )m1 . . . (
q )mq , entonces el espacio vectorial se puede escribir como una
suma directa de espacios de dimensiones m1 , . . . , mq respecti-
vamente. Estos espacios son los nucleos de las aplicaciones
(A i )mi y son invariantes para A. Ademas sobre tales sube-
spacios, (A i I) es nilpotente (se tiene que (A i I)mi v = 0,
para cada elemento v de el). En consecuencia, si v pertenece
a tal subespacio:
[ ]
(A i )mi 1
A
(5.4) e V = e e V = ei I + (A i ) + . . . +
Ai
v.
(mi 1)!
Ejercicio 5.4. Calcular el polinomio caracterstico de A
y el valor de eA w para

0 1 1
A = 1 0 0 ,
0 0 1
y w = (1, 1, 0); o w = (1, 0, 2); o w = (3, 0, 2).

6. Ejercicios propuestos
(1) Considerar el espacio P OL4 de los polinomios de tercer grado
en la variable x, con coeficientes complejos.
(a) Encontrar una base de P OL4 y demuestre que tiene di-
mension 4.
(b) Representar mediante una matriz la aplicacion lineal T
que a cada polinomio p(x) asocia el polinomio p(x + 1).
(c) Representar mediante una matriz la aplicacion D que al
polinomio p(x) le asocia su derivada.
(d) Obtener finalmente las representaciones de la suma y el
producto de T y D.
(2) Encontrar, si es posible, las matrices B tales que AB = C en
los dos casos siguientes:
6. EJERCICIOS PROPUESTOS 193

2 3 2 1 2 1
(a) A = 4 1 2 C = 2 1 1
0 1 0 1 2 0

2 1 1 1 2 1
(b) A = 8 1 5 C = 2 1 1
4 3 3 5 0 3
(3) Designamos por b un parametro real y se considera la funcion
matricial
( )
cosh t bsenh t
Ab (t) = senh t .
b
cosh t
(a) Encontrar los valores propios de Ab (t) y sus vectores pro-
pios.
(b) Determinar las matrices invertibles P para las cuales B =
P 1 Ab (t)P es una matriz diagonal. Probar que B no de-
pende del parametro b.
(c) Se deja fijo un valor de b. Pruebe que los distintos valores
Ab (t), al hacer variar t R, forman un grupo para el
producto de matrices.
(d) Sea la matriz
( )

M= ,

donde los coeficientes son numeros complejos que verifican
2 = 0.
Utilizar las preguntas anteriores para calcular M n .
(4) Suponga que la matriz A satisface
(6.1) A2 + A = I.
Encuentre exp(At).
(5) Suponga que la matriz A satisface
(6.2) A2 = 2A.
Encuentre exp(At).
(6) Verifique que ( )
0 1
A= ,
1 0
satisface A2 = I y use este hecho para calcular exp(At).
Resultados de ejercicios seleccionados

Cap. II
(2) i) y = 0
ii) y y 6y = 0
iii) xyy + x(y )2 + yy (1 2x) y 2 = 0
iv) x + 4x = 0
v) x 9x = 0
vi) x 20x + 100x = 0
t2
(6) i) x = 70 3 7
t 12
1 6
t + 607 5
t (2 + t2 )n t 2
+ c1
2
+ c2 t + c3

n1
n t
t
ii) x = 3e + 4(1) e + ck tk
k=0
n6
(8) t = 30 n2 77.54

Cap. III
x
(1) i) e t = Cx
Cet
ii) x = 1+Ce t

(4) La poblacion sera de 445.108


(5) V (d) = Ud : velocidad a distancia d
2s
d
S
t1 = U n 2
(2 s 1): tiempo hasta llegar a d.
(7) n = 2
2
P
(13) w(r) = 36D r4 + r4 (C1 (nr 2) + C2 ) + C3
r12 r22 p1 r12 p2 r22
(14) p(r) = (p p2 ) +
r (r22 r12 ) 1
2 r12 r22
r12 r22 p r2 p r2
t(r) = r2 (r22 r12 )
(p1 p2 ) 1 r12 r22 2
1 2

Cap. IV

cosh( 2t)
2senh( 2t)
(3) a) eAt = et

1
senh( 2t) cosh( 2t)
2
195
196 RESULTADOS DE EJERCICIOS SELECCIONADOS

et (cost + 2sent) 5et sent 0
b) eAt = et sen t et (cost 2sen t) 0
0 0 et

(1 t) t t
c) eAt = e2t (2t t2 ) (1 t + t2 ) (t + t2 )
2 2 2

2 2
3t + 2t (2t t2 ) (1 + 2t t2 )
2 2
1 2t t2 t 2t + t2
d) eAt = et t 1 t
t2 t2
1 (2t + 2 ) t 1 + 2t + 2
2
1 6t
+ 2e 31 + 13 e6t 16 + 16 e6t
e) eAt = 12 + 12 e6t 23 + 13 e6t 16 + 16 e6t
12 + 12 e6t 31 + 13 e6t 56 + 16 e6t
(12) x(t) = 12 cos( 1t ) + 3 sen( 1t ) + 2t1 sen( 1t )
4
zwn t
(14) a) x(t) = wA2 [1 e1z2 sen(wn 1 z 2 t + )]
n
con cos = z
c) z = 12
(15) a) x(t) = 32 e2t + e3t + 21
b) L = 12
3
c) tinf lexion
= n 2
P1 (t) 1 0.3(T t) + 0.045(T t)2
(17) P2 (t) = e0.7(T t) 1 0.3(T t)
P3 (t) 1
(19) a) 1 = 1, 2 =1, 3 = 2
23/15
b) K = 37/15

1
(21) x(t) = c1 cos n t + c2 sen n t + 2t1
(22) f (x2 + y 2 ) = n(x2 + y 2 )
(28) c) x(t) = t12 ((1 2 )cost 2sent + 1)
(29) c) x(t) = c1 t cost + c2 t sen t + c3 et

Cap. V

N
1 1 1
(2) x(t) = tet + ( 2
et + tet + ent )
n=1
(n + 1) (n + 1) (n + 1)2
5
(7) c) F () = 1e15 (e4 ( 45 2 ) + e 2 + 412 )
(10) x(t) = K6 ((t L)3 H(t L) + 3t2 LH(t) t3 H)t))
(11) c) Si u(t) = H(t), y(t) = ( 21 + 2et 32 e2t )H(t)
RESULTADOS DE EJERCICIOS SELECCIONADOS 197

Si u(t) = (t), y(t) = (2et + 3e2t )H(t)


Si u(t) = sen t, y(t) = 15 cos(t Arctg 2)

Cap. IX
(1) d) Si > 0

(+ )n +( )n (+ )n ( )n
[ ]n
2 2
=



(+ )n ( )n (+ )n +( )n
2 2
Si < 0

[ ]n cos(nArctg )
sen(nArctg )

n/2

= ( )
2

sen(nArctg

) cos(nArctg

)
REFERENCIAS AL NIVEL INTRODUCTORIO
Bibliografa

[1] Boyce, E.B. and R.C. DiPrima, Elementary Dierential Equations and Bound-
ary Value Problems, New York: John Wiley, 1965.
[2] Brauer, F. and J.A. Nohel, Ordinary Dierential Equations, A First Course,
New York: W.A. Benjamin, 1967.
[3] Kreider, D.L., R.G. Kuller, and D.R. Ostberg, Elementary Dierential Equa-
tions, Reading, Mass.: Addison-Wesley, 1968.
[4] Marcellan, F., Cassasus, L., Zarzo, A. Ecuaciones Diferenciales, Madrid:
McGraw-Hill, 1990.
[5] Ince, E.L., Ordinary Dierential Equations, Dover, Nueva York, 1956.
[6] Simmons, F., Ecuaciones diferenciales con aplicaciones y Notas Historicas,
McGraw-Hill: Mexico, 1977.
[7] Wilson, H.K., Ordinary Dierential Equations, Addison-Wesley Publishing
Company, 1971.
NIVEL AVANZADO
[8] Birkho, G. and G.C. Rota, Ordinary Dierential Equations, Boston: Ginn,
1962.
[9] Hartman, P., Ordinary Dierential Equations, New York: John Wiley, 1964.
[10] Hurewic, W., Lectures on Ordinary Dierential Equations, Cambridge, Mass.:
M.I.T. Press, 1958.
[11] Lefschetz, S., Dierential Equations: Geometric Theory, New York: Inter-
science, 1957.
[12] Nemytskii, V.V. and V.V. Stepanov, Qualitative Theory of Dierential Equa-
tions, Princeton, N.J.: Princeton Univ. Press, 1960.
[13] Piccinini, L.C., Stampacchia, G., Vidossich, G., Ordinary Dierential Equa-
tions in Rn : Problems and Methods, New York: Springer-Verlag, 1984.
[14] Coddington, E.A. y Levinson, N., Theory of Ordinary Dierential Equations,
New York: McGraw-Hill, 1955.
SOBRE ESTABILIDAD
[15] Cesari, L., Asymptotic Behavior and Stability Problems in Ordinary Dieren-
tial Equations, New York: Academic Press, 1963.
[16] Coppel, W.A., Stability and Asymptotic Behavior of Dierential Equations,
Boston: D.C. Heath, 1963.
[17] Hahn, W., Theory and Application of Lyapunovs Direct Methods, Englewood
Clis, N.J.: Prentice-Hall, 1963.
[18] LaSalle, J. and S. Lefschetz, Stability by Liapunovs Direct Method, with Ap-
plications, New York: Academic Press, 1961.
SOBRE ALGEBRA LINEAL
[19] Franklin, J.N., Matrix Theory, Englewood Clis, N.J.: Prentice-Hall, 1968.
199
200 BIBLIOGRAFIA

[20] Halmos, P.R., Finite Dimensional Vector Spaces, New York: Van Nostrand,
1958.
Indice alfabetico

Algebra de Matrices, 176 ecuacion exacta, 36


Algebra Lineal, 171 ecuacion general de Euler, 122
aniquiladores, 67 ecuacion indicial, 126
aplicacion o transformacion lineal, ecuacion lineal homogenea de primer
174 orden, 33
asintoticamente estable, 157 ecuacion logstica, 16
atractor, 159 ecuaciones con variables separables,
27
Base de un espacio vectorial, 173
ecuaciones de LotkaVolterra, 16
bloque de Jordan, 55, 184
ecuaciones de Newton, 45
cambio de base, 178 ecuaciones de Primer Orden, 27
Cinematica, 11 ecuaciones diferenciales lineales, 53
coeficientes indeterminados, 70 ecuaciones lineales de orden n, 55
coeficientes variables, 72 ecuaciones nolineales homogeneas, 44
cofactor, 178 ecuacion de Bernoulli, 43
constante de Lipschitz, 148 ecuacion de Bessel, 127
curvas integrales, 40 ecuacion lineal homogenea con
coeficientes constantes
definida positiva o de tipo positivo, ntes constantes, 53
161 ecuacion lineal no homogenea, 33
definida semipositiva o de tipo energa cinetica, 41
semipositivo, 161 energa potencial, 41
desplazamientos, 105 espacio de fase, 45
Determinante, 177
espacio metrico completo, 144
diagonalizacion de una matriz, 186
espacio solucion, 73
Diagramas de fase, 47
Espacios Vectoriales, 171
diferencial, 35
estabilidad, 156
Diferenciales exactos, 35
estable, 157
Diferencias Finitas, 11
estado del sistema, 45
dimension, 174
dimension finita, 174 Estudio cualitativo, 155
Dinamica, 11 existencia de soluciones locales, 142
distancia, 144 existencia de soluciones maximales,
dual algebraico, 175 149
existencia y unicidad de soluciones,
ecuacion autonoma, 157 141
ecuacion diferencial ordinaria, 17 exponenciales de matrices, 189
201
202 INDICE ALFABETICO

Factores Integrantes, 38 polinomio caracterstico, 59


flujo, 45 problema con valores iniciales, 21
Forma Canonica de Jordan, 188 propiedad de Cauchy, 182
forma lineal, 174 punto silla, 160
forma normal, 17 puntos crticos, 155
fuerza conservativa, 41 puntos de equilibrio, 155
funcion de Bessel de primera especie, puntos estacionarios, 155
129 puntos ordinarios, 116
funcion de Green, 80 puntos singulares regulares, 120
funcion de Heaviside, 105
funcion de Liapunov, 161 radio de convergencia, 115
funcion de Lipschitz, 148 rango, 177
funcion de Neumann-Bessel de reduccion de matrices, 185
segunda especie, 131 repulsor, 159
funcion Gama, 128 Segunda Ley de Newton, 11
funciones analticas, 114 series de potencias, 113
funciones de matrices, 180 sistemas de ecuaciones diferenciales,
formula de Liouville, 74 21
Sistemas Dinamicos, 45
independencia lineal, 172 solucion de la ecuacion diferencial, 19
integral de la ecuacion, 41 solucion fundamental, 64
invariante, 185 solucion general, 29
solucion maximal, 142
localmente integrable, 95
solucion trivial, 33
localmente Lipschitz, 150
subespacio vectorial, 172
metodo de aniquilacion, 68 Teorema de Cauchy-Peano, 142
metodo de las aproximaciones Transformacion de Laplace, 95
sucesivas, 143 Transformaciones Lineales, 171
metodo de las series de potencias, truncamientos, 105
113
metodo de Picard, 143 valores y vectores propios, 185
matriz, 175 variacion de parametros, 34
matriz adjunta, 178
Wronskiano, 76
matriz fundamental, 74
matriz inversa, 177
matriz solucion, 74
matriz traspuesta, 177
Mecanica, 10
menor, 178
metodo de Liapunov, 161

nilpotente, 184
no singular, 177
nodo, 159
Normas, 181

orden exponencial al infinito, 97


oscilador armonico, 42

Vous aimerez peut-être aussi