Vous êtes sur la page 1sur 17

En este cap tulo estudiaremos sistemas lineales de ecuaciones diferenciales ordinarias.

En esta caso se puede obtener informacin mas detallada sobre el comportamiento o de sus soluciones, la cual ser muy util al momento de estudiar la dinmica de ecuaciones a a diferenciales no lineales. Un sistema de la forma x = A(t)x, (3.1) se denomina lineal homogneo y uno del tipo e y = A(t)y + f (t), (3.2) se denomina sistema lineal no homogneo; donde A C[J, Rnn ] y f C[J, IRn ] . e Mostremos que (3.2) admite una unica solucin para cualquier problema de valor o inicial. En efecto, denotemos por F (t, y) = A(t)y + f (t). Como A y f son continuas, se sigue que F tambin es continua y se verica que e |F (t, y)| A(t) |y| + |f (t)|, (t, y) J IRn , entonces por el teorema de prolongacin global 2.10, se sigue que (3.2) admite una unica o solucin denida sobre el intervalo J. En otras palabras el intervalo de continuidad de o las funciones A(t) y f (t) determina el intervalo maximal de existencia y unicidad de las soluciones del sistema (3.2).

3.1

Sistemas Lineales Homogneos e


ww w.

Lema 3.1 Con las operaciones usuales de suma y producto por un escalar de funciones el conjunto = { : J IRn tal que satisface (3.1)} es un espacio vectorial de dimensin n. o Demostracin. Es obvio que o es un subespacio vectorial del espacio C[J, IRn ]. n Mostremos que es isomorfo a IR . Para ello consideremos los siguientes P.V.I. x = A(t)x , x(t0 ) = ej , donde {ej }n es la base cannica de IRn . Es claro que para cada j existe una unica o j=1 solucin del P.V.I., a esta solucin la denotaremos por j . Entonces j , y el opeo o rador T : IRn , denido por T ej = j , induce un isomorsmo entre IRn y . En efecto, si x0 IRn , existen constantes c1 , . . . , cn , tales que x0 = n ci ei . Luego por i=1 ser T lineal, T x0 = n ci i . Deniendo (t) = n ci i , obtenemos que y i=1 i=1 satisface la condicin inicial x(t0 ) = x0 . o Teniendo en cuenta la prueba del lema 3.1 y el hecho que un isomorsmo env a bases en bases, se sigue que {1 , . . . , n } es una base del sub-espacio vectorial .

M at

em

at

ic a

1.c

om

Denicin 3.1 A cualquier conjunto de funciones j o , j = 1, . . . , n; que sea base de lo llamaremos sistema fundamental de soluciones del sistema (3.1). Denicin 3.2 A la matriz : J IRnn cuyas columnas sean las componentes o de alguna base de se le llama matriz fundamental del sistema (3.1). Si adems a (t0 ) = I , entonces se llama matriz fundamental principal. De la denicin de matriz fundamental se sigue inmediatamente que (t) = A(t)(t). o Entonces toda solucin del sistema homogneo (3.1), tiene la forma x(t) = (t)C , o e n donde C es un vector constante en IR a determinar. En particular, x(t0 ) = x0 = (t0 )C. De all que C = 1 (t0 )x0 . As la unica solucin del sistema lineal homogneo , o e (3.1) tal que x(t0 ) = x0 , viene dada por la expresin o x(t, t0 , x0 ) = (t)(t0 )1 x0 . (3.3)

A la matriz K(t, t0 ) = (t)(t0 )1 , se le llama matriz de transicin (operador de o evolucin) del sistema (3.1). Adems, el operador de evolucin K(t, t0 ) satisface las o a o propiedades siguientes: a) La matriz de transicin es unica. o b) K(t, t0 ) = K(t, s)K(s, t0 ) , t0 s t , (propiedad semigrupal). d) K(t0 , t0 ) = I,

Una propiedad bien interesante de las matrices soluciones del sistema (3.1) es que ellas son siempre singulares o no-singulares. Es decir, es suciente que una matriz solucin o sea no singular en un instante t0 para que ella sea no singular para todo t en IR. Esta armacin se sigue inmediatamente del siguiente : o Teorema 3.2 (Liouville). Sea (t) una matriz solucin del sistema (3.1). Eno tonces t trA(s)ds W (t) = det (t) = W (t0 )e t0 , t J. A la funcin W (t) se le llama el Wronskiano de ; y, trA = (traza A) = o Demostracin. Se sabe que o 11 ... i1 ... n1 1n 11 . . . ....... , donde (t) = i1 in . . . ....... nn n1 1n . . . . . . . in . . . . . . . . nn
n i=1 aii .

W (t) = (det (t)) =


i=1

ww

w.

at

em

e) K (t, t0 ) = A(t)K(t, t0 ). t

at

ic

a1

.c o

c) K 1 (t, t0 ) = K(t0 , t),

Como es una matriz solucin del sistema (3.1), se tiene que = A(t). De donde o n = se sigue que ij k=1 aik kj . Sustituyendo estas expresiones en el determinante 11 ... i1 ... n1 1n ....... , in ....... nn

multiplicando la primera la por ai1 , la segunda por ai2 y as sucesivamente, excepto la isima la; y sumndoselas a la isima la, obtenemos que e a e 11 ... i1 ... n1 1n ....... = aii W (t). in ....... nn

Lo cual inmediatamente implica que W (t) = trA(t)W (t). Esto prueba nuestra armacin. o Supongamos ahora que A(t) es una matriz constante y la seguiremos denotando con la misma letra. Pongamos An tn eAt = . n! A n |t|n An tn n! n!
n=0

ii)

|t|n < , n!

se sigue que eAt est bien denida. Ms an como An tn /n! converge uniformea a u n=0 mente sobre compactos, cada trmino de la serie es innitamente diferenciable y la serie e de las derivadas trmino a trmino, tambin es uniformemente convergente, obtenemos e e e que (t) = eAt satisface la ecuacin matricial lineal homognea o e (t) = y (0) = Inn . As hemos mostrado que para sistemas lineales a coecientes constantes la matriz , fundamental principal viene dada por (t) = eAt .
n=1

ww

w.

i)

at

em
An tn1 =A n n!
n=1

Teniendo en cuenta que

at

n=0

ic

a1

An1 tn1 = A(t), (n 1)!

.c o

3.2

Sistemas Lineales No-Homogneos e

Consideremos el sistema lineal no homogneo (3.2). Espec e camente, nuestra intencin es la de hallar una expresin para las soluciones de (3.2), en trminos de las o o e soluciones del sistema lineal homogneo (3.1). El mtodo que emplearemos para nuestro e e propsito es el mtodo de variacin de parmetros. o e o a Sea (t) la matriz fundamental del sistema (3.1). Busquemos las condiciones que debe satisfacer la funcin C : J IRn para que y(t) = (t)C(t) , t J, sea solucin del o o sistema (3.2). Luego, derivando y reemplazando y(t) = (t)C(t) en (3.2) obtenemos que : (t)C(t) + (t)C (t) = A(t)(t)C(t) + f (t) , t J. Teniendo en cuenta que = A(t) , se sigue que (t)C (t) = f (t) , t J.

Integrando esta expresin obtenemos que : y(t) = (t)C(t) es solucin del sistema (3.2) o o si y solo si
t

C(t) = C0 +
t0

1 (s)f (s) ds

t J,

w.

Si adems de (3.2) tenemos el dato inicial y(t0 ) = y0 , entonces C0 = 1 (t0 )y0 ; y a la unica solucin de (3.2) que satisface la condicin inicial y(t0 ) = y0 viene dada por o o

at

em

ww

at

t0

ic

y(t) = (t)C0 + (t)

1 (s)f (s) ds

a1

.c o

para cierta constante C0 IRn . As la expresin general para las soluciones de (3.2) es , o , t J. (3.4)

y(t, t0 , y0 ) = K(t, t0 )y0 +


t0

K(t, s)f (s) ds

t J.

(3.5)

3.3

Sistemas Lineal Conjugado

Denicin 3.3 Diremos que dos funciones x(t) y z(t) son conjugadas, si o < x(t), z(t) >= cte, para todo t J. Aqu < , > denota al producto interior de IRn . , Sea x(t) una solucin del sistema (3.1) y z(t) una funcin diferenciable. Si x(t) y z(t) o o son funciones conjugadas , entonces < x (t), z(t) > + < x(t), z (t) >= 0 , Luego, como x(t) es solucin de (3.1) se sigue que o < x(t), AT (t)z(t) + z (t) >= 0 , t J, t J.

y para toda solucin x(t) de (3.1). Lo cual implica que necesariamente z(t) debe o satisfacer la siguiente ecuacin diferencial o z (t) = AT (t)z(t) , t J.
m

(3.6)

0 = 1 + (1 ) = A(t) + (1 ) De donde se sigue que (1 ) = 1 A(t) , t J.

Es decir, (T )1 es la matriz fundamental del sistema lineal conjugado (3.6). Observacin 3.1 En teor de control ptimo y en programacin lineal, frecuenteo a o o mente asociado al problema que se desea resolver, se plantea otro problema llamado Problema Dual. En algunas teor este problema dual se obtiene o viene a dar condias ciones necesarias para resolver el problema original. Es de destacar aqu que tales problemas duales son en realidad los sistema conjugados asociados al sistema original.

ww

se obtiene que

w.

at

(t)1 (t) = I,

em

at

Al sistema (3.6) se le llama sistema lineal conjugado. Sea (t) la matriz fundamental del sistema (3.1). Derivando la identidad

ic

a1

.c o

3.4
C 1 (IR, IRnn ),

Sistemas Reducibles

Denicin 3.4 Diremos que el sistema (3.1) es reducible, si existe una matriz L o no singular, con L y L acotadas, tal que la transformacin x = L(t)z, o reduce el sistema (3.1) a un sistema con coecientes constantes de la forma z = Bz, donde B = L1 (AL L ) . Una vez vistas las ventajas que presentan los sistemas lineales a coecientes constantes resulta natural buscar condiciones que permitan caracterizar a los sistemas reducibles. En este sentido tenemos el siguiente : Teorema 3.3 (Eruguin) El sistema (3.1) es reducible si y slo si la matriz de o transicin del sistema (3.1) se puede expresar como : o K(t, t0 ) = L(t)eB(tt0 ) L1 (t0 ), para alguna matriz constante B. Demostracin. Supongamos que el sistema (3.1) es reducible al sistema z = Bz, o mediante la transformacin x = L(t)z . Denamos (t) = L(t)eBt . Derivando y o = AL LB , obtenemos que teniendo en cuenta que L = L eBt + LBeBt = ALeBt = A. Lo cual muestra que (t) = L(t)eBt es matriz fundamental del sistema (3.1). Luego, la matriz de transicin de (3.1) satisface (3.7). En efecto, o
.c o m

(3.7)

Probemos ahora la suciencia. Supongamos que se satisface la relacin (3.7) y o denamos x = L(t)z. Entonces x = L (t)z + L(t)z . De (3.1) y la expresin anterior, o se obtiene que L(t)z = A(t)x(t) L (t)z = [A(t)L(t) L (t)]z. Lo cual implica que z = L1 (t)[A(t)L(t) L (t)]z. De (3.7), se sigue que : L(t) = K(t, t0 )L(t0 )eB(tt0 ) . y L (t) = A(t)K(t, t0 )L(t0 )eB(tt0 ) K(t, t0 )L(t0 )BeB(tt0 ) = A(t)L(t) L(t)B. Finalmente, sustituyendo L(t) y L (t) en la ecuacin (3.8), obtenemos que z = Bz . Lo o cual prueba la reducibilidad del sistema (3.1) (3.8)
ww w.

at

em

K(t, t0 ) = (t)1 (t0 ) = L(t)eBt eBt0 L1 (t0 ) .

at

ic

a1

3.5

Sistemas Lineales Homegneos a Coecientes Peridicos e o

La bsqueda de soluciones peridicas para sistemas del tipo y = f (t, y) es equivau o lente a resolver un problema de frontera del tipo y(0) = y(), donde > 0 representa el per odo de la solucin buscada. Este tipo de problemas es de gran importancia o prctica. a En este pargrafo consideraremos el sistema (3.1) bajo la condicin adicional que a o A(t) es una matriz peridica. En este caso decimos que el sistema (3.1) es peo ridico. Mostraremos que los sistemas lineales -peridicos son reducibles a sistemas o o con coecientes constantes. Probemos en primer lugar el siguiente lema auxiliar. Lema 3.4 Sea C una matriz real e invertible. Entonces, existe una matriz B, en general compleja, tal que eB = C. Demostracin. Dada la matriz C, denotemos por 1 , , m sus autovalores. Eno tonces existe una matriz invertible T tal que T 1 CT = J, donde J := diag[J1 , . . . , Jm ], Ji = i I + S y S es una matriz nilpotente del tipo S := 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 1 0
m

= T eB T 1 = eT BT

ww

w.

C = T JT 1 = T diag [J1 , . . . , Jm ] T 1 = T diag [eB1 , . . . , eBm ]T 1

= eB

at

donde B = diag[B1 , . . . , Bm ] y B = T BT 1 . Luego, podemos suponer sin perder generalidad, que la matriz C tiene la forma C = I + S , ( = 0), o bien C = (I + S ). Pongamos ahora B = (ln )I + ln(I + S ).

La matriz B est bien denida, ya que al ser S una matriz nilpotente existe p N tal a k = 0 , k p + 1 , lo cual implica que que S S1 = ln(I + S )=
k=1

em

Observemos que es suciente probar el lema para un bloque elemental de Jordan. En efecto, si para cada i = 1, . . . , m, existe una matriz Bi tal que Ji = eBi , entonces

at
,

ic
(1)k+1 S k = kk

a1

.c o

p k=1

(1)k+1 S k . kk

Por otra parte, eB = e(ln )I+S1 = eS1 =


k=0 k S1 = k! p k=0 k S1 . k!

Sustituyendo en la expresin anterior el desarrollo de S1 y despus de un tedioso clculo o e a se obtiene que eB = (I + S/) = C.

Observacin 3.2 La matriz B no est determinada de manera unica, puesto que o a si = C, tambin es cierto que para la matriz B1 = B + (2ki)I, (k N) se satisface e que eB1 = C. eB Teorema 3.5 (Floquet 1883) Si (t) es una matriz fundamental del sistema peridico (3.1), entonces existe una matriz invertible P C 1 [IR, IRnn ] tal que o P (t + ) = P (t) y una matriz constante B tal que (t) = P (t)eBt . (3.9)

Sea ahora 1 una matriz fundamental arbitraria del sistema (3.1). Luego se tiene que 1 (t) = (t)1 (0) = P (t)eBt 1 (0) = P (t)1 (0)1 (0)eBt 1 (0) 1 = P (t)1 (0)e1
1

ww

w.

P (t + ) = (t + )eB eBt = (t + )1 ()eBt = (t)eBt = P (t).

(0)Bt1 (0)

at

em

Demostracin. Supongamos en primer lugar que (0) = I. Teniendo en cuenta la o periodicidad de la matriz A(t) se tiene que (t + ) = A(t + )(t + ) = A(t)(t + ), lo cual implica que (t + ) tambin es una matriz fundamental del sistema (3.1) y por e tanto, existe una matriz constante C tal que (t + ) = (t)C. Luego, poniendo t = 0 se obtiene que () = (0)C = C y por tanto (t+) = (t)(), de donde se obtiene que (t) = (t+)1 (). Por ser () una matriz no singular, por el lema 3.4, existe una matriz B tal que () = eB . Denamos P (t) = (t)eBt . Evidentemente P (t) es una matriz invertible y satisface (3.9). Mostremos que P es peridica o

Denotando con P1 (t) = P (t)(0) , B1 = 1 (0)B1 (0), obtenemos que 1 (t) = 1 P1 (t)eB1 t . Lo cual concluye la prueba del teorema. A partir de los teoremas de Eruguin y Floquet realizando la trasformacin x(t) = o P (t)z, obtenemos como una consecuencia inmediata el siguiente: Corolario 3.6 Todo sistema peridico es reducible a un sistema con coecientes o constantes.

at
.

ic

a1

.c o

Se sabe que si (t) es una matriz fundamental de (3.1), (t + ) tambin lo es. Por e lo tanto existe una matriz invertible C tal que (t + ) = (t)C. A la matriz C se le llama matriz de monodrom a. Denicin 3.5 A los autovalores de la matriz C los llamaremos multiplicadores o caracter sticos del sistema (3.1). Mostremos que los multiplicadores caracter sticos no dependen de la eleccin de la o matriz fundamental. En efecto, sean y dos matrices fundamentales de (3.1). Luego, existen matrices C y D tales que (t + ) = (t)C y (t) = (t)D. De donde se sigue que (t + ) = (t + )D = (t)CD = (t)D1 CD . Lo cual muestra que D1 CD es una matriz de monodrom para semejante a la a matriz C. Lo cual prueba nuestra armacin. o Basndose en la observacin anterior podemos denir los multiplicadores caraca o ter sticos como sigue. Denicin 3.6 Sea la matriz fundamental principal del sistema (3.1). Llamareo mos multiplicadores caracter sticos del sistema (3.1) a los autovalores de la matriz () y exponentes caracter sticos del sistema (3.1) a los autovalores de la matriz B que aparece en (3.9). Teorema 3.7 es un multiplicador caracter stico del sistema peridico (3.1) si o y slo si existe una solucin no trivial de (3.1) tal que (t + ) = (t) , t IR. o o

(t + ) = (t + )x0 = (t)()x0 = (t)x0 = (t), t IR. Para probar la armacin rec o proca es suciente poner t = 0 en la expresin (t + ) = o (t) , t IR. Una consecuencia inmediata del Teorema 3.7 es el siguiente Corolario 3.8 El sistema (3.1) admite una solucin peridica no constante si o o y slo si existe al menos un multiplicador caracter o stico igual a 1. Observacin 3.3 Si = 1 es un multiplicador caracter o stico del sistema (3.1), entonces del teorema 3.7 se tiene que existe una solucin no nula tal que (t + ) = o (t), t IR. Lo cual implica que (t + 2) = (t + ) = (t), es decir, es 2peridica. o

ww

w.

Demostracin. Sea un multiplicador caracter o stico de (3.1). Llamemos x0 al autovector correspondiente a y sea la solucin del P.V.I. x = A(t)x , x(0) = x0 . o Teniendo en cuenta que (t) = (t)x0 , donde es la matriz fundamental fundamental principal de (3.1), se sigue que

at

em

at

ic

a1

.c o

Anlogamente, si = epi/q es un multiplicador caracter a stico, con p y q nmeros u naturales,entonces el sistema (3.1) admite una solucin 2qperidica. En efecto, o o sabemos que (t+) = epi/q (t). En general, si reemplazamos por 2q y procedemos inductivamente, se obtiene que (t + 2q) = (t + (2q 1) + ) = (t + (2q 1)) =

= 2q (t) = e2pi (t) = (cos 2p + i sin 2p)(t) = (t).

3.6

Sistemas Lineales -Peridicos No Homogneos o e

Consideremos el sistema no homogneo e y (t) = A(t)y(t) + f (t), (3.10)

con A y f continuas y -peridicas. Como es natural buscaremos informacin acerca de o o la periodicidad de las soluciones del sistema (3.10) a partir de los resultados obtenidos para el sistema lineal homogneo. As tenemos el siguiente : e Teorema 3.9 Si la unica solucin peridica del sistema homogneo (3.1) es la o o e solucin trivial, entonces el sistema (3.10) admite una unica solucin peridica no o o o constante. Demostracin. Sea (t) solucin de (3.10) tal que satisface la condicin inicial o o o (0) = y0 . Sabemos en este caso que

em

at
t

(t) = (t)y0 +
w.

(t)1 (s)f (s)ds,

ic

a1

.c o

(3.11)

donde (t) es la matriz fundamental principal del sistema (3.1). Por otra parte, si (t) es peridica, entonces (t + ) = (t). Luego, reemo plazando t por t + en (3.11) y haciendo t = 0, se obtiene que
ww

at
y0 = ()y0 +
0

()1 (s)f (s)ds.

De donde se sigue :

(I ())y0 = Al ser det(I ()) = 0, se obtiene que y0 = (I ())1

()1 (s)f (s)ds.

()1 (s)f (s)ds.

Al reemplazar y0 , dado por la expresin anterior, en (3.11) obtenemos que o (t) = (t)(I ())1
0

()1 (s)f (s)ds +


0

(t)1 (s)f (s)ds

(3.12)

Luego, (t) dada por (3.12) es una solucin peridica, no constante, del sistema o o (3.10). Por otra parte, si 1 (t) y 2 (t) representan soluciones peridicas del sistema o (3.10), entonces (t) = 1 (t) 2 (t) es solucin peridica del sistema (3.1) y por o o las condiciones del teorema tiene que ser entonces (t) = 0, para todo t IR, es decir, que 1 = 2 . Denamos la funcin de Green G(t, s), como la unica funcin que satisface las o o propiedades siguientes : 1. lim G(t, s) lim G(t, s) = I,
ts+ ts

2. G(0, s) = G(, s), 3. G (t, s) = A(t)G(t, s), t = s, t 4. lim


ts+

G G (t, s) lim (t, s) = A(s). t t ts

ww

w.

obtenemos entonces que G(t, s) es la funcin de Green asociada al sistema (3.1) y la o unica solucin peridica del sistema no homogneo (3.10) viene dada por o o e

at

em

at

G(t, s) =

(t)(I ())1 1 (s) (t + )(I ())1 1 (s)

ic

a1
,

Si observamos la expresin (3.12) y denimos o

.c o

0st 0 t s ,

(t) =
0

G(t, s)f (s)ds

t [0, ].

En efecto, de (3.12) se obtiene que (t) = (t)(I ())1 = (t)(I ())1


0 t

()1 (s)f (s)ds + (I ()) ()1 (s)f (s)ds +


0 t

t 0

1 (s)f (s)ds

1 (s)f (s)ds .

Por otra parte, se tiene que (I ())1 () = ()(I ())1 (t)() = (t + ).

Entonces
t

(t) =
0

G(t, s)f (s)ds +


t

G(t, s)f (s)ds =


0

G(t, s)f (s)ds.

Para terminar esta seccin veremos que resolviendo el sistema conjugado asociado o a (3.1), podemos obtener informacin acerca de la periodicidad de las soluciones de o (3.10). Teorema 3.10 El sistema lineal no homogneo (3.10) posee solucines perie o o dicas si y slo si para cualquier solucin z(t) del sistema conjugado (3.6) se satisface o o que

< z(s), f (s) > ds = 0. Demostracin. Se sabe que (t) es una solucin peridica del sistema (3.10) o o o si y solo si (0) = (). Lo cual es equivalente a decir que
0

(I ())(0) =

()1 (s)f (s)ds,

(3.13)

De donde se sigue que T (0) = T (0)(). Reemplazando esta expresin en (3.14), o obtenemos T (0)1 (s)f (s)ds = 0. (3.15)
0

Por otro lado, si z(t) es solucin del sistema conjugado (3.6) con condicin inicial o o 1 (t))T (0). Sustituyendo esto ultimo en (3.15), obtenemos (0), entonces z(t) = ( T z (s)f (s)ds = 0. 0 Hasta el momento todas las condiciones que tenemos para garantizar la existencia de soluciones peridicas para sistemas lineales involucra el clculo de los multiplicadores o a caracter sticos, la cual es una tarea extremadamente complicada. El siguiente resultado nos provee una condicin suciente para la existencia de soluciones peridicas, la cual o o en la prctica es mas fcil de chequear. a a

ww

T (0)[I ()] = 0.
w.

at

para cualquier (0) tal que [I ()]T (0) = 0, o bien lo que es lo mismo

em

at

< (0),

()1 (s)f (s)ds >=

T (0)()1 (s)f (s)ds = 0,

ic

a1

.c o

donde (t) es la matriz fundamental principal del sistema peridico (3.1). Por otra o parte, la expresin (3.13) es una ecuacin lineal del tipo Ez = b, E es un operador o o lineal, la cual posee solucin si y slo si < b, >= 0 para cualquier solucin de la o o o T = 0. Poniendo E = I () y = (0), obtenemos que (3.13) posee ecuacin E o soluciones si y slo si o
m

(3.14)

Teorema 3.11 Supongamos que el sistema (3.10) posee al menos una solucin o acotada en [0, +). Entonces dicho sistema admite una solucin peridica no conso o tante. Demostracin. Sea (t) una solucin de (3.10) acotada sobre [0, +) tal que o o (0) = y0 y sea (t) la matriz fundamental principal del sistema homogneo. Entonces e

() = ()y0 +
0

()1 (s)f (s)ds.

Como el sistema (3.10) es peridico, entonces (t+) tambin satisface a (3.10). o e Luego, se tiene que
t

(t + ) = (t)() +
0

(t)1 (s)f (s)ds.

Poniendo t = , obtenemos

(2) = ()() +
0

()1 (s)f (s)ds = 2 ()y0 + [() + I]V,

donde V =
0

at

(k) = k ()y0 +
ww w.

em

k1

at
i ()V

ic
,
i=0

Procediendo inductivamente se llega a

a1
k N. , z IRn .
0

Si se supone que el sistema (3.10) no posee soluciones peridicas, entonces o [I ()]z = V (3.16)

.c o

()1 (s)f (s)ds.


m

En efecto, supongamos que [I ()]z = V = z IRn . Entonces la funcin o


t

()1 (s)f (s)ds, para algn u

(t) = (t)z +
0

(t)1 (s)f (s)

es una solucin peridica, de (3.10). Contradiccin. o o o De (3.16) se deduce que det(I ()) = 0, puesto que de lo contrario la ecuacin o (I ())z = V tendr solucin. De all que existe c = 0, tal que (I ())T c = 0 y a o < V, c >= 0.

Esto signica que c satisface c = T ()c. Por tanto c = (T ())k c, para todo k N y de all que
k1

< (k), c > = < k ()y0 +


i=0

i ()V, c >
k1

= < y0 , (T ())k c > +


i=0 k1

< V, (T ())i c >

= < y0 , c > +
i=0

< V, c >=< y0 + kV, c > +,

cuando k +. Lo que contradice la acotacin de sobre [0, +). o

ww

w.

at

em

at

ic

a1

.c o

3.7

Comentarios y Sugerencias

En este cap tulo solo hemos considerado sistemas lineales del tipo (3.2) donde A(t) y f (t) son continuas sobre J. Cuando A(t) y f (t) son localmente integrables todos los resultados de los pargrafos 3.1 al 3.5 siguen siendo vlidos. La unica variacin a a o consiste en que las soluciones se entendern como funciones absolutamente continuas a que satisfacen (3.2) casi en todas partes sobre J. En el pargrafo 3.6 nos referimos a la reducibilidad de sistemas lineales en el sentido a de Liapunov. Sin embargo, es importante en la prctica considerar la reducibilidad en a un sentido ms amplio. Ms concretamente, cuando el sistema (3.1) se reduce a uno a a cuya matriz es de la forma C1 (t) 0 . 0 C2 (t) Notemos que este concepto de reducibilidad es compatible con el que se introduce en a lgebra lineal, ver [13] . Esto tiene importantes conexiones con la teor de dicotom a a, para su estudio recomendamos ver el excelente libro escrito por Coppel [3]. Para nalizar, acotemos que respecto a los sistemas peridicos solo hemos tocado o los resultados ms elementales. En general, el problema de hallar soluciones peridicas a o dista de estar totalmente resuelto; muy por el contrario, es profusa la bibliograf a referente a este tema. Incluso, el problema de hallar o estimar a los multiplicadores caracter sticos es un problema resuelto solo en casos muy particulares (ver [11], pg. a 121).

ww

w.

at

em

at

ic

a1

.c o

3.8

Ejercicios y Problemas

1. Halle la matriz fundamental principal de los siguientes sistemas (a) x = x2 , 1 x = x1 . 2

(b) x = 2x1 + x2 , 1 x = x1 + 4x2 . 2 2. Si (t) es una matriz solucin del sistema homogneo X = A(t)X e invertible o e para algn t0 , entonces (t) es no singular para todo t J. u 3. Pruebe que la matriz de transicin satisface las propiedades a) e) . o 4. Se dice que una solucin es positiva, si cada componente de la solucin es positiva o o cuando el dato inicial es positivo. Hallar condiciones para que las soluciones del sistema x = A(t)x sean positivas en trminos de los elementos de la matriz e A = (aij ). Considere por separado los casos cuando la matriz es constante y cuando es funcin del tiempo. o 5. Muestre que la matriz fundamental de un sistema lineal peridico no necesariao mente es peridica. Indicacin: considere el siguiente sistema o o x = x, y = (sin t)x + y . 6. Considere la ecuacin y = a(t)y+b(t), donde a, b C[IR, IR]. Supongamos adems o a que a(t) y b(t) son peridicas . o Pruebe que la ecuacin dada posee una unica solucin peridica si y slo si o o o o exp( 0 a(s)ds) = 1. Estudie el caso cuando exp( 0 a(s)ds) = 1. 7. Pruebe que el sistema x = A(t)x posee ksoluciones peridicas no constantes o y linealmente independiente si y slo si el sistema conjugado y = AT (t)y posee o ksoluciones peridicas no constantes y linealmente independiente. o 8. Pruebe que la funcin G(t, s) denida en la seccin 3.6 es una funcin de Green. o o o 9. Pruebe que el sistema (3.1) no admite soluciones peridicas no constantes si o y slo si o rango [Inn K(t , t0 )] = n donde K(t, t0 ) es la matriz de transicin del sistema. o 10. Pruebe que: Una funcin : IR IRn es una solucin peridica del sistema o o o y = f (t, y), con f (t + , y) = f (t, y), si y slo si (0) = (). o
ww w.

at

em

at

ic

a1

.c o

11. Considere f : IR IR IR, peridica en su primera variable, con periodo . o = f (t, y) posee una unica solucin global para Supongamos que el problema y o cada dato inicial y0 = y(t0 ). Entonces la ecuacin y = f (t, y) tiene una solucin o o peridica de per o odo si y slo si existe una solucin acotada en el intervalo o o [t0 , ). Este resultado se debe a Jos Luis Massera, consulte [16]. e 12. Considere el sistema peridico x = A(t)x, y sean i , i = 1, , n sus multiplio cadores caracter sticos. Pruebe que
n

i = exp
i=1 0

tr A(t)dt .

ww

w.

at

em

at

ic

a1

.c o

Vous aimerez peut-être aussi