Vous êtes sur la page 1sur 33

1

Sistema de ecuaciones diferenciales ordinarias X_ = M X + F

La ecuacin de movimiento de un oscilador armnico


x + ! 2 x = 0 .

(1.1)

es una ecuacin de segundo orden con x como nica variable dependiente. Esta ecuacin se puede reemplazar
por un sistema de ecuaciones de primer orden si denimos y como la velocidad
y(t)

(1.2)

v (t) = x(t),
_

usando (1.1) obtenemos


!2x .

y_ = x =

con lo cual la ecuacin original equivale al sistema de ecuaciones diferenciales ordianrias lineales
(1.3)

x_ = y
y_ =

!2x .

que tiene la forma matricial


dX
= MX
dt

(1.4)

donde usamos
X=

x
y

M=

0 1
!2 0

dX
dt

dx
dt
dy
dt

(1.5)

El vector X pertenece a un espacio abstracto llamado espacio fase con ejes x y y v. El punto importante
de la formulacin matricial (1.4) de la ecuacin (1.1), es que podemos usar el lgebra matricial para obtener
una la solucin matricial X = eM t X0 donde eM t es una matriz que denimos en la seccin siguiente.
Orden de ideas:
(a) Denicin de las funciones de una matriz f (M ) por medio de series de potencias, denicin de eM t y
deduccin de algunas de sus propiedades.
(b) Calculo de f (M ) cuando la matriz M es diagonal.
(c) Diagonalizacin de una matriz M con eigenvalores diferentes y aplicacin al calculo de f (M ) cuando M
no es diagonal.
(d) Aplicacin del clculo de eM t a la solucin del sistema X_ = M X + F en Rn .

El espacio Rn, algebra y clculo de matrices, denicin de funciones f (M ) de una matriz Mn n, matriz eM t y sus propiedades

Dado que el formalismo matricial usado para estudiar y resolver el sistema de ecuaciones (1.4) con una el
vector X (1.5) que con un vector X con n componentes, consideraremos vectores en el espacio Rn . Denimos
el espacio Rn como el conjunto de vectores columna
0 1 1
0 1 1
x
x~
B .. C
B .. C
~
X=@ . A , X=@ . A .
xn

x~n

La suma entre vectores y la multiplicacin por escalares , , se dene en la forma usual


0
1
x1 + x~1
C
..
~ =B
X+ X
@
A .
.
n
n
x + x~

Usando lo anterior podemos expresar cada vector X como combinacin lineal de la base cannica
0
1
j1

B
C
ej = @ ... A
jn

como sigue

1
x1
n
B .. C X k
X=@ . A=
x ek = x k e k .
k=1
xn

En el espacio abstracto Rn la base cannica ek no depende un parmetro como el tiempo t por lo que tiene
la derivada
dek
=0
dt
con la cual la derivada de X es la derivada de sus componentes
0 dx1 1
dt
dX
dxk
B
C
=
ek = @ ... A .
dt
dt
dxn
dt

En lo que sigue nos referiremos a una matriz Q con r renglones y s columnas como Qr s . Los elementos
de Q los representaremos por Qjk donde j indica el rengln y k la columna. En esta forma tenemos
0
1
Q11
Q1s
B
.. C = fQ g .
...
Q = @ ...
jk
. A
Qr1

Qrs

El producto de dos matrices Qr s = fQjk g y Ps q = fPkl g es una matriz T = QP cuyos elementos Tjl estan
dados por el producto punto entre j simo rengln de de Q y la k sima columna de P
(2.0a)

Tjl = Qjk Pkl

Esta frmula es til para obtener los resultados generales que necesitamos para las aplicaciones en Fsica,
pero el clculo del producto QP en casos concretos es ms fcil usando directamente los arreglos rectangulares
0
10
1
Q11
Q1s
P11
P1s
B
.. C B ..
.. C .
..
..
T = QP = @ ...
.
.
. A@ .
. A
Qr1

Qrs

Pr1

Prs

Para ilustrar el uso de (2.0a) consideremos que los elementos de Q y P dependen de t, entonces la derivada
de T = QP se obtiene derivando (2.0a)
d Qjk
d Pkl
d Tjl
=
Pkl + Qjk
.
dt
dt
dt
2

Si denimos la matrices dQ=dt y dP=dt como las matrices con elementos


dQ
=
dt

d Qjk
dt

dP
=
dt

d Pkl
dt

entonces

dT
dQ
dP
=
P +Q
.
dt
dt
dt
El vector columna X es una matriz de n 1 y su producto con una matriz cuadrada Mn
columna
Z = MX

es el vector

cuyas componentes estn dadas por


z j = Mjk xk .
Si M tiene elementos constantes Mjk y las componentes xk dependen de t, entonces
d
dX
MX = M
.
dt
dt
Consideremos una matriz cuadrada Mn
de n n, la serie f inita

n.

Dado que la k sima potencia M k es una matriz cuadrada


N
X
(M t)k

SN =

(2.1a)

k!

k=0

da por resultado una matriz SN de n n. Se puede demostrar que la sucesin de matrices S1 , S2 , . . . ,


SN , converge a una matriz con elementos ejk (t) que representamos por eM t ,
0
1
e11 (t)
e1n (t)
B
C
..
..
Mt
..
lim SN = @
(2.1b)
A e .
.
.
.
n!1

en1 (t)

enn (t)

En forma breve denimos a eM t como la serie de potencias siguiente


Mt

1
X
(M t)k

k!

k=0

(2.2)

Veamos un clculo explcito de eM t a partir de su dencin en serie.


Ejemplo. Consideremos la matriz diagonal
Md =

(2.3a)

(2.3b)

Se deja como ejercicio demostrar la expresin


Mdk =
esto da

1
1
X
1 k X
M =
k! d
k=0
k=0

k
1

k!

k!

k
2

k
1

k
2

P1

k
1

k=0 k!

P1

k
2

k=0 k!

e 1 0
0 e 2

donde usamos
e

1
X
k=0

Por lo tanto
Md

1
X
1 k
=
M =
k! d
k=0

k
j

k!

e 1 0
0 e 2

El mismo argumento puede aplicarse a una matriz diagonal Mn


siguiente.

(2.3c)

=f

j jk g

lo que nos lleva al resultado

Resultado 2.1. La matriz exponencial eMd t correspondiente a una matriz diagonal


0
1
0
1
B
C
Md = @ ... . . . ... A
0

es

1t

B
eMd t = @

..
.
0

..

.
e

(2.4a)

n n

1
0
.. C
. A

(2.4b)

nt

n n

La expresin (2.2) permite extender la denicin de las funciones hiperblicas


cosh z =

ez + e
2

sinh z =

ez

(2.5a)

a matrices, a saber,
eM + e M
eM e M
, sinh z =
.
2
2
En general si una funcin f (z) en el plano complejo, z = x + iy, tiene una serie de potencias
cosh M =

f (z) =

1
X

fk z k

(2.5b)

(2.6a)

k=0

con radio de convergencia innito, entonces denimos f (M ) con la misma serie


f (M ) =

1
X

fk M k :

(2.6b)

k=0

Como ejemplos tenemos las series de las funciones trigonomtricas


1
X
( 1)k 2k+1
sin z =
z
,
(2k + 1)!
k=0

1
X
( 1)k 2k
cos z =
z ,
(2k)!
k=0

(2.7a)

que dan las expresiones


1
X
( 1)k
sin M =
M 2k+1 ,
(2k + 1)!
k=0

1
X
( 1)k 2k
cos M =
M .
(2k)!
k=0

Para el caso de la matriz diagonal (2.3a) tenemos


sin M =

sin
0

0
sin

cos M =

cos
0

0
cos

.
2

(2.7b)

Este resultado puede generalizarse como sigue.


Resultado 2.2. Consideremos una funcin f (z) cuya serie (2.6a) tiene radio de convergencia innito.
Entonces para una matriz diagonal Md (2.4a) tenemos
0
1
f ( 1)
0
B
C
..
..
..
f (Md ) = @
.
(2.8)
A
.
.
.
0
f ( n) n n
Las series (2.7a) y la serie de eix conducen directamente a la frmula de Euler
eix = cos x + i sin x

(2.9a)

eiM = cos M + i sin M

(2.9b)

la cual tiene la forma matricial


Combinado este resultado con las denciones de las funciones hiperblicas para matrices (2.5b) obtenemos
la forma matricial de las relaciones entre las funciones hiperblicas y la trogonomtricas,
sinh (iz) = i sin z ,

cosh (iz) = cos z ,

(2.10a)

cosh (iM ) = cos M .

(2.10b)

a saber,
sinh (iM ) = i sin M ,

La razn para usar la notacin eM t se debe a que tiene propiedades similares a la funcin exponencial
ex . En efecto, a partir de la serie (2.2) obtenemos las propiedades siguientes.
a) Si representamos la matriz cero de n n por
O = fOjk = 0g

(2.11a)

eO = I .

(2.11b)

entonces
b) Slo para matrices cuadradas A y B que conmutan
AB = BA

(2.12a)

eA eB = eA+B .

(2.12b)

se cumple la relacin
c) Usando la relacin anterior y el hecho de que A conmuta con
eA e

=e

A A

A se obtiene

e = eO = I .

(2.13a)

Este resultado es importante ya que indica que para toda matriz A, la matriz eA tiene inversa y est dada
por
1
eA
=e A
(2.13b)
independientemente de que A sea invertible o no.
d) Si denimos la derivada de una matriz M (t) fMij (t)g como la matriz formada por la derivada de sus
elementos,
dM
dMij
;
(2.14a)
dt
dt
5

y usamos la serie (2.5) es fcil mostrar las relaciones


d Mt
e = M eM t = eM t M
dt
Ejercicios, seccin 2.
2.1 Calcular e M t , eM t , sinh M t, cosh M t, sin M t, cos M t, con las matrices
1
0
0
1
1 0 0
1 0
i
0
A
@
@
,
M=
,
,
0
0 2 0
0 3
0 2+i
0
0 0 3

(2.14b)

siguientes
1
0
0
i
0 A ,
0 1+i

donde i2 = 1.
2.2 Usar induccin matemtica para demostrar que la matriz (2.3a) tiene la potencia (2.3b).
2.3 Demostrar la relacin (2.7b) comparando los tres primeros terminos de la serie de eA+B con los de la
serie que resulta del producto eA eB .
2.4 Calcular la inversa de la matriz eM t correspondiente a las matrices del Ejercicio 1 y compruebe por
multiplicacin directa de las matrices resultantes que se satisface eM t e M t = e M t eM t = I.
2.5 Use la serie de potencias (2.2) para demostrar (2.14b).
2.6. Demuestre el Resultado 2.2.
Pendiente:
A. Separar seccin dedicada slo a Rn como espacio con produucto interior euclideano o hermitiano.
B. Espacio de matrices como espacio mtrico, espacio normado: Algebra de matrices, propiedades
generadas por el producto matricial. Derivacin e integracin de matrices.
Agregar los ejercicios correspondientes.

Solucin general de X_ = M X + F (t) con Mn

Consideremos una matriz constante Mn


X_ = M X

constante

y el sistema de ecuaciones

sujeto a la condicin inicial Xct=0 = X0 ,

(3.1a)

donde X y X0 son los vectores columna


0

1
x1
B
C
X = @ ... A ,
xn

1
x10
B
C
X0 = @ ... A .
xn0

(3.1b)

Usando las propiedades de eM t es inmediato que la solucin del sistema (3.1a) es


X = eM t X0 .

(3.1c)

En efecto, tenemos
d
d Mt
deM t
d
X=
e X0 =
X0 + eM t X0 =
dt
dt
dt
dt

d Mt
e
X0
dt

= M eM t X0

[usando (2.14b)]

= M eM t X0

[usando la asociatividad del producto matricial]

= MX

[usando (3.1c)] .
6

EN forma anloga obtenemos el resultado siguiente.


Resultado 3.1. Sea Mn

una matriz constante y F el vector columna


0
1
F1 (t)
B
C
F = @ ... A .

(3.2a)

Fn (t)

La solucin de la ecuacin no homognea

X_ = M X + F (t)

(3.2b)

X = X0 en t = 0

(3.2c)

que satisface la condicin inicial


es
Mt

X=e

X0 +

eM (t

F ( )d .

(3.2d)

Un camino para demostrar (3.2d) es aplicar la misma idea para resolver la ecuacin escalar
x_ = ax + f (t)

con x = x0

en t = 0 ,

por medio de un factor de integracin y usando las propiedades de e


un factor de integracin (t)
x_ a x = f ,
El factor

at

. Reescribiendo y multiplicando por

se calcula imponiendo la condicin


d
x = x_ + _ x = x_
dt

a x

la cual equivale a la ecuacin


_ =
cuya solucin

=e

at

nos lleva a la ecuacin


d
x = f .
dt

Integrando e imponiendo la condicin x = x0 en t = 0 obtenemos


Z t
at
x = e x0 +
ea(t ) f ( ) d .
0

Apliquemos el mismo procedimiento al sistema (3.2b). En este caso el factor


n n. Reescribiendo (3.2b) y multiplicando por una matriz n n
X_
La matriz

Mx = F .

se determina imponiendo la condicin


d
X = X_ + _ x = X_
dt
7

M x

es una matriz cuadrada de

la cual equivale a la ecuacin diferencial matricial


M .

_ =
Comparando esta expresin con (2.14b) es claro que

est dada por

=e

Mt

. Esto da

d
X= F
dt
Integrando, imponiendo la condicin X = X0 en t = 0 y usando eO = I se obtiene
Z t
( )F ( )d .
X X0 =
0

La matriz

=e

Mt

es invertible y tiene la inversa

= e

Mt

= eM t de donde se obtiene (3.3d).

Se deja como ejercicio usar la regla de derivacin de Leibnitz para funciones escalares g, f ,
Z
Z t
d t
@g(t; )
f ( ) d + g(t; t)f (t)
g(t; )f ( ) d =
dt 0
@t
0

(3.3a)

para demostrar la relacin


d
dt

G(t; )F ( ) d =

cuando G(t; ) es una matriz de n


satisface la ecuacin (3.2b).

@G(t; )
F ( ) d + G(t; t)F (t)
@t

(3.3b)

n y F es el vector columna (3.2a). Usando (3.3b) se verica que (3.2d)

Ejercicios, seccin 3.
3.1 Usar eM t para dar la solucin del sistema (3.1a) con las matrices del Ejercicio 2.1.
3.2 Usar la regla de derivacin de Leibnitz para funciones escalares (3.3a) para demostrar (3.3b) cuando G
es una matriz de n n y F es el vector columna. Sugerencia: Use la representacin Gjk Fk del producto
matricial GF y aplique directamente la regla de derivacin de Leibnitz para funciones escalares.
3.3. Usar (3.3b) para demostrar que (3.2d) da la solucin de la ecuacin (3.2b).

Diagonalizacin de matrices Mn n con eigenvalores diferentes,


clculo de f (M ) y solucin de X_ = M A + F (t)

Un nmero j (real o complejo) se llama eigenvalor de una matriz Mn


vj diferente del vector cero 0 que satisface la ecuacin
M vj =

j vj

cuando existe un vector columna

(4.1)

Otra forma de denir un eigenvalor j es como aquel nmero (real o complejo) para el cual la ecuacin (4.1)
tiene al menos una solucin no trivial vj 6= 0. Reescribiendo obtenemos el sistema homogneo de ecuaciones
(M

j I) vj

=0.

(4.2)

Una condicin necesaria para que este sistema tenga una solucin no trivial vj 6= 0 es que la matriz M
jI
tenga determinante cero
det (M
(4.3)
j I) = 0 .
Esta ecuacin llamada ecuacin caracterstica o ecuacin de eigenvalores de M , es una ecuacin algebraica
o polinomial de grado n. El teorema fundamental del lgebra arma que esta ecuacin tiene n races en el
plano complejo
(4.4)
1 , 2 , :::;
n,
las cuales pueden repetirse. Un resultado bsico es la independencia lineal de vectores con eigenvalores
diferentes. Consideremos vj y vk con eigenvalores diferentes
6=

(4.5a)

Para mostrar la independencia lineal debemos probar que los nicos los valores de cj y ck para los cuales su
cumple la relacin
cj vj + ck vk = 0 .
(4.5b)
son cj = ck = 0. De acuerdo con (4.2) tenemos
(M

k I) vj

=(

k ) vj ,

(M

k I) vk

=0,

(4.5c)

por lo que al multiplicar por M


k I ambos lados de (4.5b) se obtiene cj ( j
k ) vj = 0 y usando
j
k 6= 0, vj 6= 0, se concluye que el nico valor de cj para el cual se cumple (4.5b) es cj = 0. En forma
anloga, aplicando M
j I se obtiene ck = 0, lo que demuestra la independencia lineal de vj y vk . En esta
forma podemos probar que la armacin siguiente.
Resultado 4.1. Si la matriz Mn n tiene m eigenvalores diferentes 1 , 2 , :::, m (m n), con eigenvectores
v1 , v2 , :::, vm , respectivamente, entonces el conjunto v1 , v2 , :::, vm , es linealmente independiente. En
particular, si todos los eigenvalores de Mn n son diferentes, el conjunto de eigenvectores v1 , v2 , :::, vn ,
forma una base del espacio Rn .
En lo que sigue consideraremos matrices Mn

6=

con eigenvalores diferentes


para j 6= k .

Si denotamos las componentes de los eigenvectores vj de M como sigue


0
1
N1j
B
C
vj = @ ... A = fNkj gnk=1
Nnj

(4.6)

(4.7)

la relacin con la base cannica em es


0
1
N1j
B
C
vj = @ ... A = Nmj em
Nnj

1
0
1
v1
e1
B .. C
T B . C
@ . A = N @ .. A
vn
en

Aparece la matriz N cuyos vectores columna con exctamente los eigenvectores de M :


13
1 0
13 20
1 0
20
v1n
v11
:
:
N = 4@ v1 A ::: @ vn A5 = 4@ v11 A ::: @ v1n A5 .
v11

(4.8)

(4.9)

v1n

Esta matriz es la base de los resultados principales de esta seccin.

a) Consideremos un vector (columna) b arbitrario en Rn . Dado que los conjuntos ek y vj con bases de Rn ,
b es combinacin lineal de dichas bases, es decir existen escalares bek , bvj , tales que
b = bek ek = bvj vj .

(4.10)

La relacin entre los coecientes bek y bvj se obtiene sustituyendo vj = Nkj ek (4.8)
b = bek ek = bvj Nkj ek
e igualando los coecientes del mismo vector ek , esto da
bek = Nkj bvj .

(4.11a)

En trminos de los vectores columna


be = fbek g ,

bv = fbvj g

(4.11b)

la relacin (4.11a) toma la forma


be = N bv .

(4.11c)

b = bvj vj

(4.12a)

b) Veamos cmo acta M sobre


Aplicando M a ambos lados de la relacin y usando (4.1) se obtiene
M b = bvj M vj = bvj

j vj

(4.12b)

Esto signica que la accin de M sobre el vector columna b en la base vj da un vector columna M b cuyas
componentes en la base vj se obtienen multiplicando el vector columan bv por matriz diagonal
0
1
0
1
B
C
Md = f jn j g = @ ... . . . ... A , es decir [M bv ]v = Md bv .
(4.13)
0

donde [M bv ]v indica el vector columna que resulta del producto M bv , todo en la base de eigenvectores vj .
c) Recordemos cmo acta M sobre la base ek . Originalmente la matriz M se dene a partir de su accin
sobre un vector columna arbitrario be en la base cannica como sigue
0
1
0
1
M11
M1n
be1
B
B .. C
.. C
...
M be = @ ...
(4.14a)
@ . A = fMmk bek g .
. A
Mn1

Mnn

n n

10

ben

En particular, la accin de M sobre cada vector ek = f


M ek = fMmj

jk g

jk g

es

= fMmk g = Mmk em ,

(4.14b)

es decir, el vector columna dado por el producto M ek coincide con la k sima columna de M .
d) Usando lo anterior obtenemos la relacin entre las matrices M y Md como sigue. Aplicando M a la
expresin
b = bek ek
= bvj vj
obtenemos
[usando (4.14b)]

M b = M (bek ek ) = bek M ek = bek Mmk em


= M (bvj vj ) = bvj

= bvj

j vj

[usando (4.12b), (4.8)]

j Nmj em

igualando componentes de em obtenemos la relacin


Mmk bek = Nmj

j bvj

(4.15a)

En trminos de los vectores columna be , bv (4.11b), y las matrices M , N Md , obtenemos


M be = N Md bv .

(4.15b)

M N bv = N Md bv ,

(4.15c)

M N = N Md

(4.15d)

Sustituyendo be = N bv (4.11c)
como bv es arbitrario se obtiene
lo que nos lleva al resultado principal de esta seccin: La matriz N diagonaliza a M como sigue
N

M N = Md .

(4.15e)

Este resultado es notable por que los eigenvectores vj no necesitan ser unitarios ni ortogonales.
Podemos resumir lo anterior como sigue.
Resultado 4.2. Sea Mn n una matriz con eigenvalores diferentes
columna son los eigenvectores de M .
(a) Sean
be = fbek g ; bv = fbvj g

y N (4.9) la matriz cuyos vectores

(4.16)

los vectores columna con las componentes de un vector b en las bases ek , vj ,


b = bek ek = bvj vj .

(4.17)

La relacin entre los vectores columna be , bv , es


(4.18)

be = N bv
(b) La matriz N diagonaliza a M como sigue

B
M N = Md = @ ...
0
11

...

1
0
.. C
. A
n

.
n n

(4.20)

La relacin (4.20) permite reducir el clculo de f (M ) al clculo de f (Md ) como sigue. Consideremos
una funcin dada por (2.6),
1
X
f (M ) =
fk M k .
(4.21a)
k=0

Despejando M de (4.20)

M = N Md N

(4.21b)

sustituyendo en M k y reagrupando
Mk =

N Md N

= N Md N

N Md N

Md N

. . .

N Md N

. . .

1
k

Md N

se llega a
M k = N Mdk N
Sustituyendo en (4.21a) y factorizando N , N
f (M ) =

1
X

fk M k =

k=0

1
X

(4.21c)

fk N Mdk N

1
X

=N

k=0

fk Mdk

k=0

se obtiene el resultado deseado


1

f (M ) = N f (Md ) N

ya que f (Md ) se calcula directamente con la frmula (2.8). Podemos resumir el clculo de f (M ) para una
matriz con eigenvalores diferentes (reales o complejos) como sigue.
Resultado 4.3. Sea Mn n una matriz con eigenvalores diferentes j y N (4.9) la matriz cuyos vectores
columna son los eigenvectores de M . Consideremos una funcin dada por
f (M ) =

1
X

fk M k .

(4.22)

k=0

La matriz f (M ) a la cual converge la serie anterior est dada por


1

f (M ) = N f (Md ) N

(4.23)

donde Md es la matriz diagonal (4.20) y f (Md ) est dada por


0
1
f ( 1)
0
B
C
..
..
...
f (Md ) = @
A
.
.
0
f ( n) n

(4.24)

En particular, para eM t tenemos

eM t = N eMd t N

Ejemplo 4.1. La matriz

B
, con eMd t = @
M=

1 2
0 3
12

1t

..
.
0

...
e

1
0
.. C .
. A

(4.25)

nt

(4.26a)

tiene los eigenvalores

= 1,

= 3, los eigenvectores
1
0

v1 =

1
1

, v3 =

(4.26b)

con los cuales obtenemos


N=

1 1
0 1

Usando eM t = N eMd t N

1
0

1
1

1 0
0 3

Md =

=N

MN .

(4.26c)

obtenemos
et e3t et
0
e3t

eM t =

(4.26d)

Para comprobar este resutado veriquemos que eM t satisface la propiedad


por separado la derivada
deM t
et 3e3t et
.
=
0
3e3t
dt

deM t
dt

= M eM t (2.14b), calculamos

et 3e3t et
0
3e3t

y el producto
M eM t =

et e3t et
0
e3t

1 2
0 3

et e3t
0

et + 2e3t
3e3t

vemos las matrices resultantes coinciden. La solucin del sistema de ecuaciones


X_ = M A + F (t)

con

X = X0 en t = 0

(4.27)

asociado a M est dada por (3.2d) con eM t dada por (4.26d).


Ejercicios, seccin 4.
4.1 Para cada una de las matrices
M=

1 2
4 3

1
2

5
1

1
4

1
3

(4.29)

Hacer lo siguiente.
(a) Calcular eigenvalores y eigenvectores.
(b) Dar la matriz N y calcular el producto N 1 M N para vericar la relacin N 1 M N = Md .
(c) Calcular eM t y vericar el resultado comparando deM t =dt con el producto M eM t .
(d) Cul es la solucin del sistema (4.27) correspondiente a cada una de las matrices M ?
4.2 Repetir el Ejercicio anterior con las matrices
0

1
0
1
0
1 1 1
1 1 0
0
@
A
@
A
@
M=
,
,
0 1 1
1 1 0
1
0 0 0
0 0 1
1
Vericar que los eigenvalores son: f 1; 1; 0g, f0; 2; 1g,

13

1
0
1

1
1
1 A .
0

p p
i 3; i 3; 0 , respectivamente.

(4.30)

Proyectores de una matriz Mn n con eigenvalores diferentes y


descomposicin espectral de f (M )

En esta seccin daremos un mtodo directo para calcular etM que no requiere el calcular los eigenvectores
de M , cuando Mn n tiene eigenvalores diferentes. Un numero j (real o complejo) se llama eigenvalor de
M cuando la ecuacin
M vj = j vj
(5.1)
tiene una solucin no trivial vj 6= 0 que llamaremos eigenvector. A cada eigenvalor
matriz
Pj =

YM
k6=j

kI
k

M
j

1I

. . .

nI

le corresponde la

omitiendo el factor con k = j .

(5.2)

Esta matriz recibe el nombre de proyector de M asociado a j . En lo que sigue supondremos que los
eigenvalores j de M son diferentes. Las implicaciones de tal hiptesis son las siguientes:
(i) El conjunto de eigenvectores fvj g es linealmente independiente; es decir, los nicos coecientes cj con
los cuales se satisface la ecuacin
c1 v1 + : : : + cn vn = 0
(5.3)
es c1 = : : : = cn = 0. Para demostrar esta propiedad podemos usar la relacin
Pj vk =

jk

(5.4)

vj

la cual se obtiene a partir de (5.1) y (5.2). De acuerdo con esta relacin al aplicar Pj a ambos lados de la
ecuacin (5.3) obtenemos cj vj = 0 , pero por denicin de eigenvalor tenemos vj 6= 0, por lo que la ecuacin
cj vj = 0 se cumple slo con cj = 0.
(ii) La independencia lineal del conjunto fvj g implica que para cada vector b existe un nico conjunto de
escalares bj con los cuales b tiene la forma
b = b1 v1 + : : : + bn vn .

(5.5)

Pj b = Pj (b1 v1 + : : : + bn vn ) = bj vj .

(5.6)

Tenemos
Este resultado es signicativo ya que nos dice que no es necesario resolver el sistema (5.1) para calcular un
eigenvector vj asociado a j , basta con calcular la accion de Pj sobre un vector arbitrario b.
Resultado 5.1. Si M tiene eigenvalores diferentes y para un vector b elegido en forma arbitraria el vector
v
~j = Pj b no es nulo, entonces v
~j es un eigenvector asociado a j .
Ejemplo 5.1. (i) Los eigenvalores de la matriz antisimtrica
A=

0
!

!
0

estan dados por


det (A

I) = det

!
!

14

+ !2 = 0

i! .

(ii) El proyector asociado a


P+ =

es

Usando

+,

1
2i!

i!
!

!
i!

1
2i

i
1

1
i

vemos que el proyector asociado a


P =

+I

1
i

1
1
i

= P+

1
2

es el complejo conjugado de P+

(iii) Para ilustrar el Resultado 5.1 calculemos los eigenvectores de A con el vector columna
1
0

b=
Esto da
1
0

v =P

1
2

1
i

1
1
i

1
0

1
2

1
i

1
2

1
i

Podemos ignorar el factor 1=2 ya que si v es eigenvector, 2v tambin lo es con el mismo eigenvalor. Esto
da
1
v =
.
i
Veriquemos que v son eigenvectores de A
0
!

Av =

!
0

1
i

i!
!

1
i

i!

v , es decir Av =

v .

Ejemplo 5.2. (i) Los eigenvalores de la matriz simtrica


a
b

D=

b
a

estan dados por


det (D

I) = det

b
b

p
donde denimos
+ a2 + b 2 .
(ii) Los proyectores correspondientes a
P =

a2

b2 = 0

son

b
b

1
2

1
[ I
2

D] .

(iii) Para ilustrar el Resultado 5.1 calculemos los eigenvectores de D con el vector columna b del ejemplo
anterior
v =P

1
0

1
[ I
2

D]

1
0

1
2

1
0

Podemos ignorar el factor 1=2 para obtener


a

v =

b
15

a
b

1
2

a
b

Veriquemos que v son eigenvectores de D


Dv

a
b

=
= (

b
a

a
b

1
=(
2

a2
ba

a
b

b2
ab

, es decir, D v =

)v

Consideremos una funcin f ( ) con un desarrollo de Maclaurin


f( ) =

1
X

fk

(5.7)

k=0

que converge en una vecidad del origen x = y = 0 del plano complejo = x + iy. Supongamos que el radio
de convergencia de la serie incluye a todos los eigenvalores j de M , de manera que f ( j ) puede calcualrse
con la serie
1
X
f ( j) =
fk kj .
k=0

Esto nos permite dar resultado principal de esta seccin conocido como teorema espectral:

Resultado 5.2. Sea M una matriz con eigenvalores diferentes j y Pj los proyectores correspondientes
(5.2). Si los eigenvalores estan dentro del radio de convergencia de la serie (5.7), entonces las relaciones
siguientes son vlidas
f (M )vj = f ( j )vj
(5.8)
f (M ) =

n
X

f ( j ) Pj .

(5.9)

j=1

El lado derecho de (5.9) recibe el nombre de descomposicin espectral de f (M ). La serie (5.7)


correspondiente a la funcin exponencial e converge para todo nmero complejo = x + iy, esto incluye
todos los eigenvalores (reales o complejos) de cualquier matriz Mn n , por lo que (5.9) es vlida para calcular
eM t .
Corolario 5.3. Si los eigenvalores

de una matriz Mn
Mt

n
X

jt

son diferentes, entonces


Pj .

(5.10)

j=1

Otro resultado inmediato que se obtiene de (5.9) es el llamado Teorema de Cayley-Hamilton.


Corolario 5.4 . Sea M tiene eigenvalores diferentes y tiene el polinomio caracterstico
p ( ) = det (M

I) = an

+ an

n 1

::: + a0

entonces M satisface su ecuacin caracterstica


an M n + an 1 M n 1 ::: + a0 I = 0 .
Demostracin del Resultado 5.2. Comenzamos con la relacin (5.8)
!
1
1
1
1
X
X
X
X
k
k
k
f (M ) vj =
fk M vj =
fk M vj =
fk j vj =
fk
k=0

k=0

k=0

16

k=0

k
j

vj = f ( j ) vj .

(5.11)

Dado que el conjunto vj es una base un vector arbitrario b tiene la forma (5.5), aplicndole f (M ) obtenemos
f (M ) b = f (M ) (b1 v1 + : : : + bn vn ) = b1 f (M ) v1 + : : : + bn f (M ) vn = b1 f ( 1 ) v1 + : : : + bn f (

n)

vn .

Reordenando factores bj f ( j )vj = f ( j ) bj vj y usando la relacin bj vj = Pj b (5.6) obtenemos


f (M ) b = f ( 1 ) P1 b + : : : + f (

n)

Pn b = [f ( 1 ) P1 + : : : + f (

Pn ] b .

n)

Dado que b es arbitrario se concluye que la igualdad (5.9) es vlida.


Ejemplo 5.1, continuacin. (i) Para el caso de la matriz A del Ejemplo 5.1. tenemos
eAt = e

i!t

P + ei!t P+ =

1
2

i!t

1
e i!t
i

1
e i!t
i
i!t

1 i!t
e
i
i!t

ei!t
1 i!t
e
i

1
2

cos !t
sin !t

sin !t
cos !t

es decir,
eAt =

cos !t
sin !t

sin !t
cos !t

Denotamos eAt como R por que es una matriz de rotacin: satisface Rt = R 1 y tiene determinante
det (R) = 1. Como veremos en la seccin siguiente este es un caso particular de un resultado ms general.
(ii) El sistema de ecuaciones
dX
=AX
dt

con

Xct=0 = X0 ,

X=

x
y

x0
y0

, X0 =

tiena la solucin
X = RX0 .
(iii) Comprobemos este resultado resolviendo el sistema con el mtodo ms usado en la literatura. La idea
consiste en reducir el sistema a una ecuacin diferencial de segundo orden con una sola incgnita
x_ =

!y

x =

! y_ =

! 2 x ! x + ! 2 x = 0 .

Resolviendo la tima ecuacin obtenemos


x = c1 cos !t + c2 sin !t ,

y=

x_
= c1 sin !t
!

c2 cos !t .

Usando la condicin inicial Xct=0 = X0 obtenemos las constantes de integracin c1 = x0 , c2 =


misma solucin del inciso (ii).

y0 y la

Ejemplo 5.2, continuacin. (i) Para el caso de la matriz D del Ejemplo 5.1. tenemos
e t
e
( I + D) +
2
2
sinh t
= I cosh t + D
.

eDt = e t P+ + e

P =

( I

(ii) La matriz eDt da la solucin X = eDt X0 de la ecuacin

D) = I

dX
dt

e t+e
2

= DX

con Xct=0 = X0 .

Ejercicios, seccin 5.
5.1 Para cada una de las matrices M (4.29) del Ejercicio 4.1 en la seccin anterior, hacer lo siguiente.
(a) Calcular los proyectores Pj .
(b) Calcular eM t usando (5.10) y comparar con la matriz eM t obtenida en los Ejercicios de la seccin 4.
5.2 Repetir el Ejercicio anterior con las matrices M (4.30) del Ejercicio 4.2.
5.3 Demuestre el Corolario 5.4.
17

Si B3

es antisimtrica, eB es una matriz de rotacin

1. Para probar la armacin que da el nombre a esta seccin comenzamos considerando una base ortonormal
derecha y
^j , es decir, una base ortonormal que satisface
y
^i (^
yj

y
^k ) = "ijk .

(6.1)

c, la relacin entre las componentes de cada vector en la base y


^i

Entonces, si a est dado por a = b

a = ai y
^i ;

b = bi y
^ i ; c = ck y
^k

es
ai = ("ijk bj ) ck

0 11 0
a
0
@ a2 A = @ b 3
b2
a3

10 1
c1
c1
A
@
c2 A ,
b1
c3
0

b3
0
b1

donde aparece la matriz antisimtrica

(b )

0
@
B = f"ijk bj g =
b3
b2

b3
0
b1

1
b2
b1 A .
0

(6.2)

Para simpicar la notacin usaremos B en lugar de (b ). Esto nos lleva a las conclusiones siguientes:
(i) Existe una relacin uno a uno entre vectores en R3 y matrices antisimtricas de 3 3.
(ii) El vector b = bj y
^j dene un operador lineal b que tiene la representacin matricial B (6.2).
Recordemos que una matriz Q se llama matriz ortogonal si satisface Qt = Q 1 , si adems satisface
det (Q) = 1, Q se llama matriz de rotacin. El resultado siguiente establece que eM es una matriz de
rotacin.
Resultado 6.1. Sea y
^j una base ortonormal derecha (6.1), y B la matriz antisimtrica (6.2) asociada a un
vector no nulo b = bj y
^j 6= 0.
(i) La matriz R dada por
R = eB
(6.3)
es una matriz de rotacin, es decir , satisface
RT = R

det(R) = 1.

(6.4)

(ii) Los eigenvalores de B son


0

=0 ,

i b;

(6.5)

b21 + b22 + b23 = kbk

6.6

donde b es la magnitud del vector b,


b=

Demostracin del Resultado 6.1. Comencemos probando RT = R 1 . Usando la serie de potencias de eM se


obtiene
T
T
eM = eM
(6.7)
18

para cualquier matriz cuadrada M . En el caso de una matriz antisimtrica B tenemos


eB

= eB = e

lo que equivale a RT = R 1 , por lo que R es ortogonal. Para demostrar det(R) = 1 calculamos los
eigenvalores de B. De acuerdo con la ecuacin caracterstica
b3
det (B

I) =

b3
b2

b2
b1

+ b21 + b22 + b23 = 0 .

(6.8a)

v0 ,

(6.8b)

b1

los eigenvalores estan dados por (6.5), (6.6). Sean


v , v2

v1

v+ , v3

los eigenvectores correspodientes a , + , 0 , respectivamente. Para un vector no nulo b 6= 0 los eigenvalores


de B son diferentes por lo que los eigenvectores vj forman una base de R3 . El Resultado 4.3 establece que
la matriz eB est dada por
eB = N 1 eBd N
(6.9a)
donde N y Bd son las matrices
20

10
10
13
:
:
:
N = 4@ v A @ v+ A @ v0 A5 ,
:
:
:

1
0
0 A .

Bd = @ 0
0

(6.9b)

Usando (2.4a), (2,4b), obtenemos


0

=e
0
0

eBd = @

ib

Usando (6.9a), (6.9c), obtenemos det eB = det N

1
0
0
A .
= eib
0
0
e 0 =1

(6.9c)

eBd N = det eBd = eib

ib+0

= 1.

Dado que los eigenvalores de B son diferentes podemos usar (5.10) para calcular los elementos de la
matriz eB con la frmula
X
eB =
e j Pj
(6.10)
j

donde Pj con los proyectores de B,

Pj =

YB
k6=j

Tenemos
P0 =

B
0

P+ =

B
+

P =

+I

+
0I
0
0I
0

B
+

B
=
0
I
B
=
ib
B
+I
=
ib
+

kI
j

ibI B + ibI
B
=
+I
ib 0 + ib
b
0I B ( ib) I
B B + ibI
=
=
0 ib ( ib)
ib 2ib
B ibI
= P+ .
ib ib
19

1B
2b

B
+ iI
b

Observamos que los proyectores estan dados por el cociente


1
0
0
b3 =b b2 =b
B @
b
=
b3 =b
0
b1 =bA = b
b
b2 =b b1 =b
0

b
el cual es la representacin matricial del operador b

(6.11a)

asociado al vector normalizado

b=b .
b
b

Sumando
R = eB = e0 P0 + e

ib

P + eib P+ = P0 + eib P+

(6.11b)

+ eib P+ = P0 + 2 Re eib P+

obtenemos
b ) + (1
R = I + sin(b)(b

b )(b
b ) , b = kbk :
cos b)(b

Hasta aqui no hemos calculado los eigenvectores (6.8b) de B. El eigenvalor


que toda matriz antisimtrica B3 3 no es invertible, es decir, satisface

(6.12)
0

= 0 reeja el hecho de

det(B) = 0 .
En efecto, la ecuacin
Bb = [b ]b = (0)b = 0

(6.13a)

tiene como solucin no trivial al vector columna b asociado a B = b , por lo que B 1 no existe. La relacin
(6.13a) implica que b es vector propio de R = eB con eigenvalor e 0 = 1. En efecto, tenemos
Rb = e 0 b = b .

(6.13b)

Los eigenvectores v asociados a los eigenvalores complejos


= ib, tienen componentes complejas por lo
3
que no pueden representarse en el espacio fsico R . Estos vectores satisfacen
v .

Rv = e

El resultado siguiente establece la forma en que la matriz R = eB rota a un vector columna.


Resultado 6.2. La accin de R = eB con B = b , sobre un vector columna c es rotarlo en sentido positivo
(en sentido contrario a las manecillas del reloj) alrededor de b un ngulo b = kbk, de manera que el ngulo
entre c y b permanece constante y la componente de c en la direccin de b no cambia.
Demostracin del Resultado 6.2. La demostracin la dividiremos en dos partes.
b coincide con el vector y
(a) En la primera parte consideramos el caso donde b
^3 de los vectores base y
^j , por
lo que sus componentes en dicha base son b1 = b2 = 0, b3 = 1. Esto da
0
1
0
1
0
1 0
1 0 0
b
b
b
b
= @1 0 0A , b
b
=@ 0
(6.14a)
1 0 A ,
0 0 0
0
0 0

con lo cual la matriz R (6.12) toma la forma


0

cos b
R = @ sin b
0

1
sin b 0
cos b 0 A .
0
1
20

(6.14b)

Ahora calculemos la accin de R sobre los vectores columna asociados a los vectores base y
^1 y y
^2 :
0 1
1
0 1
0
1
0 1
0
0 1
0
0
sin b
0
cos b
1
R @ 0 A = @ sin b A , R @ 1 A = @ cos b A , R @ 0 A = @ 0 A
1
1 y^3
0
0 y^2
0
0 y^1
Vemos que los vectores columna asociados a y
^1 , y
^2 , son rotados un ngulo b en sentido positivo (contrario
a las manecillas del reloj), y lo mismo ocurre con cualquier otro vector columna c.
b no coincide con y
(b) El caso donde b
^3 , se reduce al caso anterior calculando una base ortonormal derecha
^
zi con
b .
^
z3 = b
(6.15a)
y calculando la forma de R en un sistema coordenado derecho z 1 z 2 z 3 . Esto se hace como sigue.
Tenemos b = bj y
^j y si r = y j y
^j es un vector en el plano Pb ortogonal a b y que pasa por el origen, la
ecuacin de dicho plano es
b r = b1 x + b2 y + b3 z = 0 .
(6.15b)

Usando esta ecuacin calculamos dos vectores ortonormales ^


z1 , ^
z2 , que pertenecen al plano Pb y que junto
3
b
con el vector ^
z = b, forman una base ortonormal derecha
^
zi ^
zj =

ij

^
zk = "ijk .

^
zi ^
zj

Dado que las bases de vectores z^i y y


^j son ortonormales y derechas la matriz M que las relaciona
(6.15c)

^
zi = Mij y
^j

es una matriz de rotacin: M T = M 1 y det(M ) = 1. Usando M obtenemos la forma de R = eB en el


sistema z 1 z 2 z 3 , en la forma usual: Consideremos un vector en las bases ^
zi , y
^j
c = ciz ^
zi = cjy y
^j .

(6.15d)

La relacin entre los vectores columna denidos por las componentes de c en cada base
cz = ciz

, cy = cjy ,

es
cz = M cy .
Sea fy dado por fy = Rcy , sustituyendo cy = M

(6.15e)

cz , fy = M

fz = M RM

fz queda M

fz = RM

cz , reescribiendo

cz

identicamos a
Rz = M RM

como la forma de R en la base ^


zi . Sustituyendo R = eB y usando M eB M
Rz = eBz

con Bz = M BM

= eM BM

obtenemos
(6.15f)

La matriz Bz conserva la antisimetra y eigenvalores de B. Usando los proyectores correspondientes a Bz


obtenemos
bz
bz
bz
Rz = eBz = I + sin (b) b
+ [1 cos(b)] b
b
21

b por lo que b
b z y Rz tienen la forma (6.14a) y (6.14b), respectivamente, y la accin
Por construccin ^
z3 = b
de Rz sobre un vector columna c es la que se describe en el inciso (a).
3k con y
^1 = i, y
^2 = j, y
^3 = k. Los eigenvalores de

Ejemplo 6.1. Considere b = 2j

3
0 3 2
B = [b ] = 4 3 0 05
2 0 0
2

p
son 1 = i 13,
ortogonal a b

p
i 13,

b usamos la ecuacin del plano Pb


= 0. Para calcular la base ^
z1 , ^
z2 , ^
z3 = b,
b r = (2j

3k) r = 2y

3z = 0 .

Usando z = 2 obtenemos y = 3 y p = 3j + 2k que pertenece a Pb . Calculando q = b


normalizando obtenemos la base ortonormal derecha

Esto da a las matrices

p = 13i y

p
3j + 2k
q
b = b = 2jp+ 3k , ^
^
z3 = b
z1 = = p
, ^
z2 = = i .
b
p
q
13
13

2 3
0 b
M = 41 0
0 2b

2
b

2
0
13 4
1
Bz = M BM =
1
b
0

05 ,
3
b

3
1 0
13
z3
0 05 = ^
b
0 0

b=^
Como era de esperarse, Bz es la matriz asociada al vector b
z3 . La matriz Rz = eBz est dada por
0

cos b
@
Rz = sin b
0

1
sin b 0
cos b 0A ,
0
1

b=

13 ,

y la accin de R = eB sobre el vector columna denido por las componentes cj de c = cj y


^j es rotarlo un
p
ngulo b = 13 (radianes).
Ejercicios seccin 6.
1. Para las matrices siguientes
0

0
@
B=
1
0

1
0
1 0
0
A
@
0 1 , B=
1
1 0
1

1
0
1

1
1
1A ,
0

calcular lo siguiente
a) El vector asociado b
b
b) Una base ortonormal derecha ^
z con ^
z3 = b
c) La matriz M .
d) Dar la direccin de eje de rotacin que permanece invariante bajo la accin de R = eB
e) Dar el ngulo de rotacin asociado a R.
^ calculando la
f) Comprobar que la accin de R sobre un vector c , es rotatorio un ngulo b alrededor de b
accin de R sobre el vector base y
^1 = i y comparando a i con Rc.
2. Demostrar que Bz = M 1 BM y B tienen los mismos eigenvalores .
1
4. Demostrar la identidad M 1 eB M = eM BM .
22

Aplicacin. Efecto de la fuerza de Coriolis en 3D y la rotacin


caracterstica de los huracanes

1. Consideremos un sistema cartesiano y 1 y 2 y 3 jo a la tierra, con origen con vector de posicin Rc . En este
sistema de referencia la ecuacin de movimiento de una partcula es
a=

R) + g + f

con
R = r + Rc
donde R es el vector de posicin relativo a un sistema de referencia incercialo primario con origen en el
centro de masa terrestre y r = y i y
^i (t) el la posicin relativa al sistema y 1 y 2 y 3 . En este sistema Rc tiene la
forma Rc = yci y
^i (t). Usando la notacin
y
^1 = i , y
^2 = j , y
^3 = k ,
y 1 = x, y 2 = y, y 3 = z,
x_ = u , y = v ,

z_ = w ,

obtenemos
R = (x + xc )i + (y + yc )j + (z + zc )k
v = ui + vj + wk
a = ui + vj + wk .
2. Para apreciar los efectos de la fuerza de Coriolis sobre una partcula supondremos que
(i) La partcula se mueve cerca del origen del sistema y 1 y 2 y 3 de manera que g puede considerarse constante.
(i) La aceleracin centripeta
(
R) y f son despreciables lo que nos da ecuacin de movimiento
aproximada
a= 2
v+g
El sistema de ecuaciones escalares correspondiente es
0 1
0 1
x
u
d @ A
@
=
y
vA
dt
z
w
0 1
0 1
u
u
d @ A
@
= A vA + g
v
dt
w
w
donde A = [ 2

] es una matriz constante y antisimtrica. La solucin de la ecuacin para velocidades es


0 1
0 1
Z t
u
u0
@ v A = eAt @ v0 A +
eA(t
0
w
w0

gd

3. De acuerdo con los resultados de la seccin anterior el producto de eAt con un vector columna c
eAt c
23

(7.1)

da un vector columna que es la rotacin de c en la direccin de

2 t un ngulo

= k 2 tk = 2t
en la direccin de 2 t manteniendo constante la componente de c sobre 2 t. El signo
en
implica que la rotacin es opuesta al sentido en que gira la tierra. En el caso particular del trmino

2 t

1
u0
eAt @ v0 A
w0
0

vemos que el ngulo de rotacin crece con el tiempo de manera que la velocidad inicial
v0 = u0 i + v0 j + w0 k
tiene una componente ortogonal a ^
z que rota como sigue plano Pb ortogonal al eje de rotacin terrestre.
Esto explica el movimiento en espiral caracterstico de los huracanes en el hemisferio norte.
Por supuesto que la solucin (7.1) da una velocidad que cambia en forma ms complicada, por la
contribucin del trmino con la integral, pero el trmino eAt Vo explica la esencia del movimiento rotacional
de un huracn.

24

Aplicacin. Oscilador armnico amortiguado y forzado

El movimiento de un oscilador armnico amortiguado y forzado est dado por la solucin del problema de
valores iniciales
m x = kx b x_ + f~ (t)
x (0) = x0 , x_ (0) = v0 .
(1)
En trminos de
!0 =

p
k=m,

2 = b=m, f (t) = f~ (t) =m ,

la ecuacin de movimiento toma la forma

! 20 x

x =

~ (t) .
2 x_ +f

(2)

Introduciendo la variable
y = x_
el problema (1) toma la forma
dX
= MX + F
dt

, X = X0 en t = 0 ,

(3)

con
X=

x
y

0
! 20

M=

1
2

La solucin de (3) est dada


Mt

X=e

X0 +

0
f

F =

x0
y0

, X0 =

(4)

eM (t

F( ) d .

(5)

Para obtener los elementos de eM t [....] calculamos los eigenvalores de M . Resolviendo


det (M

I) =

+ ! 20 = 0 .

+2

obtenemos
1

donde denimos

,
q
+

Consideremos es caso

(6)

! 20 .

(7)

6= 0 ,

(8)

de manera que los eigenvalores 1 , 2 , son diferentes. Como veremos enseguida el caso
lmite de las expresiones con 6= 0. La matriz M tiene los proyectores
1

P1 =
1

(M

P2 =

2 I)

(M

1 I)

1
2

2
! 20

1
2

(9)

1
! 20

= 0 es un caso

Usando los proyectores obtenemos los eigenvectores de M , a saber,


P1

1
0

1
2

P2

1
0

1
2

! 20
1
! 20

!
!
25

v1 =
v2 =

(10)

! 20
1

+
! 20

La matriz exponencial est dada por


eM t = e

1t

2t

P1 + e

P2 =

e
2

+
! 20

1
+

+e

+
! 20

1
+

(11)

Simplicando obtenemos
eM t =

sinh t + cosh t
! 20 sinh t

Estas expresiones son vlidas para

sinh t
sinh t + cosh t

(12)

real o compleja. Veamos los tres casos posibles.


es real positiva y eM t tiene la forma (...).

(a) Para el caso de un oscilador sobre amortiguado ( > ! 0 )


En el caso sin forzamiento F = 0 la ecuacin
X_ = M X

con X = eM t X0 en t = 0,

(13)

X = eM t X0

(14)

tiene la solucin
la cual equivale a las expresiones escalares
x = e

x0 cosh t + ( x0 + v0 )

y = e

v0 cosh t

! 20 x0 + v0

(b) Para el caso de un oscilador amortiguado ( < ! 0 )


q
!
! 20
obtenemos

sinh t

(15)

sinh t

(16)

es compleja. En trminos de la frecuencia


2

(17)

= i!. Sustituyendo en (....) y usando las relaciones cosh iz = cos z , sinh iz = i sin z, obtenemos
eM t =

e
!

sin !t + ! cos !t
! 20 sin !t

sin !t
sin !t + ! cos !t

(18)

En el caso sin forzamiento F = 0 la solucin X = eM t X0 equivale a las expresiones escalares


x = e

x0 cos !t + ( x0 + v0 )

y = e

v0 cos !t

sin !t

! 20 x0 + v0

sin !t
!

(19)
.

(20)

(c) La matriz eM t para el caso del oscilador crticamente amortiguado ( = ! 0 ) se obtiene como caso
lmite de cualquiera de las expresiones ( ) o (...). En efecto, si reescribimos (..) en la forma
eM t = e
es claro que el limite

cosh t I +

sinh t

con C =

1
! 20

(21)

! 0 est bien denido y es


eM t = e

(I + tC) = e
26

1+ t
t
2
!0t 1
t

(22)

En el caso sin forzamiento F = 0 la solucin X = eM t X0 equivale a las expresiones escalares


x=e

[x0 + ( x0 + v0 ) t] ,

y=e

! 20 x0 + v0 t .

v0

(23)

Ejercicios
1. Vericar las relaciones P1 + P2 = I, P1 P2 = O.
2. Vericar que los eigenvectores vj satisfacen M vj = j vj .
3. Completar los pasos algebraicos obtener las expresiones (6), (10), (12), (18), (21), (22).

8.1

Espacio fase del oscilador sobre amortiguado

> !0

En un oscilador armnico sobre amortiguado el trmino


p 2 de amortiguamiento domina al oscilatorio en la
forma > ! 0 . Esto implica que el parmetro =
! 20 (.....) es un nmero real y los eigenvalores
de la matriz M (4) son negativos
2

<

<0.

El sistema de ecuaciones correspondiente a la ecuacin de movimiento (1) sin forzamiento


X_ = M X

con X = X0 en t = 0 ,

(24)

tiene la solucin
X = eM t X0 .

(25)

con eM t dada por (....). Para cada condicin inicial (x0 ; y0 ) las ecuaciones (...) son las ecuaciones paramtricas
de una curva en el espacio. Veamos tres formas diferentes de bosquejar las trayectorias en el espacio fase.
1. Cuando los eigenvalores de M son reales los vectores propios v1 , v2 , tiene componentes reales por lo que
pertenecen al espacio fase xy:
v1 =

! 20

v2 =

+
! 20

La importancia de tales vectores se debe a que denen tanto soluciones del problema (20) como direcciones
que condicionan la forma de las curvas en el espacio fase.
Los vectores propios v1 , v2 , forman una base del espacio R2 , por lo que la condicin inicial X0 tiene la
forma
X0 = x~0 v1 + y~0 v2 .
(26)
La relacin entre las constantes cj y las condiciones iniciales x0 , y0 , es
x0
y0

=N

x~0
y~0

(27)

donde N es la matriz cuyos columnas son los eigenvectores vj ,


N=

v1 v2

2
! 20

1
! 20

De acuerdo con (...)podemos usar x~0 y y~0 , en lugar de x0 , y0 , para denir las condiciones iniciales.
Usando
eM t vj = e j t vj
27

(28)

(29)

la solucin (....) toma la forma


X = eM t X0 = x~0 e

1t

2t

v1 + y~0 e

v2 .

(30)

Las condiciones x~0 = 1, y~0 = 0, y x~0 = 0, y~0 = 1, dan los vectores


X1 =

x1
y1

=e

1t

v1 ,

x2
y2

X2 =

=e

2t

v2 .

(31)

cada uno de los cuales es solucin del problema (....). Estas expresiones son las ecuaciones vectoriales de
rectas en el espacio fase xy que pasan por el origen y tienen la direccin de los eigenvectores v1 , v2 . En
trminos de componentes obtenemos
xj = e

jt

vxj , yj = e

jt

(32)

vyj

que son las ecuaciones paramtricas de rectas con la direccin de vj . De acuerdo con (...) un punto inicial
(x0 ; y0 ) sobre estas rectas se mueve sobre stas y tiende asintticamente al origen x = y = 0 para t ! 1.
Las rectas con la direccin de v1 y v2 las llamaremos ejes o direcciones principales del espacio fase.
Consideremos un vector X con condiciones iniciales arbitrarias x~0 , y~0 . Dado que v1 , v2 , es una base X
tiene la forma
X = x~ v1 + y~ v2 .
Comparando con (....) vemos que las componentes de X en la base v1 , v2 , es
x~ = x~0 e

1t

2t

y~ = y~0 e

(33)

Podemos gracar estas componentes en un espacio


~ 2 = f(~
R
x; y~)g

(34)

~ 2 como el
cuyos ejes cartesianos x~ y y~ son ortogonales como se muestra en la Figura 1. Nos referiresmo a R
espacio de ejes principales. En este espacio las expresiones ( ) son las ecuaciones paramtricas de una
curva cuya forma cartesiana se obtiene aliminando a t como sigue. Elevando a las potencias 2 , 1 .
x~

= x~0 e

1t

y~

= y~0 e

2t

(35)

Para el caso x~0 6= 0 dividimos miembro a miembro para obtener la ecuacin cartesiana deseada
x~
x~0

y~ = y~0

2= 1

(36)

Dado que el cociente de eigenvalores es un nmero positivo mayor que 1,


2

>1,

las curvas (.....) se comportan cualitativamente como una familia de parbolas y~ = c~x~2 como se muestra en
la Figura 1. Para obtener las curvas correspondientes en el espacio fase, slo hacemos coincidir los ejes x~ y
y~ con los ejes principales en el espacio fase xy, lo que nos da la Figura 2.
2. Otro mtodo para calcular y bosquejar las trayectorias del oscilador sobre amortiguado en el espacio fase
~ 2 = f(~
xy consiste en resolver directamente el problema (24) en el espacio R
x; y~)g con ejes principales x~ y y~.
Consideremos la expresin de X en las bases cannica y de vectores propios
X=

x
y

= xe1 + ye2 = x~v1 + y~v2 ,


28

~=
X

x~
y~

, ej =

1j
2j

Figure 1: Vectores propios, direcciones principales, espacio fase en el sistema de ejes principales x~y~ y en el
sistema xy, para un oscilador sobre amortiguado.

La relacin entre vectores es


~ .
X = NX

(37)

Sustituyendo en el problema ( ) ste toma la forma


~
dX
~
= Md X
dt

~ =X
~ 0 en t = 0 ,
X

con

donde aparece la matriz diagonal


Md =

Usando
e

eMd t =

=N
1t

MN

0
e

2t

~ 0 equivale a las ecuaciones escalares


~ = eMd t X
La solucin X
x~ = x~0 e

1t

y~ = y~0 e

2t

(38)

que son las mismas ecuaciones (....) y eliminado al tiempo t obtenemos la forma cartesiana (....). Como
arriba, para obtener las curvas en el espacio fase xy, cada punto (~
x; y~) se mapea en un punto (x; y) por
~
medio de las ecuaciones de transformacin X = N X.

8.2

Espacio fase del oscilador amortiguado:

< !0

En el caso de un oscilador armnico amortiguado domina el comportamiento oscilatorio en la forma


En este caso el parmetro complejo = i! da eigenvectores
v1 =

i!
! 20

v2 =

29

+ i!
! 20

< !0.

con una componente compleja por lo que no pertenecen al espacio fase xy tampoco dan informacin de las
curvas en dicho espacio. En principio, para obtener la forma de las curvas debemos eliminar al tiempo de
las ecuaciones paramtricas (....). Esto no puede hacerse para 6= 0. Podemos obtener un bosquejo de las
curvas con las variables
x = e tx , y = e t
(39)
por que el tiempo t s puede eliminarse de las ecuaciones resultantes
sin !t
!
sin !t
! 20 x0 + v0
.
!

x = e t x = x0 cos !t + ( x0 + v0 )
y = e t y = v0 cos !t

(40)

Las variables x, y, son funciones peridicas del tiempo con periodo


T = 2 =!
por lo que las expresiones (...) son las ecuaciones paramtricas de una curva cerrada en el espacio fase xy.
Dado que para condiciones iniciales arbitrarias x0 , v0 , cada curva cruza el eje x~, podemos considerar v0 = 0.
Para eliminar a t escribimos las ecuaciones resultantes en forma matricial
x
y~

x0
!

!
0

cos !t
sin !t

! 20

(41)

Despejando el vector columna con las funciones trigonomtricas obtenemos


cos !t
sin !t

~ = ! 2 x0
EX
0

con X =

x
y

E=

! 20
0

Transponiendo
X T E T = ! 20 x0

cos !t sin !t

y multiplicando miembro a miembro obtenemos la forma cuadrtica


X T S X = ! 40 x2 + 2 ! 20 xy + ! 20 y 2 = ! 40 x20

(42)

donde aparece la matriz simtrica


S = ET E =

a c
c b

con a = ! 40 , b = ! 20 ,

c = ! 20 .

En principio la ecuacin Suj = j uj tiene eigenvalores j son reales con eigenvectores uj en el espacio fase
xy, que denen direcciones principales en el espacio xy. Sin embargo, las variables x y y no tienen las
mismas dimensiones fsicas, por lo que la ecuacin caracterstica
det S

I =0

es dimensionalmente incorrecta. Para resolver este problema simplicamos


! 20 x2 + 2 xy + y 2 = ! 20 x20
e introducimos la variable con dimensiones de longitud z
z = y=! 0

30

y = !0z

(43)

la cual da la forma cuadrtica


! 20 x2 + 2 ! 0 xz + ! 20 z 2 = Z T S Z = ! 20 x20
con
Z=

x
z

! 20
!0

, S=

!0
! 20

Para diagonalizar la forma cuadrticas (...) resolvemos la ecuacin


Suj =

ju

La ecuacin caracterstica
det (S

I) = det

! 20

!0
!0

! 20

! 20

! 20 = 0

es dimensionalmente correcta y da los eigenvalores


= ! 20

) .

! 0 = ! 0 (! 0

Para = 0 obtenemos el oscilador armnico simple x = ! 20 x (...) y la ecuacin de conservacin siguiente


es la ecuacin de una familia de elipses cuyos ejes principales coinciden con laos ejes del espacio fase xy,
x_ 2
x2
x2
v2
+ !0 = 0 + !0 0 .
2
2
2
2
Consideremos el caso
son ortogonales

> 0. Los eigenvalores


u

(44)

, son diferentes y los eigenvectores correspondientes

u =0.

(45)

Usaremos la regla siguiente para identicar a 1 , 2 :


Denir a 1 y 2 como eigenvalores con eigenvectores u1 y u1 , en el primer y segundo cuadrante del
espacio xz, respectivamente. Los vectores normalizados
u
^j =

uj
kuj k

tiene la forma
u
^1 =

cos e1 + sin e2

u
^2 =

sin e1 + cos e2

donde ej es la base cannica en el espacio xz. As, la matriz R cuyas columnas estan dadas por las componentes de u
^j ,
cos
sin
R= u
(46)
^1 u
^2 =
sin
cos
es una matriz de rotacin. En nuestro caso tenemos
1
u
^1 = u
^+ = p
2

1
1

1
u
^2 = u
^ =p
2

1
1
31

cos
sin

=
=

sin
cos

, con eigenvectores
(47)

Figure 2: Direcciones principales y trayectoria en los espacio fase xz y xy para un oscilador amortiguado.

en el primer y segundo cuadrante y un ngulo de rotacin = 45o . La matriz R diagonaliza a S y, en


consecuencia, a la forma cuadrtica (....). En efecto, denamos las nuevas variables x~z~ como las componentes
del vector
x~
Z~ =
= R 1Z .
z~
Sustituyendo Z = RZ~ en el lado izquierdo de (......) y usando RT = R

obtenemos

~
Z~ T S X = Z~ T R 1 SR Z~ = Z~ T Sd Z,
Como sabemos, el producto R 1 SR da la matriz diagonal
Sd = R 1 SR =

con la cual la forma cuadrtica (...) toma la forma


Z~ T Sd Z~ =

~
1x

~2
2z

= ! 20 x20 .

Esto da los semiejes


! 0 x20
! 0 x20
, max j~
zj =
.
!0 +
!0
Conclumos que las curvas en el espacio xz son elipses con ejes de simetra rotados 45o , con el eje semieje
menor sobre el eje x~ como se muestra en la Figura 2. Por supuesto que esta elipse se deforma un poco
al pasar del eje z al eje y = ! 0 z. Habiendo obtenido la forma y direcciones principales en el espacio xy,
pasamos al espacio fase xy por medio de las ecuaciones
max j~
xj =

x=e

x, y=e

y.

el efecto del e t en el espacio fase xy es disminuir con el tiempo los semiejes de una elipse en el espacio xz,
lo que nos da espirales como la mostrada en la Figura 2.

8.3

Espacio fase del oscilador crticamente

= !0

En el caso de un oscilador armnico crticamente amortiguado = ! 0 la matriz M (4) asociada al sistema


(13) tiene un solo eigenvalor real 1 =
( = 0). El eigenvector
v=

! 20
32

Figure 3: Direccin principal y trayectorias en el espacio fase xy para un oscilador crticamente amortiguado.

correspondiente pertenece al espacio fase xy es la nica direccin principal de las curvas con ecuaciones
paramtricas (23). Usando eM t vj = e j t vj vemos que el vector inicial
X0 = x~0 v
genera la solucin
X = eM t X0 = x~0 e

1t

la cual es la ecuacin vectorial de una recta que pasa por el origen y con la direccin de v. Solo para
condiciones iniciales x0 , y0 , que pertenece a la recta denida por v, la trayectoria permanecer en dicha
recta y tiende al origen x = y = 0 asintticamente cuando t crece. Las curvas correspondientes a condiciones
iniciales arbitrarias x0 , y0 , pueden obtenerse como caso limite del espacio fase correspondiente oscilador sobre
amortiguado ( > 0). En el lmite ! 0 las dos direcciones principales en la Figura 1 coinciden con el
vector propio v y desaparecen las curvas de enmedio, quedando las curvas que se muestran en la Figura 3.
Pendientes.
1. Como primer paso: Dibujar el campo de velocidad en el espacio fase xy directamente a partir del sistema
X_ = M X + F .
2. Usar programa FORTRAN para hacer guras.
3. Ejercicios.
Ejercicios.

33