Vous êtes sur la page 1sur 46

Capı́tulo 4

El Modelo de Espacio-Estado

4.1. Introducción

Tal y como hemos visto en la lección anterior el punto de vista clásico en la Teorı́a de
Control consiste en estudiar las propiedades de los sistemas a partir de su comportamiento
entrada-salida. La teorı́a moderna de control pone el énfasis en el concepto de estado del
sistema. En una primera aproximación el estado de un sistema en un instante dado es
el valor de unas variables internas del sistema (en ocasiones ficticias y no accesibles) que
describen la evolución del mismo a lo largo del tiempo,.
Antes de proceder a una definición formal del concepto de estado, de un sistema un
ejemplo puede servir de ilustración.

Ejemplo 4.1 Supongamos que la función de transferencia de un sistema es

1+s
= ĝ(s) =
ŷ(s)
1 + 2s + 5s2
(4.1)
û(s)

de modo que
(1 + 2s + 5s2 )ŷ(s) = (1 + s)û(s).
Usando la transformada de Laplace inversa podemos escribir las ecuaciones del sistema en
el dominio del tiempo suponiendo el sistema en reposo en t = 0:

5ÿ(t) + 2ẏ(t) + y(t) = u̇(t) + u(t) (4.2)

61
62 El modelo de espacio-estado

Definiendo: x1 (t) = y(t), x2 (t) = ẏ(t) − u(t), la ecuación (4.2) es equivalente al siguiente
1
5
conjunto de sistemas; uno de ecuaciones diferenciales y otro de ecuaciones algebraicas:



⎪ ẋ1 (t) = x2 (t) + 5 u(t)

1


, (4.3)


⎪ (t) = −
1
(t) −
2
(t) +
3

ẋ 2 x 1 x 2 u(t)
5 5 25
x1 (t)
y(t) = x1 (t) = [1 0] [ ].
x2 (t)
(4.4)

En efecto,
ẋ1 (t) = ẏ(t) = x2 (t) + u(t),
1
5
y
ẋ2 (t) = ÿ(t) − u̇(t) = − ẏ(t) − y(t) + u(t) =
1 2 1 1
5 5 5 5
= x1 (t) − x2 (t) − u(t) + u(t) =
1 2 2 1
5 5 25 5
= − x1 (t) − x2 (t) + u(t)
1 2 3
5 5 25
Este sistema algebraico-diferencial tiene una única solución una vez fijadas unas condicio-
nes iniciales para x1 (t) y x2 (t). Al vector (función vectorial)

x (t)
x(t) = [ 1 ]
x2 (t)

se le llama vector de estados del sistema, mientras que las funciones vectoriales (en este caso
escalares) y(t) y u(t) son, como siempre, las salidas y entradas del sistema. Si tomamos
transformadas de Laplace de los sistemas (4.3) y (4.4) con la condición inicial x1 (0) =
x2 (0) = 0, la relación entre las transformadas de Laplace de y(t) y u(t) es la función de
transferencia ĝ(s) de (4.1). Por lo tanto, el sistema formado por las ecuaciones (4.3) y
(4.4) es un modelo cuyas soluciones tienen el mismo comportamiento entrada-salida que el
sistema original. Este modelo es, en general, no único y se llama modelo de espacio-estado
del sistema (4.1).

4.2. El modelo de Espacio-Estado. Formalismo

Según Rosenbrock “es más fácil distinguir un sistema dinámico que definirlo” ([13]). Se
han propuesto varias definiciones formales de “sistema”, todas ellas buscando un modelo
para el mismo concepto. Algunas referencias son: [4], [6], [10] or [14]; sin olvidar, por
supuesto que formalismos similares se han usado desde hace mucho tiempo en la teorı́a de
sistemas dinámicos (sin controles ni salidas). Seguiremos aquı́ algunas ideas de [9] y [15].
En vez de presentar una definición formal vamos a introducir la terminologı́a y las
relaciones que se necesitan entre distintos elementos constitutivos de los sistemas de control
4.2 El modelo de Espacio-Estado. Formalismo 63

cuando se utiliza el modelo de espacio-estado. Algunas de ellas ya fueron presentadas en


el Capı́tulo 1. Ahora las introducimos con más detalle. En este tipo de sistemas están
presentes los siguientes elementos:

Un conjunto tiempo. Un sistema dinámico evoluciona con el tiempo y, por lo tanto,


las variables que describen el comportamiento del sistema son funciones del tiempo. Con
cada sistema dinámico hay un conjunto tiempo asociado a él T ⊂ R que contiene todos
los valores de t en los que pueden ser evaluadas las variables. Este conjunto T puede ser
continuo como en los ejemplos 2.3, 2.7 o el de la Sección 2.5.3 en los que T = [0, ∞), o
discreto; i.e. T consiste de puntos aislados de R; e.g. T = Z o T = N como en el ejemplo
de la Sección 2.5.2. Por conveniencia notacional escribiremos [t0 , t1 ) en vez de T ∩ [t0 , t1 )
para referirnos al intervalo (en T ) {t ∈ T ∣t0 ≤ t < t1 } siempre que el conjunto tiempo T
subyacente sea claro.

Unas variables externas. Son las que describen las interacciones del sistema con el
mundo exterior. Es el diseñador del modelo quien debe determinar cuáles son las variables
significativas que intervienen en el problema. Es habitual (aunque no siempre evidente)
dividir las variables en una familia u = (ui ) de entradas y otra de salidas y = (yi ). Las
entradas son las variables que representan la influencia del mundo exterior en el sistema
fı́sico. Pueden ser de diferentes tipos; por ejemplo, entradas que se pueden utilizar para
tener algún control sobre el sistema (controles) o sobre las que no se puede influir, como
perturbaciones. En el Ejemplo 2.7 carro-péndulo la entrada con la que se pretende controlar
el péndulo invertido es la fuerza horizontal ejercida sobre el carro (βu(t) en la notación
usada allı́).
Las salidas son las variables con las que el sistema actúa sobre el mundo exterior.
También las hay de distintos tipos; algunas de ellas sirven para medir lo que sucede en el
sistema, sobre otras se quiere tener control. Ası́ las salidas medibles en el Ejemplo 2.3 de
la suspensión del coche son el desplazamiento del chasis y su velocidad, y las salidas en el
Ejemplo 2.7 del carro-péndulo son el desplazamiento del carro r(t) desde una posición de
referencia dada y el ángulo del péndulo θ(t) teniendo como objetivo que este ángulo sea
0. Para el sistema en tiempo discreto del Ejemplo 2.5.2 la entrada es el gasto público G(t)
mientras que la salida es el PIB P (t).
En un sistema dinámico debe estar claro el conjunto U donde las entradas toman sus
valores y el conjunto Y donde lo hacen las salidas. Ası́ en el Ejemplo 2.7 podrı́amos tomar
U = R, Y = R2 pero también, quizá, ciertos subconjuntos de R y R2 , respectivamente.
Supondremos que los valores admisibles de las entradas están en un conjunto determinado
de una vez por todas y que, por consiguiente, no cambia con el tiempo.
El sı́mbolo U lo usaremos para el conjunto de las funciones de entrada o de control:
u(⋅) ∶ T → U . Por lo general serán funciones continuas, o continuas a trozos; suficentemen-
te generales como para que podamos usar la teorı́a matemática básica de existencia de
soluciones sin tener que prestar demasiada atención a los detalles.
De forma similar Y se usará para denotar el conjunto de las funciones de salida admi-
sibles: y(⋅) ∶ T → Y .
64 El modelo de espacio-estado

El estado interno. Las variables de estado describen los procesos que tienen lugar
en el interior del sistema y sirven para modelizarlos. Al igual que las entradas y salidas,
evolucionan con el tiempo y para cada valor de t ∈ T , x(t) representará el valor de la
variable de estado en el instante t. Sencillamente diremos que x(t) es el estado del sistema
en el instante t. El conjunto de estados; es decir, el conjunto donde toman valores los
estados, lo denotamos con X de modo que la variable de estados es una función x(⋅) ∶ T →
X. Requeriremos que x(⋅) cumpla las siguientes propiedades básicas:

(I) El estado actual del sistema y la función de control elegida determinan los futuros
estados del sistema. Con más precisión: dado el estado x(t0 ) = x0 del sistema en el
instante t0 ∈ T y una función de control u(⋅) ∈ U, la evolución del estado del sistema
x(t) ∈ X queda completamente determinada para todo t en algún intervalo de tiempo
de T que comienza en t0 . Este intervalo de tiempo puede verse como el “intervalo de
existencia” de la función (también llamada trayectoria) x(⋅) que comienza en x0 en
el instante t0 bajo la acción de la función de control u(⋅). Lo representaremos como
Tt0 ,x0 ,u(⋅) .

(II) Dado x(t0 ) = x0 en el instante t0 ∈ T , el estado x(t) en cualquier instante posterior


t ∈ T (t ≥ t0 ) sólo depende de los valores u(s) para s ∈ [t0 , t). Ası́, en el instante t,
el estado x(t) no está influenciado por los valores presente y futuros de la función
de control u(s), s ≥ t, ni por los controles pasados anteriores a t0 ; es decir, por u(s)
para s < t0 . .

(III) Los valores de las salidas en el instante t están determinados completamente por los
valores de las entradas, u(t), y estados, x(t), en t. En otras palabras, las entradas
antiguas sólo actúan sobre las salidas presentes a través de los efectos acumulados
en el estado presente.

Estos requerimientos aseguran el principio de causalidad de los sistemas de control. Si


miramos las salidas y(t) como el “efecto” de las “causas” (=entradas) pasadas, entonces
u(t) representa la causa en el instante t y el estado x(t) acumula la totalidad de las
“causas” pasadas.
Las condiciones (I), (II) y (III) permiten introducir dos funciones fundamentales:

La función de transición de estados. De acuerdo con (I) y (II) el estado del


sistema a lo largo del tiempo (también llamado trayectoria) puede describirse por una
aplicación ψ llamada función de transición de estados definida como sigue:

x(t) = ψ(t; t0 , x0 , u(⋅)), t ∈ Tt0 ,x0 ,u(⋅) .

Realmente, por (II), ψ(t; t0 , x0 , u(⋅)) sólo depende de la restricción de u(⋅) a [t0 , t). En la
mayorı́a de los casos, esta aplicación viene definida implı́citamente por las ecuaciones que
definen el sistema. Si éstas son ecuaciones diferenciales o en diferencias como en todos los
ejemplos del Capı́tulo 2, entonces se debe resolver un problema de condiciones iniciales con
4.2 El modelo de Espacio-Estado. Formalismo 65

x(t0 ) = x0 y un control u(⋅) dado para conseguir la función ψ(t; t0 , x0 , u(⋅)), t ∈ Tt0 ,x0 ,u(⋅) ,
que es la solución del sistema x(t).
La función de salida. Debido a (III) la salida del sistema está determinada en cada
instante de tiempo t por el control y el estado en este instante:
y(t) = η(t, x(t), u(t)).
Esta función η recibe el nombre de función de salida.
En el Ejemplo 4.1, la función de transición de estados es la única solución del sistema
(4.2) que cumple la condición inicial que se establezca. En concreto, si x(t0 ) = x0 , u(⋅) es
una función continua en el intervalo [t0 , t1 ],

A=[ ] b=[ ]
0 1 1/5
−1/5 −2/5
y
3/25
entonces la función de transición de estados serı́a

ψ(t; t0 , x0 , u(⋅)) = eA(t−t0 ) x0 + ∫ t ∈ [t0 , t1 ].


t
eA(t−s) bu(s)ds,
t0

Y la de salidas:
y(t) = η((t, x(t), u(t)) = [1 0] x(t),
que, en este caso, no tiene una depencia explı́cita de t y de u.
En este ejemplo, Tt0 ,x0 ,u(⋅) = [t0 , t1 ], y no se ve la dependencia del periodo de existencia
de la trayectoria respecto de las condiciones iniciales y la función de control. Este otro
ejemplo lo ilustra mejor.

Ejemplo 4.2 Consideremos el problema de condiciones iniciales


ẋ(t) = x(t)2 + u(t), x(t0 ) = x0 (4.5)
donde T = R y x0 ∈ X = R. Supongamos que el control es constante pero arbitrario u(t) = a
para todo t ∈ R. Separando las variables e integrando obtenemos:
x0 √
arctan ( √ ) − arctan ( √ ) = a(t − t0 ).
x
a a
x0
Poniendo c(x0 , a) = arctan ( √ ) tenemos que la solución de (4.5) es
a
√ √
x(t) = a tan( a(t − t0 ) + c(x0 , a)), t ≥ 0.

Ahora bien, como tan(±π/2) = ±∞, resulta que x “explota”para t−t0 = √ (± − c(x0 , a)).
1 π
a 2
En consecuencia
π/2 + c(x0 , a) π/2 − c(x0 , a)
Tt0 ,x0 ,u(⋅) = (t0 − √ , t0 + √ ),
a a
en el que se ve la dependencia del periodo de existencia de la solución respecto de las
condiciones iniciales y los controles.
66 El modelo de espacio-estado

Hay sistemas de control de lo más variados, presentamos algunos de ellos:

1. Sistemas diferenciales: Son los sistemas en los que la función de transición de


estados es la solución de un sistema de ecuaciones diferenciales para el que se han
especificado unas condiciones iniciales:

ẋ(t) = f (t, x(t), u(t)), t ≥ t0 , t ∈ T


{
x(t0 ) = x0
(4.6)

Se suele hablar abreviadamente de un Problema de Condiciones Iniciales (P.C.I.)


para referirse a (4.6). Los elementos definitorios son:

(i) T ⊂ R es un intervalo abierto.


(ii) U ⊂ Rm , Y ⊂ Rp y X ⊂ Rn abiertos.
(iii) x(t) = ψ(t; t0 , x0 , u(⋅)) es la única solución del P.C.I. Enseguida daremos condi-
ciones suficientes sobre f y u para asegurar que el sistema (4.6) tiene una única
solución en algún subintervalo [t0 , t1 ] de T .
(iv) η ∶ T × X × U → Y es continua.

Existen varios teorema que dan condiciones suficientes para la existencia y unicidad
de soluciones para estos problemas. Uno suficientemente general es el Teorema de
Carathéodory ([9, Sec. 2.1.2]). En este curso podemos ser menos exigentes. Conside-
remos primero el caso de sistemas sin controles

ẋ(t) = f (t, x(t)), (4.7)

y miremos a f como una función de dos variables f (t, x), t ∈ R y x ∈ Rn . Para


asegurar suficiente regularidad en f respecto a t supondremos que f (⋅, x) es, para
cada x fijo, una función continua a trozos. Esto significa que en cada intervalo
acotado tenga un número finito de discontinuidades y lı́mites laterales en cada punto
de discontinuidad. Supondremos además que que el valor de la función coincida con
alguno de los dos lı́mites; es decir, que la función sea continua por la izquierda o por
la derecha en cada punto. Por otra parte, como función de x (es decir, para cada
t ∈ T fijo), pediremos que f (t, ⋅) sea de clase C 1 ; esto es, diferenciable con derivadas
(⋅, x) debe ser continua a trozos para cada x fijo,
∂f
parciales continuas. Además,
∂x
∂f
siendo la matriz Jacobiana de las derivadas parciales de f respecto de todas las
∂x
componentes de x.
Si f satisface las condiciones de regularidad expuestas, entonces el sistema (4.7) tiene
una única solución en algún intervalo [t0 , t1 ] de T . Ahora bien, dado que no exigimos
que f sea continua en t, conviene precisar lo que significa que x(⋅) es solución de
(4.7). En la presente situación entenderemos que x(t) = ψ(t; t0 , x0 , u(⋅)) es solución
de (4.7) si:

es continua en todo el intervalo de existencia,


4.2 El modelo de Espacio-Estado. Formalismo 67

de calse C 1 en “casi todo” el intervalo de existencia; es decir, en todo el intervalo


de existencia excepto en un conjunto de medida nula, y

satisface la ecuación integral x(t) = x0 + ∫ f (s, x(s), u(s))ds.


t

t0

Para garantizar la existencia local y unicidad de solución para los sistemas con con-
troles de la forma (4.6), debemos imponer condiciones sobre f y u que nos permitan
invocar el resultado recién expuesto sobre existencia y unicidad cuando se aplica
a g(t, x) = f (t, x, u(t)). Aunque no es el más exigente posible, un conjunto de su-
posición aceptable para lo que se estudirá en este curso es (recordemos que ahora
f (t, x, u) depende tres variables t ∈ R, x ∈ Rn y u ∈ Rm :

f es continua en t y u y de clase C 1 en x,
∂f
es continua en t y u, y
∂x
u(⋅) es continua a trozos.

En los sucesivo supondremos que se verifican estas tres condiciones y que U es el


conjunto de las funciones continuas a trozos.

2. Sistemas recursivos o en diferencias finitas: En estos sistemas la función de


transición de estados también es la solución de un Problema de Condiciones Ini-
ciales pero de sistemas dados por ecuaciones en recurrencias (también llamados en
diferencias finitas):

(i) T = N o Z.
(ii) U, X, Y conjuntos no vacı́os
(iii) x(t) = ψ(t; t0 , x0 , u(⋅)) es la única solución del sistema en diferencias finitas

x(t + 1) = f (t, x(t), u(t))

con la condición inicial x(t0 ) = x0 con t0 ∈ T , x0 ∈ X y t ≥ t0 .


(iv) La función de salidas es cualquier tipo de aplicación η ∶ T × X × U → Y .

3. Sistemas Lineales: Un sistema es lineal si:

(i) U , U, X, Y son espacios vectoriales sobre K (un cuerpo).


(ii) Las aplicaciones

ψ(t; t0 , ⋅, ⋅) ∶ X ×U → X
(x0 , u(⋅)) → ψ(t; t0 , x0 , u(⋅))
η(t, ⋅, ⋅) ∶ X ×U →
(4.8)
Y
(x(t), u(t)) → η(t, x(t), u(t))

son lineales para todo t, t0 ∈ T , t ≥ t0 .


68 El modelo de espacio-estado

En particular, dado que ψ(t; t0 , ⋅, ⋅) es lineal,

ψ(t; t0 , 0X , 0U ) = 0X , t, t0 ∈ T , t ≥ t0 (4.9)

También, por ser ψ y η lineales:


k k k
ψ (t; t0 , ∑ λi x0i , ∑ λi ui (⋅)) = ∑ λi ψ(t; t0 , x0i , ui (⋅)), (4.10)
i=1 i=1 i=1

y
k k k
η (t, ∑ λi xi (t), ∑ λi ui (t)) = ∑ λi η(t, xi (t), ui (t)). (4.11)
i=1 i=1 i=1

Estas ecuaciones expresan el principio de superposición para los estados y las salidas: la
salida de una suma de estados y entradas es la suma de las salidas de cada uno de los
estados y entradas. Como caso especial obtenemos el principio de descomposición:

ψ(t; t0 , x0 , u(⋅)) = ψ(t; t0 , x0 , 0U ) + ψ(t; t0 , 0X , u(⋅)),

que muestra que las trayectorias de los sistemas lineales se descomponen en una suma
de dos términos: un movimiento libre: t → ψ(t; t0 , x0 , 0U ) que depende exclusivamente del
estado inicial del sistema x0 ; y un movimiento forzado: t → ψ(t; t0 , 0X , u(⋅)) que depende
sólo de la entrada o control u(⋅). Y en relación con estos dos tipos de movimientos tenemos
los siguientes casos especiales de (4.10): si ponemos ui (⋅) = 0U entonces obtenemos la ley
de superposición para el movimiento libre
k k k
ψ (t; t0 , ∑ λi x0i , ∑ λi 0U ) = ∑ λi ψ(t; t0 , x0i , 0U ); (4.12)
i=1 i=1 i=1

y si ponemos x0i = 0X obtenemos la ley de superposición del movimiento forzado

k k
ψ (t; t0 , 0x , ∑ λi ui (⋅)) = ∑ λi ψ(t; t0 , 0X , ui (⋅)). (4.13)
i=1 i=1

Los mismos conceptos pueden aplicarse a las salidas del sistema y en tal caso habları́amos
de los principios de descomposición y superposición para los movimientos libre y forzado
respecto a las salidas. O, mejor, de la respuesta del sistema al movimiento libre (o con-
trol cero) y de la respuesta del sistema al movimiento forzado (o al estado inicial cero),
respectivamente.
En dimensión finita, los sistemas diferenciales y en diferencias finitas están definidos
a partir de sistemas de ecuaciones lineales:

Sistemas Diferenciales Sistemas en Diferencias


ẋ(t) = A(t)x(t) + B(t)u(t) x(t + 1) = A(t)x(t) + B(t)u(t)
{ {
(4.14)
y(t) = C(t)x(t) + D(t)u(t) y(t) = C(t)x(t) + D(t)u(t)
4.2 El modelo de Espacio-Estado. Formalismo 69

Es decir, los estados son soluciones de problemas de condiciones iniciales de sistemas de


ecuaciones diferenciales (o en diferencias finitas) lineales y las salidas en cada instante t
son combinaciones lineales de los estados del sistema y de los controles en dicho instante.
El sistema del Ejemplo 4.1 es un sistema diferencial lineal.
Las matrices (de funciones) A(t), B(t), C(t) y D(t) en (4.14) reciben nombres espe-
ciales: a A(t) se le llama matriz de estados, a B(t) matriz de entradas o controles,
a C(t) matriz de salidas desde los estados y a D(t) matriz de salidas desde las
entradas o controles. Con frecuencia D(t) es la matriz cero y en tales casos se dice que
C(t) es la matriz de salidas.
En el caso de sistemas diferenciales supondremos que las funciones matriciales A(⋅) ∈
C(T , Rn×n ), B(⋅) ∈ C(T , Rn×m ), C(⋅) ∈ C(T , Rp×n ) y D(⋅) ∈ C(T , Rp×m ) donde T ⊂ R es
un intervalo y C(T , Rr×s ) es el espacio vectorial (respecto a R) de las funciones continuas
definidas en el intervalo T y con valores en el espacio vectorial de las matrices reales
de tamaño r × s. Supondremos también, como ya se ha dicho, que U = P C(T , Rm ) es el
conjunto de funciones continuas a trozos. Se cumplen entonces las condiciones de existencia
y unicidad de soluciones en todo T del P.C.I.

ẋ(t) = A(t)x(t) + B(t)u(t), t∈T


{
x(t0 ) = x0

para todo u(⋅) ∈ U, t0 ∈ T y x0 ∈ X = Rn . La solución de estos sistemas x(t) = ψ(t; t0 , x0 , u(⋅))


son funciones continuas en T y diferenciables en todo T excepto en los puntos de discon-
tinuidad de u(⋅). Mucha de la teorı́a se puede desarrollar también para sistemas en C pero
nos restringiremos a sistemas reales (es decir, sobre R).
En este curso sólo trabajaremos los sistemas diferenciales con especial atención a los
lineales. En particular, en esta lección nos centraremos en el estudio de las soluciones
de los sistemas lineales mientras que las propiedades de controlabilidad, observabilidad y
estabilidad de los mismos serán estudiadas en lecciones posteriores. También se hará una
breve incursión en estas mismas propiedades para sistemas no lineales.

4.2.1. Estados de Equilibrio o Estacionarios

Hay estados para ciertos sistemas que adquieren importancia especial: son los estados
estacionarios o de equilibrio. Supongamos que tenemos un sistema sobre el que actúa una
función de control u(⋅) y cuya función de transición de estados es ψ(t; t0 , x0 , u(⋅)); es decir,
el estado en el instante t es

x(t) = ψ(t; t0 , x0 , u(⋅)) ∈ X, t ≥ t0 , t0 , t ∈ T .,

donde X es el espacio de estados para el sistema. Un estado x̄ ∈ X es un estado de equilibrio


o estacionario de un sistema bajo el control u(⋅) si

ψ(t; t0 , x̄, u(⋅)) = x̄


70 El modelo de espacio-estado

parar todo t ∈ T con t ≥ t0 . En otras palabras, los estados estacionarios son los estados
x(t) tales que si x(t0 ) = x̄ entonces x(t) = x̄ para todo t ∈ T con t ≥ t0 . Se trata pues de
estados que se mantienen constantes durante su periodo de existencia.
Tal y como hemos visto en (4.9) para los sistemas lineales:

ψ(t; t0 , 0X , 0U ) = 0X , t, t0 ∈ T , t ≥ t0 ,

lo que indica que el estado cero, 0X , es siempre un estado estacionario de los sistemas
lineales cuando el control es la función nula: u(t) = 0 para todo t ∈ T , t ≥ t0 . Esto es fácil
de comprobar en los sistemas finito-dimensionales. En efecto, en tal caso las ecuaciones de
estados con control cero son:
ẋ(t) = A(t)x(t),
de modo que x(t) = 0 es una solución del sistema cuando el sistema está en reposo en el
instante inicial; es decir, x(t0 ) = 0. Lo mismo sucede en los sistemas en diferencias finitas.
Para los sistemas diferenciales generales

ẋ(t) = f (t, x(t), u(t)), t ≥ t0 , t ∈ T


(Σ) {
x(t0 ) = x0

los estados estacionarios son las soluciones de equilibrio; es decir, las soluciones xe que
cumplen lo siguiente: si en un instante inicial t0 ∈ T el estado es x(t0 ) = xe y el sistema
está bajo el control de ũ(⋅) entonces el estado de Σ es x(t) = xe para todo t ≥ t0 , t ∈ T . En
otras palabras, los estados estacionarios bajo el control ũ(⋅) son las soluciones constantes
de ẋ(t) = f (t, x, ũ(t)). Es decir, las que cumplen:

f (t, xe , ũ(t)) = 0, para todo t ≥ t0 , t ∈ T .

Veremos a continuación un par de ejemplos.

Ejemplo 4.3 Consideremos el péndulo invertido de la Figura 4.1. Se quiere aplicar una
fuerza en la base del péndulo amortiguado para de-
volverlo a la posición vertical. Es decir, la fuerza se
debe hacer de modo que sobre el péndulo (donde se
supone que está concentrada toda la masa) actúe opo-
niéndose al movimiento. Por lo tanto, en dirección
contraria al vector velocidad del mismo. Ası́ pues,
suponiendo que los ejes coordenados se encuentran
en la base del péndulo en las direcciones habitua-
les tenemos que la fuerza que actúa sobre el péndu-
lo es F(t) = u(t)i − mgj y la velocidad angular del
péndulo θ̇k. Como las coordenadas del péndulo son
Figura 4.1: Control del (x(t), y(t)) = (−` sen θ(t), ` cos θ(t)) el par de la fuer-
péndulo invertido za F(t) sobre el péndulo respecto del eje de giro es

N(t) = r(t) × F(t) = (x(t)F2 (t) − y(t)F1 (t))k = (mg` sen θ(t) − ` cos θ(t)u(t))k
4.2 El modelo de Espacio-Estado. Formalismo 71

(J θ̇(t)) = N (t) y
d
Aplicando la segunda ley de Newton para el movimiento rotacional
dt
teniendo en cuenta que, como estamos considerando al péndulo como una partı́cula de
masa m girando alrededor de un punto alejado a una distancia `, J = m`2 :

m`2 θ̈(t) = −cθ̇(t) + mg` sen θ(t) − u(t)` cos θ(t),

donde c es la constante de amortiguamiento producido, por ejemplo, por el rozamiento


sobre el brazo del péndulo. Suponiendo, por sencillez que ` = g = c =
1
y suprimiendo el
m
argumento t:
θ̈ = −θ̇ + sen θ − u cos θ.

Para obtener las ecuaciones del espacio-estado realizamos el cambio de variables ha-
bitual: x1 = θ, x2 = θ̇. De esta manera el sistema de primer orden equivalente es:

ẋ1 = x2
{
ẋ2 = −x2 + sen x1 − u cos x1

Ası́ pues, si x = [ xx12 ]

f (t, x, u) = [ ].
x2
−x2 + sen x1 − u cos x1

Los estados estacionarios bajo el control u(⋅) son las soluciones constantes de f (t, x, u) = 0.
Si consideramos el control cero (u(t) = 0) entonces

f (t, x, 0) = [ ],
x2
−x2 + sen x1

de modo que f (t, x, 0) = 0 si y sólo si x2 = 0 y x1 = kπ, k = 0, ±1, ±2, . . . En efecto,


los estados estacionarios corresponden a la posición vertical (arriba o abajo) del péndulo
porque en ausencia de una acción externa, el péndulo permanecerı́a en dicha posición
indefinidamente.

Ejemplo 4.4 Se trata de modelizar el movimiento de un satélite de comunicaciones. Éstos


reciben y emiten ondas electromagnéticas desde y hacia radares situados en la superficie
terrestre. A fin de no tener que estar moviendo estos radares para apuntar continuamente
al satélite, se intenta que éste ocupe una posición fija relativamente a ellos. Las órbitas
que deben describir dichos satélites se llaman geosı́ncronas.
Para simplificar el modelo supondremos que el movimiento del satélite se hace en
el plano del Ecuador. Tomaremos el centro de la Tierra como origen de coordenadas,
usaremos coordenadas polares (r, θ). Denotamos la masa de la Tierra por MT (5,973×1019
Kgr., aproximadamente), por MS la del satélite, por G la constante de gravitación universal
(6,67428×10−11 N⋅m2 /kgr2 ) y por Ω la velocidad angular de la Tierra (7,27×10−5 rad/seg).
Supondremos que el satélite está dotado de dos propulsores que pueden impulsarlo en la
72 El modelo de espacio-estado

Figura 4.2: Satélite en órbita estacionaria.

dirección radial y tangencial con fuerzas Fr y Fθ . Aplicando las leyes de Newton, las
siguientes ecuaciones proporcionan las posibles trayectorias que describe el satélite:



⎪ MS r̈(t) = MS r(t)θ̇(t) − + Gr (t) + Fr (t)
2 GMT MS


r(t)2 (4.15)


⎩ MS r(t)θ̈(t) = −2MS ṙ(t)θ̇(t) + Gθ (t) + Fθ (t)

Estas ecuaciones son el resultado de tener en cuenta las diversas fuerzas a las que está
sometido el satélite: La fuerza debida al movimiento del satélite alrededor de la Tierra
(F⃗ = m ⋅ a
⃗), la fuerza de atracción de masas, la fuerza debida a los motores y la fuerza
perturbadora y, posiblemente mucho más débil que las demás, ejercida por la Luna, el Sol,
otros planetas, viento solar, etc. y que las hemos reunido en Gr y Gθ
Para calcular la fuerza debida al movimiento, se toman vectores unitarios e⃗r y e⃗θ en
las direcciones radial y tangencial de la trayectoria del satélite. Ası́ e⃗r = e⃗r (t) y e⃗θ = e⃗θ (t)
son vectores que cambian en cada instante de tiempo y si r⃗(t) es el vector de posición del
satélite; es decir, el que une el centro de masa de la Tierra con el del satélite, la trayectoria
de éste está determinada por la función vectorial r⃗(t) = r(t)⃗er (t), siendo r(t) el módulo
del vector (de forma general consideramos una partı́cula que se mueve alrededor de la
Tierra pero a una distancia no constante).
Un cálculo simple muestra que para cada instante fijo t,

e⃗r (t + h) − e⃗r (t) = −(1 − cos(θ(t + h) − θ(t)))⃗er (t) + sen(θ(t + h) − θ(t))⃗


eθ (t)
e⃗θ (t + h) − e⃗θ (t) = − sen(θ(t + h) − θ(t))⃗er (t) + (1 − cos(θ(t + h) − θ(t)))⃗
eθ (t).

Ahora bien, para h próximo a 0, y suponiendo θ infinitamente diferenciable, podemos


desarrollar esta función en serie de Taylor cerca de t:

θ(t + h) = θ(t) + hθ̇(t) + g(h) = θ(t) + hω(t) + g(h)

= 0. Hacemos lo mismo con las funciones seno y coseno cerca de 0 (recor-


g(h)
donde lı́m
h→0 h
demos que t está fijo):

cos(θ(t + h) − θ(t)) = cos(ω(t)h + g(h)) = 1 + f (h),


sen((θ(t + h) − θ(t)) = sen(ω(t)h + g(h)) = ω(t)h + g(h) + m(h)
4.2 El modelo de Espacio-Estado. Formalismo 73

f (h)
= 0 y lı́m = 0 y donde ω(t) es la velocidad angular del satélite en el
m(h)
con lı́m
h→0 h h→0 h2
instante fijo t. Por lo tanto,
e⃗r (t + h) − e⃗r (t)
(t) = lı́m = ω(t)⃗
eθ (t) = (t)⃗
eθ (t)
d⃗
er dθ
dt h dt
e⃗θ (t + h) − e⃗θ (t)
h→0

(t) = lı́m = −ω(t)⃗er (t) = − (t)⃗ er (t).


d⃗
eθ dθ
dt h→0 h dt
Se sigue entonces que
= e⃗r + r e⃗θ ,
d⃗
r dr dθ
dt dt dt
y
d2 r⃗ d2 r dθ 2 d2 θ
= ( − ( ) ) ⃗ + (r +2 ) e⃗θ .
dr dθ
2 2
r e r 2
dt dt dt dt dt dt
Usando la terminologı́a de la Fı́sica:

d2 r
= aceleración debida al cambio de posición del satélite en la dirección radial,
dt2
dθ 2
r( ) = aceleración centrı́peta,
dt
d2 θ
r 2 = aceleración debida al cambio de posición del satélite en la dirección tangen-
dt
cial,
dr dθ
2 = aceleración de Coriolis.
dt dt
Aplicando las leyes de Newton:

d2 r⃗ d2 r dθ 2 d2 θ
= ( − ( ) ) ⃗ + (r +2 ) e⃗θ .
dr dθ
MS 2
M S 2
r er M s 2
dt dt dt dt dt dt
Por otra parte, la fuerza de atracción de masas es

F⃗g = − e⃗r
GMT MS
r(t)2
Y las fuerzas de los motores del satélite y de la perturbación son:

F⃗m = Fr e⃗r + Fθ e⃗θ , F⃗p = Gr e⃗r + Gθ e⃗θ

En el sistema de referencia no inercial correspondiente al satélite la fuerza total que


actúa sobre el mismo es nula (en otras palabras, “en el satélite no se nota que haya ninguna
fuerza cuyo origen esté en el mismo satélite”). Por consiguiente:

) e⃗θ − F⃗g = F⃗m + F⃗p .


d2 r dθ 2 d2 θ
MS ( − ( ) ) ⃗ + (r +2
dr dθ
2
r er M S 2
dt dt dt dt dt
74 El modelo de espacio-estado

Igualando las componentes radial y tangencial obtenemos (4.15).


En una primera aproximación vamos a suponer que las fuerzas Gr y Gθ son desprecia-
bles respecto a las demás. A fin de simplificar la expresión (4.15) renombramos Fr = Fr /MS ,
y Fθ = Fθ /MS , obteniendo ası́:



⎪ r̈(t) = r(t)θ̇(t)2 − + Fr (t)
GMT


r(t)2 (4.16)


⎩ r(t)θ̈(t) = −2ṙ(t)θ̇(t) + Fθ (t)
Para obtener las ecuaciones de espacio-estados podrı́amos hacer el cambio de variables
habitual: x1 (t) = r(t), x2 (t) = ṙ(t), x3 (t) = θ(t) y x4 (t) = θ̇(t). Sin embargo, este cambio
de variables no tendrı́a en cuenta que se quiere que el satélite mantenga una posición
constante respecto de la Tierra. Es decir, que gire a la misma velocidad angular que la
Tierra (recordemos que la hemos denotado con Ω y que su valor es 7,27 × 10−5 rad/seg).
El cambio de variables apropiado entonces es:

x1 (t) = r(t), x2 (t) = ṙ(t), x3 (t) = θ(t) − (θ0 + Ωt) y x4 (t) = θ̇(t) − Ω,

donde θ0 es el ángulo inicial de la posición del satélite respecto de un punto de referencia


prefijado (por ejemplo, el meridiano cero). Por lo tanto, x3 (0) = 0. El sistema que se

⎡ ⎤
obtiene es:
⎢ x2 (t) ⎥
⎡ẋ1 (t)⎤ ⎢ ⎥
⎢ ⎥ ⎢x1 (t)(x4 (t) + Ω)2 − GM
+ Fr (t)⎥⎥
⎢ẋ (t)⎥ ⎢
T
⎢ 2 ⎥ ⎢ x1 (t) ⎥
⎢ ⎥=⎢ ⎥
2
⎢ẋ3 (t)⎥ ⎢ (t) ⎥
⎢ ⎥ ⎢ x ⎥
⎢ẋ4 (t)⎥ ⎢ (t)(x (t) + (t) ⎥
4
⎣ ⎦ ⎢ − 2 2x Ω)
+
F ⎥
⎢ ⎥
4 θ
⎣ x1 (t) x1 (t) ⎦
Vamos a estudiar los estados estacionarios de este sistema con control nulo Fr (t) = Fθ (t) =
0. Estamos presuponiendo que x1 (t) = r(t) ≠ 0 (lo contrario significarı́a que el satélite está
en el centro de masa de la Tierra). En particular, los estados estacionarios deben cumplir
este requerimiento. Como para los estados estacionarios x1 (t) debe ser constante (digamos
R0 ), tendremos x1 (t) = R0 . Como x1 (t) y x3 (t) son constantes, x2 (t) = x4 (t) = 0. Ahora
bien, esto implica (sustituyendo en la ecuación de ẋ2 ) que

0 = x1 (t)Ω2 − = R0 Ω2 −
GMT GMT
x1 (t)
.
2 R02

Por lo cual 1

R0 = ( 2 )
GMT 3
(4.17)

es el valor de x1 (t) para el estado estacionario. Finalmente, x3 (t) es constante y x3 (0) = 0.
Esto implica que x3 (t) = 0 para todo t > 0. En definitiva, el estado de equilibrio a control
cero es (R0 , 0, 0, 0). En términos de r(t) y θ(t), esto significa que el estado estacionario
corresponde a
r(t) = R0 , θ(t) = θ0 + Ωt, t ≥ 0.
4.3 Sistemas Lineales 75

Es decir, el estado estacionario a control cero determina una trayectoria del satélite a
1

distancia fija de la Tierra (R0 = ( 2 ) ) y con la misma velocidad angular que la


GMT 3

Tierra. Esto es lo que se llama una órbita geoestacionaria y geosı́ncrona.

4.3. Sistemas Lineales

Consideremos el siguiente sistema lineal con una condición inicial para el estado:

⎪ ẋ(t) = A(t)x(t) + B(t)u(t)


⎨ y(t) = C(t)x(t) + D(t)u(t) t∈T

(4.18)


⎩ x(t0 ) = x ,
0

donde A(t) ∈ Rn×n , B(t) ∈ Rn×m , C(t) ∈ Rp×n y D(t) ∈ Rp×m para todo t ∈ T .
Cuando no hay controles, el conjunto de soluciones del sistema

ẋ(t) = A(t)x(t); (4.19)

es un espacio vectorial de dimensión n. Cualquier matriz n × n X(t) cuyas columnas


sean soluciones linealmente independientes del sistema (4.19) recibe el nombre de Matriz
Fundamental de Soluciones de dicho sistema. Una forma de comprobar si las columnas
de X(t) son linealmente independientes es mediante el cálculo del determinante det X(t).
Si éste es distinto de 0 para algún t ∈ T entonces lo es para todo t ∈ T y las columnas de
X(t) son linealmente independientes.
Tal y como hemos comentado más arriba, bajo la hipótesis de continuidad de A(⋅),
B(⋅) y la de continuidad a trozos de u(⋅) en un intervalo de tiempo T , el Problema de
Condición Inicial (P.C.I.)

ẋ(t) = A(t)x(t) + B(t)u(t)


{ t∈T
x(t0 ) = x0 ,
(4.20)

tiene solución única. Ésta se puede obtener por el método de variación de las constantes:

x(t) = ψ(t; t0 , x0 , u(⋅)) = Φ(t, t0 )x0 + ∫ t∈T


t
Φ(t, s)B(s)u(s)ds, (4.21)
t0

donde Φ(t, t0 ) es una matriz fundamental de soluciones del sistema homogéneo (4.19) que
cumple la condición Φ(t0 , t0 ) = In . Se puede comprobar fácilmente que ésta es la única
matriz que es solución del P.C.I. matricial:

Ẋ(t) = A(t)X(t), t∈T


{
X(t0 ) = In
(4.22)

donde In es la matriz identidad de orden n. A esta matriz se le llama Matriz de


Transición de Estados del sistema (4.19) desde el instante t0 . En algunos tratados
76 El modelo de espacio-estado

(ver por ejemplo [9]) se diferencia el operador evolución: χ(t, t0 ) ∶ Rn → Rn definido por
χ(t, t0 )x = ψ(t; t0 , x0 , 0U ) de la matriz de este operador en las bases canónicas que es la
matriz de transición de estados. Nosotros no haremos distinción entre el operador y la
matriz que lo representa.
La caracterización de Φ(t, t0 ) como solución del sistema (4.22) permite demostrar
propiedades importantes de esta matriz que se proponen como ejercicios.
Por otra parte la función de salida para el sistema (4.18) será:

y(t) = η(t; t0 , x0 , u(⋅)) = C(t)x(t) + D(t)u(t) =


= C(t)Φ(t, t0 )x0 + ∫ C(t)Φ(t, s)B(s)u(s)ds + Du(t), t∈T.
t (4.23)
t0

No hay fórmulas explı́citas generales para calcular las matrices de transición de estados
para sistemas lineales salvo que A(t) = A sea invariante en el tiempo (constante para todo
t). Enseguida veremos la forma que tienen éstas. Ahora bien, comprobar si una matriz
dada es o no la matriz de transsición d estados de un sistema dado es trivial tal y como
se muestra en el siguiente ejemplo.

Ejemplo 4.5 Dado el sistema

−(t + 1) 2t
ẋ(t) = [ ], t ∈ (0, 1),
1
t(t − 1) −3 t+2
(4.24)

vamos a comprobar que


t t−1
Y (t) = [ ]
t t−2
es una matriz fundamental de soluciones y vamos a calcular la matriz de transición de
estados para t0 = 1/2.
Que Y (t) es una matriz fundamental de soluciones de (4.24) significa que det Y (t) ≠ 0
para todo t ∈ (0,1) y que Ẏ (t) = A(t)Y (t) siendo A(t) la matriz de coeficientes del sistema
(4.24).
En primer lugar, det Y (t) = t−1 − 1 ≠ 0 para todo t ∈ (0, 1). Además,

1 −t−2
Ẏ (t) = [ ]
1 −2t−3
y
−t2 − t + 2t2 −(t + 1)t−1 + 2t−1
A(t)Y (t) = [ ]
1
t(t − 1) −3t + t2 + 2t −3t−1 + (t + 2)t−2
t2 − t (−t + 1)t−1 1 −t−2
= [2 −2 ] = [ ].
1
t(t − 1) t − t −2(t − 1)t 1 −2t−3
Por lo tanto Ẏ (t) = A(t)Y (t) por lo que Y (t) es una matriz fundamental de soluciones.
Pero no puede ser la matriz de transición de estados Φ(t, t0 ) para ningún t0 . La razón es
4.3 Sistemas Lineales 77

que si fuera Y (t) = Φ(t, t0 ) entonces Y (t0 ) = Φ(t0 , t0 ) = In y esto no es verdad para ningún
t0 ∈ (0, 1). Ahora bien, como Y (t) es una matriz fundamental de soluciones, es invertible
en (0, 1). En particular, para t0 = 1/2, Y (t0 )Y (t0 )−1 = In .
Por otra parte, las columnas de Y (t) forman una base del espacio vectorial de solu-
ciones del sistema (4.24), de modo que si P es cualquier matriz invertible, también Z(t) =
Y (t)P es una matriz fundamental de soluciones porque Ż(t) = Ẏ (t)P = A(t)Y (t)P (t) =
A(t)Z(t). En particular, Φ(t, t0 ) = Y (t)Y (t0 )−1 es una matriz fundamental de soluciones;
es decir, Φ̇(t, t0 ) = A(t)Φ(t, t0 ), y Φ(t0 , t0 ) = Y (t0 )Y (t0 )−1 = In . En consecuencia, Φ(t, 1/2)
es la matriz de transición de estados de (4.24) desde el instante t0 = 1/2. Explı́citamente,

⎡ 8t2 − 1 1 − 4t2 ⎤⎥
−1 ⎢
t t−1 1/2 2 ⎢ ⎥
Φ(t, 1/2) = [ ][ ] = ⎢⎢ 32t 2t 3 ⎥ .
t t−2 1/2 4 ⎢ 8t − 1 1 − 4t ⎥⎥
⎢ ⎥
⎣ 2t2 2t2 ⎦

El ejemplo anterior nos muestra que encontrar la matriz de transición de estados de un


sistema lineal con un tiempo inicial dado es sencillo una vez se ha conseguido una matriz
fundamental de soluciones de dicho sistema. Ahora bien, calcular una matriz fundamental
de soluciones no es, en general, una tarea fácil. En algunos casos se pueden usar “algunos
trucos” que ayudan en dicha tarea, tal y como se muestra en el siguiente ejemplo.

Ejemplo 4.6 Sea


⎡ −t −2t ⎤
⎢ ⎥
⎢ 1 + t2 ⎥⎥
A(t) = ⎢ 1 + t2
−4t ⎥
⎢ t
⎢ ⎥
⎣ 1 + t2 1 + t2 ⎦
t

Vamos a calcular una matriz de transición de estados para el sistema ẋ(t) = A(t)x(t),
t ∈ R, con la condición inicial x(t0 ) = x0 . Para ello observamos que, en realidad,

−1 −2
A(t) = [ ].
t
1 + t2 1 −4

El “truco” aquı́ es triangularizar o, mejor, diagonalizar la matriz A(t). ¿Cómo? Diago-


nalizando, si es posible, la matriz [ −1
1 −4 ]. ¿En qué ayuda esta estrategia? Si pudiéramos
−2

encontrar una matriz invertible y constante (no dependiente de t) T tal que T −1 A(t)T =
d (t) 0
D(t) = [ 10 d2 (t) ] entonces, haciendo el cambio de variable y(t) = T −1 x(t) obtendrı́amos

ẏ(t) = T −1 ẋ(t) = T −1 A(t)x(t) = T −1 A(t)T y(t) = D(t)y(t).

De esta forma el nuevo sistema se reducirı́a a

ẏ1 (t) = d1 (t)y1 (t)


{
ẏ2 (t) = d2 (t)y2 (t),
78 El modelo de espacio-estado

y (t)
siendo y(t) = [ y12 (t) ]. Se trata de un sistema desacoplado que se puede integrar fácilmente:
la matriz fundamental de estados de este sistema para la condición inicial t0 serı́a
⎡ ∫tt d1 (s)ds ⎤
⎢e 0 ⎥
Ψ(t, t0 ) = ⎢⎢ ⎥.
0

⎢ ∫ (s)ds ⎥
t

⎣ ⎦
d1
0 e t0

Ahora bien, mediante un cálculo sencillo se comprueba que Φ(t, t0 ) es solución del sistema

Ẋ(t) = A(t)X(t)
{
X(t0 ) = In

si y sólo si Ψ(t, t0 ) = T −1 Φ(t, t0 ) es solución del sistema

Ẏ (t) = D(t)Y (t)


{
Y (t0 ) = T −1 .

En efecto,

Ψ̇(t, t0 ) = T −1 Φ̇(t, t0 ) = T −1 A(t)Φ(t, t0 ) = T −1 A(t)T Ψ(t, t0 ) = D(t)Ψ(t, t0 ),

y Ψ(t0 , t0 ) = T −1 Φ(t0 , t0 ) = T −1 .
Nuestro objetivo es diagonalizar la matriz A(t). Para ello basta hacerlo con la matriz
B = [ −1
1 −4 ]. Y para diagonalizar esta matriz basta calcular sus valores y vectores propios:
−2

det(λI2 − B) = λ2 + 5λ + 6 = (λ + 2)(λ + 3).

Los valores propios de B son λ1 = −2 y λ2 = −3. Y para calcular vectores propios asociados
a estos valores propios debemos resolver los sistema (λ1 I2 − B)v1 = 0 y (λ2 I2 − B)v2 = 0.
Hay infinitas soluciones para ambos sistemas. Soluciones sencillas son

v1 = [ ] v2 = [ ] .
2 1
1 1

Poniendo T = [v2 v1 ] = [ 11 21 ] tenemos T −1 = [ −1


1 −1 ]. Ası́
2

−3 0
D(t) = T −1 A(t)T = [ ].
t
1 + t 0 −2
2

y obtenemos el sistema desacoplado ẏ(t) = D(t)y(t):


−3t −2t
ẏ1 (t) = y1 (t), ẏ2 (t) = y2 (t).
1 + t2 1 + t2
Integrando,

= e− 2 ln(1+t
2) 2 )−3/2
y1 (t) = e∫ = eln(1+t = (1 + t2 )−3/2 =
3t
dt 3 1
(1 + t2 )3/2
1+t2


= e− ln(1+t
2) 2 )−1
y2 (t) = e∫ = eln(1+t = (1 + t2 )−1 =
2t
dt 1
1 + t2
1+t2
4.3 Sistemas Lineales 79

Entonces,
⎡ ⎤
⎢ 1
0 ⎥⎥
⎢ (1 + t2 )3/2
Y (t) = ⎢⎢ ⎥
⎢ 1 ⎥⎥
⎢ ⎥
⎣ 1 + t2 ⎦
0

es una matriz fundamental de soluciones del sistema desacoplado ẏ(t) = D(t)y(t) y,


además, Y (0) = I2 . Pero necesitamos Ψ(t, 0) = T −1 . Para ello basta tomar Ψ(t, 0) =
Y (t)T −1 . Finalmente, Φ(t, 0) = T Ψ(t, 0) = T Y (t)T −1 . Es decir, la matriz de transición
de estados del sistema ẋ(t) = A(t)x(t) en el instante t0 = 0 es
⎡ ⎤ ⎡ 2 2 ⎤
⎢ ⎥ ⎢ ⎥
⎢ t2 + 1 − (t2 + 1)3/2 −
1 1 2
1 2 ⎢⎢ (1 + t2 )3/2 0⎥ −1 2
⎥[ (t2 + 1)3/2 t + 1 ⎥⎥ .
Φ(t, 0) = [ ] ] = ⎢⎢ 1
2
1 1 ⎢⎢ 1 ⎥⎥ 1 −1 ⎢ 1 ⎥⎥
⎢ t2 + 1 − (t2 + 1)3/2 −
1 2
⎢ ⎥ (t2 + 1)3/2 t2 + 1 ⎥⎦
⎣ 1+t ⎦ ⎣
0 2

4.3.1. Sistemas lineales invariantes en el tiempo

Los sistemas lineales invariantes en el tiempo son aquellos en los que todas las matrices
(de estados, controles y salidas) son independientes del tiempo; es decir, son constantes:

ẋ(t) = Ax(t) + Bu(t), t ∈ R A ∈ Rn×n , B ∈ Rn×m


{
y(t) = Cx(t) + Du(t) C ∈ Rp×n , D ∈ Rp×m
(4.25)

Estos sistemas son los más sencillos y más estudiados. En realidad son los modelos de
espacio-estado de los sistemas estudiados en el Capı́tulo 3 en términos de la función de
transferencia.
En primer lugar prestamos atención a la ecuación que rige la dinámica de los estados:

ẋ(t) = Ax(t) + B(t)u(t)


{
x(t0 ) = x0
. (4.26)

Comenzando con el P.C.I. asociado al sistema autónomo ẋ(t) = Ax(t), x(t0 ) = x0 . La


matriz de transición de estados de este sistema es la matriz exponencial:

Φ(t, t0 ) = eA(t−t0 ) .

La matriz exponencial eAt se puede definir de varias formas equivalentes. La más rápida
y conveniente para este curso es la que se obtiene a partir de una serie de potencias
matriciales:
∞ k
eAt = ∑ Ak , t ∈ R.
t
(4.27)
k=0 k!

Se puede demostrar que la serie de potencias ∑
1 k
A converge para toda matriz A siempre
k=0 k!
que en Rn×n ( conjunto de matrices de números reales de n filas y n columnas) consideremos
80 El modelo de espacio-estado

las normas de matriz habituales. Por ello es perfectamente razonable definir eA como el
lı́mite de esta serie.
De la definición se desprende que

e = AeAt ,
d At
dt
de modo que Φ(t, t0 ) = eA(t−t0 ) es la única solución del P.C.I.
Ẋ(t) = AX(t), t∈R
{
X(t0 ) = In .

Por lo tanto, tal y como se ha mencionado más arriba, Φ(t, t0 ) = eA(t−t0 ) es la matriz de
transición de estados del sistema (4.26). Se sigue de aquı́ que la función de transición de
estados (solución) para los sistemas (4.26) se puede dar explı́citamente (ver (4.21)):

x(t) = eA(t−t0 ) x0 + ∫ t ∈ R.
t
eA(t−s) Bu(s)ds, (4.28)
t0

En consecuencia, la respuesta del sistema será:

y(t) = Cx(t) + Du(t) = CeA(t−t0 ) x0 + ∫ CeA(t−s) Bu(s)ds + Du(t).


t
(4.29)
t0

En la práctica, el cálculo de la matriz eA(t−t0 ) no es una tarea sencilla y se basa,


por lo general, en el cálculo de los valores y vectores propios (quizá generalizados) de la
matriz de estados A. Es conocido que dada una matriz A ∈ Rn×n , existe una matriz no
singular (es decir, determinante distinto de cero o, equivalentemente, invertible) T ∈ Cn×n ,
de números complejos, tal que
T −1 AT = J,
donde
⎡ λk 1 0 ⋯ 0 ⎤
⎢ ⎥
⎡ J1 ⎤ ⎢ 0 λk 1 ⋯ 0 ⎥
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
J =⎢ ⋱ ⎥ y Jk = ⎢ ⋮ ⋮ ⋱ ⋱ ⋮ ⎥ ∈ Cnk ×nk .
⎢ ⎥ ⎢ ⎥
(4.30)
⎢ r ⎥ ⎢ 0 0 ⋯ λk 1 ⎥
⎣ J ⎦ ⎢ ⎥
⎢ 0 0 ⋯ 0 λ ⎥
⎣ k ⎦
La matriz J, diagonal por bloques, recibe el nombre de Forma Normal de Jordan de
A. Los números, λk , que aparecen en la diagonal de cada uno de los bloques Jk , son los
valores propios (quizá repetidos) de A. En general son números complejos porque son las
raı́ces del polinomio caracterı́stico de A; es decir, las raı́ces del polinomio que se obtiene
al calcular det(λIn − A).
Para muchas matrices (casi todas en un cierto sentido) sus valores propios son todos
distintos. En tal caso, nk = 1 y
⎡λ1 0 ⋯ 0 ⎤
⎢ ⎥
⎢0 λ ⋯ 0⎥
⎢ ⎥
J = Diag(λ1 , λ2 , . . . , λn ) = ⎢ ⎥
⎢⋮ ⎥
2

⎢ ⋮ ⋱ ⋮ ⎥
⎢ 0 0 ⋯ λn ⎥
⎣ ⎦
4.3 Sistemas Lineales 81

En este caso, las columnas de las matrices T para las que T −1 AT = J son vectores propios
de A (la i-ésima columna de T es vector propio de A asociado al valor propio λi ). Cuando
J no es diagonal, a las columnas de T se les llama vectores propios generalizados para los
correspondientes valores propios que forman los bloques de Jordan Jk .
Es fácil ver, utilizando la definición de eA como serie de potencias, que si T −1 AT = J
entonces
eAt = T eJt T −1 . (4.31)
Además, de la propia definición se tiene también que
⎡ eJ1 t ⎤
⎢ ⎥
⎢ ⎥
=⎢ ⋱ ⎥,
⎢ ⎥
Jt
e (4.32)
⎢ ⎥
⎣ eJr t ⎦
donde los bloque no especificados son bloques de ceros. Ahora bien cada bloque en la
diagonal de la forma de Jordan se puede escribir como
⎡0 1 0 ⋯ 0⎤⎥

⎢0 0 1 ⋯ 0⎥⎥

⎢ ⎥
Jk = λk Ink + Nk , Nk = ⎢ ⋮ ⋮ ⋱ ⋱ ⋮⎥
⎢ ⎥
con
⎢0 0 0 ⋯ 1⎥⎥

⎢0 0 0 ⋯ 0⎥⎦

y donde Ink es la matriz identidad de orden (o tamaño) nk . Se comprueba sin dificultad
que Nknk = 0 y, en consecuencia, en el desarrollo de la serie de potencias
∞ ∞ i
ti i
eJk t = ∑ Jk = eλk ∑ Nki , t ∈ R.
t
i=0 i! i=0 i!

sólo hay un número finito de sumandos no nulos. En definitiva, sumando los términos no
nulos se obtiene
⎡ tnk −2 tnk −1 ⎤
⎢ t2
⋯ ⎥
⎢ (nk − 2)! (nk − 1)! ⎥
⎢ ⎥
1 t
⎢ ⎥
2!
⎢ tnk −3 tnk −2 ⎥
⎢ ⋯ ⎥
⎢ 0 1 t
(nk − 3)! (nk − 2)! ⎥
⎢ ⎥
eJk t = eλk t ⎢⎢ ⋮ ⋮ ⋱ ⋱ ⋮ ⋮ ⎥.

⎢ ⎥
(4.33)
⎢ ⎥
⎢ ⋱
t2 ⎥
⎢ 0 0 0 t ⎥
⎢ ⎥
⎢ ⎥
2!
⎢ 0 0 0 ⋯ 1 t ⎥
⎢ ⋯ ⎥
⎣ 0 0 0 0 1 ⎦

Finalmente, si λk = ak + ibk entonces, usando la fórmula de Euler eiθ = cos θ + i sen θ:

eλk t = eak t eibk t = eak t (cos(bk t) + i sen(bk t)).

Teniendo en cuenta (4.28) y (4.31) resulta que la presencia de valores propios complejos
produce soluciones complejas del sistema lineal de ecuaciones diferenciales. Sin embargo,
82 El modelo de espacio-estado

si el sistema es real, se requieren soluciones reales. El paso de una solución compleja a


una real para un sistema lineal de ecuaciones diferenciales con coeficientes reales se puede
hacer como se explica a continuación. En primer lugar, dado que la matriz A del sistema es
real, si ésta tiene valores propios complejos, deben aparecer conjugados a pares. Es decir,
si λk = ak + ibk (bk > 0) es valor propio de A, también λ̄k = ak − ibk (su conjugado) es valor
propio de A. Y si xk = uk +ivk es un vector propio (o vector propio generalizado) de A para
el valor propio λk , entonces x̄k = uk − ivk es vector propio (o vector propio generalizado,
respectivamente) de A para el valor propio λ̄k . Además, para cada bloque de Jordan J(λk )
en la forma de Jordan de A asociado a λk , hay un bloque de Jordan J(λ̄k ) asociado a λ̄k
teniendo ambos el mismo tamaño, digamos nk . Multiplicando J (forma de Jordan de A)
por la izquierda y por la derecha por una matriz de permutación, digamos P , podemos
reordenar los elementos de la forma de Jordan de A de manera que cada elemento diagonal
λk de J(λk ) se empareje con un elemento diagonal λ̄k de J(λ̄k ):

⎡Ck I2 ⎤
⎢ ⎥
⎢ Ck ⋱ ⎥
⎢ ⎥
̂ ⎢ ⎥
Jk = ⎢ ⋱ ⋱ ⎥
⎢ ⎥
⎢ Ck I2 ⎥⎥

⎢ Ck ⎥⎦

donde Ck = [ 0k λ̄ ]. Realizando la misma permutación en las columnas de T podemos


λ 0

emparejar cada vector propio generalizado uk + ivk de λk con el vector propio gene-
k

ralizado uk − ivk de λ̄k ; todo ello en relación a los bloques de Jordan J(λk ) y J(λ̄k )
que estamos considerando. Ahora para cada bloque Ck y la correspondiente submatriz
Tk = [uk + ivk uk − ivk ] definimos la matriz

1 −i 1
Wk = √ [ ]
2 i 1

√i −i

Esta matriz es unitaria; es decir, Wk−1 = Wk∗ siendo Wk∗ = [ √12 √1
2
] la matriz transpuesta
2 2
y conjugada de Wk . Un simple cálculo muestra que

ak −bk
Rk ∶= Wk∗ Ck Wk = [ ]
bk ak


y
Tk Wk = 2 [vk uk ] .

Aplicando de esta forma, tantas veces como sea necesario, matrices Wk a los bloques
diagonales de Ĵk y a las correspondientes matrices Tk de valores propios (o valores propios
generalizados) vemos que la forma de Jordan de A es semejante a una matriz real y que la
matriz de paso es también real. En definitiva, dada una matriz A ∈ Rn×n existen matrices
K, P ∈ Rn×n tales que P es invertible y K = P −1 AP es una matriz diagonal por bloques
4.3 Sistemas Lineales 83

cuyos bloques son bloques de Jordan de la forma (4.30) si λk ∈ R y de la forma:


⎡Rk I2 ⎤
⎢ ⎥
⎢ Rk ⋱ ⎥
⎢ ⎥ a −bk
⎢ ⎥
Kk = ⎢ ⋱ ⋱ ⎥, Rk = [ k ]
⎢ ⎥
(4.34)
⎢ Rk I2 ⎥⎥
bk ak

⎢ Rk ⎥⎦

si λk = ak + ibk y λ̄k = ak − ibk son valores propios de A complejos conjugados.


Podemos usar esta matriz para dar una expresión de la solución real del P.C.I.

ẋ(t) = Ax(t)
{
x(t0 ) = x0 .
(4.35)

Tal y como hemos hecho con la forma de Jordan compleja, eA(t−t0 ) = P eK(t−t0 ) P −1 por lo
que dicha solución será
x(t) = P eK(t−t0 ) P −1 x0 .
De nuevo, la exponencial eKt (ponemos t0 = 0 para simplificar la notación) sigue siendo
una matriz diagonal por bloques. Si λk ∈ R, eJk es la matriz de (4.33) pero si λk y λ̄k
son valores propios complejos conjugados la expresión de eKk t es un poco más difı́cil de
escribir de forma explı́cita. Por sencillez, reducimos el estudio al caso 2 × 2; es decir eRk t .
A fin de cuentas, este cálculo es el único que hay que hacer cuando los valores propios son
simples (multiplicidad 1) que es el más “abundante” (caso genérico).
En primer lugar,

e(ak +bk i)t ak t cos(bk t) + i sen(bk t)


eCk t = [ (ak −bk i)t ] = e [ ]
0 0
0 e 0 cos(bk t) − i sen(bk t)

Pongamos, por simplicidad notacional ck = cos(bk t) y sk = sen(bk t). Utilizando la matriz


Wk ,
c + isk c −sk
eRk t = Wk∗ eCk t Wk = eak t Wk∗ [ k ] Wk = eak t [ k ].
0
0 ck − isk sk ck
Ahora, si Tk = [uk + ivk uk − ivk ] ∈ R2×2 es una matriz de vectores propios para los valores
propios ak + ibk y ak − ibk (bk > 0) entonces

x(t) = eAt x0 = Tk eKt Tk−1 x0 = Tk Wk Wk∗ eCk t Wk Wk∗ Tk−1 x0 = [vk uk ] eRk t x1
−1
donde x1 = [vk uk ] x0 que es un vector de números reales. Ası́ pues

c −sk 1
x(t) = eak t [vk uk ] [ k ]x .
sk ck

Si ponemos vk = [ vvk2
k1
], uk = [ uuk1
k2 ] y x = [ x12 ], entonces obtenemos
1 x11

x(t) = eak t (α cos(bk t) + β sen(bk t)) (4.36)


84 El modelo de espacio-estado

Figura 4.3: Sistema masa- Figura 4.4: Cuerpo rı́gidos en Figura 4.5: Circuito eléctrico
muelle con amortiguamiento rotación simple

donde
x11 vk1 − x12 uk1 x11 vk2 − x12 uk2
α=[ ], β=[ ].
x11 uk1 − x12 vk1 x11 uk2 − x12 vk2
Tenemos ası́ una forma muy simple de expresar la solución del sistema ẋ(t) = Ax(t) con
la condición inicial x(0) = x0 . Si el instante inicial fuera t0 ≠ 0 bastarı́a sustituir t por t − t0
en (4.36).
El siguiente ejemplo, en el que se estudian las soluciones del oscilador armónico amor-
tiguado, es ilustrativo de todo el proceso expuesto hasta aquı́.

Ejemplo 4.7 (Oscilador Armónico Amortiguado Lineal) Vimos en el Capı́tulo 2


que las ecuaciones que rigen el comportamiento dinámico de los sistemas en las Figuras
4.3, 4.4, 4.5 son las mismas:

mẍ(t) + cẋ(t) + kx(t) = u(t)


x(0) = x0 , ẋ(0) = v0 .
(4.37)

En cada caso, por supuesto, el significado de m, c, k y u es diferente, pero estos tres siste-
mas tienen un comportamiento dinámico que puede modelizarse con la misma ecuación.
Diremos que (4.37) es la ecuación del oscilador armónico amortiguado (si c ≠ 0) lineal. Por
consiguiente, los tres sistemas son modelos fı́sicos diferentes de dicho oscilador.
La forma en la que se suele presentar la ecuación de los osciladores lineales no es (4.37)
sino una equivalente que se obtiene al hacer las sustituciones

ω0 = , ζ= √
k c
.
m 2 km
A ω0 se le conoce con el nombre de frecuencia natural del sistema y a ζ como la razón
de amortiguamiento. Con esta sustitución el sistema de (4.37) se convierte en

ẍ + 2ζω0 ẋ + ω02 x = kω02 u(t), (4.38)


1
donde hemos sustituı́do k por para simplificar la notación.
k
4.3 Sistemas Lineales 85

Las ecuaciones del modelo espacio-estado correspondiente a esta ecuación se obtienen


mediante el cambio de variables: x1 (t) = x(t) y x2 (t) = ẋ(t). Ası́ el problema de condiciones
iniciales (4.37) es equivalente a:

x (0)
[ ]=[ 2 ] [ 1 ] + [ 2 ] u(t), [ 1 ] = [ 0]
ẋ1 0 1 x 0 x
−ω0 −2ζω0 x2 x2 (0)
(4.39)
ẋ2 kω0 v0

Como una aplicación simple de la forma de Jordan, vamos a analizar la dinámica de los
osciladores lineales en movimiento libre; es decir, cuando no hay fuerzas externas actuando
sobre él (u(t) = 0). En este caso la ecuación diferencial (4.38) queda:

ẍ + 2ζω0 ẋ + ω02 x = 0. (4.40)

Y las ecuaciones en espacio-estado:

x1 (0)
[ ]=[ 2 ] [ 1] , [ ] = [ 0]
ẋ1 0 1 x x
−ω0 −2ζω0 x2 x2 (0)
(4.41)
ẋ2 v0

Calculamos los valores propios de la matriz de estados:

−1
det [ ] = λ2 + 2ζω0 λ + ω02
λ
ω02 λ + 2ζω0
√ √
= (λ + ζω0 + ω0 ζ 2 − 1) (λ + ζω0 − ω0 ζ 2 − 1) .

Ası́ pues, la matriz de estados puede tener valores propios reales y distintos (si ζ > 1),
complejos no reales conjugados (si 0 < ζ < 1) o un valor propio real doble (si ζ = 1). Anali-
zaremos el comportamiento de las soluciones del sistema (también llamadas trayectorias)
en cada caso. Recordemos que la solución de (4.41) es

x (t)
[ 1 ] = eAt = T eJt T −1 [ 0 ]
x
x2 (t) v0

donde A = [ −ω02 −2ζω0 ] es la matriz de estados, T es una matriz de vectores propios (o


0 1

vectores propios generalizados) de A y J es su forma de Jordan.

1. ζ > 1. En este caso ζ 2 − 1 > 0, y la matriz de estados A tiene dos valores propios
√ √
reales distintos λ1 = −ζω0 − ω0 ζ 2 − 1 y λ2 = −ζω0 + ω0 ζ 2 − 1. Su forma de Jordan
es J = Diag(λ1 , λ2 ) y
⎡ −ω0 (ζ+√ζ 2 −1)t ⎤
Jt ⎢


⎥.
e =⎢
e 0√
2 −1)t ⎥
⎢ −ω (ζ− ⎥
⎣ ⎦
0 ζ
0 e

Ahora, si T = [t1 t2 ] entonces


√ √
T eJt = [e−ω0 (ζ+ ζ 2 −1)t −ω0 (ζ− ζ 2 −1)t
t1 e t2 ] ,
86 El modelo de espacio-estado

y si escribamos T −1 [ xv00 ] = [ ab ], entonces


√ √
x (t) −ω (ζ+ ζ 2 −1)t −ω0 (ζ− ζ 2 −1)t
[ 1 ] = eAt [ 0 ] = T eJt T −1 [ 0 ] = ae 0 t1 + be
x x
x2 (t)
t2 .
v0 v0

En palabras, tanto el desplazamiento x1 (t) como la velocidad



x2 (t) = ẋ1√
(t) son
−ω0 (ζ+ ζ 2 −1)t −ω0 (ζ− ζ 2 −1)t
combinaciones lineales de las funciones exponenciales e ye .
La Figura 4.6 muestra las gráficas del desplazamiento y la velocidad de un sistema
en el que ζ > 1. El sistema se dice que es sobreamortiguado: la razón de amor-
tuguación es muy grande y la solución converge a cero a medida que aumenta el
tiempo.

2. 0 < ζ < 1. En este caso ζ 2 − 1 < 0 y la matriz de estados tiene dos valores propios

complejos (no reales) conjugados. Es decir, si ωd = ω0 1 − ζ 2 (cantidad que se conoce
con el nombre de frecuencia de amortiguamiento) entonces los valores propios de A
son λ1 = −ζω0 + ωd i y λ2 = −ζω0 − ωd i, ωd > 0. Hemos visto más arriba (véase (4.36))
que la solución del sistema es

x1 (t)
[ ] = e−ζω0 t (a cos(ωd t) + b sen(ωd t))
x2 (t)

donde a y b son vectores columna reales de 2 componentes. Vemos ası́ que, tam-
bién en este caso, tanto el desplazamiento x1 (t) como la velocidad x2 (t) = ẋ1 (t)
son productos de la función exponencial e−ζω0 t y de una combinación lineal de las
funciones cos(ωd t) y sen(ωd t). No obstante, el hecho de que a y b sean reales permi-
te escribir la expresión x1 (t) = e−ζω0 t (a1 cos(ωd t) + b1 sen(ωd t)) de otra forma más
compacta siempre que a1 ≠ 0. En efecto, podemos pensar en a1 y b1 como los catetos
de un triángulo rectángulo tal que arctan(b1 /a1 ) = φ. Si A es la hipotenusa, tenemos
a1 = A cos φ y b1 = A sen φ. Es claro que la relación entre (a1 , b1 ), a1 ≠ 0 y (A, φ),
0 ≤ φ < π, es biunı́voca. Entonces

x1 (t) = e−ζω0 t (a1 cos(ωd t) + b1 sen(ωd t)) =


= e−ζω0 t (A cos φ cos(ωd t) + A sen φ sen(ωd t)) =
= Ae−ζω0 t cos(ωd t − φ).

El caso a1 = 0 corresponde a φ = π/2. Además, x2 (t) = ẋ1 (t).


Ae−ζω0 t es conocido con el nombre de amplitud amortiguada y φ como fase de la
solución. El motivo de estas denominaciones se verá en la Sección 4.3.2. La Figura
4.7 muestra las gráficas del desplazamiento y la velocidad de un sistema en el que
0 < ζ < 1. El sistema se dice que es subamortiguado: cuanto más pequeño es el
amortiguamiento, más veces oscila la trayectoria aunque con una amplitud cada vez
menor y tendiendo a cero cuando t → ∞.

3. ζ = 1. Los sistemas con razón de amortiguamiento igual a 1 se llaman sistemas crı́ti-


camente amortiguados. Tienen un único valos propio doble: −ω0 por lo que la
4.3 Sistemas Lineales 87

Figura 4.6: Trayectoria de Figura 4.7: Trayectoria de un Figura 4.8: Trayectoria de un


un oscilador lineal con sobre- oscilador lineal subamortigua- oscilador lineal crı́ticamente
amortiguamiento. do. amortiguado .

forma de Jordan de la matriz de estados es

−ω
J =[ 0 ].
1
0 −ω0

Ası́, véase (4.33),


eJt = e−ω0 t [ ].
1 t
0 1

Y si A = T JT −1 entonces la solución del problema de condiciones iniciales es

x1 (t)
[ ] = T eJt T −1 [ 0 ] .
x
x2 (t) v0

Usando el mismo procedimiento que en el caso de dos valores propios reales y dis-
tintos, existen vectores reales a y b de dos componentes tales que:

x1 (t)
] = e−ω0 t [t1 t2 ] [
1 t −1 x0
[ ]T [ ]
x2 (t) 0 1 v0
= e−ω0 t (a + bt)

Los vectores a y b se pueden dar explı́citamente:

x1 (t) (v0 + ω0 x0 )
[ ] = e−ω0 t ([ 0 ] + [ ] t)
x
x2 (t) v0 v0 − ω0 (v0 + ω0 x0 )

La Figura 4.8 muestra las gráficas de un oscilador lineal crı́ticamente amortiguado


en función del signo de la velocidad inicial del mismo.

Una caracterı́stica común a las tres gráficas es que las trayectorias, después de un
periodo transitorio en el que pueden crecer o decrecer, tienden a cero asintóticamente. Ello
es debido a que los valores propios, λ1 y λ2 , de los osciladores lineales con amortiguamiento
siempre tienen la parte real negativa: −ω0 ζ y, por lo tanto, para t suficientemente grande
la función exponencial e−ω0 ζt tienden a cero.
88 El modelo de espacio-estado

Figura 4.10: Respuesta transitoria y de


Figura 4.9: Entrada para un sistema li-
espacio-estado a la entrada de la Figura
neal.
4.9.

4.3.2. Respuesta de un sistema lineal

Recordemos que la respuesta de los sistemas lineales

ẋ(t) = A(t)x(t) + B(t)u(t),


{ t∈T.
y(t) = C(t)x(t) + D(t)u(t)
(4.42)

viene dada por la fórmula (4.23) que reproducimos de nuevo aquı́:

y(t) = C(t)Φ(t, t0 )x0 + ∫ C(t)Φ(t, s)B(s)u(s)ds + D(t)u(t), t∈T.


t
(4.43)
t0

Vemos en esta expresión que la solución consiste de una respuesta a la condición inicial,
C(t)Φ(t, t0 )x0 , y una respuesta a la entrada, ∫ C(t)Φ(t, s)B(s)u(s)ds + D(t)u(t). Utli-
t

t0
zando la terminologı́a de la Sección 4.2, η(t, x, 0U ) = C(t)Φ(t, t0 )x0 es la respuesta del
sistema al movimiento libre, y η(t, 0X , u) = ∫ C(t)Φ(t, s)B(s)u(s)ds + D(t)u(t) es la
t

t0
respuesta del sistema al movimiento forzado.
Resulta además que la respuesta a la entrada (movimiento forzado) se divide en mu-
chas ocasiones en dos respuestas: una que se conoce con el nombre de respuesta transitoria
y otra que se llama respuesta de estado estacionario. La Figura 4.10 muestra la respuesta
de un sistema lineal a una entrada de tipo sinusoidal (Figura 4.9). En ella se aprecian las
dos partes de la respuesta a dicha entrada. En particular para entradas periódicas la res-
puesta de estado-estacionario suele ser también periódica y representa el comportamiento
del sistema a largo plazo. Veremos este fenómeno con más claridad cuando analicemos la
respuesta del sistema a las funciones salto unidad y a las funciones de tipo sinusoidal. De
hecho, analizaremos con detalle la respuesta de los sistemas lineales a los tres tipos de fun-
ciones de entrada que estudiamos en el Capı́tulo 3 y que son los que se usan habitualmente
para el análisis de la respuesta de los sistemas lineales: la función impulso, la función salto
unidad y las funciones seno o coseno. Para la función impulso también daremos la expre-
sión de la solución para sistemas lineales generales. Para las demás funciones, expresiones
explı́citas son sólo posible para sistema invariantes en el tiempo.
4.3 Sistemas Lineales 89

Recordemos que para sistemas invariantes en el tiempo


ẋ(t) = Ax(t) + Bu(t),
{
y(t) = Cx(t) + Du(t)
(4.44)

la matriz de transición de estados es Φ(t, t0 ) = eA(t−t0 ) .

Respuesta a un impulso

Se llama respuesta a un impulso a la respuesta forzada de un sistema cuando la entrada


es la “función” impluso unidad en un instante τ . Es decir, se supone que el sistema está
en reposo hasta el instante τ (x(τ −) = 0) y el sistema se excita con un impulso unidad en
el instante τ . Recordemos que el impulso unidad viene representado por la delta de Dirac
que en el instante τ tiene la siguiente representación:
0, t ≠ τ
δτ (t) ∶= {
+∞, t = τ.
Equivalentemente δτ (t) = δ(t − τ ) siendo δ la delta de Dirac en τ = 0. Ya vimos en el
Capı́tulo 3 (véase la Sección 3.4) que δ no es una función en sentido clásico y en el
Apéndice A se ponen las bases para un uso riguroso de δ. En particular se da sentido a la
expresión:
+∞ +∞
∫ f (u)δ(t − u)du = ∫ f (t − u)δ(u)du = f (t), t ∈ R. (4.45)
−∞ −∞
Con esta propiedad en nuestras manos podemos decir cuál es la respuesta de un sistema
lineal a un impulso. Sea ei la i-ésima columna de la matriz Im ; es decir, el vector de tamaño
m con todas sus componentes 0 excepto la i-ésima que es 1, y consideremos como entrada
del sistema u(t) = δ(t − τ )ei . Aplicando (4.45) a la función f (z) = C(t)Φ(t, z)B(z) en el
intervalo [τ, t] y teniendo en cuenta que δτ (t) = δ(t − τ ) se anula fuera de este intervalo,
tenemos que
+∞
C(t)Φ(t, z)B(z)δ(z − τ )ei dz = ∫ C(t)Φ(t, z)B(z)δ(z − τ )ei dz = C(t)Φ(t, τ )B(τ ).
t

τ −∞

Por otra parte D(t)δ(t − τ ) ≠ 0 sólo para t = τ porque δ(t − τ ) sólo es distinta de cero en
t = τ . Por lo tanto, la respuesta forzada del sistema a un impulso unidad en el instante τ
es
hi (t, τ ) = [C(t)Φ(t, τ )B(τ ) + D(τ )δ(t − τ )]ei , t ≥ τ.
Observamos que hi ∶ R+ × R+ → Rm×1 es una función vectorial: la i-ésima columna de la
matriz C(t)Φ(t, τ )B(τ ) + D(τ )δ(t − τ ). Se suele escribir (sustituyendo τ por s):
C(t)Φ(t, s)B(s) + D(s)δ(t − s) ∀t ≥ s
H(t, s) = {
∀t < s,
(4.46)
0
y esta matriz recibe el nombre de matriz de respuesta a un impulso. Teniendo en cuenta
que por (4.45)
D(s)u(s)δ(t − s)ds = D(t)u(t),
t

0
90 El modelo de espacio-estado

tenemos que

H(t, s)u(s)ds = ∫ C(t)Φ(t, s)B(s)u(s)ds + D(t)u(t).


t t

t0 t0

En consecuencia, la respuesta de un sistema lineal a la entrada u(t) puede escribirse de la


siguiente forma:
y(t) = C(t)Φ(t, t0 )x0 + ∫
t
H(t, s)u(s)ds, (4.47)
t0

Esta expresión se puede interpretar como que la respuesta del sistema lineal (4.42) y(t) es
la superposición (suma) de las respuestas a un “conjunto infinito de impulsos desplazados
entre t0 y t, cada uno de los cuales de magnitud u(t)” (esta “suma de los infinitos impulsos”
entre t0 y t serı́a la integral de las respuestas H(t, s) a cada impulso).
Para los sistemas (4.44) invariantes en el tiempo, la matriz de transición de estados es
Φ(t, t0 ) = eA(t−t0 ) y para t ≥ s tendrı́amos H(t, s) = CeA(t−s) B(s) + Dδ(t − s). Ası́ pues, la
matriz de respuesta a un impulso para los sistemas invariantes en el tiempo sólo depende
del “tiempo transcurrido” t − s. Por eso se suele escribir H(t − s) en vez de H(t, s) y dado
que H(t − s) = H(t, s) = H(t − s, 0) se suele tomar como matriz de respuesta a un impulso
la correspondiente al impulso en el instante s = 0. Es decir,

CeAt B + Dδ(t) ∀t ≥ 0
H(t) = {
∀t < 0,
(4.48)
0

Ası́, la respuesta del sistema lineal (4.44) a una entrada arbitraria u(t) se puede escribir
de la siguiente forma:

y(t) = CeA(t−t0 ) x0 + ∫ H(t − s)u(s)ds.


t
(4.49)
0

El Control System Toolbox de MATLAB dispone de las funciones impulse y impulseplot


para calcular y dibujar las gráficas de la respuesta de un sistema lineal a la función im-
pulso. Por ejemplo, para dibujar la gráfica del desplazamiento y velocidad de un oscilador
lineal, inicialmente en reposo, cuando es sometido a un impulso podrı́amos proceder de la
siguiente forma (suponiendo que el oscilador lineal tiene una frecuencia natural ω0 = 0,5
una razón de amortiguamiento ζ = 0,25 y k = 1/ωo2 ):

1. Definimos el sistema con el comando ss (veremos cuando estudiemos la respuesta a


la función salto que hay otras formas de definir un sistema). Para ello construı́mos las
matrices A, B y C. En este caso D = 0 y C = I2 porque queremos tener información de
x(t) = x1 (t) y ẋ(t) = x2 (t). Es decir, queremos que la salida sea el estado completo.

>> w=0.5; z=0.25;


>> A=[0 1; -w^2 -2*z*w]; B=[0;1]; C=eye(2);
>> sis=ss(A,B,C,0)
sis =
4.3 Sistemas Lineales 91

Figura 4.11: Gráficas de los estados del sistema en forma de espacio-estado para el oscilador
lineal con parámetros ω0 = 0,5, ζ = 0,25 y k = 1/ω02 .

a =
x1 x2
x1 0 1
x2 -0.25 -0.25

b =
u1
x1 0
x2 1

c =
x1 x2
y1 1 0
y2 0 1

d =
u1
y1 0
y2 0
Continuous-time state-space model.

2. Usamos impulse o impulseplot (véase la ayuda de MATLAB para conocer el al-


cance de estas dos funciones) para dibujar las gráfica de x1 (t) y x2 (t):

>> impulse(sis)

En la Figura 4.11 se muestran las gráficas de las dos variables. Out(1) es la del
desplazamiento (x(t) = x1 (t)) y Out(2) la de la velocidad (ẋ(t) = x2 (t)). En ellas se
92 El modelo de espacio-estado

aprecian las respuestas transitorias y de estado estacionario; siendo cero esta última.
Veamos cómo interpretarlas. Las gráficas representan las funciones componentes dela
matriz H(t) = CeAT B. En este caso la matriz es 2 × 1 (una entrada, dos salidas).
Observemos que CeAt B es la solución del sistema
ẋ(t) = Ax(t)
{
y(t) = Cx(t)
con la condición inicial x(0) = B. En el ejemplo que nos ocupa x(0) = [ 01 ]. De
ahı́ que la gráfica de x1 (t) comience en el punto (0, 0) y la de x2 (t) en (0, 1). Por
otra parte, vimos en el Ejemplo 4.7 que la solución para el oscilador armónico es
x1 (t) = Ae−ζω0 t cos(ωd t−φ). Como x(0) = 0, debe ser cos(−φ) = 0 por lo que φ = ± .

2
Pero la onda del coseno está desplazada a la derecha π/2; es decir, es “como si
empezara en −π/2”. Por lo tanto, la fase debe ser negativa y ası́ φ = . Finalmente,
π
2
la matriz de estados A tiene dos valores propios que son complejos conjugados y con
parte real negativa −ζω0 . Por ello, la onda del coseno se amortigua (disminuye su
amplitud) transitoriamente y tiende a cero cuando t → +∞. De ahı́ que la respuesta
de estado estacionario sea 0.

Respuesta a un salto

Recordemos que la función salto unidad (o función de Heavisade) es:


0, t < 0
γ(t) ∶= {
1, t ≥ 0.
Obsérvese que cualquier función continua puede aproximarse por una sucesión de funciones
que son múltiplo de funciones salto unidad.
La respuesta a un salto del sistema (4.44) con m = p = 1 se define como la salida y(t)
del sistema cuando el estado inicial está en reposo (x(0) = 0) y la entrada es γ(t) para
t ≥ 0. Cuando el sistema es lineal, invariante en el tiempo y multivariable (m > 1 o p > 1),
la matriz de respuesta a un salto S(t) es aquella cuya j-ésima columna es la respuesta a la
entrada γ(t)ej siendo ej la j-ésima columna de Im . Ası́ pues, si S(t) = [s1 (t) s2 (t)⋯sn (t)]
y la matriz de estados A es invertible, la respuesta a un salto u(t) = γ(t)ej se obtiene a
partir de (4.43):

sj (t) = ∫ CeA(t−τ ) Bu(τ )dτ + Du(t) = (C ∫ eA(t−τ ) Bdτ + D) ej =


t t

0 0
= (C ∫ eAσ Bdσ + D) ej = (C(A−1 e B)∣σ=0 + D)) ej =
t σ=t

= (CA−1 eAt B − CA−1 B + D) ej .


0

Podemos escribir cada componente de sij (t) de la siguiente forma:


sij (t) = ci A−1 eAt bj + dij − ci A−1 bj , t > 0. (4.50)
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¸ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶ ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶
transitoria estado-estacionario
4.3 Sistemas Lineales 93

Figura 4.12: Ejemplo de respuesta a un salto. El tiempo de subida, exceso, tiempo de


ajuste, y el valor de la respuesta de estado-estacionario son los valores que definen el
comportamiento de la señal del sistema.

donde ci , bj y dij son: la i-ésima fila de C, la j-ésima columna de B y el elemento (i, j) de


D, respectivamente. Es decir, sij (t) es la respuesta en el “canal i” a un salto unidad en el
“canal j”. La matriz de respuesta a un salto es entonces
S(t) = CA−1 eAt B + D − CA−1 B , t > 0.
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¶ ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶
transitoria estado-estacionario

El primer término recibe el nombre de respuesta transitoria cuando converge a cero al


tender t → ∞. Esto sucede cuando las partes reales de los valores propios de A son negati-
vas. Cuando hay respuesta transitoria, el segundo término recibe el nombre de respuesta
de estado-estacionario y, dado que la respuesta transitoria converge a 0, representa el valor
de la salida del sistema a largo plazo. Nótese que

S(t) = CeAt B,
d
dt
que comparando con (4.48) hacer pensar que la respuesta a un impulso es la derivada
de la respuesta a un salto unidad. De hecho, tal y como se demuestra en el Apéndice
A, la función impulso es la derivada, en el sentido de las distribuciones, de la función de
Heavisade.
En la Figura 4.12 se muestra un ejemplo de respuesta a un salto para un sistema
lineal. Se suele usar cierta terminologı́a para referirse a los parámetros fundamentales que
definen el comportamiento de la señal de salida:

El valor de estado estacionario yee es el valor final de la salida (suponiendo que


converja).
Tiempo de Subida Tr es la cantidad de tiempo que se requiere para que la señal pase
del 10 % al 90 % de su valor final.
Sobreelongación (Overshoot) Mp es el porcentaje del valor final que la señal sube
por encima de éste en la etapa transitoria (en el supuesto de que la señal no suba
en tiempos posteriores por encima del valor en la etapa transitoria).
94 El modelo de espacio-estado

Tiempo de Ajuste Ts es la cantidad de tiempo necesaria para que la señal se sitúe


en el 2 % de su valor final.

Hay varias funciones en el Control System Toolbox de MATLAB diseñadas para anali-
zar la respuesta de un sistema a un salto. Explicaremos el uso de algunas de ellas tomando
como referencia el oscilador lineal con amortiguamiento. Recordemos que la ecuación que
rige la dinámica de los osciladores lineales viene dada por (4.38) que, en el modelo de
espacio-estado, es equivalente a (4.39). Para hacer cálculos supondremos que la razón de
amortiguamiento del sistema es ζ = 0,25 y la frecuencia natural es ω0 = 0,6 rad/seg. Con
estos datos concretos el sistema (4.38) queda:

ẍ(t) + 0,30ẋ(t) + 0,36x(t) = 0,36ku(t) (4.51)

cuya función de trasferencia (suponiendo y(t) = x(t)) es

g(s) =
0,36k
+ 0,30s + 0,36
. (4.52)
s2
Por su parte, las ecuaciones del sistema en la forma de espacio-estado quedarı́an:



⎪ ẋ(t) = [
0 1
]+[
0
] u(t)
⎨ −0,36 −0,30

0,36k (4.53)


⎩ y(t) = [1 0] x(t),
x (t)
siendo, ahora, x(t) = [ x12 (t) ]. Ya hemos visto que los sistemas (4.51) y (4.53) son equi-
valentes a través del cambio de variable x1 (t) = x(t), x2 (t) = ẋ(t) donde, ahora, x(t) es
la variable del sistema (4.51). La ecuación y(t) = [1 0] x(t) de (4.53) nos indica que la
salida del sistema es la solución del sistema (4.51). En consecuencia, la relación entre las
transformadas de Laplace (con condición inicial cero) de la salida y la entrada del sistema
(4.53) debe ser la función de transferencia g(s) en (4.52). En efecto, denotando con A, B
y C a las matrices de estados, entradas y salidas, respectivamente, del sistema (4.53):

A=[ ], B=[ ], C = [1 0] ,
0 1 0
−0,36 −0,30 0,36k
y usando las propiedades de la transformada de Laplace obtenemos

y(s) = C(sI2 − A)−1 Bu(s).

A la matriz C(sIn −A)−1 B +D, que es una matriz de tamaño p×m de funciones racionales,
se le llama Matriz de Transferencia del sistema. En este ejemplo m = p = 1 de modo que
la matriz de transferencia se reduce a una sola función que podemos calcular a mano:

C(sI2 − A)−1 B = = g(s).


0,36k
s2 + 0,30s + 0,36
Para sistemas más complicados o de mayores dimensiones podemos hacer uso de los co-
mandos ss (state-space) y tf (transfer function) del Control System Toolbox de MATLAB.
En nuestro ejemplo, podrı́amos proceder como sigue (se ha tomado k = 1):
4.3 Sistemas Lineales 95

>> A=[0 1;-0.36 -0.30]; B=[0;0.36];C=[1 0];


>> sis=ss(A,B,C,0);
>> g=tf(sis)
g =
0.36
------------------
s^2 + 0.3 s + 0.36
Continuous-time transfer function.

Dada una función (o matriz, en el caso multivariable) de transferencia se puede obtener un


sistema en forma de espacio-estado cuya matriz de transferencia sea la dada. Los comandos
a utilizar son los mismos en orden inverso:

>> num=[0.36]; den=[1 0.3 0.36];


>> sis=tf(num,den)
sis =
0.36
------------------
s^2 + 0.3 s + 0.36
Continuous-time transfer function.
>> sises=ss(sis)
sises =
a =
x1 x2
x1 -0.3 -0.72
x2 0.5 0

b =
u1
x1 1
x2 0

c =
x1 x2
y1 0 0.72

d =
u1
y1 0
Continuous-time state-space model.

Las matrices de estados, entradas y salidas producidas se pueden extraer usando los si-
guientes comandos:

>> A1=sises.a
96 El modelo de espacio-estado

Figura 4.13: Gráfica producida por los comamdos step y stepplot para el sistema (4.53)
y sus equivalentes (4.52) y (4.54).

A1 =
-0.3000 -0.7200
0.5000 0
>> B1=sises.b
B1 =
1
0
>> C1=sises.c
C1 =
0 0.7200

Observamos que estas matrices

−0,3 −0,72
A1 = [ ], B1 = [ ] , C1 = [0 0,72] ,
1
(4.54)
0,5 0 0

son diferentes de las del sistema (4.51). Es fácil comprobar, sin embargo que los sistema
(A, B, C) y (A1 , B1 , C1 ) son semejantes en el sentido de que existe una matriz T no singular
tal que
A1 = T −1 AT, B1 = T −1 B, C1 = CT.

En este ejemplo la matriz T = [ 0,36 0 ] sirve para realizar el cambio.


0 0,72

Una vez definidos los sistemas, bien a través de la función o matriz de transferencia o
con las matrices del modelo de espacio-estado, los comandos step, stepplot y stepinfo
pueden usarse para analizar la respuesta del sistema cuando la entrada es la función
salto unidad. Para dibujar la gráfica de dicha respuesta se puede utilizar tanto step como
stepplot. La primera, además, produce (si se le pide) los valores de la respuesta en ciertos
instantes de tiempo, los instantes de tiempo en los que se calcula la salida y, cuando el
sistema está dado en forma de espacio estado, los valores del vector de estados en esos
instantes de tiempo. El comando stepplot se usa, sobre todo, para poder manipular
(editar) la gráfica una vez producida. Los comandos
4.3 Sistemas Lineales 97

Figura 4.15: Trayectorias de los estados


Figura 4.14: Trayectorias de los estados
del sistema definido por las matrices en
del sistema (4.53).
(4.54).

>> step(g)
>> step(sis)
>> step(sises)

producen los tres la misma gráfica; la que aparece en la Figura 4.13. Esta misma gráfica
se obtiene sustituyendo step por stepplot en los tres comandos.
Si lo que se desea es una gráfica de la evolución de los estados del sistema, se podrı́a
proceder de la siguiente forma:

>> [y t x]=step(sis);
>> plot(t,x(:,1), ’b-’,t,x(:,2), ’r--’)
>> legend(’desplazamiento’, ’velocidad’)

La gráfica obtenida se presenta en la Figura 4.14 mientras que la gráfica que producirı́an
estos comandos para los estados del sistems sises (que es el devuelto por el comando ss
a partir de la función de transferencia g(s) en (4.51)) se presenta en la Figura 4.15. Nótese
que aún cuando la respuesta, y(t), de los dos sistemas es la misma (Figura 4.13), no lo
son sus estados.
Finalmente, el comando stepinfo se usa para obtener información de los parámetros
de la respuesta del sistema a la función salto. Debe recordarse que el valor de estado
estacionario (yee ) es, de acuerdo con (4.50), D − CA−1 B. El valor de los demás parámetros
los proporciona stepinfo. Ası́ para el oscilador lineal que venimos considerando cualquiera
de los tres comandos

>> S=stepinfo(sis)
>> S=stepinfo(g)
>> S=stepinfo(sises)

produce la misma salida (ver Figura 4.13):

S =
98 El modelo de espacio-estado

Figura 4.16: Respuesta del sistema (4.38) Figura 4.17: Respuesta del sistema (4.38)
a la función salto unidad para k = 1, ζ = a la función salto unidad para k = 1, ω0 =
0,25 y ω0 = 0,25, 0,5, 0,75. 0,5 y ζ = 0, 0,2, 0,5, 1,05.

RiseTime: 2.1145
SettlingTime: 23.5265
SettlingMin: 0.8027
SettlingMax: 1.4432
Overshoot: 44.3235
Undershoot: 0
Peak: 1.4432
PeakTime: 5.5262

donde RiseTime es el tiempo de subida, Tr , SettlingTime es el tiempo de ajuste, Ts ,


Overshoot es la sobreelongación por encima de yee , Mp , Undershot es el defecto por debajo
de yee (que se define como el overshoot pero por defecto), SettlingMin y SettlingMax
son los valores mı́nimo y máximo de y después del tiempo de subida, Peak es el valor
máximo de y, y Peaktime es el instante en el que se alcanza el máximo valor de y.
En general, para un sistema de segundo orden como el oscilador lineal, la forma de
la curva que representa la respuesta del sistema a la función salto depende de la razón de
amortiguamiento ζ mientras que la velocidad depende de la frecuencia natural del sistema
ω0 . En la Figura 4.16 se muestran las respuestas del sistema (4.38) a la función salto
unidad ((u(t) = γ(t)) para k = 1, ζ = 0,25 y varios valores de ω0 . Y en la Figura 4.17 se
muestran las respuestas del mismo sistema para k = 1, ω0 = 0,5 y varios valores de ζ.
Para el oscilador lineal



⎪ ẋ(t) = [ 2
0 1
] + [ 2 ] u(t)
0
⎨ −ω0 −2ζω0

kω0 (4.55)


⎩ y(t) = [1 0] x(t),
se puede dar una expresión explı́cita de la respuesta a la función salto unidad u(t) = γ(t).
Para ello, partimos mejor de la ecuación cuadrática original
ẍ(t) + 2ζω0 ẋ(t) + ω02 x(t) = kω02 , (4.56)
y observamos que xp (t) = k es una solución particular de la ecuación. Entonces, la solución
general de la ecuación es x(t) = xh (t)+xp (t) siendo xh (t) la solución general de la ecuación
4.3 Sistemas Lineales 99

(4.56) cuando la fuerza externa es 0; es decir, de la correspondiente ecuación homogénea.


Recordemos que la expresión de xh (t) es diferente según que ζ > 1, 0 < ζ < 1 o ζ = 1 (véase
Ejemplo 4.7). En cualquier caso, lo que nos interesa es la respuesta del sistema (en este
caso y(t) = x(t)) cuando el sistema se encuentra en reposo en el instante inicial t = 0; es
decir, cuando x(0) = 0, ẋ(0) = 0. Un simple cálculo muestra que cuando se impone esta
condición inicial a x(t) = xh (t)+k para cada expresión de xh (t) en función de ζ, se obtiene
la siguiente expresión explı́cita de la respuesta del sistema:

⎛ ⎛ ⎞⎞
y(t) = k 1 − e−ζω0 t cos ωd t + √ 0 < ζ < 1;
ζ
⎝ ⎝ ⎠⎠
sen ωd t ,
1 − ζ2
−ω0 t
y(t) = k(1 − e (1 + ω0 t)), ζ = 1;
⎛ 1⎛ ⎞ √
y(t) = k 1 − √ + 1 e−ω0 t(ζ− ζ −1) +
ζ 2 (4.57)
⎝ 2 ⎝ ζ2 − 1 ⎠
1⎛ ⎞ √ ⎞
+ √ − 1 e−ω0 t(ζ+ ζ −1) , ζ > 1
ζ 2

2 ⎝ ζ2 − 1 ⎠ ⎠

donde, recordemos, ωd = ω0 1 − ζ 2 es la frecuencia de amortiguamiento.
Usando estas fórmulas se pueden calcular los parámetros (tiempo de subida, exceso,
tiempo de ajuste,. . . ) asociados a las respuestas a saltos unidad. Por ejemplo, para sistemas
subamortiguados (0 < ζ < 1) haciendo la sustitución ϕ = arc cos ζ, la correspondiente
expresión en (4.57) queda:

e−ζω0 t
y(t) = k (1 − (cos(ωd t) sen ϕ + cos ϕ sen(ωd t)))
sen ϕ
⎛ ⎞
(4.58)
= k 1− √ e−ζω0 t sen(ωd t + ϕ) .
1
⎝ 1 − ζ2 ⎠

Ası́, el estado estacionario es


yee = k, (4.59)
y la sobreelongación se alcanza en el primer instante en que la derivada de y en (4.58)
se hace 0 que es en t =
π
. Se puede comprobar que las expresiones explı́citas para la
2ωd
sobreelongación, el tiempo de subida y el tiempo de ajuste son, respectivamente:

πζ

Mp = e Tr ≈ Ts ≈
1−ζ 2
1 tanϕ ϕ 4
, e , , (4.60)
ω0 ζω0

Respuesta a una excitación sinusoidal

Otra señal de entrada comúnmente usada para el análisis y diseño de sistemas lineales
es un sinusoide (o una combinación de sinusoides). A la respuesta de los sistemas lineales a
este tipo de entradas se le conoce con el nombre de respuesta de frecuencia y mide la forma
en la que el sistema responde a una excitación sinusoidal en una de sus entradas. Para ver la
100 El modelo de espacio-estado

forma en que se hace esto, evaluaremos la salida (4.43) para u(t) = sen ωt, suponiendo m =
p = 1. Aquı́ ω es la frecuencia de la señal de entrada. Realizar los cálculos que se necesitan al
implantar directamente u(t) = sen ωt en (4.43) resulta bastante engorroso. Para aliviarlos
haremos uso del principio de superposición (ver (4.10)-(4.11)) de los sistemas lineales
aplicándolo a la salida. Para ello, notemos que

sen ωt = (e − e−iωt ) ,
1 iωt
(4.61)
2i

de modo que calcularemos la respuesta del sistema lineal a entradas de la forma est (con
s un número complejo arbitrario) y, luego, escogeremos s = iωt y s = −iωt Esto nos
proporcionará la respuesta a la entrada sen ωt restando ambas respuestas y dividiendo por
2i.
Consideremos el sistema lineal invariante en el tiempo (4.44) con la condición inicial
x(0) = x0 y A ∈ Rn×n , B ∈ Rn×m , C ∈ Rp×n y D ∈ Rp×m . La función de controles u(t) ∈ Rm×1
es m-dimensional para cada t ∈ R. Vamos a analizar la respuesta “en el canal” i a una
excitación exponencial “en el canal” j. Es decir, la componente yij (t) de la salida, cuando
⎡0⎤
⎢⋮⎥
la entrada es el vector m-dimensional e ej siendo ej = ⎢⎢ 1 ⎥⎥ la j-ésima columna de la matriz
st
⎢ 0⋮ ⎥
⎣ ⎦
Im .
Usando (4.43) obtenemos:

yij (t) = ci eAt x0 + ∫ ci eA(t−τ ) Besτ ej dτ + dij est =


t

0
= ci eAt x0 + ci eAt ∫ e(sI−A)τ Bej dτ + dij est ,
t

donde ci = eTi C es la i-ésima fila de la matriz C.


En el supuesto de que s = ±iω no sean valores propios de A, tendrı́amos que sI − A es
invertible y podrı́amos escribir

yij (t) = ci eAt x0 + ci eAt ((sI − A)−1 e(sI−A)τ Bej )∣ + dij est =
t
0
= ci eAt x0 + ci eAt (sI − A)−1 (e(sI−A)t − I) Bej + dij est = (4.62)
= ci eAt x0 + ci eAt (sI − A)−1 (est e−At − I) Bej + dij est =
= ci eAt x0 − ci eAt (sI − A)−1 Bej + ci (sI − A)−1 est Bej + dij est .

En el paso de la segunda lı́nea a la tercera en la ecuación anterior, (4.62), se han usado


dos importantes propiedades. Una de ellas es que si A, B son matrices que conmutan
(AB = BA) entonces eA+B = eA eB . La otra es que (sI − A)−1 y e−At conmutan. Ambas son
consecuencia de la definición de eAt como una serie de potencias matriciales en A (véase
(4.27)).
Reuniendo en el vector yj (t) todas las funciones yij (t) para i = 1, 2, . . . , p, vemos que
4.3 Sistemas Lineales 101

la salida a la entrada u(t) = est ej es:

yj (t) = CeAt (x0 − (sI − A)−1 Bej ) + (C(sI − A)−1 B + D) est ej . (4.63)
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶ ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¶
respuesta transitoria respuesta de estado estacionario

Vemos de nuevo que, cuando los valores propios de A tienen parte real negativa, la
solución se compone de una respuesta transitoria y una de estado estacionario. En tal caso
la respuesta de estado-estacionario es proporcional a la entrada (compleja) u(t) = est .
La matriz
G(s) = C(sIn − A)−1 B + D
recibe el nombre de matriz de transferencia del sistema (4.44). En efecto, tomando la
transformada de Laplace de dicho sistema con la condición inicial x0 = 0 obtenemos

̂(s) = Â
x(s) + B̂
u(s) (sIn − A)̂x(s) = B̂u(s)
{ ⇔ {
sIn x
ŷ(s) = Ĉ
x(s) + D̂
u(s) ŷ(s) = Ĉ
x(s) + D̂u(s)

̂(s) en la primera ecuación y sustituyendo en la segunda:


Despejando x

ŷ(s) = (C(sIn − A)−1 B + D)̂


u(s).

En lo sucesivo nos centraremos en el caso monovariable: p = m = 1. Para el caso


multivariable basta hacer el mismo estudio para cada componente de la salida respecto
a la entrada u(t) = est ej . En el caso de una entrada y una salida la respuesta de estado
estacionario serı́a
yee (t) = (c(sI − A)−1 b + d)est (4.64)
donde hemos sustiyuı́do ci , Bej y dij en (4.62) por c, b y d, respectivamente. La presencia
del número complejo s en c(sI − A)−1 b + d hace que este número sea, en general, complejo
incluso cuando A, b, c y d sean reales. Si llamamos M al módulo de este número y θ a su
argumento, respectivamente, tenemos que

M eiθ = c(sI − A)−1 b + d, (4.65)

que es, cuando s se mira como una variable compleja, la función de transferencia del
sistema. Por lo tanto el valor de yee (t), la respuesta en estado estacionario, será:

yee (t) = M eiθ est = M est+iθ . (4.66)

Cuando s = iω, se dice que M es la ganancia y que θ es la fase del sistema a una frecuencia
forzada dada ω. Es decir, ganancia(ω)=M y fase(ω)=θ. Esto tiene la siguiente interpre-
tación: supongamos que la entrada es una onda sinusoidal de amplitud Au , frecuencia ω
y desfase ψ: u(t) = Au sen(ωt + ψ). ¿Cuál es la respuesta de estado estacionario a esta
entrada? Por una parte, tal y como hemos visto en (4.61)

sen(ωt + ψ) = (e − e−i(ωt+ψ) ) .
1 i(ωt+ψ)
2i
102 El modelo de espacio-estado

+
Si yee (t) es la respuesta de estado estacionario a la entrada ei(ωt+ψ) = eiψ eiωt entonces,
usando (4.66) y teniendo en cuenta que eiψ es constante y que el sistema es lineal,
+
yee (t) = eiψ M eiωt+iθ = M ei(ωt+θ+ψ) .

Calculemos ahora la respuesta de estado estacionario, yee (t), a la entrada e−i(ωt+ψ) =
e−iψ e−iωt . Por (4.64) y como e−iψ es constante

yee (t) = e−iψ (c(−iωI − A)−1 b + d)e−iωt . (4.67)

Pero resulta que si z = c(iωI −A)−1 b+d entonces el conjugado de z es z̄ = c(−iωI −A)−1 b+d.
En efecto, si ponemos Z = iωI − A y tenemos en cuenta que c , b y d son reales,

z̄ = cZ −1 b + d = cZ̄ −1 b + d = c(iωI − A)−1 b + d = c(−iωI − A)−1 b + d.

Por lo tanto como, por (4.65), M eiθ = c(iωI −A)−1 b+d cuando s = iω, su conjugado, M e−iθ ,
es el conjugado de c(iωI − A)−1 b + d. Es decir, M e−iθ = c(−iωI − A)−1 b + d. Sustituyendo
en (4.67)

yee (t) = e−iψ M e−iθ e−iωt = M e−i(ω+θ+ψ) .

Dado que sen(ωt + ψ) = (e − e−i(ωt+ψ) ), la respuesta de estado estacionario a la


1 i(ωt+ψ)
2i
entrada u(t) = Au sen(ωt + ψ) será

+
(t) − yee

(t) ei(ωt+θ+ψ) − e−i(ω+θ+ψ)
yee (t) = Au = Au M = Au M sen((ωt + ψ) + θ).
yee
2i 2i
Esto significa que yee es una función de la misma naturaleza que la entrada: una función
sinusoidal con la misma frecuencia ω pero desplazada hacia la derecha o izquierda según
que θ sea negativo o positivo, respectivamente. Y la amplitud de la salida es M veces la
de la entrada. Es decir, si yee (t) = Ay sen(ωt + ϕ) entonces

ganancia(ω) = M = fase(ω) = ϕ − ψ = θ.
Ay
,
Au

Si la fase θ es positiva se dice que la salida se adelanta a la entrada; mientras que si la fase
es negativa se dice que la salida se rezaga de la entrada. En la Figura 4.18 se muestra la
respuesta de frecuencia de un sistema lineal. La lı́nea discontinua muestra la gráfica de la
entrada que tiene amplitud 2 y la continua la respuesta a dicha entrada que tiene mayor
amplitud porque, en este ejemplo, la ganancia es aproximadamente M = 1,54. Además la
fase es negativa porque está desplaza hacia la derecha respecto a la entrada). Por ello,
la salida se retrasa de la entrada. Recordemos que el perı́odo de la sinusoide es T =

ω
segundos y, por consiguiente ∆T = − = − θ segundos es el tiempo que la salida se
θ T
ω 2π
adelanta (si θ > 0) o se retrasa (si θ < 0). En la gráfica, la salida va retrasada ∆T segundos
respecto a la entrada. Por ello θ < 0 tal y como ya habı́as hecho observar.
4.3 Sistemas Lineales 103

Figura 4.18: Respuesta de un sistema li- Figura 4.19: Respuesta de frecuencia en la


neal a un sinusoidal. La entrada en lı́nea que se muestra la ganancia y fase del sis-
discontinua y la respuesta en continua va tema en función de frecuencia de entrada.
adelantada ∆T segundos.

Cuando el sistema es multivariable (m > 1 o p > 1) para cada elemento de la matriz


de transferencia tendrı́amos una ganancia y una fase. Si G(s) = C(sIn − A)−1 B + D es la
matriz de transferencia, entonces pondrı́amos

Mkj eiθkj = gkj (iωj ), 1 ≤ k ≤ p, 1 ≤ j ≤ m,

donde gkj (s) es el elemento en la posición (k, j) de G(s). Mkj y θkj son la ganancia y fase
de la respuesta ykj (t) = (ck (iωj In −A)−1 bj +dkj eiωj t a la excitación sinusoidal uj (t) = eiωj ej .
Para analizar las respuestas de frecuencia de los sistemas lineales se suelen usar las
gráficas de Bode (Bode plot). En ellas se representa la ganancia y la fase del sistema en
función de la frecuencia de la entrada. Este tipo de gráficas se pueden obtener con la
función bode o bodeplot del Control Toolbox de MATLAB, por ejemplo. La Figura 4.19
muestra un ejemplo de este tipo de representación.
Como en el caso de respuesta a la función salto, hay algunas propiedades estándar que
se usan para caracterizar la respuesta de frecuencia:

La ganancia de frecuencia cero M0 es la ganancia del sistema para ω = 0. Corresponde


a la razón entre una entrada constante y la salida en estado estacionario. Su valor
se obtiene al sustituir s = 0 en (4.65)

M0 = −cA−1 b + d;

i.e., es la respuesta de estado estacionario a la función salto unidad. Es importante


notar que la ganancia de frecuencia cero sólo está definida cuando A es invertible;
es decir, si no tiene 0 como valor propio.

√ ωb es el rango de frecuencia en el que la ganancia ha decrecido


El ancho de banda
no más que 1/ 2 de su valor de referencia. Para sistemas con ganancia finita y no
nula a frecuencia cero, el valor de referencia es dicha ganancia. El valor de referencia
puede ser distinto dependiendo de cada tipo de sistema.
104 El modelo de espacio-estado

El pico resonante Mr y la frecuencia del pico. El primero es el valor máximo de la


ganancia del sistema y el segundo es el valor de la frecuencia de entrada donde se
alcanza el primero.
La resonancia es un fenómeno que se produce en los sistemas cuadráticos (como los
osciladores lineales) que por su propia naturaleza producen una respuesta (salida)
sinusoidal. Para estos sistemas hay valores de frecuencias que hacen que la ganancia
de la respuesta a dicha frecuencia se amplifique enormemente. A este fenómeno se
le llama resonancia. De ahı́ que al valor máximo de la ganancia de un sistema a una
frecuencia dada se le llame pico resonante. Este fenómeno para el oscilador lineal se
estudia un poco más adelante.

Comandos del Control Toolbox de MATLAB que proporcionan valores significativos


de la respuesta de frecuencia son:

freqresp devuelve un vector, h, (o matriz si el sistema es multivariable) con la


respuesta (número complejo) de frecuencia de un sistema para ciertas frecuencias,
w, determinadas por el propio algoritmo que implementa el comando. Para saber las
frecuencias usadas y sus respuestas, se puede usar [h,w]=freqresp(sis), donde sis
es el sistema definido en forma de espacio-estado o como matriz de transferencia.
El comando h=freqresp(sis,w) devuelve la respuesta de frecuencia del sistema
sis a la frecuencia w. En todos los casos las respuestas de frecuencia son números
complejos; su módulos son las ganancias en unidades absolutas y los ángulos las fases
en radianes. Para pasar de unidades absolutas a decibelios,dB, hay que multiplicar
por 20 log10 . El comando mag2db hace esta operación.
El valor de M0 se puede obtener de la siguiente forma: M0=freqresp(sis,0), aunque
el comando dcgain es más apropiado.

getPeakGain devuelve Mr y la frecuencia ωr donde se alcanza el pico. Las unidades


para Mr que devuelve getPeakGain son unidades absolutas.

bandwidth(sis,vdB) devuelve la primera frecuencia en la que la ganancia de la


respuesta del sistema cae por debajo del 70,79 % ≈ √ % de M0 , o del valor vdB
100
2
especificado en decibelios.

getGainCrossover(sis,vub) devuelve un vector de dos frecuencias; son los extre-


mos del intervalo de frecuencias entre los que la ganancia del sistema está por encima
o por debajo del valor especificado, vub, en unidades absolutas. Por ejemplo, si para
un sistema H, wc = getGainCrossover(H,1) devuelve
>>wc =
1.2582
12.1843
esto quiere decir que entre (aproximadamente) 1,3 rad/seg y 12,2 rad/seg, el sistema
excede la ganancia 0 dB.
4.3 Sistemas Lineales 105

Para el oscilador lineal, podemos dar explı́citamente una expresión para M eiθ . En
efecto, M eiθ = C(iω − A)−1 B + D. Ahora bien,

g(s) = C(sI − A)−1 B + D

es la función de trasferencia del sistema, que en el caso del oscilador lineal es:

kω02
g(s) =
s2 + 2ζω0 s + ω02
.

En consecuencia,

kω02 kω02
M eiθ = =
(iω)2 + 2ζω0 (iω) + ω02 ω02 − ω 2 + 2iζω0 ω
.

Por lo tanto
kω02
M=√ =√
k
(ω02 − ω 2 )2 + 4ζ 2 ω02 ω 2 2 2
(1 − ( ωω0 ) ) + 4ζ 2 ( ωω0 )
2

y
ω02 − ω 2
θ = arc cos √ .
(ω02 − ω 2 )2 + 4ζ 2 ω02 ω 2
Se comprueba ası́ que la ganancia es muy grande si la frecuencia de entrada, ω, es muy
parecida a la frecuencia natural del sistema, ω0 , y el coeficiente de amortiguamiento, ζ, es
muy pequeño. Es para estos valores cuando hay peligro de que se produzca el fenómeno
de la resonancia (que “el sistema entre en resonancia’ ’, se suele decir). Además, la fase
es casi cero para valores de la frecuencia forzada, ω, próximos a la frecuencia natural del
sistema ω0 (siempre suponiendo ζ muy pequeño.
En la Figura 4.20 se muestran las gráficas de la ganancia y fase de un oscilador lineal
para varios valores ζ. Valores pequeños de ζ producen picos resonantes más agudos y un
cambio rápido en la fase cuando ω ≈ ω0 . A medida que ζ aumenta la magnitud del pico
decrece y los cambios de fase se hacen más suaves. Nótese que cuando ζ es pequeño, θ es
casi 0 si ω0 > ω y casi π radianes si ω0 < ω.
Los siguientes comandos de MATLAB proporcionan el pico resonante y la frecuencia
del pico para el oscilador lineal con valores ω0 = 0,6 y ζ = 0,05:
>> w=0.6; z=0.05;
>> num=w^2; den=[1 2*z*w w^2];
>> ft=tf(num,den)
ft =
0.36
-------------------
s^2 + 0.06 s + 0.36
Continuous-time transfer function.
106 El modelo de espacio-estado

Figura 4.20: Respuesta de frecuencia para un sistema de segundo orden en función de ζ.


La gráfica superior representa la ganancia y la inferior la fase.

>> [gp,fp] = getPeakGain(ft)


gp =
10
fp =
0.6000
>> gp_dB = mag2db(gp)
gp_dB =
20

El pico resonante se alcanza cuando la frecuencia de entrada coincide, aproximadamente,


con la frecuencia natural del sistema ω0 = 0,6 (medidas absolutas).

Vous aimerez peut-être aussi