Vous êtes sur la page 1sur 480

Apuntes de Regulacion Automatica

Ingeniera Electronica
Javier Aracil
Fabio Gomez-Estern
Contenido
1 Introduccion a los sistemas de control. 1
1.1 Nocion de control automatico. . . . . . . . . . . . . . . . . . . . . 1
1.2 Necesidad del modelo matematico del sistema. . . . . . . . . . . . 3
1.3 Idea de realimentaci on. . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Realimentaci on, retardos y oscilacion. . . . . . . . . . . . . . . . . 6
1.5 Sensibilidad y realimentaci on. . . . . . . . . . . . . . . . . . . . . 7
1.6 Las Matematicas y el control automatico. . . . . . . . . . . . . . . 9
1.7 Se nales y sistemas. . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.8 Servomecanismos y reguladores. . . . . . . . . . . . . . . . . . . . 13
1.9 Bosquejo historico del control automatico. . . . . . . . . . . . . . 15
1.9.1 Control, informatica y telecomunicaciones. . . . . . . . . . 17
2 Introduccion a los sistemas realimentados 19
2.1 Servomecanismo de posicion . . . . . . . . . . . . . . . . . . . . . 19
2.2 Accion proporcional mas derivada (PD). . . . . . . . . . . . . . . 21
2.3 Accion proporcional mas integral (PI). . . . . . . . . . . . . . . . 22
i
Contenido ii
3 Sistemas dinamicos lineales 28
3.1 Transformacion de Laplace . . . . . . . . . . . . . . . . . . . . . . 28
3.1.1 Denicion . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.1.2 Resumen de Propiedades . . . . . . . . . . . . . . . . . . . 29
3.1.3 Calculo de antitransformadas . . . . . . . . . . . . . . . . 33
3.2 Nocion de sistema dinamico. . . . . . . . . . . . . . . . . . . . . . 38
3.3 Formas de las relaciones entrada-salida en sistemas. . . . . . . . . 39
3.3.1 Sistemas estaticos. . . . . . . . . . . . . . . . . . . . . . . 39
3.3.2 Sistemas dinamicos . . . . . . . . . . . . . . . . . . . . . . 40
3.4 Descripcion externa de los sistemas dinamicos. . . . . . . . . . . . 42
3.4.1 Respuesta impulsional. . . . . . . . . . . . . . . . . . . . . 42
3.4.2 Funci on de transferencia. . . . . . . . . . . . . . . . . . . . 44
3.5 Sistemas de control realimentados . . . . . . . . . . . . . . . . . . 46
4 Interpretaciones de la funcion de transferencia 50
4.1 Transformacion de Fourier . . . . . . . . . . . . . . . . . . . . . . 50
4.2 Funcion de transferencia en el dominio de la frecuencia . . . . . . 54
5 Sistemas dinamicos lineales de primer orden 56
5.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.2 Solucion de la ecuacion diferencial de primer orden . . . . . . . . 57
5.2.1 Se nal de entrada nula . . . . . . . . . . . . . . . . . . . . . 57
5.2.2 Se nal de entrada no nula . . . . . . . . . . . . . . . . . . . 59
5.2.3 Respuestas a se nales de entrada especiales . . . . . . . . . 61
Contenido iii
5.2.4 Respuesta armonica . . . . . . . . . . . . . . . . . . . . . . 69
5.3 Ejemplos de sistemas de primer orden . . . . . . . . . . . . . . . 72
5.4 El sistema de primer orden como integrador . . . . . . . . . . . . 77
6 Sistemas dinamicos lineales de segundo orden y de orden y su-
perior 79
6.1 Denicion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.1.1 Respuesta de un sistema de segundo orden a una entrada
en escalon . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.1.2 Respuesta en frecuencia de un sistema de segundo orden . 91
6.1.3 Ecuaciones diferenciales de orden n . . . . . . . . . . . . . 92
7 Representaci on graca de la funcion de transferencia 98
7.1 Diagramas mas comunes . . . . . . . . . . . . . . . . . . . . . . . 98
7.1.1 Diagrama de polos y ceros: caso racional . . . . . . . . . . 98
7.1.2 Diagrama de Nyquist . . . . . . . . . . . . . . . . . . . . . 99
7.1.3 Diagrama logartmico o de Bode . . . . . . . . . . . . . . . 100
7.1.4 Diagrama de Black . . . . . . . . . . . . . . . . . . . . . . 101
7.2 Diagrama de Bode . . . . . . . . . . . . . . . . . . . . . . . . . . 101
7.2.1 Diagrama de Bode de una constante . . . . . . . . . . . . 103
7.2.2 Diagrama de Bode de una integracion pura . . . . . . . . . 103
7.2.3 Diagrama de Bode de un sistema de primer orden . . . . . 103
7.2.4 Diagrama de Bode de una diferenciacion pura . . . . . . . 105
7.2.5 Diagrama de Bode del termino asociado a un cero . . . . . 106
7.3 Sistemas de fase mnima . . . . . . . . . . . . . . . . . . . . . . . 106
Contenido iv
7.4 Crculos M y N . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
7.5 Relacion entre las constantes de error y los polos y ceros. . . . . . 112
7.5.1 Seguimiento de posicion. . . . . . . . . . . . . . . . . . . . 113
7.5.2 Seguimiento de velocidad. . . . . . . . . . . . . . . . . . . 116
7.5.3 Seguimiento de aceleracion . . . . . . . . . . . . . . . . . . 118
7.5.4 Sistemas con error nulo . . . . . . . . . . . . . . . . . . . . 119
8 Estabilidad de los sistemas dinamicos 122
8.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
8.2 Criterios de estabilidad relativos a la descripcion externa . . . . . 123
8.2.1 Criterio de Routh-Hurwitz . . . . . . . . . . . . . . . . . . 128
8.2.2 Matriz de Hurwitz . . . . . . . . . . . . . . . . . . . . . . 133
8.3 Criterio de Nyquist . . . . . . . . . . . . . . . . . . . . . . . . . . 134
8.3.1 Grado de estabilidad e interpretaci on del criterio de Nyquist 141
9 Compensacion de sistemas realimentados 143
9.1 Introduccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
9.2 Analisis en el dominio de la frecuencia de la red PD . . . . . . . . 147
9.3 Analisis en el dominio de la frecuencia de la red PI . . . . . . . . 150
9.4 Accion proporcional, integral y diferencial (PID) . . . . . . . . . . 153
9.5 Compensacion por avance de fase . . . . . . . . . . . . . . . . . . 155
9.6 Efecto en el dominio de la frecuencia . . . . . . . . . . . . . . . . 157
9.7 Metodo practico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
Contenido v
10 Representacion matematica de sistemas 162
10.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
10.1.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . 162
10.2 Descripcion interna de los sistemas dinamicos . . . . . . . . . . . 163
10.2.1 Sistemas de estados nitos . . . . . . . . . . . . . . . . . . 166
10.2.2 Sistemas dinamicos lineales en tiempo continuo . . . . . . 167
10.2.3 Funci on de transicion de los sistemas dinamicos lineales . . 177
10.2.4 Sistemas dinamicos lineales en tiempo discreto . . . . . . . 181
10.2.5 Muestreo de sistemas en tiempo contnuo . . . . . . . . . . 182
10.2.6 Sistemas no-lineales: linealizacion . . . . . . . . . . . . . . 185
10.2.7 Deposito mezclador . . . . . . . . . . . . . . . . . . . . . 187
11 Controlabilidad y observabilidad de sistemas dinamicos 191
11.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
11.2 Controlabilidad de sistemas dinamicos lineales . . . . . . . . . . . 192
11.2.1 Estados alcanzables . . . . . . . . . . . . . . . . . . . . . . 192
11.2.2 Estados controlables . . . . . . . . . . . . . . . . . . . . . 193
11.2.3 Estados conectados . . . . . . . . . . . . . . . . . . . . . . 194
11.3 Controlabilidad de los sistemas en tiempo discreto . . . . . . . . . 195
11.3.1 Ejemplos de introduccion . . . . . . . . . . . . . . . . . . . 196
11.3.2 Controlabilidad de sistemas en tiempo continuo . . . . . . 202
11.3.3 Criterio de controlabilidad . . . . . . . . . . . . . . . . . . 203
11.3.4 Ejemplos de controlabilidad . . . . . . . . . . . . . . . . . 206
Contenido vi
11.4 Notas sobre controlabilidad . . . . . . . . . . . . . . . . . . . . . 209
11.4.1 Controlabilidad de sistemas monovariables . . . . . . . . . 209
11.4.2 Transformaci on de la matriz de Controlabilidad . . . . . . 210
11.4.3 Forma simplicada del criterio de controlabilidad . . . . . 210
11.4.4 La controlabilidad como propiedad generica . . . . . . . . 211
11.5 Descomposicion del espacio de estados en sus partes controlables
y no controlables . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
11.6 Observabilidad de sistemas dinamicos lineales . . . . . . . . . . . 218
11.6.1 Introduccion a la observabilidad . . . . . . . . . . . . . . . 218
11.6.2 Observabilidad . . . . . . . . . . . . . . . . . . . . . . . . 220
11.6.3 Reconstructibilidad . . . . . . . . . . . . . . . . . . . . . . 221
11.6.4 Criterio de observabilidad . . . . . . . . . . . . . . . . . . 221
11.7 Sistemas continuos . . . . . . . . . . . . . . . . . . . . . . . . . . 223
11.8 Perdida de observabilidad por muestreo . . . . . . . . . . . . . . . 225
11.8.1 Notas sobre observabilidad . . . . . . . . . . . . . . . . . . 227
11.9 Descomposicion del espacio de estados en sus partes observables y
no-observables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
11.10Descomposicion canonica del espacio de estados . . . . . . . . . . 229
11.11Formas canonicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
11.11.1Forma canonica de observaci on . . . . . . . . . . . . . . . 239
12 Sntesis de sistemas de control por variables de estado 242
12.1 Ley de Control . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
12.1.1 Interpretacion por diagramas . . . . . . . . . . . . . . . . 245
Contenido vii
12.1.2 Interpretacion algebraica . . . . . . . . . . . . . . . . . . . 246
12.1.3 Determinacion de la ley de control . . . . . . . . . . . . . 248
12.2 Observadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
12.2.1 Sistemas monovariables . . . . . . . . . . . . . . . . . . . . 252
12.3 Sntesis del sistema en bucle cerrado . . . . . . . . . . . . . . . . 262
12.3.1 Metodo practico de sntesis . . . . . . . . . . . . . . . . . 270
12.3.2 Sntesis algebraica directa (Sntesis externa directa) . . . . 275
13 Sistemas no lineales 283
13.1 Metodo del primer armonico . . . . . . . . . . . . . . . . . . . . . 283
13.1.1 Ejemplo introductorio . . . . . . . . . . . . . . . . . . . . 283
13.1.2 Principios del metodo . . . . . . . . . . . . . . . . . . . . 289
13.1.3 Transformaci on de Fourier . . . . . . . . . . . . . . . . . . 289
13.2 Algunas funciones descriptivas . . . . . . . . . . . . . . . . . . . . 291
13.2.1 Saturacion . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
13.2.2 Rele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
13.2.3 Holgura . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
13.2.4 Determinacion experimental de la funcion descriptiva . . . 297
13.3 Analisis de sistemas no lineales mediante la funcion descriptiva . . 298
13.3.1 Una ampliacion del criterio de Nyquist . . . . . . . . . . . 299
13.3.2 Oscilaciones de un servomecanismo no lineal . . . . . . . . 300
13.3.3 Funci on descriptiva independiente de la frecuencia . . . . . 302
13.3.4 Funci on descriptiva dependiente de la frecuencia . . . . . . 302
Contenido viii
13.3.5 Estabilidad de los ciclos lmite . . . . . . . . . . . . . . . . 304
13.3.6 Fiabilidad del analisis mediante funciones descriptivas . . . 309
13.4 Criterios de estabilidad relativos a la descripcion interna . . . . . 311
13.4.1 Teora de Lyapunov . . . . . . . . . . . . . . . . . . . . . . 311
13.4.2 Un ejemplo introductorio . . . . . . . . . . . . . . . . . . . 311
13.4.3 Nocion de estabilidad en el sentido de Lyapunov . . . . . . 314
13.4.4 Teorema de Lyapunov . . . . . . . . . . . . . . . . . . . . 315
13.4.5 Aplicacion del metodo de Lyapunov a sistemas lineales . . 318
13.5 Construccion de funciones de Lyapunov con formas cuadraticas . 323
13.5.1 Metodo de Krasovkii . . . . . . . . . . . . . . . . . . . . . 327
14 Introduccion a la optimizacion de sistemas dinamicos 331
14.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
14.2 Optimizacion Estatica. . . . . . . . . . . . . . . . . . . . . . . . . 332
14.2.1 Minimizacion de funciones . . . . . . . . . . . . . . . . . . 332
14.3 Introduccion al control optimo . . . . . . . . . . . . . . . . . . . . 336
14.3.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
14.3.2 Ejemplo de ndice de funcionamiento cuadratico . . . . . . 341
14.4 Problema general del control optimo . . . . . . . . . . . . . . . . 345
14.5 Calculo de variaciones . . . . . . . . . . . . . . . . . . . . . . . . 346
14.5.1 Funcionales y sus variaciones . . . . . . . . . . . . . . . . . 346
14.5.2 Ecuaciones de Euler . . . . . . . . . . . . . . . . . . . . . 352
14.5.3 Estado nal variable . . . . . . . . . . . . . . . . . . . . . 359
Contenido ix
15 Metodos Variacionales en Control Optimo 368
15.1 Aplicacion del calculo de variaciones a la resolucion del problema
del Control Optimo . . . . . . . . . . . . . . . . . . . . . . . . . . 368
15.1.1 Se puede eliminar u . . . . . . . . . . . . . . . . . . . . . . 368
15.1.2 No se puede eliminar u . . . . . . . . . . . . . . . . . . . 373
15.1.3 Introduccion de un termino de control terminal . . . . . . 382
16 Principio del Mnimo de Pontriagin 393
16.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
16.2 Control optimo por conmutaci on . . . . . . . . . . . . . . . . . . 408
16.2.1 Control en tiempo mnimo de un sistema de segundo orden 408
16.2.2 Ejemplo 4: Problema del alunizaje suave . . . . . . . . . . 412
17 Principio de optimalidad de Bellman 417
17.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
17.1.1 Ejemplo de un sistema binario en tiempo discreto . . . . . 421
17.1.2 Programacion dinamica en tiempo discreto y Principio de
Optimalidad . . . . . . . . . . . . . . . . . . . . . . . . . . 423
17.2 Programacion dinamica y ecuacion de Hamilton-Jacobi-Bellman . 424
17.2.1 Relacion entre la programacion dinamica y la formulaci on
Hamiltoniana del problema de control optimo . . . . . . . 433
17.3 Control de sistemas dinamicos lineales con criterio cuadratico . . . 434
17.3.1 Breve rese na historica . . . . . . . . . . . . . . . . . . . . 434
17.3.2 Problema LQR . . . . . . . . . . . . . . . . . . . . . . . . 436
17.4 Ecuacion de Riccati en el dominio de la frecuencia . . . . . . . . . 446
Contenido x
17.5 Resolucion del problema LQR . . . . . . . . . . . . . . . . . . . . 450
18 Estimacion del estado 452
18.1 Nocion de se nal aleatoria . . . . . . . . . . . . . . . . . . . . . . . 452
18.1.1 Descripcion estadstica de las se nales aleatorias . . . . . . 453
18.2 Transmisi on de se nales aleatorias a traves de sistemas lineales: de-
scripcion interna . . . . . . . . . . . . . . . . . . . . . . . . . . . 456
18.3 El problema de la observaci on: Filtro de Kalman . . . . . . . . . 458
18.3.1 Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464
18.4 Metodo LQG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466
Tema 1
Introduccion a los sistemas de
control.
1.1 Nocion de control automatico.
De una manera intuitiva se concibe el control automatico, como la rama de la
tecnica que tiene por objeto concebir ingenios que funcionen autonomamente, es
decir, y hablando llanamente, que funcionen solos. Esta nocion intuitiva requiere
unas ciertas matizaciones, pero es valida como punto de partida.
Bajo cierto punto de vista se puede considerar que en todo proceso industrial
intervienen por una parte la informacion (ordenes) y por otra la potencia. Bajo
este mismo punto de vista cabe considerar el funcionamiento de un proceso como
la adopcion de las acciones necesarias frente al mismo (se nales de mando o control)
para la conveniente dosicacion de la energa en los distintos puntos del proceso
para que el funcionamiento del conjunto sea el conveniente.
En todo proceso, sea la fabricacion de un producto, un avi on en vuelo, una
maquina funcionando, etc.., se realizan una serie de acciones que presuponen
la dosicacion de la aplicacion de energa en determinados puntos, bien bajo la
accion de unas ordenes que se suministran al mismo, bien de una manera aleatoria
por parte del medio en el que se halla inmerso.
Se puede representar un proceso de esta naturaleza, al que a partir de ahora
denominaremos sistema por medio de un bloque, o rectangulo, tal como el repre-
sentado en la gura 1.1. A la izquierda de este bloque se han representado unas
1
Introduccion a los sistemas de control. 2
echas que se han denotado por u
1
, u
2
... y que representan las distintas acciones
que se pueden ejercer sobre el proceso; se denominaran en lo que sigue se nales
de control, mando, o entrada. A la derecha del bloque se han representado otras
echas, como saliendo del mismo, que se han denotado por y
1
, y
2
, ... y que repre-
sentan los productos que produce el proceso. Tanto las acciones sobre el sistema
como los productos del mismo generalmente varan con el tiempo, por lo que se
hablara de secuencias temporales, o mas formalmente de se nales; sobre el caracter
de estas se nales se volvera mas adelante.
Sistema
a
controlar
E
E
E
E
E
E
q
q
q
q
q
q
u
1
u
2
u
n
y
1
y
2
y
m
Figura 1.1: Sistema dinamico
Observese que este esquema, al nivel que se ha desarrollado hasta ahora,
tiene una amplsima aplicacion. Por ejemplo la conduccion de un automovil
por una carretera puede considerarse como un proceso sistema representado con
un diagrama similar al de la gura 1.1 siendo u
1
la posicion del volante; u
2
la
direccion del viento respecto a la del automovil, etc.., y siendo y
1
la velocidad del
automovil; y
2
la separacion del mismo de la cuneta, etc.
De una manera intuitiva se entiende que un proceso esta automatizado cuando
funciona solo, es decir, sin intervenci on del ser humano. Por ejemplo, un au-
tomovil completamente automatizado sera aquel que funcionase completamente
solo. Aunque este ejemplo trivial pueda asociarse al dominio de la ciencia ccion,
recientes avances en disciplinas como la la vision articial y el aprendizaje au-
tomatico, auguran su inminente viabilidad tecnica.
Volviendo al problema original, se puede decir que el funcionamiento del pro-
ceso se hara a partir de la serie de se nales u
i
que se le aplique. El problema de
controlar (gobernar) el proceso, se reduce al de establecer las se nales de entrada
(ordenes), a que debera ser sometido para que su funcionamiento sea el apetecido.
Por lo tanto, el problema de controlar el funcionamiento de un proceso queda
reducido al de la toma de decision de la secuencia temporal de valores que deben
Introduccion a los sistemas de control. 3
tomar las se nales de mando del mismo. Es decir, volviendo al ejemplo trivial
de la conduccion del automovil, la decision de las maniobras que debe efectuar
el conductor (sobre el volante, sobre el freno, sobre el acelerador...) para que el
funcionamiento del automovil sea el adecuado.
1.2 Necesidad del modelo matematico del sis-
tema.
Se ha visto en el apartado anterior como el gobierno de un proceso se reduca
al establecimiento de la secuencia de acciones de mando que debe aplicarsele
para que el funcionamiento sea el apetecido. Se va a considerar ahora un primer
aspecto del establecimiento de esta secuencia.
La toma de decision sobre la se nal que debe aplicarse al sistema implica que
existan distintas alternativas. Es decir, que existan distintas acciones posibles
cada una de las cuales dara un resultado distinto. El problema se reduce al de
elegir entre estas se nales, aquellas cuyo resultado sea el apetecido.
Al existir distintas opciones respecto a la accion a tomar para gobernar el
proceso, para realizar la eleccion conveniente de la se nal de entrada que determine
un funcionamiento apetecido, es necesario que se sepa predecir que resultados se
obtendra de cada una de las posibles acciones. Es decir, quien tome la decision
respecto a cual de las posibles acciones a tomar debe adoptarse, debe predecir in
mente, las acciones que resultaran de cada una de sus posibles opciones, con el
n de escoger aquella se nal de entrada a la que corresponda un resultado que sea
el buscado.
Por lo tanto, se requiere el conocimiento exhaustivo de las relaciones que
existen entre las posibles acciones a tomar sobre el sistema, y los resultados que
determinaran cada una de ellas. Esto es lo que se llama un modelo del proceso;
aunque existen diversos tipos de modelos, (descripciones verbales, prototipos,
tablas), nos interesamos en texto por los matematicos, que estan constituidos por
las relaciones formales que ligan a las se nales u
i
e y
i
.
El conductor del automovil, que es quien toma la decision del posicionamiento
de los distintos organos que tiene a su alcance (volante, frenos, acelerador...) lo
que hace en todo instante es prever cual sera el resultado de las decisiones tomadas
con el n de mantener el proceso que gobierna (el automovil), en un estado de
marcha y funcionamiento apetecido.
Introduccion a los sistemas de control. 4
Para construir un modelo matematico de un proceso, se requiere establecer de
una forma precisa, las magnitudes que lo denen (se nales de entrada y de salida)
as como las relaciones formales que ligan a estas magnitudes.
En la vida ordinaria, cuando se construyen modelos, de una manera subcon-
sciente, para la toma de decisiones, estos no tienen el nivel de formalidad que se
acaba de indicar. Sin embargo, cuando se quiere automatizar un proceso, es indis-
pensable la construccion de estos modelos formales con el n de poder trasladar
el proceso de toma de decision a una maquina construida al efecto, as que de-
terminara las acciones a tomar precisamente a partir del modelo del sistema del
que disponga.
La posibilidad de construir un modelo del proceso que se este considerando,
constituye una de las mayores limitaciones a priori respecto a la posibilidad de
automatizar un determinado proceso. Considerese, por ejemplo, el problema del
establecimiento de un tratamiento por un medico para uno de sus enfermos. En
la medida en que fuese posible en primer lugar denir una serie de magnitudes
que caracterizasen el estado del enfermo (temperatura, tension arterial, concen-
traciones en sangre de principios activos...) y de las relaciones formales que ligan
a estas magnitudes, sera posible automatizar completamente el problema del es-
tablecimiento de un tratamiento, que no es sino determinar la accion a seguir
sobre el enfermo para conseguir que la evolucion del mismo estado de salud se
realice en forma apetecida.
En ciertos casos es posible establecer un modelo matematico del proceso que
ligue de una manera unvoca a cada una de las acciones que se tomen un unico
resultado. Se tiene entonces un sistema determinista. En otros casos, para cada
una de las acciones posibles, no se tiene sino una prediccion estadstica de posibles
resultados; se tienen entonces los llamados sistemas estocasticos.
1.3 Idea de realimentacion.
El conocimiento del modelo matematico del sistema sobre el que se debe tomar
una decision para gobernar su funcionamiento, no es suciente para la toma de
esta decision. Se requiere ademas informacion sobre lo que, de una forma intuitiva
de momento se puede denominar estado actual del mismo.
Es facil encontrar ejemplos que ilustren este punto. Supongase, por ejemplo,
un automovil que debe hacer el recorrido Sevilla - Cadiz. Supongase que se
dispone de un modelo matematico del funcionamiento del automovil as como
Introduccion a los sistemas de control. 5
un trazado minucioso de la autopista que une las dos ciudades Parece posible,
en principio, concebir un programa de ordenador extraordinariamente detallado
que permitiese realizar la toma de decisiones sobre la conduccion del automovil.
Un programa que sera algo as como una secuencia de instrucciones del tipo:
avanzar en lnea recta 150 m, realizar un giro a la derecha, con radio de giro de
1 km.,.... Sin embargo parece claro que en principio no quepa augurar un feliz
resultado a la empresa. Este tipo de programa dara lugar a un control en en
el que no se tiene informacion externa sobre la situacion actual, situacion que
recibe el la denominacion de se denomina control en bucle abierto. Pese a sus
limitaciones, tiene su aplicacion en ciertos contextos, por ejemplo una lavadora
automatica basada en secuencias de trabajo prejadas en el tiempo.
El conductor del automovil no hace sino desde su posicion de gobierno, intro-
ducir en su sistema de decision neuronal, especialmente por medio de sus ojos,
informacion sobre el estado actual del automovil, permitiendo de esta forma el
que la toma de decision respecto a la condicion del mismo, adquiera un grado de
ecacia realmente able.
Este ejemplo, pese a su aparente articiosidad es similar al que se presenta
cuando se trata de enviar una capsula a la luna. Debe notarse que la necesidad
de la realimentacion surge como consecuencia de la aparicion de perturbaciones
aleatorias que modican el funcionamiento del sistema de acuerdo con un plan
previsto, o sencillamente por la imperfeccion del modelo del sistema que le impide
una prediccion exacta, a largo plazo, del funcionamiento del mismo.
Desde un punto de vista general, cabe decir que los sistemas con realimentaci on
son aquellos en los que la adopcion de decisiones cara al futuro esta completa-
mente inuenciada por los efectos de las previamente adoptadas. Dicho con otras
palabras, son los sistemas en los que si la accion que se lleva a efecto persigue
una determinada meta, es la diferencia entre la precision alcanzada en la aproxi-
macion a esta meta, y ella misma, la que determina las acciones posteriores. Este
tipo de actuaciones son las que se denominan control en bucle cerrado o control
por realimentaci on.
En la gura 1.2 se representa en forma de diagrama de bloques lo anterior.
En dicha gura se representa por un lado el Sistema, cuya variable de Salida
pretendemos controlar de forma que siga a la Entrada. Para ello se dispone de
un Elemento de medicion, que nos proporciona el valor de la se nal de salida y
posteriormente una vez comparada con la se nal de entrada se toma la decision
correspondiente para actuar sobre el sistema.
Conviene recordar que, en general, los sistemas fsicos poseen memoria del
Introduccion a los sistemas de control. 6
Toma de
decision
Planta
Elemento
de
medicion
E E E
T
'
Salida Entrada
Figura 1.2: Realimentaci on
pasado; por ello la salida del sistema en un instante dado no es funcion exclusiva-
mente de la entrada en ese mismo instante: depende de toda la historia pasada de
las entradas. Por esta razon la estructura realimentaci on es un objeto complejo
en cuanto a su comprension y dise no.
1.4 Realimentacion, retardos y oscilacion.
La existencia de retardos en un circuito (bucle) de realimentacion, conduce a la
aparicion de fenomenos oscilatorios en el comportamiento dinamico del mismo.
Este hecho tiene una importancia capital al considerar el comportamiento dinamico
de los sistemas realimentados y gran parte del problema de dise no de los mismos
reside en el amortiguamiento (o anulacion) de estas oscilaciones.
Con el n de ilustrar de una manera intuitiva este hecho, considerese a un con-
ductor que conduce un automovil, proceso que se puede interpretar con un bucle
de realimentacion tal como el de la gura 1.3. Entre la deteccion de un obstaculo,
y la accion correctora consiguiente (girar el volante, actuar sobre los frenos...), se
produce un cierto retardo que el conductor experimentado tiene perfectamente
asimilado, y no constituye un obstaculo para una conduccion normal.
Supongase que se trata de mantener el coche en lnea recta sobre una supercie
completamente llana, sin ning un obstaculo. Sobre el automovil solo act uan las
peque nas perturbaciones (baches) del terreno y el conductor puede conseguir su
Introduccion a los sistemas de control. 7
Ojos
(Sentidos)
Conduccion Coche
E E E E
T
c c c
Referencia
Perturbaciones
Posicion
Figura 1.3: Ejemplo de realimentaci on
objetivo con relativa facilidad.
Supongase ahora que el conductor debe realizar su cometido con los ojos
cerrados, llevando a su lado un copiloto que es el que le va transmitiendo las
indicaciones respecto a las desviaciones de la lnea recta que se trata de seguir.
El circuito de realimentacion se modica, en este caso, al de la gura 1.4, con
ello lo que se ha introducido es de una manera articiosa un notable retardo en
el bucle de realimentaci on. Es facil comprender, que en este segundo caso, y
debido precisamente al retraso que se introduce en el bucle de realimentacion, la
conduccion sera fuertemente oscilante.
Un hecho importante que ilustra tambien el anterior ejemplo es que cuanto
mayor sea la velocidad a la que pretende conducirse el automovil, mayores seran
los efectos de oscilacion que se han indicado. El dilema entre velocidad de re-
spuesta (precision) y estabilidad (ausencia de oscilaciones), constituye una de las
constantes que aparecen en el estudio de sistemas realimentados.
1.5 Sensibilidad y realimentacion.
Un sistema se dice sensible a la variacion de un determinado parametro cuando
este inuye de forma importante en el comportamiento del mismo. Por ejemplo, la
conduccion de un automovil es extraordinariamente sensible al estado del rme
Introduccion a los sistemas de control. 8
Ojos
(Sentidos)
Transmisi on
oral
Conduccion Coche
E E E E E
T
c c c
Ref.
Perturbaciones
Posici on
Figura 1.4: Sistema con retardo
de la carretera. Mas adelante se dara una denicion precisa de este concepto;
aqu, de momento, con esta nocion intuitiva es suciente.
Los sistemas realimentados son enormemente menos sensibles a las perturba-
ciones que los sistemas sin realimentar. En efecto, un ejemplo trivial ayudara a
jar esta idea. Considerese que se trata de preparar una ducha de agua templada.
El sistema se puede considerar en bucle abierto, es decir, sin realimentaci on, si
una vez realizado el ajuste de las proporciones de agua fra y caliente, este per-
manece inalterado durante toda la ducha. Si aparece cualquier perturbacion, por
ejemplo, que en otro lugar de la casa se abra un grifo de agua caliente, lo que
inuye en la mezcla, las consecuencias desagradables para el que se ducha no se
pueden atenuar. El sistema es enormemente sensible.
Por el contrario, si se puede actuar sobre los grifos durante todo el proceso,
entonces se tiene un sistema en bucle cerrado en el que la persona que se ducha
puede tomar las decisiones oportunas, y actuar sobre el sistema a traves de los
grifos, para corregir cualquier perturbacion que se pueda producir. El sistema,
en conjunto, ha atenuado las posibles perturbaciones exteriores, por lo tanto ha
disminuido su sensibilidad sobre las mismas.
Este ejemplo ayuda tambien a poner de maniesto uno de los problemas mas
importantes que se pueden producir como consecuencia de la introduccion de la
realimentacion. Considerese que:
Los grifos se encuentran alejados del deposito de agua caliente; y
Introduccion a los sistemas de control. 9
Una peque na variaci on de cualquiera de los grifos inuye sensiblemente en
la temperatura del agua.
Es claro que en tales condiciones se produciran oscilaciones de la temperatura del
agua, puesto que sera enormemente difcil ajustar la misma. Ello es debido a que
cualquier accion que se tome tarda un cierto tiempo en detectarse (en la espalda
del que se ducha que es el organo de medida), y por lo tanto este posiblemente se
pase en la correccion. El sistema se convierte entonces en un sistema inestable, y
la correccion de ese tipo de inestabilidad constituye uno de los primeros problemas
con los que se enfrenta el dise nador de sistemas realimentados. Ello se pondra
ampliamente de maniesto a lo largo de este curso.
1.6 Las Matematicas y el control automatico.
Las matematicas tienen un doble empleo en las ciencias empricas y aplicadas.
Las matematicas pueden usarse como lenguaje cuando se pretende formular
los problemas con la ayuda de conceptos matematicos buscando con ello la
precision y claridad.
Las matematicas pueden emplearse como herramientas cuando una vez
planteado el problema en terminos matematicos se resuelven las ecuaciones
que resultan (analticamente o por simulaci on).
Por otra parte, cabe considerar que la ingeniera puede describirse como una
mezcla de sentido com un y ciencia. Se trata de recurrir a planteamientos teoricos
que permitan profundizar en los problemas que se esten tratando, pero sin perder
de vista que en ultimo extremo de lo que se trata es de conseguir algo que funcione.
Estas consideraciones previas deben hacerse por cuanto que, como es logico
seg un lo que se ha visto en los apartados anteriores, las matematicas juegan un
papel fundamental en la moderna teora del control automatico. Tan es as que
en alg un sentido puede considerarse la teora del control automatico como una
rama de las matematicas aplicadas.
En la gura 1.5 se tiene un sencillo diagrama en el que se pretende expresar
las fases del metodo en control automatico. Estas fases pueden resumirse en:
Introduccion a los sistemas de control. 10
1. A partir del proceso, por abstraccion, se construye el modelo matematico
del mismo. Esta primera fase no es especca del especialista en control, y
requiere del concurso del especialista en el proceso a controlar.
2. Una vez obtenido el modelo matematico, se determina que tipo de accion
debe efectuarse sobre el mismo para que su comportamiento se adec ue a las
metas propuestas. Se trata de determinar, lo que mas adelante se denomi-
nara ley de control.
3. Por ultimo, se trata de realizar fsicamente, la ley de control determinada
en el punto anterior para lo que se requiere el concurso de instrumentos
electronicos y fsicos que realicen esta funcion. En esta ultima fase se re-
quiere de nuevo el concurso del especialista en el proceso a controlar (en
forma de instrumentista).
Sistema
Fsico
Modelo
Matematico
Sistema
de Control
Ley de
Control
T T
c c
E
E
Abstraccion Implementacion
Figura 1.5: Fases del Metodo de Control
De las tres fases anteriores, la especca del especialista en sistemas de control
es la segunda, que tiene un caracter fundamental matematico. Se ha llegado
incluso a decir que el especialista en control en realidad no trata con los sistemas
fsicos, sino exclusivamente con sus modelos matematicos.
Introduccion a los sistemas de control. 11
Por lo tanto, el terreno en que se mueve el especialista en control automatico,
esta fuertemente inuido por las matematicas aplicadas, aunque nunca debe olvi-
darse las consideraciones hechas mas arriba respecto a la labor del ingeniero.
1.7 Se nales y sistemas.
En el estudio de los sistemas de control es fundamental adquirir previamente una
idea clara de los conceptos de se nal y sistema.
Se entiende por se nal, en un sentido amplio, toda magnitud fsica que evolu-
ciona en el tiempo. En un sentido mas restringido se requiere ademas que
esta se nal tenga cierto contenido informacional, es decir que sea signicativa en
cierto aspecto, los tipos de se nales generalmente empleados en sistemas de Con-
trol son tensiones o corrientes electricas, desplazamientos mecanicos y presiones
neumaticas o hidraulicas, si bien en principio no hay ning un incoveniente en in-
cluir otro tipo de se nales. Se empleara aqu la notacion habitualmente empleada
en matematicas para referirse a una magnitud fsica X que, en cada instante t,
toma un cierto valor.
La denicion de sistema es mas ambigua. Se entiende por sistema un conjunto
de partes entrelazadas operativamente de manera que unas act uen sobre otras y
que en conjunto formen un todo. Un ejemplo de sistema de acuerdo con esta
denicion lo constituye el Sistema Economico Nacional, en el que salarios, nivel
de precios, ahorro, etc, interaccionan entre s. Aqu interesar a la consideracion
de sistemas mas simples en los que los elementos interactuantes son fsicos y, de
hecho, puedan denirse magnitudes fsicas que describan su comportamiento. Un
sistema puede tambien denirse como un procesador de se nales, en el sentido de
que excitado con determinadas se nales responde con otras.
Es por lo tanto evidente que la consideracion del comportamiento dinamico
de un sistema tendra un papel preponderante, por cuanto que una se nal es una
magnitud fsica que evoluciona en el tiempo, y un sistema es un procesador de
se nales.
Normalmente, los sistemas que interesan en Automatica, tendran puntos de
acceso llamados entradas, por los que pueden ser excitados por se nales llamadas
se nales de entrada. As mismo tendran otros accesos en los que la evolucion
de ciertas magnitudes fsicas podra leerse. Estos puntos se llamaran salidas y
las magnitudes a ellos ligadas se nales de salida. La voz punto, empleada en las
anteriores deniciones de entrada y salida, debe tomarse en un sentido amplio
Introduccion a los sistemas de control. 12
y no geometrico. Los sistemas se representan por medio de bloques tal como se
indica en la gura 1.6.
potencia perturbaciones
Seales de
u(t)
entrada
Seales de
salida
y(t)
Figura 1.6: Sistema dinamico
Juntamente con las se nales de entrada y salida interesa considerar que un
sistema puede estar sometido a otro tipo de entradas como son las de suminis-
tro de potencia o las perturbaciones. Pero con el n de poder estudiar en su
comportamiento ciertas regularidades, que permitan su estudio matematico, se
considerara que estas, o bien se mantienen constantes (potencial), o bien sufren
solo variaciones despreciables (perturbaciones), de manera que el valor de la se nal
de salida pueda considerarse funcion exclusivamente del conjunto de valores toma-
dos por la se nal de entrada. Por lo tanto normalmente la representaci on de un
sistema se hara como indica la gura 1.1.
Como ejemplo de lo dicho se puede considerar un motor electrico en el cual el
campo se mantiene constante y se vara la velocidad actuando sobre la corriente
de inducido. (Figura 1.7)
Intensidad de
inducido
Excitacin
Constante
velocidad
Figura 1.7: Motor electrico
Desde el punto de vista que se esta considerando se dira que el motor es un
sistema que, a una se nal de entrada u(t) (intensidad de inducido), da una se nal
Introduccion a los sistemas de control. 13
de salida y(t) (velocidad del motor). Se puede, en cierto aspecto, prescindir de la
consideracion del campo.
1.8 Servomecanismos y reguladores.
La automatica es un campo vastsimo. En el se entrelazan aspectos teoricos y
tecnologicos de suerte que es difcil establecer en el mismo sistematizaciones de
cara a su estudio. Sin embargo atendiendo a su desarrollo historico y al interes
de ciertas aplicaciones a las que, por otra parte, se ha podido aplicar una teora
sencilla y fecunda, es posible extraer de todo el complejo mundo de la automatica
campos de estudio concretos como son los servomecanismos y los reguladores.
Un servomecanismo es un ingenio con el que se pretende controlar una posicion.
Ejemplos de servomecanismos se encuentran en campos tan variados como son
los posicionamientos de los timones de un barco, posicionamiento de las ante-
nas de radar, posicionamiento de las ruedas de un camion en una servodireccion,
posicionamiento de la herramienta en un torno automatizado, posicionamiento
de la pluma en un registrador de precision, etc... El control de la posicion se
puede hacer de acuerdo con un sencillo esquema de realimentaci on como el de la
gura 1.8.
amplificador
e
u
motor
y
-
+
Figura 1.8: Servomecanismo de posicion
Siempre que la posicion de salida no se encuentre en la posicion requerida por
la referencia aparece un error que actuando sobre el servomotor determina que
este act ue corrigiendo el error. La unica posicion de equilibrio es aquella en que
la posicion de salida es igual a la referencia
1
.
Por lo tanto un servomecanismo es, esencialmente, un sistema seguidor o re-
1
Esta armacion se restringe a una clase de sistemas mecanicos lineales.
Introduccion a los sistemas de control. 14
productor en el que la posicion de salida sigue o reproduce a la se nal de entrada
(referencia). Una caracterstica esencial, que justica las aplicaciones de los ser-
vomecanismos es que el nivel de potencia de la se nal de salida puede ser muy
superior al de la se nal de entrada. En el esquema anterior se ve como lo que
posiciona es el servomotor, que viene actuado por una potencia externa al con-
junto (el campo) y una se nal que viene del servoamplicador y que es la que
realmente corrige (alimentacion del inducido). Observese que la misma se nal que
viene del servoamplicador ha recibido, en esta, potencia del exterior. Por lo
tanto un servomecanismo es un ingenio que reproduce se nales de posicion a un
nivel de potencia superior. El precio de esta mayor potencia en la posicion de la
salida es una perdida de calidad en la se nal, es decir, de una cierta distorsion.
Precisamente las tecnicas de dise no de servomecanismos tratan de conseguir que
esta perdida de calidad de la se nal sea mnima.
Un problema, aunque desde un punto de partida distinto al de los servome-
canismos pero que conduce a planteamientos semejantes, es el de los reguladores.
Una determinada magnitud fsica se dice que esta regulada si esta provista de un
sistema que reaccione frente a los cambios del medio externo que afecten a esta
magnitud, de suerte que se mantenga en un valor aproximadamente constante.
Un ejemplo trivial de ello lo suministra un sistema de regulacion de temperatura
en una habitacion. El sistema calefactor, a traves de un termostato, debe reac-
cionar a las variaciones del medio (aperturas de puertas, entrada de mas o menos
gente, perdidas naturales distintas en el da que en la noche, etc...) de suerte que
la temperatura se mantenga constante.
Vr
Kt
t V
Ti
Kp
c K
Ta
K
V
b
a
c
+
+
+
-
-
-
Figura 1.9: Regulador de temperatura
El esquema que permite la regulacion de temperatura es esencialmente el
mismo de un servomecanismo, tal y como se ve en la gura 1.9. Sin embargo,
deben notarse las diferencias, desde un punto de vista fsico, entre ambos sistemas.
1. En el servomecanismo, la entrada (referencia) es variable y se pretende que
Introduccion a los sistemas de control. 15
la salida siga a la entrada. Mientras que en el regulador la entrada es
constante.
2. En el servomecanismo la fuente de error es la variacion de la referencia. En
el regulador la fuente de error son perturbaciones exteriores que separan el
sistema del estado requerido.
3. En el servomecanismo, la potencia de la se nal de salida, que es lo que
interesa, es muy superior a la de la entrada de referencia (vease el ejemplo
de la amplicacion de fuerza del conductor en la servodireccion de un coche).
En el regulador, la se nal de salida en s no interesa, sino que solo es una
medida de algo que sucede en la planta controlada, que es lo que realmente
interesa.
Junto a estas diferencias y a otras que pudieran establecerse se presenta la pro-
funda semejanza entre ambos problemas, ya que los dos conducen al mismo dia-
grama de bloques realimentado que se muestra en las guras 1.8 y 1.9. Basandose
en esta semejanza es por lo que el estudio de ambos problemas se hace simult aneo
pero no debe olvidarse nunca que fsicamente se trata de dos problemas diferentes.
1.9 Bosquejo historico del control automatico.
A lo largo de la historia de la tecnica se encuentran m ultiples ingenios en cuya
concepcion interviene la idea de realimentaci on. Uno de los primeros ingenios de
esta naturaleza es el llamado reloj de agua (clepsidra). Seg un algunos autores, su
origen es chino y se remonta a la dinasta Chen (siglos XI - XII a.C.), y seg un otros
al mecanico griego Ktesibios (siglo XIII a.C.). En cualquier caso su antig uedad
e ingeniosidad son innegables.
El primer trabajo signicativo en control automatico fue el regulador centrfugo
de James Watt. Se trata de un regulador de bolas de una maquina de vapor. En
el regulador de Watt se regula la velocidad de una maquina de vapor por medio
de un sencillo articio consistente en dos bolas metalicas de cierta masa sobre las
que act uan las fuerzas centrfugas al girar el eje del que son solidarias a traves
de unos brazos (gura 1.10). Estos brazos estan articulados de manera que la
fuerza centrfuga que act ua sobre las bolas puede determinar, a traves de dichas
articulaciones, una mayor o menor apertura de la valvula de alimentaci on de la
maquina. Se tiene por lo tanto una cadena cerrada de acciones tal como la que
se indica en el diagrama de la gura 1.11.
Introduccion a los sistemas de control. 16
vapor
vlvula
Cilindro
Caldera
:velocidad del eje.
eje de la mquina.

Figura 1.10: Regulador centrfugo de Watt


Transmisin
Mquina
de vapor
bolas

vlvula
-
+
Figura 1.11: Diagrama de bloques: Regulador de Watt
Introduccion a los sistemas de control. 17
El interes que suscita en su tiempo la maquina de Watt es grande, puesto
que en ella se presentan los problemas de estabilidad a los que se aluda en los
apartados 1.4 y 1.5. Tan es as que James Clerk Maxwell, uno de los mayores
fsicos teoricos del siglo XIX se siente atrado por el problema y publica un trabajo
titulado On governors que constituye uno de los trabajos pioneros de la moderna
teora del control. Sin embargo, aparte de este trabajo, y alg un otro de Routh
a nales de siglo, no es hasta los a nos 30 del siglo pasado, cuando se acomete
de una manera sistematica el estudio de las tecnicas matematicas que permitan
estudiar y dise nar sistemas realimentados. Durante la Segunda Guerra Mundial,
la necesidad de construir sistemas de control altamente sosticados para nes
militares, condujo al desarrollo tanto en los Estados Unidos como en la antigua
Union Sovietica, de lo que hoy se conviene en llamar teora clasica de los ser-
vomecanismos, y que se estudiara mas adelante en este curso. En aquellos a nos
Norbert Wiener publica la importante obra Cibernetics, en la que se recalca el
caracter fundamental de la nocion de realimentaci on como concepto cientco.
La teora clasica de los servomecanismos tiene enormemente limitadas su posi-
bilidades de aplicacion por cuanto que la clase de sistemas a las que se aplica es
reducida. En ello determino la realizacion de estudios teoricos que permitiesen
construir una teora de sistemas que abarcarse una clase mas amplia de los mis-
mos. Con ello se ha llegado al desarrollo de la teora moderna del control, basada
sobre la nocion de estado, y que se estudiara con detenimiento a lo largo de este
curso.
1.9.1 Control, informatica y telecomunicaciones.
A menudo se confunden las disciplinas de control automatico e informatica, ha-
biendo visiones superciales que consideran el control como una aplicacion de las
tecnologas de la informacion y comunicaciones. La raz de esto se halla en las
siguientes razones:
El sistema de decision que dise nan los ingenieros de control para el gobierno
de los sistemas fsicos es un procesador de se nales, y por tanto un procesador
de informacion, como son las computadoras.
El advenimiento del microprocesador en los a nos 70 del siglo pasado y pos-
teriormente de los mas compactos microcontroladores, ha alterado signi-
cativamente los metodos del control automatico, de modo que apenas se
hace control sin la intervenci on de las computadoras: tanto en la fase del
analisis matematico como en la concepcion de los instrumentos encargados
Introduccion a los sistemas de control. 18
del control. De hecho, una ley de control, en muchos casos, se especica en
forma de algoritmo, que se traduce a su vez en una lista de instrucciones o
programa ejecutandose en la unidad central de una computadora industrial.
Las teoras para el modelado matematico y dise no de sistemas de control
han sufrido una gran transformacion en las ultimas decadas, con el n incor-
porar el potencial, las particularidades y limitaciones de las computadoras.
En este sentido, conceptos como sistemas operativos de tiempo real, concur-
rencia de procesos, planicacion de tareas, velocidad de proceso, algoritmos
en tiempo discreto, lenguajes, etc., se han convertido en terminos de uso
com un en control.
Conceptos tradicionalmente asociados a las telecomunicaciones como los
sistemas distribuidos, redes inalambricas, ruido, capacidad de transmision,
teora de la informacion, etc. cobran una importancia creciente en el n ucleo
de la teora del control. Otro hecho relevante es que la teora moderna del
control surgida en los a nos 30 tiene su base en el invento del amplicador
realimentado que impulso el desarrollo de la telefona a gran distancia.
Sin embargo es conveniente recordar, como se desprende del apartado ante-
rior, que el control realimentado es anterior a la invenci on de la computadora
digital y, con anterioridad a ella, se han implementado controladores con cir-
cuitos analogicos y otras tecnologas. De hecho en la actualidad se implementan
sistemas de control realimentado carentes de elementos de computacion, como
son los termostatos.
Armar que el control es una aplicacion de las tecnologas de informacion
sera invertir el sentido de las cosas y exigira decir lo mismo de la arquitectura
o la medicina. Sucede simplemente que todas las actividades de caracter tecnico
o cientco han evolucionado y se han beneciado enormemente de la magnca
herramienta que es la informatica.
En cualquier caso, la teora del control automatico se desarrolla en buena parte
al margen de los dispositivos fsicos donde se van a implementar, y a menudo
los metodos del control sobreviven a las computadoras y lenguajes concretos
empleados en su realizacion.
Tema 2
Introduccion a los sistemas
realimentados
2.1 Servomecanismo de posicion
Vamos a dedicar esta seccion a analizar un tipo de sistema realimentado que
presenta particular interes: el servomecanismo de posicion. Con el se trata de
posicionar un eje, que esta asociado al eje de un motor, y que constituye la se nal
de salida del sistema. La se nal de entrada es otra posicion, que se pretende
que reproduzca el eje de salida del sistema. Se dispone de un mecanismo que
permite detectar la discrepancia entre las posiciones de entrada y de salida. Esta
discrepancia o error es amplicada convenientemente para activar el motor que,
actuando sobre el eje de salida, determina su movimiento hasta anular el error;
es decir, hasta conseguir alinear el eje de salida en la direccion indicada por el eje
de entrada.
u(t) amplificador
J
f
y(t)
Figura 2.1: Bucle abierto de un servomecanismo de posicion
19
Introduccion a los sistemas realimentados 20
En la gura 2.1 se muestra el bucle abierto de un servomecanismo. En ella
se pone de maniesto como, mediante una amplicador la se nal u(t) adquiere el
nivel adecuado para actuar sobre un motor, cuyo eje representa la posicion de
salida del servomecanismo. Este eje es solidario con una inercia J y una friccion
f.
En la gura 2.2 se muestra el bucle cerrado del servomecanismo. Al esquema
de la gura 2.1 se ha a nadido una se nal de referencia r(t) que se compara con
la salida del motor, y cuya discrepancia da lugar al error e, a partir del cual se
obtiene la se nal u(t).
y(t)
J
f
K
u(t) e(t) r(t) +
-
amplificador
Figura 2.2: Bucle cerrado de un servomecanismo de posicion
En la gura 2.1 se puede hacer la hipotesis de que el par del motor es propor-
cional a la se nal electrica de alimentacion del amplicador u(t). Con este supuesto
se puede escribir que la posicion del motor y(t) viene dada por la ecuacion difer-
encial:
J
d
2
y
dt
2
+ f
dy
dt
= u(t)
siendo en este caso y(t) el angulo girado por el motor, J la inercia del conjunto
motor-carga, y f el coeciente de friccion viscosa del mismo conjunto.
Para que un sistema de control realimentado act ue aceptablemente, necesita
satisfacer unas determinadas especicaciones de funcionamiento, tanto para su
regimen permanente como para su transitorio que, normalmente, no se consigue
con los elementos que consituyen el bucle de control.
Hay veces en que un simple aumento de la ganancia estatica es suciente
para lograr precision, sin que se afecte demasiado a las caractersticas en estado
transitorio. No obstante, como lo normal es que estas se vean empeoradas con una
actuacion de este tipo, o en el mejor de los casos, no se consigan exactamente las
Introduccion a los sistemas realimentados 21
que se pretende que tenga el sistema, es por lo que se desarrollaran a continuaci on
los procedimientos de compensacion que se han dado en llamar en llamar clasicos
ya que fueron los primeros que se utilizaron.
Se emplean tres tipos de acciones:
Accion proporcional mas derivada (PD);
Accion proporcional mas integral (PI) y
Accion proporcional mas integral y mas derivada (PID).
2.2 Accion proporcional mas derivada (PD).
Tiene lugar cuando la se nal de mando del sistema es la suma de los terminos, pro-
porcional y derivado de la se nal de error. En este caso se dice que la compensacion
es del tipo PD.
Considerese el servomecanismo elemental descrito en el parrafo anterior. Se
va estudiar el caso en que la se nal de mando sea proporcional al error y a su
derivada, es decir el caso en que se tenga una accion PD. La se nal de mando sera,
por lo dicho,
u(t) = K e + K
d
de
dt
quedando
J
d
2
y
dt
2
+ f
dy
dt
= Ke + K
d
de
dt
(2.1)
y como e = r y
J
d
2
y
dt
2
+ f
dy
dt
= Kr Ky + K
d
dr
dt
K
d
dy
dt
J
d
2
y
dt
2
+ (f + K
d
)
dy
dt
+ Ky = Kr + K
d
dr
dt
(2.2)
La ecuacion 2.1 muestra que el sistema es excitado ahora por la se nal de error
y por un impulso. La consecuencia inmediata es que el efecto corrector (inversi on
del par motor) se aplica antes que cuando el control era solo proporcional, como se
muestra en la guras 2.3.a y 2.3.b. En efecto, con control proporcional solamente,
Introduccion a los sistemas realimentados 22
el error cambia de signo en el punto f de la gura 2.3.b mientras que si la se nal
de error es del tipo PD indicado, el cambio de signo se verica en el instante g de
la gura 2.3.d, es decir, el par corrector se aplica antes de que la se nal de salida
llegue al valor de la de referencia. En consecuencia, la sobreoscilacion sera menor.
La red PD tiene as un caracter anticipativo, ya que en cierta manera se anticipa
a lo que va a ocurrir.
Esta misma consecuencia se pone de maniesto en la ecuacion 2.2, que muestra
la ecuacion diferencial del sistema en bucle cerrado. En ella se aprecia que el
coeciente de la primera derivada se ha incrementado en el valor K
d
, es decir, el
efecto ha sido aumentar la friccion del sistema primitivo y, por tanto, hacer que
el conjunto tenga una respuesta temporal con menor sobreoscilacion.
Por otro lado, tambien en la ecuacion 2.2 se aprecia que la parte no homogenea
de la ecuacion diferencial no es un escalon, sino un escalon mas un impulso. Ello
determina que el sistema responda mas rapidamente ya que no solo es sensitivo
a la referencia, sino que tambien lo es a su variaci on. Todo se pone de maniesto
observando las guras 2.4.
De lo anterior se desprenden las dos caractersticas esenciales de una accion
PD :
1. Disminucion de la sobreoscilacion
2. Disminucion del tiempo de subida
Estos efectos se han considerado para un caso particular y especialmente sim-
ple, el de un servomecanismo elemental de posicion. Sin embargo son igualmente
validos, en general, para una amplia variedad de sistemas fsicos.
2.3 Accion proporcional mas integral (PI).
En este caso, la se nal de mando es la suma de un termino proporcional y otro
integral, de la se nal de error.
u(t) = K e + K
i

t
0
e dt
Sea un sistema como el de la gura 2.5, al que se le ha incorporado una accion
integral en paralelo con la accion proporcional, es decir, se le ha dotado de una
accion PI.
Introduccion a los sistemas realimentados 23
(a)
(b)
(c)
(d)
(e)
y
r
t
f t
t
t
t
r
y
g
y
e +
de
dt
de
dt
e
y
Figura 2.3: Compensacion con PD.
Introduccion a los sistemas realimentados 24
(a)
(b)
y
y
t
r
t
r
respuesta a Kr
respuesta a K
d
dr
dt
respuesta a Kr + K
d
dr
dt
Figura 2.4: Respuesta temporal con red PD.

+
K
e +
K
i

G(s)
Figura 2.5: Diagrama de un sistema con regulacion PI
Introduccion a los sistemas realimentados 25
Supongase que a dicho sistema, en un regimen estacionario, se le aplica un par
externo P
e
sobre la carga, es decir, sobre el eje de salida. El sistema reaccionara
tratando de anular dicho par puesto que la aplicacion del mismo, determina la
aparicion de un error, el cual alimenta al motor y le obliga a sumintrar un par
creciente con el tiempo. Si la accion de la red fuese solo proporcional, es claro
que el equilibrio se alcanzaria cuando el par generado por el motor fuese igual al
aplicado externamente.
Interesa ver con cierto detenimiento lo que ocurre cuando la accion de mando
es del tipo PI. Para ello, en primer lugar, se establecen las ecuaciones que rigen
la evoluci on del sistema y que resultan ser
J
d
2
y
dt
2
+ f
dy
dt
+ P
e
= Ke + K
i

t
0
e dt
siendo P
e
el par externo aplicado y e = r y
Eliminado y se tiene
P
e
+ J
d
2
r
dt
2
J
d
2
e
dt
2
+ f
dr
dt
f
de
dt
= Ke + K
i

t
0
e dt
P
e
+ J
d
2
r
dt
2
+ f
dr
dt
= J
d
2
e
dt
2
+ f
de
dt
+ K e + K
i

t
0
e dt
Si la referencia es un escalon, se tendra que
dr
dt
= 0 y
d
2
r
dt
2
= 0
En el regimen permanente, cuando t , si la introduccion del integrador
no ha hecho inestable al sistema, se tendra que
de
dt
= 0 y
d
2
e
dt
2
= 0
con lo cual,
P
e
= K e
p
+ K
i


0
e dt
Introduccion a los sistemas realimentados 26
Como P
e
es nito, la unica forma de que se cumpla la ecuacion anterior es
que e
p
= 0 ya que en caso contrario,

0
edt . En consecuencia, el sistema
reacciona eliminando el error en regimen permanente (e
p
).
Por lo dicho, una red PI mejora considerablemente el regimen permanente, no
solo de una manera cuantitativa, sino esencialmente cualitativa por cuanto que
cambia el tipo del sistema, es decir, no es que el sistema se mejore, sino que se
convierte en otro, de caractersticas distintas.
La interpretaci on fsica del fenomeno es muy simple. La aplicacion del par
externo P
e
, tiende a separar la posicion del eje de salida del valor en que la
ha jado la se nal de referencia (gura 2.6.a). Ello trae consigo la aparicion del
consiguiente error (gura 2.6.b).
Si la se nal de actuacion sobre el sistema es proporcional al error, mas su
integral, se aplica una se nal tal como la que se muestra en la gura 2.6.d. El
fenomeno que se produce entonces puede interpretarse diciendo que el par del
motor empezara a crecer hasta que vence al que se aplica exteriormente. La
evolucion del error y de la se nal de salida se muestran en las guras 2.6.e y 2.6.f.
Observese como es el elemento integrador el que mantiene la se nal sobre el motor
para que este venza al par exterior.
Introduccion a los sistemas realimentados 27
a)
b)
c)
d)
e)
f)
r

t
z
t
e

edt
t
e +

edt
t

edt
z e
t

r
t
Figura 2.6: Respuesta temporal a red PI
Tema 3
Sistemas dinamicos lineales
3.1 Transformaci on de Laplace
En esta seccion vamos a repasar la transformada de Laplace que suministra una
herramienta de gran interes para el estudio de los sistemas cuya descripcion
matematica viene dada por ecuaciones lineales invariantes en el tiempo.
3.1.1 Denicion
El metodo de la transformada de Laplace es un metodo opcional que puede uti-
lizarse con ventaja para la resolucion de ecuaciones diferenciales lineales. La
transformada de Laplace se dene como:
L[f(t)] = F(s) =


0
f(t)e
st
dt
f(t) es una funcion del tiempo tal que f(t) = 0 para t < 0, s = + jw una
variable compleja y L un simbolo operacional. La existencia de la transformada
F(s) esta condicionada a la convergencia de la integral.
Si existe una constante real y positiva tal que para >
c
, e
t
[ f(t) [
tiende a cero cuando t , mientras que para <
c
tiende a innito. El
valor
c
recibe el nombre de abscisa de convergencia. La integral converge, y por
tanto existe la transformada de Laplace, si la parte real de s, () es mayor que la
28
Sistemas dinamicos lineales 29
abscisa de convergencia
c
.
En termino de los polos de la funcion F(s), la abscisa de convergencia
c
,
corresponde a la parte real del polo mas alejado hacia la derecha en el plano s.
A la funcion f(t) se la conoce como la anti-transformada de Laplace, F(s) y
se expresa as,
f(t) = L
1
[F(s)]
En la tabla siguiente se tienen las transformadas de Laplace de las funciones
mas usuales en automatica.
Tabla de Transformadas de Laplace
Se nal f(t) F(s)
Impulso (t) 1
Escalon 1 (t 0)
1
s
Rampa t(t 0)
1
s
2
Par abola t
2
(t 0)
2
s
3
Rampa de orden n t
n
(t 0)
n!
s
n
Decrecimiento exponencial e
t 1
(s+)
Onda sinusoidal sent

(s
2
+
2
)
Onda cosenoidal cost
s
(s
2
+
2
)
Sinusoide con decrecimiento exponencial e
t
sent

((s+)
2
+
2
)
Cosenoide con decrecimiento exponencial e
t
cost
s+
((s+)
2
+
2
)
3.1.2 Resumen de Propiedades
1. Linealidad: Si F
1
(s) y F
2
(s) son las transformadas de f
1
(t) y f
2
(t), F
1
(s)+
F
2
(s) es la transformada de Laplace de f
1
(t) +f
2
(t), seg un se desprende de
la denicion.
2. Derivacion real: Si L[f(t)] = F(s), entonces
L

df(t)
dt

= sF(s) f(0)
Sistemas dinamicos lineales 30
En efecto, como F(s) =

0
f(t) e
st
, realizamos la integracion por partes
haciendo
u = f(t) ; du = f

(t) dt ; v =

e
st
dt =
1
s
e
st
y dv = e
st
dt

u dv = uv

vdu
por lo que resulta,


0
f(t) e
st
dt =

f(t)e
st
s

1
s
e
st
f

(t)dt =
F(s) =
f(0)
s
+
1
s


0
f

(t) e
st
dt, pero


0
f

(t) e
st
dt = L[f

(t)]
luego:
L[f

(t)] = sF(s) f(0) c.q.d.


3. Integracion real: Si L[f(t)] = F(s),
L

t
0
f() d

=
F(s)
s
+

f(0) dt
s
Si en la expresion F(s) =

0
f(t) e
st
dt se hace:
u = e
st
; du = se
st
dt
v =

f(t) dt; dv = f(t)dt


se tiene que,
F(s) =


0
f(t)e
st
dt =

e
st

f(t)dt


0
se
st

f(t)dt

dt =
=

f(0)dt + s

f(t)dt

e
st
dt ;
Sistemas dinamicos lineales 31
y como

f(t)dt

e
st
dt = L

f(t)dt

=
L

f(t)dt

=
F(s)
s
+

f(0)dt
s
c.q.d.
4. Teorema del valor nal:
Hay veces en que hechas las operaciones precisas con la ecuacion trans-
formada, interesa conocer el valor de la funcion f(t) cuando t , que
en el caso de un servosistema, correspondera al regimen permanente. El
procedimiento consistira en hallar la antitransformada y hacer que t .
El procedimiento es laborioso y resulta mucho mas comodo vericar el valor
de la variable sobre la propia ecuacion transformada.
Supondremos que existe L[f(t)] y L[f

(t)] y demostraremos que,


lim
t
f(t) = lim
s0
sF(s)
Sabemos que


0
f

(t)e
st
dt = sF(s) f(0) haciendo que s 0
lim
s0


0
f

(t)e
st
dt = lim
s0
[sF(s) f(0)] (3.1)
pero lim
s0


0
f

(t)e
st
dt =


0
f

(t)dt = lim
t

t
0
f

()d =
= lim
t
[f(t) f(0)]
y sustituyendo en 3.1, se tiene,
lim
t
[f(t) f(0)] = lim
s0
[sF(s) f(0)]
y como f(0) no depende de t ni de s, queda,
lim
t
f(t) = lim
s0
sF(s) c.q.d.
Sistemas dinamicos lineales 32
5. Teorema del valor inicial:
Si lo que nos interesa conocer del sistema es su comportamiento cuando
t 0, que correspondera en un servosistema a conocer su comportamiento
transitorio, se puede hallar tambien sobre la ecuacion transformada, ya que
lim
t0
f(t) = lim
s
sF(s)
Al igual que antes, en la expresion
L[f

(t)] =


0
f

(t)e
st
dt = sF(s) f(0) hacemos que s
lim
s


0
f

(t)e
st
dt = lim
s
[sF(s) f(0)]
y como el primer miembro es cero, lim
s
sF(s) = lim
s
f(0) = f(0) ya
que f(0) no depende de s y como f(0) es lim
t0
f(t) quedara
lim
t0
f(t) = lim
s
sF(s) c.q.e.
6. Integral de Convolucion:
Sean
F
1
(s) = L[f
1
(t)] y F
2
(s) = L[f
2
(t)]
El producto de ambas,
F
1
(s) F
2
(s) =


0
f
1
(t)e
st
dt


0
f
2
()e
s
d =
(3.2)
=


0
f
1
(t)f
2
()e
s(t+)
dt d (3.3)
Haciendo el cambio de variables,
t = u v
= v
v =
u = t +
el Jacobiano de la transformacion vale,
J(
t,
u, v
) =

t
u
t
v

1 1
0 1

= 1
Sistemas dinamicos lineales 33
Como t > 0, u > v luego v viariara de 0 a u.
La ecuacion 3.3 queda
F
1
(s) F
2
(s) =

u
0
f
1
(u v) f
2
(v)e
su
dv du =
=

u
0
f
1
(u v) f
2
(v)dv

e
su
du
luego
F
1
(s) F
2
(s) = L

u
0
f
1
(u v) f
2
(v) dv

La expresion encerrada en el corchete se conoce como integral de convoluci on


y representa la antitransformada del producto de dos transformadas.
3.1.3 Calculo de antitransformadas
Con el calculo de antitransformadas se pretende determinar a partir de la trans-
formada de Laplace F(s) la correspondiente antitransformada; es decir,
f(t) = L
1
[F(s)]
La transformada posee solo polos reales y simples
Supongase que el denominador de la funcion de la que se quiere hallar la anti-
transformada, F(s), es de la forma
d(s) = (s + p
1
)(s + p
2
) . . . (s + p
n
)
de modo que los diferentes p
i
son reales y diferentes entre si. En tal caso la
funcion F(s) admite una descomposicion en fracciones simples de la forma
F(s) =
n(s)
d(s)
=
a
1
s + p
1
+
a
2
s + p
2
+ . . . +
a
n
s + p
n
los coecientes a
i
reciben la denominacion de residuos de F(s) en s = p
i
. Multi-
plicando los dos miembros de la expresion anterior por (s+p
i
) y haciendo s = p
i
se tiene
Sistemas dinamicos lineales 34
a
i
=

n(s)(s + p
i
)
d(s)

s=p
i
puesto que se sabe, de la tabla de transformadas, que
L
1
=

a
i
(s + p
i
)

= a
i
e
p
i
t
se tiene que
f(t) = a
1
e
p
1
t
+ a
2
e
p
2
t
+ . . . a
n
e
p
n
t
En esta expresion se pone de maniesto que a cada p
i
se asocia una funcion
(una trayectoria o un comportamiento) de la forma e
p
i
t
. Estas funciones reciben
la denominacion de modos naturales del sistema. Se dice que un modo natural es
asintoticamente estable si p
i
0.
Ejemplo Sea la transformada de Laplace
F(s) =
(s + 3)
(s + 1)(s + 2)
se tiene que los residuos resultan ser
a
1
=

(s + 3)
(s + 2)

s=1
= 2
a
2
=

(s + 3)
(s + 1)

s=2
= 1
luego
f(t) = 2e
t
e
2t
t 0
La transformada posee polos complejos
Supongamos ahora que la transformada de Laplace posee un par de polos com-
plejos conjugados p
1
y p
1
. En tal caso la descomposicion en fracciones simples
tomara la forma:
Sistemas dinamicos lineales 35
F(s) =
n(s)
d(s)
=

1
s +
2
(s + p
1
)(s + p
1
)
+
a
3
s + p
3
+ . . . +
a
n
s + p
n
Si se multiplican los dos miembros de esta expresion por (s +p
1
)(s + p
1
), y se
hace s = p
1
, se tendra:
(
1
s +
2
)
s=p
1
=

n(s)(s + p
1
)(s + p
1
)
d(s)

s=p
i
Esta expresion permite determinar
1
y
2
igualando partes reales e imagi-
narias.
Para hallar la antitransformada correspondiente al termino asociado al par
complejo basta recordar que:
L
1


((s + )
2
+
2
)

= e
t
sent
L
1

s +
((s + )
2
+
2
)

= e
t
cost
En concreto, si se supone:
p
1
= a + j y p
1
= a j
se tendra

1
s +
2
(s + p
1
)(s + p
1
)
=

1
s +
2
(s + a + j)(s + a j)
=

s + a
((s + a)
2
+
2
)

+
(
2

1
a)


((s + )
2
+
2
)

Ejemplo
Sea la transformada de Laplace
F(s) =
(s + 1)
s(s
2
+ 2s + 2)
Sistemas dinamicos lineales 36
Se tiene:
a
3
=

(s + 1)
(s
2
+ 2s + 2)

s=0
=
1
2
Por tanto,
F(s) =
1
2
1
s

1
2
s
s
2
+ 2s + 2
=
1
2
1
s

1
2
s
(s + 1)
2
+ 1
=
1
2
1
s

1
2
s + 1
(s + 1)
2
+ 1
+
1
2
1
(s + 1)
2
+ 1
De donde se tiene,
f(t) =
1
2

1
2
e
t
cost +
1
2
e
t
sent t 0
La transformada posee polos m ultiples
Supongase que una de las raices del polinomio del denominador de la transformada
de Laplace es m ultiple. Por ejemplo, supongase que la raiz p
1
tiene multiplicidad
r. En tal caso el denominador admitira la descomposicion:
d(s) = (s + p
1
)
r
(s + p
2
) . . . (s + p
n
)
En tal caso, la transformada de Laplace admite la descomposicion:
F(s) =
n(s)
d(s)
=
b
r
(s + p
1
)
r
+
b
r1
(s + p
1
)
r1
+ . . . +
b
1
s + p
1
+
a
2
s + p
2
+ . . . +
a
n
s + p
n
Si se multiplican los dos miembros de esta expresion por (s + p
1
)
r
se tendra:
b
i
=

n(s)(s + p
1
)
r
d(s)

s=p
1
Observese que
(s+p
1
)
r
F(s) = b
r
+b
r1
(s+p
1
)+. . .+b
1
(s+p
1
)
r1
+
a
2
(s + p
1
)
r
s + p
2
+. . .+
a
n
(s + p
1
)
r
s + p
n
derivando esta expresion con respecto a s se tiene
Sistemas dinamicos lineales 37
d
ds
[(s + p
1
)
r
F(s)] = b
r1
+ 2b
r2
(s + p
1
) . . . + (r 1)b
1
(s + p
1
)
r2
+
d
ds

a
2
(s + p
1
)
r
s + p
2

+ . . . +
d
ds

a
n
(s + p
1
)
r
s + p
n

y haciendo en esta expresion s = p


1
se tiene
d
ds
[(s + p
1
)
r
F(s)]
s=p
i
= b
r1
Derivando de nuevo con respecto a s y procediendo analogamente se tiene
b
r2
=
1
2
d
2
ds
2
[(s + p
1
)
r
F(s)]
s=p
1
En general se tendra
b
rj
=
1
j!
d
j
ds
j
[(s + p
1
)
r
F(s)]
s=p
1
Ejemplo
Sea
F(s) =
s
2
+ s + 2
(s + 1)
3
que se desconpone
F(s) =
b
3
(s + 1)
3
+
b
2
(s + 1)
2
+
b
1
(s + 1)
Se tendra
b
3
= [s
2
+ s + 2]
s=1
= 2
b
2
= [2s + 1]
s=1
= 1
b
1
= 1
Por tanto
F(s) =
2
(s + 1)
3

1
(s + 1)
2
+
1
(s + 1)
De donde se tiene,
f(t) = (t
2
t + 1)e
t
Sistemas dinamicos lineales 38
3.2 Nocion de sistema dinamico.
Uno de los conceptos basicos empleados en automatica es el de sistema. En el
lenguaje ordinario se entiende por sistema una coleccion de objetos unidos por
cierta forma de interacci on o interdependencia. En el contexto de la automatica
el concepto de sistema adquiere un signicado mas preciso.
Considerese un objeto fsico, , por ejemplo un motor electrico, al cual apare-
cen asociadas una serie de magnitudes, como pueden ser su velocidad de giro, la
intensidad que alimente el inducido, etc. Desde el punto de vista que interesa en
automatica lo que conviene de son las relaciones matematicas entre las distin-
tas magnitudes m
1
(t), m
2
(t)...m
n
(t) que se asocian a dicho objeto fsico. Estas
relaciones constituyen un objeto abstracto, por abstraccion de unas caractersticas
de un objeto fsico.
En automatica los objetos fsicos que intervienen son tales que las magnitudes
fsicas que a ellos se asocian se pueden clasicar en dos grupos:
1. magnitudes cuyo valor puede ser variado directamente desde el exterior del
objeto fsico, que reciben el nombre de se nales de entrada, de control, de
mando o estmulos; y
2. magnitudes cuyo valor puede ser medido pero cuya variaci on es indirecta,
a traves de las se nales de entrada, y que reciben el nombre de se nales de
salida, de observaci on o respuestas.
Para denotar a las se nales de entrada se emplea u(t), y para las se nales de salida
se emplea y(t), siendo, en general, u(t) e y(t) vectores.
Se entiende por sistema

el objeto abstracto formado por las relaciones que
ligan las se nales u(t) e y(t). Un sistema se presenta en forma esquematica como se
hace en la gura 3.1, representacion que recibe el nombre de diagrama funcional
del sistema. Denido as un sistema representa una formalizacion del uso vulgar
de este termino.
El problema de la representaci on matematica de los sistemas se reduce a
encontrar la forma matematica, bien sea una ecuacion o, de forma mas general,
un algoritmo, que permita generar los pares de se nales u(t), y(t) que denen el
sistema.
Las se nales u(t) e y(t) pueden registrarse o bien de una manera contnua en el
Sistemas dinamicos lineales 39

u(t)
y(t)
Figura 3.1: Sistema dinamico
tiempo, o bien de una forma discontnua, es decir tomando medidas cada cierto
intervalo de tiempo. En el primer caso se tienen los llamados sistemas en tiempo
contnuo y en el segundo los sistemas en tiempo discreto. Estos ultimos tienen
un particular interes practico cuando se emplean computadores puesto que estas
maquinas trabajan de una forma discreta.
3.3 Formas de las relaciones entrada-salida en
sistemas.
Se ha indicado en la seccion 3.2, que un sistema esta formado por las relaciones
matematicas que ligan las se nales u(t) e y(t) que lo denen. En esta seccion se
van a considerar algunas formas matematicas de las relaciones que ligan a las
se nales u(t) e y(t) en tipos de sistemas com unmente encontrados en la practica.
Sin embargo, en el resto de estos apuntes solo se estudiara una de las clases
consideradas en esta seccion. Una posible primera clasicacion elemental de las
relaciones que ligan a las se nales de entrada y salida de los sistemas, es en sistemas
estaticos y sistemas dinamicos.
3.3.1 Sistemas estaticos.
El caso mas simple de relacion entre las se nales u(t) e y(t) es aquel en que esta se
reduce a una ecuacion algebrica. Por una consideracion elemental de realizabili-
dad fsica es claro que en tal caso se podra escribir:
y(t) = Fu(t) (3.4)
en donde, para los casos de interes practico F. es una funcion uniforme. Los
sistemas que admiten esta forma de representaci on reciben el nombre de sistemas
Sistemas dinamicos lineales 40
estaticos, y son aquellos en los que el valor que toma la se nal de salida y(t), en un
cierto tiempo t depende exclusivamente del valor tomado por la se nal de entrada
u(t) en dicho instante de tiempo t, y no de los valores tomados por u(t) en el
pasado.
Los sistemas logicos combinacionales, constituyen un ejemplo de sistemas
estaticos denidos por la propiedad de que las se nales de entrada u(t) y salida
y(t) toman sus valores del conjunto nito U = Y = 0, 1. Para la representacion
matematica de los sistemas logicos combinacionales se recurre a tablas en las que
se indican para cada combinaci on posible de los valores de las se nales de entrada,
los correspondientes de la se nales de salida. Desde un punto de vista matematico
estas tablas constituyen una de las formas mas simples de representar una funcion.
3.3.2 Sistemas dinamicos
Normalmente las relaciones que ligan las magnitudes fsicas que denen un sis-
tema no son ecuaciones algebraicas, que conducen a sistemas estaticos, sino ecua-
ciones diferenciales. Ello es debido a que la mayor parte de las leyes de la fsica
se expresan por medio de esta clase de ecuaciones.
Aqu se consideraran exclusivamente las ecuaciones diferenciales de la forma,
d
n
y
dt
n
+ ... + a
n1
dy
dt
+ a
n
(t)y = b
0
(t)
d
n
u
dt
n
+ ... + b
n
(t)u (3.5)
llamadas ecuaciones diferenciales lineales. El hecho de limitarse a esta clase de
ecuaciones diferenciales es debido a:
1. solo para esta clase de sistemas es posible establecer, en la actualidad, una
teora que sea a la vez general y simple; y
2. al menos en una primera aproximacion, gran parte de los sistemas encon-
trados en la practica admiten esta forma de representaci on.
Cabe considerar que la teora de sistemas lineales es a la teora de sistemas no-
lineales, como la geometra euclidea es a las formas de geometra no-euclidea. Es
sabido que la geometra euclidea es un util de un interes practico incuestionable;
lo mismo sucede con la teora de los sistemas lineales.
Otra relacion entre la entrada y salida de un sistema es la que presentan las
ecuaciones en diferencias nitas. De ellas las que mayor interes tienen son, por
Sistemas dinamicos lineales 41
consideraciones semejantes a las realizadas mas arriba respecto a las ecuaciones
diferenciales lineales, las ecuaciones en diferencias nitas lineales cuya forma gen-
eral es,
y(t+n)+... +a
m1
y(t+1)+a
m
y(t) = b
0
u(t+n)+... +b
n1
u(t+1)+b
m
u(t) (3.6)
Los sistemas descritos por las ecuaciones en diferencias nitas son sistemas en
tiempo discreto, en los que la escala de tiempos toma solo una serie de valores
discretos. Esta forma de relacion se presenta en aquellas aplicaciones en las que
se emplean computadores.
Por ultimo cabe recordar como otra forma de relacion entre las se nales de
entrada y salida de un sistema la que ofrecen los diagramas de estados de los
circuitos logicos secuenciales (o, mas general, de los automatas). En dichos dia-
gramas se tena representada la evolucion de las se nales de entrada u(t) y de salida
y(t) de un sistema cuya caracterstica adicional es que las se nales de entrada y
de salida solo podran tomar sus valores de un conjunto nito.
Los sistemas descritos por ecuaciones diferenciales, por ecuaciones en difer-
encias nitas, o por diagramas de estados reciben la denominacion de sistemas
dinamicos y en ellos el valor tomado por la se nal de salida y(t), en un cierto
instante de tiempo t depende del valor tomado por u(t), no solo en el instante t
(como suceda en los estaticos), sino en todos los instantes anteriores a t.
En ellos, por lo tanto, la consideracion del tiempo juega un papel esencial. De
ah la denominacion de dinamicos. Observese que los sistemas estaticos pueden
considerarse como una forma particular y degenerada de los dinamicos por lo que
son estos ultimos los unicos que se consideran en lo que sigue.
En estos apuntes no se trataran explcitamente, los sistemas logicos secuen-
ciales. No obstante si estos son lineales son susceptibles de ser estudiados con las
tecnicas aqu desarrolladas. Sin embargo, ello no se hara aqu de forma explcita.
La forma de representacion de los sistemas dinamicos por ecuaciones difer-
enciales, o por ecuaciones en diferencias nitas, no tiene interes practico para el
desarrollo de la automatica. Para el estudio de los sistemas dinamicos se han de-
sarrollado dos formas peculiares de representaci on, que son la descripcion externa
y la descripcion interna que se pasan a estudiar a continuacion.
Sistemas dinamicos lineales 42
3.4 Descripcion externa de los sistemas dinami-
cos.
Puesto que las se nales que denen un sistema dinamico son las de entrada u(t) y
las de salida y(t) interesa disponer de una relacion explicita directa entre ambas.
Esta relacion la suministra la descripcion externa que se dene por una funcion
de entrada-salida F tal que hace corresponder al conjunto de valores tomados por
la se nal de entrada u en un cierto intervalo (t
0
, t), el valor tomado por la salida
y(t) en el instante t. Formalmente se puede escribir,
y(t) = F(u[t
0
, t]) (3.7)
en donde F(.) es un funcional, es decir una funcion cuyo argumento lo constituye
el conjunto de valores tomados por u(t) en el intervalo (t
0
, t).
Desde el punto de vista de la descripcion externa un sistema dinamico lineal
se dene cono aquel que cumple la propiedad de linealidad, en virtud de la cual,
F (
1
u
1
[t
0
, t] +
2
u
2
[t
0
, t]) =
1
F (u
1
[t
0
, t]) +
2
F (u
2
[t
0
, t])
en donde
1
,
2
son n umeros reales arbitrarios. Esta propiedad recibe tambien,
impropiamente, la denominacion de principio de superposicion.
Habitualmente se emplean dos formas de descripcion externa: la respuesta
impulsional y la funcion de transferencia.
3.4.1 Respuesta impulsional.
Una forma de escribir la solucion a una ecuacion diferencial como la de la ex-
presion (3.5) es la siguiente:
y(t) =

h(t, )u()d (3.8)


en donde h(t, ) recibe el nombre de respuesta impulsional del sistema. La ex-
presion (3.8) es una forma de descripcion externa de un sistema dinamico ya que
corresponde al caso de una funcion lneal.
La respuesta impulsional de un sistema puede tener las siguientes propiedades:
Sistemas dinamicos lineales 43
1. Propiedad de causalidad o realizabilidad, en virtud de la cual un efecto
no puede preceder a una causa, lo que implica que
h(t, ) = 0 para t <
2. Propiedad de estabilidad, en virtud de la cual la estabilidad del sistema
exige la convergencia de (3.8), lo que se traduce en
lim
t
h(t, ) = 0
3. Propiedad de estacionaridad, en virtud de la cual el sistema es invariante
con el tiempo, lo que se traduce en que
h(t, ) = h(t , 0) = h(t )
Ejemplo:
Sea el sistema dinamico descrito por la ecuacion diferencial,
dy
dt
+ ay = bu
En donde a y b son dos n umeros reales. La solucion de esta ecuacion de la
forma de la expresion (3.8) es la siguiente,
y(t) =

e
a(t)
b u()d
En donde la respuesta impulsional h(t, ) = be
a(t)
, es claro que cumple las
propiedades de causalidad, estabilidad y estacionaridad.
La respuesta impulsional admite un signicado adicional muy preciso. Supongase
un sistema con una sola entrada y una sola salida. Supongase, ademas, que dicho
sistema se somete a la siguiente se nal de entrada:
u(t) = (t
1
)
en donde (t) es la funcion de Dirac. En tal caso se tiene que,
y(t) = h(t, t
1
)
Sistemas dinamicos lineales 44

t

y
(
t
)
Figura 3.2: Respuesta Impulsional
si el sistema no es estacionario o
y(t) = h(t t
1
)
si el sistema es estacionario.
En la gura 3.2 se muestra la respuesta impulsional del sistema del ejemplo
anterior. De lo anterior se desprende que la respuesta impulsional de un sis-
tema es determinable experimentalmente en la medida en que se pueda realizar
fsicamente una se nal de entrada u(t) = (t). Es sabido que esta ultima no tiene
signicado fsico, pero sin embargo se pueden concebir aproximaciones acepta-
bles. Debe a nadirse que en la practica como realmente se miden las respuestas
impulsionales es por las tecnicas de correlacion que no se van a tratar aqu.
Para sistemas multivariables, con m entradas y p salidas, la respuesta im-
pulsional es una matriz, de dimension p m, cuyo termino h
i,j
representa la
respuesta del i-esimo canal de salida, cuando se aplica una entrada u(t) = (t) al
canal j-esimo, siendo nulas el resto de las entradas.
3.4.2 Funci on de transferencia.
Para los sistemas lineales estacionarios existe una forma de descripcion externa
muy empleada en la practica: la funcion (matriz) de transferencia. Se puede
Sistemas dinamicos lineales 45
denir la funcion de transferencia como la transformada de Laplace de la respuesta
impulsional de un sistema.
H(s) =


0
h()e
s
d (3.9)
Aplicando la transformacion de Laplace a la expresion (3.8), para el caso de
un sistema estacionario, se tiene
Y (s) = H(s) U(s) (3.10)
en donde Y (s) y U(s) son, respectivamente, las transformadas de Laplace de las
se nales de entrada y salida.
En la practica la funcion de transferencia se determina directamente a partir
de la ecuacion diferencial. Un punto muy importante a considerar es que esta
determinacion se hace suponiendo condiciones iniciales nulas para las se nales u(t)
e y(t).
Ejemplo:
Sea el sistema descrito por la ecuacion diferencial,
d
2
y
dt
2
+ a
1
dy
dt
+ a
2
y = bu
La transformada de Laplace de los distintos terminos de la ecuacion es la
siguiente,
s
2
Y (s) + a
1
sY (s) + a
2
Y (s) = bU(s)
Con lo que se tiene,
Y (s)
U(s)
= H(s) =
b
s
2
+ a
1
s + a
2
es decir que la transformacion de Laplace de la respuesta impulsional es la
funcion de transferencia.
Para el caso de sistemas multivariables con m entradas y p salidas la funcion de
transferencia se convierte en una matriz cuyo termino H
ij
representa el cociente
Sistemas dinamicos lineales 46
entre la transformada de Laplace de la se nal de salida que se obtiene por el canal
i y la transformada de Laplace de la se nal de entrada que se aplica al canal j,
supuestas nulas las otras se nales de entrada.
3.5 Sistemas de control realimentados
Un sistema de control realimentado se representa esquematicamente como se in-
dica en la gura 3.3. Sobre este esquema vamos a recordar una serie de conceptos
que consideramos de interes.
K
G(s)
H(s)
`

d
d
d
d

E E E E
T
'
r(t) + e u y(t)
m
Figura 3.3: Sistema de Control realimentado
Cadena directa o de accion, es la que une los elementos comprendidos
entre la se nal de error y la de salida. Ambas se nales estan relacionadas por
la expresion,
Y (s)
E(s)
= KG(s)
siendo G(s) la funcion de transferencia del sistema considerado.
Cadena de realimentaci on, es la que une la se nal de salida con la de
informacion m(t), que es comparada con la de referencia. Ambas se nales se
relacionan as,
Sistemas dinamicos lineales 47
M(s)
Y (s)
= H(s)
En este caso H(s) es la funcion de transferencia de la cadena de reali-
mentacion.
Se llama bucle abierto, al conjunto de elementos que constituyen todo
el sistema, si este se abriese por el punto m(t), es decir, como si la se nal
de entrada fuese e(t) y la de salida m(t). La funcion de transferencia del
conjunto as dispuesto sera
M(s)
E(s)
= KG(s)H(s)
Se llama bucle cerrado, al sistema conectado como se indica en la gura
3.3. Las se nales y(t) y r(t) se relacionan por la conocida formula, facil de
deducir,
Y (s)
R(s)
=
KG(s)
1 + KG(s)H(s)
Observese que, en este caso, la se nal de actuacion sobre el sistema es pro-
porcional a la se nal de error. Se trata pues de un control proporcional (P).
El valor de la ganancia K del amplicador sera, por tanto, un parametro
susceptible de ser variado de acuerdo con las necesidades del problema.
En lo que sigue se supondra siempre que la cadena de realimentacion es
unitaria, con lo que el esquema fundamental quedara de la forma que se
indica en gura 3.4 y quedando la funcion de transferencia en bucle cerrado
reducida a
Y (s)
R(s)
=
KG(s)
1 + KG(s)
Naturalmente en este caso cadena de accion y bucle abierto son dos concep-
tos coincidentes.
Por el hecho de introducir una compensacion sobre el bucle antes mencionado,
el esquema se modica de alguna manera, como se muestra mas adelante. Se
distinguen dos tipos de compensacion:
Sistemas dinamicos lineales 48
K
G(s)
`

d
d
d
d

E E E E
T
r(t) + e u y(t)
m
Figura 3.4: Sistema de Control realimentado unitariamente
Compensacion en serie: Cuando el elemento corrector se coloca en cascada,
en la cadena de accion; y
Compensacion por realimentacion: Cuando el elemento corrector constituye
una segunda cadena de realimentaci on, en el bucle de control.
Los esquemas basicos para uno y otro caso se muestran, respectivamente, en
las guras 3.5 y 3.6.
G
r
(s)
K
G(s)
`

E E E E E
T
r(t) + e u

u y(t)
m
Figura 3.5: Compensacion en serie
Como ya se ha indicado, en el caso de la compensacion en serie, la red correc-
tora se coloca en cascada con los elementos de la cadena de accion, y delante del
Sistemas dinamicos lineales 49
K
G(s)
G
r
(s)
`

d
d
d
d

d
d
d
d

E E E E E
T T
'
r(t) + e u y(t)
m
Figura 3.6: Compensacion por realimentacion
amplicador para que el nivel de potencia a que trabaje sea el del error, es decir,
bajo.
Tema 4
Interpretaciones de la funcion de
transferencia
4.1 Transformaci on de Fourier
Dada una funcion del tiempo periodica f
T
(t) de periodo T, se puede desarrollar
en serie de Fourier, de la forma:
f
T
(t) = a
0
+

n=1
(a
n
cos w
n
t + b
n
sen w
n
t)
donde w
n
=
2n
T
y los coecientes vienen dados por:
a
n
=
2
T

T/2
T/2
f
T
(t)cos w
n
tdt n = 0, 1, 2, ...
b
n
=
2
T

T/2
T/2
f
T
(t)sen w
n
tdt n = 1, 2, ...
supuesto que dichas integrales sean nitas.
Los coecientes a
n
y b
n
son funciones de w
n
, pero no del tiempo, por lo
que f
T
(t) queda denida mediante los modulos de los componentes armonicos
50
Interpretaciones de la funcion de transferencia 51
que lo integran; ahora bien, tomando como parametros, por agrupacion de las
componentes en seno y coseno de igual frecuencia los valores:
c
n
=

a
2
n
+ b
2
n

n
= tag
1

b
n
a
n

cada termino puede expresarse como


a
n
cos w
n
t + b
n
sen w
n
t = c
n
sen(w
n
t +
n
)
Por lo tanto, para denir f
T
(t) basta con especicar la amplitud y el desfase
que corresponde a cada frecuencia fundamental:
f
T
(t) = a
0
+

n=1
c
n
sen(w
n
t +
n
)
Una vez que se ha mostrado como f
T
(t) queda completamente denida con
a
0
, c
n
y
n
, pueden considerarse las relaciones,
cos =
e
j
+ e
j
2
; sen =
e
j
e
j
2j
Entonces, volviendo a tomar las ecuaciones de denicion,
a
n
cos w
n
t + b
n
sen w
n
t = a
n
e
jw
n
t
+ e
jw
n
t
2
+ b
n
e
jw
n
t
e
jw
n
t
2j
=
=
(a
n
jb
n
)
2
e
jw
n
t
+
(a
n
+ jb
n
)
2
e
jw
n
t
y efectuando analogas consideraciones con las integrales de denicion de a
n
y
b
n
a
n
jb
n
2
=
1
T

T/2
T/2
f
T
(t)e
jw
n
t
dt
Interpretaciones de la funcion de transferencia 52
a
n
+ jb
n
2
=
1
T

T/2
T/2
f
T
(t)e
jw
n
t
dt
Es decir
a
n
jb
n
2
tiene una expresion identica a
a
n
+jb
n
2
sin mas que cambiar w
n
por w
n
, esto es, n por -n, luego sustituyendo en el desarrollo en serie, puede
escribirse
f
T
(t) =
1
T

n=

T/2
T/2
f
T
(t)e
jw
n
t
dt

e
jw
n
t
La cantidad entre corchetes representa una funcion compleja que tiene como
parametro el valor imaginario j w
n
, toda vez que el tiempo desaparece al integrar.
Esta funcion recibe el nombre de Transformada de Fourier de la funcion temporal
periodica f
T
(t):
F(jw
n
) =

T/2
T/2
f
T
(t)e
jw
n
t
dt
Es inmediato ver que, igual que c
n
y
n
denan completamente f
T
(t), esta
funcion queda completamente denida conociendo F(jw
n
), con lo que basta una
magnitud compleja para cada frecuencia:
f
T
(t) =
1
T

n=
F(jw
n
)e
jw
n
t
Ahora bien, como
w
n
=
2n
T
; w
n+1
w
n
=
2
T
= w
n
luego
f
T
(t) =
1
2

n=
F(jw
n
)e
jw
n
t
w
n
Si se hace crecer el periodo indenidamente, T , el sumatorio tiende a
la integral, w
n
dw, por lo que puede escribirse, nalmente, para una funcion
no periodica (Transformacion de Fourier o Integral de Fourier):
F(jw) =

f(t)e
jwt
dt
Interpretaciones de la funcion de transferencia 53
f(t) =
1
2

F(jw)e
jwt
dw
Supuesto que la integral de Fourier sea convergente, para lo cual debe cumplirse
la condicion de convergencia absoluta

[ f(t) [ dt <
Esta transformacion o integral de Fourier permite expresar de forma analitica
muchas funciones no periodicas, y de interes especial, que no son expresables
mediante series de Fourier. Tal es, por ejemplo, el caso de la funcion
f(t) =

e
at
t > 0
0 t < 0
(a > 0)
La convergencia esta asegurada por:

[ f(t) [ dt =

t
0
e
at
dt =

e
at
a

0
=
1
a
<
y la transformada:
F(jw) =

f(t)e
jwt
dt =


0
e
(a+jw)t
dt =
1
a + jw
Sin embargo, y aunque en muchos casos la Transformada de Fourier es su-
ciente, en otros casos de interes tales como funciones de tipo polinomico en t no
son convergentes; por ejemplo, para el escalon unitario
f(t) = u
0
(t) =

1 t > 0
0 t < 0
la convergencia resulta:

[ u
0
(t) [ dt =


0
dt =
Interpretaciones de la funcion de transferencia 54
y la transformada,
F(jw) =


0
e
jwt
dt =

e
jwt
jw

0
que solo es convergente para w > 0.
4.2 Funci on de transferencia en el dominio de la
frecuencia
Si en la funcion de transferencia se hace s = jw esta se convierte en una expresion
compleja H(jw) que tiene la notable propiedad de que, para un cierto valor
de la pulsacion w, su modulo [ H(jw) [ y su argumento

H(jw) representan
precisamente la atenuacion y el desfase que sufre una se nal sinusoidal de frecuencia
f = 2/w. Este hecho se ilustra en la gura 4.1.
t
A
| H | A
t

u(t)
y(t)
H(j) =| H |

Figura 4.1: Respuesta en frecuencia


Ejemplo:
Considerese el sistema descrito por la ecuacion diferencial,
dy
dt
+ ay = bu
Interpretaciones de la funcion de transferencia 55
sometido a una se nal sinusoidal, de pulsacion w y de amplitud unitaria. Es
sabido que esta se nal se puede representar en forma compleja u(t) = e
jwt
. La
respuesta del sistema, en regimen estacionario, a la anterior se nal de entrada es
la solucion particular de la anterior ecuacion diferencial la cual se comprueba
facilmente que es,
y(t) =
b
(jw) + a
e
jwt
Esta notable propiedad de la funcion de transferencia es la que ha justi-
cado el amplio uso de la misma en el analisis y dise no de servomecanismos y
reguladores elementales. Notese que esta propiedad lleva implcito un metodo
experimental de medida de la funcion de transferencia de un sistema dinamico.
Este metodo consiste, sencillamente, en la aplicacion de se nales sinusoidales de
distintas frecuencias, y en la medida, para cada una de ellas, de la atenuacion y
del desfase que sufren al atravesar el sistema. La medida de la atenuaci on y del
desfase suministran el modulo y el argumento de H(jw) para el valor de w corres-
pondiente. Existen unos equipos comerciales, denominados servoanalizadores,
concebidos para realizar esta funcion de medicion de los sistemas dinamicos.
No debe, sin embargo, olvidarse que H(s) suministra informacion tanto sobre
el comportamiento en el dominio del tiempo (empleando las tablas de la trans-
formada de Laplace) como de la frecuencia (gracias a la propiedad expuesta). De
ah que la denominacion representacion frecuencial no sea del todo apropiada, o
en cualquier caso debe tomarse de forma matizada.
Tema 5
Sistemas dinamicos lineales de
primer orden
5.1 Introduccion
Se denomina sistema lineal diferencial de primer orden de entrada u(t) y salida
y(t) al sistema regido por una ecuacion diferencial de la forma
dy
dt
+ ay = bu (5.1)
en donde a y b son dos constantes, denominadas coecientes de la ecuacion;
u(t) es una se nal denominada se nal de entrada o excitacion; e y(t) es otra se nal
denominada se nal de salida del sistema. El conjunto se interpreta con un dia-
grama de bloques tal como el de la gura 5.1. La ecuacion diferencial anterior
admite una solucion unica siempre que se je el valor inicial de y(t). Este valor
inicial se denotara en lo que sigue por . La ecuacion (5.1) establece que la pendi-
ente de y(t) en cada instante de tiempo, es una combinaci on lineal de los valores
que toma en este instante u(t) e y(t). En la gura 5.2 se muestran las evoluciones
de u(t) e y(t).
En la practica se presentan m ultiples sistemas que pueden ser representados
por una ecuacion diferencial de primer orden. De hecho es una de las aprox-
imaciones mas sencillas que se pueden hacer del comportamiento dinamico de
un sistema. En el apartado 5.3 se presentan distintos sistemas que pueden ser
56
Sistemas dinamicos lineales de primer orden 57
representados por una ecuacion diferencial de primer orden.
u(t) y(t)
Figura 5.1: Sistema de primer orden (1)
5.2 Solucion de la ecuacion diferencial de primer
orden
Para el estudio de la solucion de la ecuacion diferencial de primer orden, conviene
distinguir dos casos:
5.2.1 Se nal de entrada nula
En el supuesto de que la se nal de entrada u(t) sea nula para todo t, la ecuacion
diferencial de primer orden se convierte en
dy
dt
= ay y(0) = (5.2)
lo que constituye la parte homogenea de la ecuacion diferencial de primer orden
de (5.1). La solucion de esta ecuacion puede obtenerse por integraci on directa
haciendo,
dy
y
= a dt
cuya integracion conduce a,
ln y(t) ln y(0) = at
Sistemas dinamicos lineales de primer orden 58
u
u(t)
t
y
y(t)

t
dy(t)
dt
Figura 5.2: Sistema de primer orden (2)
Sistemas dinamicos lineales de primer orden 59
lo que, teniendo en cuenta que y(0) = , puede escribirse,
y
h
(t) = e
at
El subndice h se reere a que esta solucion lo es de la parte homogenea de
(5.1).
Las guras 5.3 y 5.4 muestran la forma general de la evolucion de y
h
(t) seg un
que a sea, respectivamente, negativa o positiva. Estas guras muestran como
se comporta un sistema en ausencia de excitacion. Aparece una clara distincion
entre dos formas de comportamiento que permiten una primera clasicacion de
los sistemas en estables o inestables, seg un que la evolucion libre de los mismos
tienda a una estado de reposo o no.
t
y(t)

Figura 5.3: Primer orden divergente


5.2.2 Se nal de entrada no nula
Se trata de resolver la ecuacion diferencial (5.1) en el caso en que u(t) no sea
identicamente nula. Para simplicar la notacion se escribira v(t) = b
0
u(t), con
lo que la ecuacion (5.1) se convierte en
dy
dt
+ ay = v (5.3)
Sistemas dinamicos lineales de primer orden 60
t
y(t)

Figura 5.4: Primer orden convergente


Se trata de determinar que funcion w(t) debe sumarse a la solucion homogenea
y
h
(t) para obtener la solucion de la ecuacion (5.3). Es decir, se supone que y(t)
se descompone en,
y(t) = y
h
(t) + w(t) (5.4)
lo que llevado a la ecuacion (5.3) resulta,
d(y
h
+ w)
dt
+ a(y
h
+ w) = v y
h
(0) + w(0) =
es decir,
dy
h
dt
+ ay
h
+
dw
dt
+ aw = v w(0) = y
h
(0)
que, habida cuenta de la expresion (5.2), se puede escribir,
dw
dt
+ a w = v w(0) = 0 (5.5)
Por lo tanto la ecuacion diferencial que satisface w(t) es exactamente la (5.1),
pero con una notable diferencia, y es que las condiciones iniciales para w(t) son 0.
Sistemas dinamicos lineales de primer orden 61
Es decir, la se nal w(t) constituye la respuesta del sistema ante la se nal de entrada
u(t) a partir del reposo.
La discusion anterior permite interpretar la expresion (5.4) diciendo que la
respuesta y(t) de un sistema dinamico lineal a una se nal de entrada u(t) a partir
de un valor inicial y(0) puede considerarse como la suma de la respuesta del
sistema, a partir del valor inicial y(0), ante una se nal de entrada nula mas la
respuesta del sistema a la se nal de entrada u(t) a partir del reposo. Es facil ver
que w(t) viene dada por,
w(t) = e
at

t
o
e
a
v()d (5.6)
En efecto, en primer lugar es inmediato ver que w(0) = 0. Ademas susti-
tuyendo la expresion (5.6) en la (5.5) se tiene que,
dw
dt
= a e
at

t
o
e
a
v()d + e
at
d
dt

t
o
e
a
v() d = a w + v
Combinando los anteriores resultados se tiene que la respuesta de un sistema
regido por una ecuacion diferencial lineal de la forma (5.1) ante una se nal de
entrada u(t) viene dada por,
y(t) = e
at
+ e
at

t
o
e
a
b u() d (5.7)
A este mismo resultado se puede llegar empleando las tecnicas basadas en
la transformada de Laplace, con las cuales se puede demostrar directamente de
una forma muy sencilla la expresion (5.6). Ademas, en las aplicaciones practicas,
es de esta ultima forma como se procede. Sin embargo para un planteamiento
teorico mas general, conviene desarrollar el estudio de los sistemas lineales como
se ha hecho anteriormente.
5.2.3 Respuestas a se nales de entrada especiales
Se discuten a continuacion las respuestas de un sistema diferencial lineal de primer
orden a se nales de entrada que presentan especial interes en las aplicaciones como
son las se nales en escalon, en rampa y sinusoidal.
Sistemas dinamicos lineales de primer orden 62
Se nal de entrada en escalon
Se dice que un sistema se somete a una se nal de entrada en escalon en el
instante inicial t = 0, si en dicho instante se somete el sistema a una variaci on
brusca de la se nal de entrada permaneciendo esta en un valor u(t) = constante.
En la gura 5.5 se representa una se nal de entrada de esta forma. Si se supone
y(0) = , u = 1, y teniendo en cuenta la expresion (5.7), se tendra,
y(t) = e
at

+
b
a
(e
at
1)

= e
at
+
b
a
(1 e
at
) (5.8)
u
t
Figura 5.5: Entrada en escalon
En la gura 5.6 se representa la respuesta de un sistema lineal de primer orden
a una entrada en escalon.

y
t
Figura 5.6: Respuesta al escalon
Sistemas dinamicos lineales de primer orden 63
Para estudiar la respuesta en el tiempo de un sistema lineal de primer orden
a una entrada en escalon, es interesante escribir la ecuacion diferencial de primer
orden de la forma siguiente:

dy
dt
+ y = Ku (5.9)
en donde = 1/a y K = b/a. Si se supone ademas, para simplicar, que = 0
se tendra que la expresion (5.8) se puede escribir,
y(t) = K(1 e

) (5.10)
La constante K recibe la denominacion de ganancia estatica del sistema,
puesto que representa la relacion entre la se nal de salida (y(t)) y la se nal de
entrada (u(t)) para t . La constante que tiene una dimension de tiempo,
se llama constante de tiempo del sistema.
El resultado (5.10) puede obtenerse de una forma mas sencilla empleando la
transformada de Laplace. En efecto, la ecuacion diferencial de un sistema de
primer orden viene dada por la expresion (5.1), y puesto que la transformada de
Laplace de una se nal escalon es:
U(s) =
1
s
se tiene que la de la se nal de salida sera,
Y (s) =
K
s(1 + s)
=
A
s
+
B
1 + s
Las constantes A y B resultan ser:
A =
K
(1 + s)

s=0
= K y B =
K
s

s=
1

= K
con lo que se tiene Y (s), cuya antitransformada de Laplace resulta ser,
y(t) = L
1
[Y (s)] = K(1 e
t/
)
Sistemas dinamicos lineales de primer orden 64
es decir la expresion (5.1)
En la gura 5.7 se representa la respuesta a una entrada en escalon de un
sistema de primer orden de ganancia K y constante de tiempo .
0.0 0.4 0.8 1.2 1.6 2.0 2.4 2.8 3.2 3.6 4.0
1/
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
y
(
t
)
/
K
0.637
Figura 5.7: Respuesta a un escalon unitario de un sistema de primer orden de
ganancia K y de constante de tiempo .
La constante de tiempo caracteriza la velocidad de respuesta del sistema, es
decir, la duracion del regimen transitorio. Ello se pone de evidencia por las dos
consideraciones siguientes.
1. Existe una relacion entre la constante de tiempo y la tangente y(t) en el
origen. En efecto de la expresion (5.10) se tiene,
dy
dt
=
K

(5.11)
haciendo t = 0 se tiene,
dy
dt
(0) =
K

(5.12)
lo cual puede interpretarse tal como se hace en la gura 5.8. Recuerdese
que se ha hecho u = 1.
Sistemas dinamicos lineales de primer orden 65

K
tg =
K

Figura 5.8: Relacion constante amplicacion y tang.


2. haciendo t = se tiene que la constante de tiempo es el tiempo al cabo del
cual la se nal de respuesta alcanza la fraccion
1
1
e
0.632
2
3
del valor nal (gura 5.9)
K
0.64K

Figura 5.9: Relacion constante de tiempo y amplicacion


Sistemas dinamicos lineales de primer orden 66
Observando la gura 5.7 se tiene que la respuesta de un sistema de primer
orden en una entrada en escalon alcanza su valor nal con un error menor del 5
% para un tiempo 3.
En la gura 5.10 se representan las se nales de respuesta a una entrada en
escalon para distintos sistemas lineales con diferentes constantes de tiempo.

3
>
2

2
Figura 5.10: Diferentes constantes de tiempo
En la practica se presenta el problema de determinar el modelo matematico
de un sistema a partir del conocimiento de la respuesta del sistema a una en-
trada en escalon. En el caso de un sistema de primer orden, la determinacion
de los parametros K y que aparecen en la ecuacion diferencial (5.9), resulta
extremadamente sencilla a partir de la respuesta del sistema a una entrada en es-
calon. En efecto, de acuerdo con la gura 5.7 el valor de la constante de tiempo
se determina midiendo la abscisa correspondiente a la ordenada que sea el 63,2%
del valor alcanzado por el sistema en regimen estacionario. La constante estatica
K es sencillamente el cociente entre el valor alcanzado por la respuesta en regimen
estacionario y la amplitud de la entrada en escalon.
Se nal de entrada en rampa
Supongase una se nal de entrada en rampa, es decir, una se nal de entrada
cuyos valores crecen lineal con el tiempo, u = t, tal como la que se representa
en la gura 5.11. Se supondra ademas, para simplicar, que = 0. De acuerdo
con la expresion (5.7) se tiene que,
y(t) = wbe
at

t
o
e
a
d =
wb
a

t
1
a
+
e
at
a

(5.13)
esta ultima expresion introduciendo la ganancia K y la constante de tiempo
Sistemas dinamicos lineales de primer orden 67
, puede escribirse,
y(t) = wK(t + e

) (5.14)
Este mismo resultado se puede obtener con ayuda de la transformada de
Laplace. En efecto, para el caso de una entrada en rampa, se tiene
u
u = t
t
Figura 5.11: Entrada en rampa
U(s) =

s
2
con lo que ,
Y (s) =
K
s
2
(1 + s)
=
A
1
s
2
+
A
2
s
+
B
1 + s
siendo,
A
1
=
1
0!

K
(1 + 2s)

s=0
= wK
A
2
=
1
1!

d
ds
K
(1 + s)

s=0
= K
B =

K
s
2

s=
1

= K
2
de donde se desprende que y(t) tendra la forma (5.14).
En la expresion (5.14) se observa que el tercer termino del parentesis del
segundo miembro tiende a cero cuando el tiempo tiende a innito. Este termino
Sistemas dinamicos lineales de primer orden 68
constituye el regimen transitorio de la respuesta total. Una vez desaparecido el
regimen transitorio, la respuesta en regimen permanente sera,
y
rp
(t) = K(t ) (5.15)
Para interpretar esta respuesta cabe distinguir dos casos:
1. K = 1. En tal caso se tiene que la respuesta viene dada por
y
rp
= (t ) (5.16)
es decir, en el instante t la salida es igual a la entrada en el instante t .
La salida se encuentra retardada segundos con respecto a la entrada. En
la gura 5.12 se representa la expresion (5.14) para K = 1. Se observa en
esta gura como la se nal de salida se encuentra retardada con respecto a la
se nal de entrada. El error en regimen permanente es igual a . Este error
recibe la denominacion de error de arrastre.

u(t)
y(t)
u(t
1
) y(t
1
)

Figura 5.12: Respuesta a rampa.


Respecto al regimen transitorio se tiene que para t =
y() =
K
e

K
3
(5.17)
es decir, que el sistema ha respondido solo en un tercio del valor alcanzado
por la se nal de entrada. En la gura 5.12 se interpreta este resultado.
Sistemas dinamicos lineales de primer orden 69
La consideracion del error de arrastre en la respuesta de un sistema de
primer orden, es sumamente importante en ciertos casos como por ejemplo
cuando el sistema en cuestion es un aparato de medida. Supongase un
globo en el que se encuentra un termometro de mercurio. Se supone que
la temperatura vara linealmente con la altura; se tiene entonces que el
termometro se encuentra sometido a una se nal de entrada en rampa. Las
lecturas del termometro, seg un las consideraciones anteriores, presentan un
error de arrastre.
2. K = 1. La salida y entrada divergen, por lo que el error de arrastre se hace
innito.
5.2.4 Respuesta armonica
Si la se nal de entrada es sinusoidal, es decir, u = sent y suponiendo = 0, se
tiene que la respuesta del sistema, de acuerdo con la expresion (5.7), viene dada
por
y(t) = e
at

+
wb
a
2
+ w
2

b
a
2
+ w
2
(a senw t w coswt) (5.18)
En la gura 5.13 se muestra una forma tpica de esta respuesta.
Figura 5.13: Respuesta armonica.
Para t , es decir un tiempo sucientemente grande, el primer termino
del segundo miembro se anula, por lo que la respuesta en regimen permanente
resulta ser
Sistemas dinamicos lineales de primer orden 70
y
rp
(t) =
b
a
2
+ w
2
(a senwt w coswt) (5.19)
Esta expresion se puede escribir de una forma mas sencilla haciendo,
cos =
a

a
2
+ w
2
sen =
w

a
2
+ w
2
(5.20)
con lo que 5.19 puede escribirse,
y(t) = Y sen(wt + ) (5.21)
siendo,
tag = w/a = w (5.22)
Y =
b

a
2
+ w
2
=
K

1 +
2
w
2
(5.23)
La expresion (5.21) puede interpretarse diciendo que la respuesta de un sis-
tema lineal a una se nal sinusoidal, es otra se nal sinusoidal de la misma frecuencia
cuya amplitud ha variado en una relacion Y , y que ha adquirido un desfase .
Tanto la relacion de amplitudes Y como el desfase , son funcion de la frecuencia
angular w de la entrada. En la gura 5.14 se representa Y () y ().
Otra forma de representar gracamente la respuesta en frecuencia de un sis-
tema lineal es por medio de un diagrama polar en el que se representa vectores
cuyos modulos y argumentos son respectivamente Y () y (). Haciendo variar
se obtiene un lugar geometrico, en el que es el parametro. En la gura 5.15
se representa la respuesta en frecuencia correspondiente a un sistema lineal de
primer orden. El lugar esta graduado en frecuencias reducidas (normalizadas)
u = .
Existen otras formas de representar gracamente la respuesta en frecuencia
de un sistema lineal que seran estudiadas mas adelante.
Filtrado con un sistema lineal.
Si la se nal de entrada a un sistema lineal es una se nal arbitraria, la repro-
duccion de la misma a la salida sera muy el si la constante de tiempo del sistema
es sucientemente peque na. Es decir, si la constante de tiempo del sistema es
Sistemas dinamicos lineales de primer orden 71
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0

-130
-110
-90
-70
-50
-30
-10
F
a
s
e
(
g
r
a
d
o
s
)
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0

0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
R
e
l
a
c
i
o
n

d
e

A
m
p
l
i
t
u
d
e
s
Figura 5.14: Amplitud y fase.
=

Y
= 0
Figura 5.15: Respuesta en frecuencia.
Sistemas dinamicos lineales de primer orden 72
menor que las mas rapidas variaciones que se produzcan en esta se nal de entrada.
Lo que a su vez se puede interpretar en el dominio de la frecuencia diciendo que
la constante de tiempo sea lo sucientemente peque na como para que el ancho de
banda sea lo sucientemente grande para permitir el paso de todos los armonicos
de la se nal de entrada, (recordar la gura 5.13). La gura 5.16 ilustra este hecho.
a)
b)
pequeo
grande
Figura 5.16: Filtrados.
Por el contrario si la constante de tiempo es grande, la respuesta del sistema
es lenta, por lo que el sistema no puede seguir las variaciones rapidas de la se nal
de entrada resultando de ello que estas desaparecen de la se nal de salida. El
sistema act ua como limando las asperezas de la se nal de entrada. La gura 5.16
ilustra este hecho que recibe la denominacion de ltrado de la se nal de entrada.
Se puede dar del mismo una interpretaci on en el dominio de la frecuencia similar
a la dada mas arriba para el caso de una constante de tiempo peque na.
De hecho, el concepto de ltrado de una se nal es enormemente importante y
lo unico que se ha hecho hasta aqu ha sido introducirlo, ilustrando una forma de
comportamiento de los sistemas dinamicos lineales de primer orden.
5.3 Ejemplos de sistemas de primer orden
Circuito electrico LR.
El circuito representado en la gura 5.17 esta regido por una ecuacion difer-
encial de la forma
L
R
dI
dt
+ I =
E
R
Sistemas dinamicos lineales de primer orden 73
considerando la se nal de entrada, la tension aplicada al sistema y la se nal de
salida a la intensidad que recorre el circuito, se tiene un sistema de primer
orden. La ganancia estatica es 1/R y la constante de tiempo es L/R.
L
R
E
Figura 5.17: Circuito RL.
Circuito electrico RC.
El circuito de la gura 5.18 es un circuito clasico de carga de un condensador
a traves de una resistencia, siendo la ecuacion diferencial que rige el proceso
la siguiente:
RC
dq
dt
+ q = CE
La ganancia estatica es C, puesto que Q/E es, en regimen permanente, la
capacidad del condensador. La constante de tiempo es RC.
E
R
C
q
E(t)
R, C
q(t)
Figura 5.18: Circuito RC.
Term ometro de mercurio.
Sistemas dinamicos lineales de primer orden 74
Un termometro puede considerarse como un sistema en el que la se nal de
entrada u es la temperatura del medio en el que se encuentra inmerso y la
se nal de salida y, es la temperatura indicada por el mismo. Si se denota
por Q la cantidad de calor intercambiada entre el medio y el termometro,
y por C la capacidad calorca de la ampolla, se tendra que
dy
dt
= C
dQ
dt
Por otra parte el ujo de caloras que entra en el mercurio se aporta funda-
mentalmente por conduccion. De acuerdo con la ley de Newton es aproxi-
madamente proporcional a la diferencia de temperatura entre el medio y el
mercurio.
dQ
dt
= k(u y)
Se concluye de las dos ecuaciones anteriores que un termometro de mercurio
puede considerarse como un sistema lineal de primer orden. Observese que,
como corresponde a un sistema de medicion, la ganancia estatica es k = 1.
Temperatura indicada (y)
Temperatura (u)
Figura 5.19: Termometro de mercurio.
Reaccion qumica.
Supongase la descomposicion espontanea de una molecula Aen dos moleculas
B y C:
A B + C
la cual se efect ua de manera que la velocidad de reaccion es proporcional al
n umero de moleculas A presentes.
Sistemas dinamicos lineales de primer orden 75
Si se denota por y la concentraci on de la sustancia A, se tiene

dy
dt
= ky
es decir,
1
k
dy
dt
+ y = 0
Se trata de un sistema lineal de primer orden autonomo de constante de
tiempo 1/k. El parametro k se denomina por los qumicos constante de
velocidad de la reaccion, y en la practica presenta una gran dependencia de
la temperatura.
Dinamometro.
Se trata de medir la fuerza u por el desplazamiento y que imprime a un
dinamometro de coeciente de elasticidad k y de coeciente de viscosidad
, gura 5.20.
u

k
Figura 5.20: Dinamometro
Seg un las leyes de la Mecanica se tiene
u = ky +
dy
dt
Por lo tanto un dinamometro es un sistema de medida lineal de primer
orden.
Sistemas dinamicos lineales de primer orden 76
Mezcla de dos uidos.
Supongase un recipiente (gura 5.21) en el que se contiene una masa m del
lquido que contiene una fraccion C
r
de un componente A, y supongase que
el recipiente se alimenta por un caudal Q de un lquido en el que la fraccion
de componente A es C
e
. Se supone que la mezcla es instant anea, es decir,
que la composicion es la misma en todo instante en todo el recipiente. Se
supone ademas que el ujo de entrada es igual al de salida, con lo que
la masa contenida en el recipiente es constante. Es facil ver que en estas
condiciones se tiene,
C
e
Q dt = C
r
Q dt + M dC
r
es decir,
M
Q
dC
r
dt
+ C
r
= C
e
C
e
M
C
r
C
r
Figura 5.21: Mezcla de Fluidos.
Se trata por lo tanto de un sistema de primer orden.
Motor electrico de corriente continua.
Supongase el motor electrico de corriente continua cuyo diagrama se ha
representado en la gura 5.22. El par motor supuesto el ujo constante,
viene dado por
Sistemas dinamicos lineales de primer orden 77
P = k I
Por otra parte la intensidad I de inducido y la tension que alimenta al
inducido u (se nal de entrada), estan relacionadas por la siguiente ecuacion.
u = RI + L
dI
dt
+ K
De acuerdo con las leyes de la Mecanica el par motor P y la velocidad de
salida del motor , estan ligados por la ecuacion,
P = J
d
dt
+ B
R L

B
Figura 5.22: Motor electrico.
De las tres ecuaciones anteriores se obtiene,
J
d
dt
+ (B + kK

R
) = k

R
u
es decir, considerando como se nal de entrada la tension aplicada al inducido
y como se nal de salida la velocidad de giro del motor, se tiene un sistema
de primer orden.
5.4 El sistema de primer orden como integrador
En los apartados anteriores se ha considerado un sistema lineal de primer orden
como el regido por una ecuacion diferencial de la forma 5.1. Esta misma ecuacion
puede escribirse tambien de la forma siguiente:
Sistemas dinamicos lineales de primer orden 78
y(t) = y(0) +

t
0
(bu ay)dt (5.24)
La consideracion de esta segunda forma de escribir la ecuacion que rige el
comportamiento de un sistema lineal de primer orden es sumamente interesante,
por cuanto que su sentido fsico es mas claro. La accion del sistema puede de-
scomponerse en dos partes:
Una parte estatica (sin memoria) en la que se determina
f = bu ay (5.25)
Los valores de f determinados para cada instante de tiempo t se van acu-
mulando (integrando) dando con ello lugar a la variable de salida y.
En la gura 5.23 se tiene representado un esquema en el que se distinguen la
parte estatica del integrador. La parte estatica puede ser no lineal, sin que por
ello se alteren las anteriores consideraciones.
Esta manera de interpretar el funcionamiento de un sistema lineal de primer
orden, es mas intuitiva desde un punto de vista fsico por cuanto que en la nat-
uraleza es mas facil interpretar los procesos en terminos de integraciones que de
diferenciaciones. De hecho la integracion (acumulacion) es un proceso normal del
que es muy sencillo encontrar ejemplos, mientras que la diferenciacion es enorme-
mente mas articiosa. No debe olvidarse sin embargo, que la resolucion de una
ecuacion diferencial es mas simple que la de una ecuacion integral, y es por ello
que en cualquier caso el planteo por ecuaciones diferenciales es mas frecuente que
el que aqu se presenta.
-
+ u
K
y
1
S
Figura 5.23: Integrador.
Tema 6
Sistemas dinamicos lineales de
segundo orden y de orden y
superior
6.1 Denicion
Se dene un sistema lineal de segundo orden como el regido por una ecuacion
diferencial de la forma,
d
2
y
dt
2
+ a
1
dy
dt
+ a
2
y = b
0
du
dt
+ b
1
u (6.1)
En lo que sigue se considerara unicamente el caso en que b
0
= 0 y b
1
= ,
dejandose para mas adelante el estudio del caso general.
El problema del estudio de un sistema de segundo orden queda reducido a
la resolucion de la anterior ecuacion diferencial cuando la se nal de entrada u(t)
se particulariza en una cierta funcion del tiempo. Para que la solucion este
completamente determinada se requiere el conocimiento de los valores iniciales
de y(t) y de dy/dt. En esta seccion se puede hacer un desarrollo completamente
paralelo al realizado en la seccion anterior para los sistemas de primer orden. La
complejidad de tratamiento algebraico que esto requiere es grande, y es por ello
por lo que se va a estudiar sencillamente los casos simplicados que ofrecen mayor
interes practico.
En este sentido, y como primera hipotesis simplicadora, se va a suponer
79
Sistemas dinamicos lineales de segundo orden y de orden y superior 80
siempre que se trabaja con unas condiciones iniciales nulas.
La ecuacion diferencial de un sistema de segundo orden que se va a considerar
aqu es,
d
2
y
dt
2
+ a
1
dy
dt
+ a
2
y = u (6.2)
La ecuacion caracterstica de un sistema de segundo orden se dene como:
r
2
+ a
1
r + a
2
= 0 (6.3)
la cual se puede escribir tambien, en el supuesto de que sus raices sean p
1
y
p
2
, de la forma siguiente,
(r + p
1
) (r + p
2
) = 0 (6.4)
Otra forma frecuente de escribir la ecuacion diferencial de un sistema de se-
gundo orden es la siguiente,
d
2
y
dt
2
+ 2
n
dy
dt
+
2
n
y =
2
n
k u(t) (6.5)
Esta forma es especialmente util cuando se trata con sistemas cuyas raices de
la ecuacion caracterstica son complejas. Los parametros que intervienen en esta
forma reciben una denominacion especial.
El parametro k recibe la denominacion de ganancia estatica, y es una con-
stante que carece de dimensiones.
El parametro
n
recibe el nombre de frecuencia propia no amortiguada y
se expresa en radianes por segundo.
El parametro recibe el nombre de factor de amortiguamiento, y es un
n umero sin dimensiones.
Las relaciones que ligan a los parametros de la forma (6.2) con los de la forma
(6.5) son las siguientes.
Sistemas dinamicos lineales de segundo orden y de orden y superior 81

n
=

1
a
2
k =

2
n
=
a
1
2
n
(6.6)
Los parametros k,
n
y son, normalmente, positivos.
Una ecuacion diferencial de orden n puede descomponerse en n ecuaciones
diferenciales de primer orden. Este es un resultado conocido que por otra parte
sera estudiado con detalle en un captulo posterior. Aqu se va a estudiar el caso
n = 2; introduciendo las variables adicionales x
1
y x
2
, y siendo p
1
y p
2
las raices
de la ecuacion caracterstica, es facil ver que una ecuacion diferencial de segundo
orden del tipo 6.2 se puede escribir,
x
1
= p
1
x
1
+ u
x
2
= p
2
x
2
+ u (6.7)
y = c
1
x
1
+ c
2
x
2
(6.8)
siendo
c
1
=

p
2
+ p
1
y c
2
=

p
1
p
2
(6.9)
Para comprobar este resultado basta proceder por sustitucion, lo que se invita
a hacer al lector. Mas adelante se estudiara el procedimiento general que permite
este tipo de descomposiciones.
Empleando el calculo matricial, las expresiones 6.7, 6.8 y 6.9 pueden escribirse
de la forma siguiente,
x = Ax + Bu (6.10)
y = Cx
en donde
A =

p
1
0
0 p
2

B =

1
1

C = [c
1
c
2
] (6.11)
La ecuacion diferencial de la expresion 6.10 es de la misma forma de la 5.1,
con la diferencia de que mientras all se trataba con escalares aqu se trata con
vectores y matrices. Por lo tanto, el desarrollo realizado al estudiar los sistemas
de primer orden, puede generalizarse al de los sistemas de segundo orden, sin mas
Sistemas dinamicos lineales de segundo orden y de orden y superior 82
observacion que tener presente que la diferencia basica que existe entre el algebra
de los n umeros reales y la de las matrices, es que esta ultima no es conmutativa.
La respuesta de un sistema de segundo orden ante una se nal de entrada u(t),
a partir del estado x(t), vendra dada por,
y(t) = Ce
At

t
0
e
A
B u() d

(6.12)
En esta expresion aparece la exponencial e
At
, cuyo signicado sera discutido
mas adelante.
A partir de la expresion 6.12 se puede estudiar la respuesta de un sistema
de segundo orden ante distintos tipos de se nales de entrada, tal como se hizo
anteriormente para los sistemas de primer orden.
En lo que sigue se estudiara exclusivamente la respuesta de un sistema de
segundo orden a una entrada en escalon, por ser la que mas interes tiene desde
un punto de vista practico. La respuesta para otro tipo de entradas, como la
entrada en rampa o la entrada sinusoidal, pueden ser obtenidas de forma analoga
a como se obtiene la respuesta a una entrada en escalon.
6.1.1 Respuesta de un sistema de segundo orden a una
entrada en escalon
Se supondra que las condiciones iniciales son nulas, = 0. A partir de la expresion
6.12 se tendra,
y(t) = C e
At

t
0
e
A
B u()d (6.13)
La entrada en escalon es constante desde t = 0 hasta innito. Por lo tanto se
tendra que,
u() = u = const (6.14)
A partir del concepto de funcion de una matriz diagonal se puede escribir,
e
At
=

e
p
1
t
0
0 e
p
2
t

(6.15)
Sistemas dinamicos lineales de segundo orden y de orden y superior 83
con lo que se tiene,

t
0
e
A
B u() d =


u
p
1
(1 e
p
1
t
)

u
p
2
(1 e
p
2
t
)

(6.16)
Recordando la expresion 6.8 se tiene,
y(t) = C
1
u
p
1
(1 e
p
1
t
) + C
2
u
p
2
(1 e
p
2
t
) (6.17)
y =

u
p
1
(p
2
p
1
)
(1 e
p
1
t
) +
u
(p
1
p
2
)p
2
(1 e
p
2
t
)

Haciendo, sin perdida de generalidad, u = 1 y tras una serie de manipulaciones


algebricas, se puede escribir,
y(t) =

p
1
p
2


(p
2
p
1
)p
1
e
p
1
t


p
2
(p
1
p
2
)
e
p
2
t
(6.18)
Si se escribe la ecuacion diferencial de segundo orden en la forma dada por la
expresion 6.5 se tendra que las raices de la ecuacion caracterstica p
1
y p
2
vendran
dadas por:
p
1
=
n

2
1
p
2
=
n
+
n

2
1 (6.19)
Observese que,
p
1
p
2
=
2
n
=
2
n
p
2
p
1
= 2
n

2
1 (6.20)
Este mismo resultado se puede alcanzar con mayor sencillez operativa emple-
ando la transformada de Laplace. En efecto, teniendo en cuenta que la trans-
formada de Laplace de una entrada en escalon es U(s) = 1/s, se tiene que, de
acuerdo con la expresion 5.2, la transformada de Laplace de la salida y(t) resulta
Y (s) =
1
s

2
n
s
2
+ 2
n
s +
2
n
Sistemas dinamicos lineales de segundo orden y de orden y superior 84
b)
a)
c)
3.3
1.38
1
1
1
u(t)
u(t)
u(t)

n
t

n
t

n
t
y(t)
y(t)
y(t)
Figura 6.1: Respuesta sistema de segundo orden
Sistemas dinamicos lineales de segundo orden y de orden y superior 85
cuya antitransformada de Laplace resulta ser,
y(t) = 1
e

n
t

1
2
sen (
0
t + )
siendo,

0
=
n

1
2
= t
1
g

1
2

factor de amortiguamiento
En el estudio de la respuesta a una se nal de entrada en escalon de un sistema
de segundo orden pueden distinguirse tres casos seg un que el factor de amor-
tiguamiento sea mayor, menor o igual que uno.
1. Factor de amortiguamiento mayor que la unidad
A partir de la expresion 6.18 teniendo en cuenta las expresiones 6.20 se tiene
que,
y(t) = 1 +

2(
2

2
1 1)

1
e
(

2
1)
n
t
+

2(
2
+

2
1 1)

1
e
(+

2
1)
n
t
(6.21)
Esta expresion suministra la forma analtica de la respuesta de un sistema
de segundo orden, con factor de amortiguamiento mayor que la unidad, a
una entrada en escalon. En la gura 6.1 se representa la forma general de
esta respuesta; desde un punto de vista cualitativo la caracterstica esencial
de esta respuesta es su caracter de lentitud en alcanzar el valor y = 1.
2. Factor de amortiguamiento menor que la unidad
Si el factor de amortiguamiento es menor que la unidad, es decir, < 1,
entonces sucede que las raices p
1
y p
2
son complejas. En la gura 6.2 se
representa la situacion de las raices p
1
y p
2
en el plano complejo.
La consideracion del angulo , tal como se ha indicado en la gura 6.2
permite escribir,
cos = sen =

1
2
(6.22)
Escribiendo las expresiones 6.19 y 6.20, empleando en las mismas el angulo
, se tiene:
p
1
=
n
e
j
p
2
p
1
= 2
n
jsen (6.23)
Sistemas dinamicos lineales de segundo orden y de orden y superior 86
j
n

1
2
j
n

1
2
Im
Re

Figura 6.2: Raices complejas


La expresion 6.18 se puede escribir, teniendo en cuenta la expresion 6.23 de
la forma siguiente,
y(t) = 1 +
e
j
2jsen
e
(
n
j
n

1
2
)t

e
j
2jsen
e
(
n
j
n

1
2
) t
(6.24)
Esta expresion puede escribirse en forma mas compacta como sigue:
y(t) = 1 +
e

n
t

1
2
sen(
n

1
2
t ) (6.25)
Esta expresion suministra la forma analtica en la respuesta de un sistema
de segundo orden, con factor de amortiguamiento menor que la unidad,
a una respuesta en escalon. La forma general de la respuesta se tiene en
la gura 6.1, en la que se observa que el comportamiento de un sistema
de segundo orden con factor de amortiguamiento menor que la unidad esta
caracterizado por la presencia de oscilaciones. Esta forma de respuesta, que
se caracteriza por una sinusoide exponencialmente amortiguada, se dice que
es subamortiguada.
Sistemas dinamicos lineales de segundo orden y de orden y superior 87
El valor del primer pico de sobreoscilacion, y el instante de tiempo en que
se produce, son dos tipos de caractersticas muy interesantes para denir
el comportamiento de un sistema de segundo orden. De la observaci on de
la expresion 6.25 se desprende que la frecuencia de oscilacion del sistema
viene dada por,

p
=
n

1
2
(6.26)
La frecuencia
p
se denomina frecuencia propia del sistema. El periodo de
oscilacion del sistema viene dado por
T
p
=
2

1
2
(6.27)
Instante de tiempo al cual se produce el primer pico de oscilacion del sis-
tema, puede obtenerse, de una forma analtica, derivando y(t) con relacion
al tiempo, e igualando esta derivada a cero. En efecto, se tiene:
dy(t)
dt
=

n
e

n
t

1
2
sen(
n

1
2
t)+
n
e

n
t
cos(
n

1
2
t) = 0
(6.28)
Esta derivada se anular a cuando,

1
2
t = 0, , 2, ..
por lo tanto, el primer pico de oscilacion se producira cuando ,
t
p
=

1
2
(6.29)
El tiempo t
p
recibe la denominacion de tiempo de pico. Llevando el valor
de t
p
a la expresion 6.25 se tiene,
y
max
(t) = 1 +
e
/

1
2

1
2
sen( ) (6.30)
la cual, habida cuenta de que,
sen( ) = sen y sen =

1
2
(6.31)
puede escribirse,
y
max
(t) = 1 + e

1
2

(6.32)
Sistemas dinamicos lineales de segundo orden y de orden y superior 88
Normalmente se expresa la amplitud de la primera oscilacion en % del valor
del escalon de entrada. Genericamente se suele denominar sobreoscilacion
a este tanto por ciento. Por lo tanto se puede escribir:
SO = 100 e

1
2

(6.33)
En la gura 6.3 se representa la sobreoscilacion, en funcion del factor de
amortiguamiento, para sistemas de segundo orden.
Es interesante considerar el problema de determinar los parametros a
1
, a
2
y de la ecuacion 6.2 a partir del conocimiento de la respuesta del sistema
a una entrada en escalon especialmente en el caso de un sistema subamor-
tiguado.
3. Factor de amortiguamiento igual a la unidad
En el caso de que el factor de amortiguamiento sea igual a la unidad, es decir
= 1, se tendra que las dos raices de la ecuacion caracterstica seran iguales
entre s, es decir, p
1
= p
2
es una raiz doble de la ecuacion caracterstica. En
tal caso, las constantes c
1
y c
2
que aparecen en la expresion 6.8 no estan
denidas, como se concluye observando las expresiones 6.9. Es decir, que la
anterior discusion solo era valida cuando las dos raices p
1
y p
2
eran distintas.
Para poder aplicar el anterior razonamiento al caso de que las dos raices
sean iguales, se procede a suponer, en principio, que estas son diferentes
entre s en una peque na cantidad , que posteriormente se hace tender a
cero. Supongase, por lo tanto que las dos raices son:
p
1
= p
p
2
= p +
Llevando estos dos valores a los terminos segundo y tercero, del segundo
miembro, de la expresion 6.18 se tiene,

p
e
pt

b
(p + )
e
(p+)t
= e
pt

1
p

e
t
(p + )

(6.34)
Interesa determinar el lmite de esta expresion cuando tiende a cero. Para
ello se procede, por ejemplo, a desarrollar en serie e
t
y tras una serie de
sencillas manipulaciones se obtiene,
lim
0

1
p

e
t
(p + )

=
1 t
p
p
2
(6.35)
Sistemas dinamicos lineales de segundo orden y de orden y superior 89
Con este resultado es inmediato obtener que la respuesta a una entrada en
escalon del sistema con factor de amortiguamiento igual a la unidad, viene
dada por,
y(t) = 1
n
te

n
t
e

n
t
(6.36)
Esta respuesta se ha representado en la gura 6.1. Esta respuesta se dice
que esta crticamente amortiguada.
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0

0
20
40
60
80
100
S
o
b
r
e
o
s
c
i
l
a
c
i
o
n
Figura 6.3: Sobreoscilacion en funcion del factor de amortiguamiento
En la gura 6.4 se representan las respuestas a una entrada en escalon para
distintos valores del factor amortiguamiento. Se observa como factores de amor-
tiguamiento inferiores a la unidad, se tiene un comportamiento oscilatorio, el cual
es mas oscilante cuanto menor es el valor de . Por otra parte, para valores del
amortiguamiento mayor que la unidad, se tienen respuestas sin sobreoscilacion,
pero que son considerablemente mas lentas. Esto ultimo hace que las aplica-
ciones practicas se tienda siempre a tener respuestas amortiguadas, puesto que
son mas rapidas, aunque siempre manteniendo oscilaciones dentro de unos lmites
razonables.
Sistemas dinamicos lineales de segundo orden y de orden y superior 90
0.0 1.2 2.4 3.6 4.8 6.0 7.2 8.4 9.6 10.8 12.0

n
t
0.0
0.2
0.4
0.6
0.8
1.0
1.2
1.4
1.6
1.8
2.0
y
(
t
)
=0.1
0.5
0.7
1.0
1.2
1.5
2.0
5.0
Figura 6.4: Respuesta ante escalon en funcion del factor de amortiguamiento
Sistemas dinamicos lineales de segundo orden y de orden y superior 91
6.1.2 Respuesta en frecuencia de un sistema de segundo
orden
Si se aplica una se nal sinusoidal a un sistema de segundo orden, es decir, si u(t) =
V
o
sent, la determinacion de la se nal de salida y(t) se puede hacer procediendo
en forma similar a como se hizo en el apartado anterior. Aqu sin embargo
se procedera exclusivamente a estudiar el regimen transitorio que resulta de la
aplicacion de la se nal sinusoidal. Es decir, se va a determinar exclusivamente la
solucion particular de la completa cuando en la expresion 6.2 se hace u = V
o
sent.
Se tiene que y(t) sera de la forma,
y(t) = Y
o
sen(t + ) (6.37)
siendo
Y
o
=
V
o

(a
2
)
2
+ a
2
1

2
(6.38)
= tg
1

a
1
/(a
2

2
)

(6.39)
Este resultado se puede comprobar por sustitucion.
Se ha tomado como se nal de entrada una se nal sinusoidal de amplitud unitaria
para que la amplitud de la se nal de salida suministrase directamente la relacion
de amplitudes entre las se nales de entrada y salida. En las guras 6.5 y 6.6 se
representan las relaciones de amplitudes y los desfases correspondientes a distintos
valores del factor de amortiguamiento.
Se observa como la forma de la respuesta en frecuencia del sistema de segundo
orden depende del factor de amortiguamiento. Cuanto menor es este, mayor es
el pico de resonancia que presenta la respuesta en frecuencia. El efecto de reso-
nancia indica que para determinada frecuencia la amplitud de la se nal sinusoidal
correspondiente, en el espectro de frecuencias, sufre una amplicacion al atravesar
el sistema.
El valor maximo de la amplitud de la respuesta en frecuencia, recibe la denom-
inacion de factor de resonancia. Es facil demostrar que el factor de resonancia
viene dado por,
Q =
1
2

1
2
(6.40)
Sistemas dinamicos lineales de segundo orden y de orden y superior 92
La frecuencia a la que se produce este maximo, que recibe la denominacion
de frecuencia de resonancia, viene dada por,

R
=
n

1 2
2
(6.41)
Se observa que cuando el factor de amortiguamiento es nulo la frecuencia de
resonancia coincide con la frecuencia propia no amortiguada del sistema. De ah
la denominacion de esta ultima.
0.0 0.5 1.0 1.5 2.0 2.5
PULSACION /
n
0
1
2
3
4
5
R
E
L
A
C
I
O
N

D
E

A
M
P
L
I
T
U
D
E
S
=0.1
0.2
0.3
0.4
0.5
0.707
1.0
2.0
5.0
Figura 6.5: Amplitudes correspondientes a distintos factores de amortiguamiento.
6.1.3 Ecuaciones diferenciales de orden n
Una vez estudiado los sistemas de primero y segundo orden, conviene recordar
los resultados correspondientes a sistemas de orden n. Supongase que el modelo
Sistemas dinamicos lineales de segundo orden y de orden y superior 93
0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
PULSACION /
n
-180
-150
-120
-90
-60
-30
0
D
E
S
F
A
S
E

=
0
.
1 0
.
2
0
.
3
0
.
4
0
.
5
0
.
7
0
7
1
.
0
2
.
0
5
.
0
0
.
1
0
.
2
0
.
3
0
.
4
0
.
5
0
.
7
0
7
1
.0
2
.0

=
5
.0
Figura 6.6: Desfases correspondientes a distintos factores de amortiguamiento.
Sistemas dinamicos lineales de segundo orden y de orden y superior 94
matematico del sistema que se esta considerando tiene la forma,
d
n
y
dt
n
+ a
1
d
n1
y
dt
n1
+ + a
n1
dy
dt
+ a
n
y = b
o
d
m
u
dt
m
+ + b
m
u (6.42)
en donde, por razones de realizabilidad fsica que se consideraran mas adelante,
n > m. Si las condiciones iniciales son nulas, su transformada de Laplace es
Y (s)(s
n
+ a
1
s
n1
+ +a
n1
s +a
n
) = U(s) (b
o
s
m
+ b
1
s
m1
+ +b
m
) (6.43)
por lo tanto, la transformada de Laplace de la salida del sistema y(t), corres-
pondiente a una entrada u(t), cuya transformada es U(t) = L [u(t)] resulta ser
Y (s) =
b
o
s
m
+ b
1
s
m1
+ + b
m
s
n
+ a
1
s
n1
+ + a
n1
s + a
n
U(s) (6.44)
Puesto que U(s) se supone conocido, el problema es el de determinar Y (s),
problema que se reduce al calculo de la antitransformada de Y (s). Para las
funciones normalmente empleadas en Automatica U(s) es el cociente de dos poli-
nomios en s, por lo que Y (s) sera a su vez el cociente de dos polinomios, es
decir,
Y (s) =
Q(s)
P(s)
=
Q(s)
(s p
1
)
n
1
(s p
2
)
n
2
. . . (s p
q
)
np
(6.45)
El polinomio del denominador U(s) se ha factorizado, siendo p
i
las raices de
la ecuacion P(s) = 0, que recibe la denominacion de polos de Y (s). Para mayor
generalidad, se ha supuesto que cada uno de los polos tiene una multiplicidad n
i
aunque normalmente n
i
= 1, para todo i.
El cociente de polinomios Y (s) se puede descomponer en fracciones simples,
escribiendose,
Y (s) =
q

i=1
ni

k=1
c
ik
(s p
i
)
k
(6.46)
en donde los coecientes c
ik
reciben la denominacion de residuos de Y (s) en
el polo p
i
. Los residuos se calculan con ayuda de la expresion
Sistemas dinamicos lineales de segundo orden y de orden y superior 95
c
ik
=
1
(n
i
k)!

d
nik
ds
nik

(s p
i
)
ni
Y (s)

s=p
i
(6.47)
Si todos los polos son simples, es decir, si todos los valores de n
i
son igual a
la unidad, entonces la expresion 6.46 se escribe
Y (s) =
q

i=1
c
i1
s p
i
(6.48)
y los residuos se determinan por la expresion
c
ik
= c
i1
= (s p
i
) Y (s) [
s=p
i
(6.49)
expresiones que no son sino particularizaciones para n
i
= 1 de las correspon-
dientes expresiones 6.46 y 6.47.
En el caso de polos simples, los residuos pueden determinarse de forma graca
sobre el plano complejo. Para ello, en primer lugar, considerese que Y (s) puede
escribirse
Y (s) =
k
m
i=1
(s z
i
)

n
i1
(s p
i
)
(6.50)
en donde se ha factorizado tambien el polinomio del numerador. Por z
i
se
denotan las raices de la ecuacion P(s) = 0 y estas raices se denominan ceros del
sistema. Puesto que Y (s) es, en general, una funcion compleja, se puede escribir,
Y (s) =[ Y [ e
j
=[ Y [

(6.51)
en donde [ Y (s) [ es el modulo (valor absoluto) de Y (s) y es el argumento
de Y (s), siendo
= t
1
an

ImY (s)
ReY (s)

La expresion compleja Y (s), de acuerdo con la expresion 5.8, puede escribirse


Sistemas dinamicos lineales de segundo orden y de orden y superior 96
Y (s) =
k

m
i=1
[ s z
i
[

n
i=1
[ s p
i
[

(
m

i=1

iz

i=1

ip
) (6.52)
es decir, puesto que Y (s), de acuerdo con la expresion 6.52, se determina como
el cociente de dos expresiones complejas, cada una de las cuales es a su vez el
producto de terminos elementales de la forma (s p
i
) el modulo de Y (s) sera el
cociente de los productos de los respectivos modulos, mientras que el argumento
sera la diferencia de las sumas de los correspondientes argumentos.
Interesa por tanto, representar en el plano complejo, los componentes elemen-
tales (s z
i
) y (s p
i
) con el n de determinar sus modulos y argumentos para
poder realizar con ellos las operaciones de multiplicacion y adicion a las que se
acaba de aludir.
En la gura 6.1.3 se muestra la representacion graca del vector asociado a
(s z
i
) y a (s p
i
). En el caso de (s
i
z
i
) se tiene un vector que va desde el
cero, z
i
al punto s, y analogamente para p
i
.
s
s P
i
P
i
Z
i
s Z
i
s
Im
Re
Figura 6.7: Vectores asociados
El residuo c
i1
= c
i
, correspondiente al polo p
i
, resulta ser de acuerdo con la
expresion 6.49,
c
i
= (s p
i
) Y (s) [
s=pi
=
k(s p
i
)
m
i=1
(s z
i
)

n
i=1
(s p
i
)

s=pi
Sistemas dinamicos lineales de segundo orden y de orden y superior 97
cuya determinacion graca puede hacerse siguiendo los siguientes pasos:
1. dibujar en el plano complejo los ceros, c
i
y los polos p
i
de Y (s).
2. dibujar los vectores desde todos los polos y ceros al polo p
i
en el que se esta
determinando el residuo.
3. determinar el modulo del residuo [ c
i
[ multiplicando los modulos de todos
los vectores desde los ceros y dividiendolos por el producto de los modulos
de todos los vectores desde los polos.
4. determinar el argumento del residuo

c
i
sumando los argumentos de los
vectores desde los ceros y restandole la suma de los argumentos de los
vectores desde los polos.
Tema 7
Representacion graca de la
funcion de transferencia
Es usual emplear representaciones gracas de la funcion de transferencia. Ello es
especialmente patente en los metodos clasicos, en los que se trabaja en el dominio
de la frecuencia. Vamos a ver algunas de las formas de representaci on gracas
mas usuales.
7.1 Diagramas mas comunes
7.1.1 Diagrama de polos y ceros: caso racional
Sea la funcion de transferencia
G(s) =
K(s + c
1
) . . . (s + c
m
)
(s + p
1
) . . . (s + p
n
)
Se puede representar G(s) indicando la posicion de sus ceros c
i
y de sus polos
p
i
en el plano de la variable compleja s (g. 7.1).
98
Representacion graca de la funcion de transferencia 99
Im
Re
K
Figura 7.1: Diagrama de polos y ceros
7.1.2 Diagrama de Nyquist
La funcion de transferencia G(s) se representa mediante una curva en un diagrama
polar. Esta curva se construye representando para cada valor de el modulo y
el argumento de la expresion compleja que resulta de hacer s = j en G(s).
Como se sabe, el modulo y el argumento de G(j) representan la amplicacion
(o atenuaci on) y el desfase de una se nal sinusoidal que atraviese el sistema. En la
gura 7.2 se representa un diagrama de esta naturaleza. Conviene observar que
vara de 0 a .
=
= 100
= 10
= 1
= 0
Im
Re
Figura 7.2: Diagrama de Nyquist
El diagrama de Nyquist es por tanto una curva parametrizada en que, para
cada punto (es decir, para cada frecuencia), da el modulo y el argumento de la
funcion de transferencia.
Representacion graca de la funcion de transferencia 100
7.1.3 Diagrama logartmico o de Bode
En este caso, la funcion de transferencia G(s) se representa mediante el conjunto
de las dos curvas siguientes (g. 7.3):
log
log
log |G(j)|
Arg G(j)
-180
o
Figura 7.3: Diagrama logartmico
Curva de amplitud: log [G(s)[ en funcion de log ;
Curva de fase: arg G(s) en funcion de log .
El empleo de logaritmos para representar los modulos permite facilitar la combi-
nacion de funciones de transferencia en serie, ya que en tal caso el producto de
los modulos se convierte en la suma de sus logaritmos.
Conviene recordar que la medida logartmica de la relacion entre dos se nales
A se expresa en
decibelios (dB), 20 log
10
A
decadas log
10
A
octavas log
2
A
Representacion graca de la funcion de transferencia 101
Este conjunto de curvas, como veremos a continuaci on, es el mas utilizado en
la practica para representar gracamente la funcion de transferencia.
7.1.4 Diagrama de Black
En este diagrama se representa la funcion de transferencia G(s) mediante una
curva parametrizada en en un plano cuyos ejes de coordenadas estan denidos
por arg(G(j)) y 20 log
10
A (g: 7.4).
log|G(j)|
Arg G(j)
0
-90
o
-180
o
=1
Figura 7.4: Diagrama de Black
7.2 Diagrama de Bode
Como se ha indicado mas arriba, el diagrama de Bode consiste en la representaci on
graca de la funcion de tranferencia mediante dos curvas, una relativa a la ampli-
tud y la otra a la fase. En ambas curvas, en abcisas se representa el logaritmo de
. En coordenadas se representa en un caso la relacion de amplitudes en escala
logartmica, mientras que en el segundo la fase en escala natural (en grados o en
radianes).
La representaci on de una funcion de transferencia G(s) en el diagrama de
Bode se hace mediante unas aproximaciones asint oticas que simplican enorme-
Representacion graca de la funcion de transferencia 102
mente su trazado. Para estudiar estas aproximaciones consideremos la funcion
de transferencia
G(j) =
k(j + c
1
)(j + c
2
) . . .
(j)
N
(j + p
1
)(j + p
2
) . . .
La denominada forma de Bode de esta funcion de tranferencia es la siguiente
G(j) =
k
c
i
p
j

1 +
j
c
1

1 +
j
c
2

. . .
(j)
N

1 +
j
p
1

1 +
j
p
2

. . .
(7.1)
en donde la denominada ganancia de Bode viene dada por
k
B
= k
c
i
p
j
La expresion (7.1) es una expresion compleja en funcion de . Es decir, para
cada valor de tomara un valor complejo y, por tanto, tendra un modulo y un
argumento. El modulo sera tal que si tomamos su logaritmo se podra escribir
20 log [G(j)[ = 20 log [k
B
[ + 20 log

1 +
j
c
1

+ . . .
+20 log

1
(j)
N

+ 20 log
1

1 +
j
p
1

+ . . . (7.2)
mientras que el argumento sera
20 arg G(j) = 20 arg k
B
+ 20 arg

1 +
j
c
1

+ . . .
+20 arg
1
(j)
N
+ 20 arg
1

1 +
j
p
1

+ . . . (7.3)
Observese que mediante la adopcion de una escala logartmica para el modulo se
ha descompuesto aditivamente en las aportaciones de cada uno de los elementos
que aparecen en (7.1).
Esta descomposicion aditiva, junto con la que se da de una manera natu-
ral para el argumento, permite que se obtenga la representaci on graca en el
diagrama de Bode a partir de la representaci on graca de cada uno de los ele-
mentos que aparecen en (7.1). Vamos a ver a continuaci on como se representa
gracamente cada uno de estos elementos.
Representacion graca de la funcion de transferencia 103
7.2.1 Diagrama de Bode de una constante
La representaci on en el diagrama de Bode de una constante es inmediata y se
tiene en la gura 7.5.

(rad/s)
-180.0
-90.0
0.0
F
a
s
e
(
g
r
a
d
o
s
)
-20logK
0
20logK
A
m
p
l
i
t
u
d
(
d
B
)
K>1
K<1
K(numero positivo)
K(numero negativo)
Figura 7.5: Diagrama de Bode de una constante
7.2.2 Diagrama de Bode de una integraci on pura
El diagrama de Bode de una integraci on pura
G(j) =
1
j
viene dada por una recta de pendiente -20 decibelios por decada (o -6 decibelios
por octava) y con un desfase constante igual a -90 grados
7.2.3 Diagrama de Bode de un sistema de primer orden
Sea el sistema de funcion de transferencia
1
1 +
j
p
Representacion graca de la funcion de transferencia 104
10
-1
10
0
10
1
10
2
(rad/s)
-180
-90
0
90
F
a
s
e
(
g
r
a
d
o
s
)
-40
-20
0
20
A
m
p
l
i
t
u
d

(
d
B
)
-20dB/dec
Figura 7.6: Diagrama de Bode de una integraci on pura
Para estudiar su representaci on en el diagrama de Bode consideraremos, en primer
lugar, dos situaciones extremas:

<p
En tal caso se tendra que
20 log [
1
1 +
j
p
[ 20 log 1 = 0dB

p
en cuyo caso
20 log [
1
1 +
j
p
[ 20 log [
1
j
p
[ = 20 log

p
Por tanto, la representacion graca del modulo de G presenta dos asntotas. Para
valores bajos de la asntota es sencillamente la recta horizontal trazada en 0
dB; mientras que para valores altos de la frecuencia la asntota es una recta de
pendiente -20 dB/decada. Estas dos asntotas se cortan en el punto = p.
Para completar la curva podemos considerar dos puntos interesantes:
Representacion graca de la funcion de transferencia 105
10
-1
10
0
10
1
10
2
(rad/s)
-90
-45
0
F
a
s
e
(
g
r
a
d
o
s
)
-40
-20
0
20
A
m
p
l
i
t
u
d
(
d
B
)
1dB
3dB
1dB
Figura 7.7: Diagrama de Bode de un sistema de primer orden
para /p = 0.5 se tiene [G(j)[ = 1 dB.
para /p = 1 se tiene [G(j)[ = 3 dB.
Por lo que respecta a la fase no es posible hacer unas aproximaciones asintoticas
como las que acabamos de ver para la amplitud. No obstante, se dispone de una
plantilla que permite trazar la curva de fase correspondiente.
7.2.4 Diagrama de Bode de una diferenciacion pura
El diagrama de Bode de un diferenciador puro
G(j) = j
se obtiene de forma similar al de un integrador puro. En la gura 7.8 se representa
el diagrama correspondiente. En este caso la curva de amplitud tiene pendiente
positiva y la de fase es positiva.
Representacion graca de la funcion de transferencia 106
10
-1
10
0
10
1
10
2
(rad/s)
0
45
90
F
a
s
e
(
g
r
a
d
o
s
)
-20
0
20
40
A
m
p
l
i
t
u
d
(
d
B
)
+20dB/dec
Figura 7.8: Diagrama de Bode de una diferenciacion pura
7.2.5 Diagrama de Bode del termino asociado a un cero
El termino asociado a un cero
G(j) =
j
p
+ 1
conduce, por consideraciones analogas a las que se han hecho para un sistema de
primer orden (asociado a un polo), tiene la forma que se muestra en la gura 7.9.
Combinando todo lo que se acaba de ver, y teniendo en cuenta las expresiones
(7.2 y (7.3), se puede obtener la representaci on graca de la funcion de trans-
ferencia del sistema cuya funcion de transferencia viene dada por la expresion
(7.1).
7.3 Sistemas de fase mnima
Un sistema con un cero con parte real positiva recibe la denominacion de sistema
de fase no mnima, mientras que si todos ceros tienen parte real negativa recibe
la denominacion de sistema de fase mnima. En los sistemas de fase no mnima
el valor que toma la fase es mayor, para un mismo valor de la frecuencia, que
Representacion graca de la funcion de transferencia 107
10
-1
10
0
10
1
10
2
(rad/s)
0.0
22.5
45.0
67.5
90.0
F
a
s
e
(
g
r
a
d
o
s
)
0
20
40
A
m
p
l
i
t
u
d
(
d
B
)
+20dB/dec
1dB
3dB
1dB
Figura 7.9: Diagrama de Bode del termino asociado a un cero
si todos los polos y ceros estuvieran en el semiplano de la izquierda (el sistema
fuera de fase mnima).
p
0
z
Re

Im

Im
p z 0
Re
G
1
(s)
G
2
(s)
Figura 7.10: Diagrama de polos y ceros de G
1
y de G
2
Con el n de ilustrar el concepto de sistema de fase mnima considerense los
sistemas de funcion de transferencia:
G
1
(s) =
s z
s + p
(7.4)
y
G
2
(s) =
s + z
s + p
(7.5)
Vamos a comparar los diagrams de Bode de estas dos funciones de transferencia.
Representacion graca de la funcion de transferencia 108
Para ello considerese la gura 7.10. Es claro que
[ G
1
(j) [=[ G
2
(j) [ 0
y, por tanto, las curvas de amplitud en el diagrama de Bode seran las mismas
para las dos funciones de transferencia.
Sin embargo, por la que respecta a los argumentos es claro que se tendra:
arg G
1
(j) arg G
2
(j) 0
En la gura 7.11 se tienen las correspondientes curvas de fase. Se comprende la
denominacion de sistema de fase mnima para G
2
.

G
1
(j)
G
2
(j)
180
o
90
o
-90
o
10
0 10
1
10
2
10
-1
Figura 7.11: Curvas de fase en el diagrama de Bode de G
1
y de G
2
7.4 Crculos M y N
Para proceder al dise no de sistemas realimentados, mediante metodos gracos,
es necesario disponer de un metodo graco que permita pasar de la funcion de
transferencia en bucle abierto G(s) a la correspondiente a bucle cerrado T(s).
Como se sabe la expresion que liga a estas dos funciones de transferencia es la
siguiente
T(s) =
G(s)
1 + G(s)
Representacion graca de la funcion de transferencia 109
Si se interpreta vectorialmente esta expresion se tendra que el vector T(j) tendra
como modulo el cociente de los vectores G(j) y 1 + G(j), y como argumento
la diferencia de los argumentos de estos dos vectores. En la gura 7.12 se tienen
1 +G
0

Im

G
A Re
(1 +j0)
Figura 7.12: Diagrama polar de la funcion de transferencia, con vectores asociados
representados los correspondientes vectores. A partir de esta gura resulta que
para cada valor de el modulo de T(j) se determinara mediante el cociente de
las medidas de los segmentos OP y AP, y el argumento de T(j) vendra dado
por la expresion
arg C/R = (7.6)
Con el n de facilitar la aplicacion practica de este metodo graco se procede
a denir en el plano polar un sistema de coordenadas curvilineas que permita
resolver gracamente la determinacion del modulo y el argumento de T(j).
Para ello se procede a dibujar el lugar geometrico de los puntos para los que
el modulo (respectivamente el argumento) de T(j) sea constante. Sea (x, y) un
punto generico del plano complejo (gura 7.13). A partir de las guras 7.12 y
7.13 se puede escribir
OP =

x
2
+ y
2
AP =

(1 + x)
2
+ y
2
M =
OP
AP
=

x
2
+ y
2

(1 + x)
2
+ y
2
Elevando al cuadrado esta expresion, y tras algunas manipulaciones algebraicas,
se tiene
y
2
+ x
2
+ 2x
M
2
M
2
1
=
M
2
M
2
1
Representacion graca de la funcion de transferencia 110
Figura 7.13: Plano complejo
Sumando y restando a esta expresion

M
2
M
2
1

2
se tiene
y
2
+ x
2
+ 2x
M
2
M
2
1
+

M
2
M
2
1

2
=

M
2
M
2
1

M
2
M
2
1
de donde se concluye
y
2
+

x +
M
2
M
2
1

2
=
M
2
M
2
1
Esta expresion indica que el lugar geometrico en el plano complejo de los puntos
para los que el modulo de T(j) es constante viene dado por un crculo de centro
c =
M
2
M
2
1
y de radio
r =

M
M
2
1

La familia de crculos correspondientes a diferentes valores de M se tiene en


la gura 7.14. Esta gura admite una facil interpretaci on. Si en ella se dibuja
la funcion de transferencia en bucle abierto G(j) entonces leyendo esta misma
curva en el sistema de coordenadas curvilneas denido por los crculos M se
tiene el modulo de la funcion de transferencia en bucle cerrado T(j). Por lo que
respecta a las fases, se puede proceder de manera analoga a como se ha hecho
con los modulos. En este caso se tiene que, de acuerdo con la expresion (7.6)
Representacion graca de la funcion de transferencia 111
Re
Im
Figura 7.14: Crculos M
0
1 +j0
1 +G

Figura 7.15: Crculos N


Representacion graca de la funcion de transferencia 112
el argumento de T(j) viene dado por el angulo APO en la gura 7.12. En la
gura 7.15 se representa el lugar geometrico de todos los angulos APO de valor
constante. Este lugar geometrico resulta ser un crculo, de acuerdo con una bien
conocida propiedad de la geometra, y el valor de este angulo esta perfectamente
denido en el crculo y resulta ser de /2, de acuerdo con la gura 7.15. Es decir
arg
G
1 + G
= =

2
= arctan
1/2
y
siendo
y =
G
2 tan()
De este modo se tiene denida otra familia de crculos, los crculos N, en los que
se puede leer la fase del sistema en bucle cerrado si se dibuja en coordenadas
polares la funcion de transferencia en bucle abierto.
En la practica no se emplean los crculos M y N en el diagrama polar, sino su
traslacion a un diagrama de coordenadas rectangulares, en el que se representa en
abcisas el logaritmo de y en coordenadas la relacion de amplitudes en decibelios.
Este diagrama recibe la denominacion de abaco de Black, en libros europeos,
mientras que en libros americanos es frecuente que se denomine abaco de Nichols.
7.5 Relacion entre las constantes de error y los
polos y ceros.
Sea G(s) la funcion de transferencia en bucle abierto de un sistema con reali-
mentacion unitaria. La funcion de transferencia en bucle cerrado correspondiente
T
d
(s) sera:
T
d
(s) =
Y (s)
R(s)
=
G(s)
1 + G(s)
(7.7)
y la relacion entre la se nal de error y la referencia vendr a dada por
E(s)
R(s)
=
1
1 + G(s)
(7.8)
Supongase que los polos de T
d
(s) se denotan por p
i
y que los ceros se hacen
por c
i
. En tal caso se tiene:
Representacion graca de la funcion de transferencia 113
T
d
(s) =
k(s + c
1
) (s + c
2
) (s + c
m
)
(s + p
1
) (s + p
2
) (s + p
n
)
(7.9)
Por otra parte desarrollando en serie E(s) /R(s) se tiene:
E(s)
R(s)
= e
o
+ e
1
s + e
2
s
2
+ (7.10)
Se van a estudiar a continuacion las relaciones entre las constantes de posicion
k
p
, velocidad k
v
, y aceleracion k
a
y los polos y ceros de T
d
(s).
7.5.1 Seguimiento de posicion.
Supongase una entrada en escalon de posicion, de manera que R(s) = 1/s. En
tal caso (7.10) se convierte en
E(s) =
e
o
s
+ e
1
+ e
2
s + ... (7.11)
Es decir que
sE(s) = e
o
+ e
1
s + e
2
s
2
+ ... (7.12)
Por lo tanto aplicando el teorema de valor nal, el valor del error en regimen
permanente e
rp
sera:
e
rp
= lim
t
e(t) = lim
s 0
sE(s) = lim
s 0
1
1 + G(s)
= e
o
(7.13)
Deniendo la constante de error de posicion k
p
como
k
p
= lim
s 0
G(s) (7.14)
se tiene que e
0
viene dado por
Representacion graca de la funcion de transferencia 114
e
o
=
1
1 + k
p
(7.15)
Por otra parte puesto que
E(0)
R(0)
= lim
s 0
1
1 + G(s)
(7.16)
Y considerando (7.10), es decir e
0
= E(0) / R(0), se tendra que
E(0)
R(0)
=
1
1 + k
p
(7.17)
Ademas se sabe que
Y (s)
R(s)
= 1
E(s)
R(s)
(7.18)
A partir de (7.17) y (7.18), haciendo s = 0, se obtiene
Y (0)
R(0)
=
k
p
1 + k
p
(7.19)
de donde, resolviendo para k
p
, se tiene
k
p
=
Y (0) / R(0)
1 Y (0) / R(0)
(7.20)
Por otra parte se tiene que haciendo s = 0 en (7.7) se llega a
Y (0)
R(0)
=
k
m
j=1
c
j

n
j=1
P
j
(7.21)
en donde
Representacion graca de la funcion de transferencia 115

m
j=1
C
j
= producto de ceros

n
j=1
P
j
= producto de polos
Llevando (7.21) a (7.20) se tiene la siguiente expresion en donde k
p
esta ex-
presada en funcion de los polos y ceros.
k
p
=
k
m
j=1
C
j

n
j=1
P
j
k
m
j=1
C
j
(7.22)
En la practica tiene un especial interes la consideracion de los sistemas de tipo
1 en bucle abierto. Este caso se presenta cuando se estudian los servomecanismos
de posicion. Para los sistemas de tipo uno, o superior, recordando la expresion
(8), es inmediato que k
p
tiende a innito. En tal caso, y de acuerdo con (9) es
claro que e
0
= 0. Por ello considerando (7.10) y (12) se tendra que
Y (s)
R(s)
= 1
E(s)
R(s)
= 1 e
1
s e
2
s
2
(7.23)
Observese que haciendo s = 0 se tiene
Y (0)
R(0)
= 1 (7.24)
lo que signica que en regimen permanente no existe error de seguimiento,
cosa que era sabida para los sistemas de tipo uno.
Haciendo s = 0 en la expresion (7.9), y teniendo en cuenta (7.24) se tendra
que
1 =
k c
1
......c
m
p
1
p
2
......p
n
(7.25)
Esta expresion muestra la relacion existente entre los polos ceros y la constante
k de un sistema en bucle cerrado para que el error de seguimiento en posicion sea
nulo.
La constante de posicion k
p
es adimensional.
Representacion graca de la funcion de transferencia 116
7.5.2 Seguimiento de velocidad.
Sea un sistema con error de seguimiento en posicion nulo (e
o
= 0) y supongase
que se le aplica una entrada en rampa de manera que R(s) = 1/s
2
. En tal caso
se tiene que E(s) vendr a dado por
E(s) =
1/s
2
1 + G(s)
=
e
1
s
+ e
2
+ .... (7.26)
Aplicando el teorema del valor nal se tendra que el error en regimen perma-
nente a una rampa sera
e
rp
= lim
t
e(t) = lim
s0
sE(s)
= lim
s0
1
s + sG(s)
= lim
s0
1
sG(s)
= e
1
Se dene la constante de error de velocidad k
v
como
k
v
= lim
s 0
sG(s) (7.27)
de manera que e
1
vendr a dada por
e
1
=
1
k
v
(7.28)
La constante de seguimiento en velocidad k
v
tiene un valor nito para sistemas
en bucle abierto de tipo 1, es decir, para sistemas con una integraci on pura. En
tal caso se tiene que e
0
= 0, con lo que se tiene, habida cuenta de la expresion
(7.10).
Y (s)
R(s)
= 1 e
1
s e
2
s
2
....
Derivando esta expresion con relacion a s, y haciendo s = 0, se tiene
Representacion graca de la funcion de transferencia 117

d
ds
Y (s)
R(s)

s=0
= e
1
=
1
k
v
(7.29)
Si, ademas se tiene presente que para sistemas de tipo 1

Y (s)
R(s)

s=0
=
Y (0)
R(0)
= 1
a partir de las dos expresiones anteriores
1
k
v
=

d
ds
(Y (s)/R(s))

s=0
(Y (s)/R(s))
s=0
=

d
ds
ln
Y (s)
R(s)

s=0
(7.30)
Llevando la anterior expresion a (7.10) se tiene que
1
k
v
=

d
ds
(ln k + ln(s + c
1
) + .. ln(s + p
1
) ..)

s = 0 (7.31)
lo que puede escribirse
1
k
v
= (
1
s + c
1
+ ....
1
s + p
1
...)s = 0
o de forma mas compacta
1
k
v
=
n

i=1
1
p
i

j=1
1
c
j
(7.32)
Por consiguiente 1/k
v
es igual a la suma de los inversos de los polos menos la
suma de los inversos de los ceros, todo en bucle cerrado.
Si se quiere que el error de seguimiento en velocidad sea nulo se requerira que
k
v
tienda a innito, en cuyo caso se tendra que
Representacion graca de la funcion de transferencia 118
n

j=1
1
p
j
=
m

j=1
1
c
j
(7.33)
Ejemplo.
Sea un sistema de segundo orden cuya funcion de transferencia en forma nor-
malizada se escribe
Y (s)
R(s)
=

2
n
s
2
+ 2
n
s +
2
n
Este sistema presenta un error de seguimiento en posicion igual a cero, es decir
Y (0)/R(0) = 1. Por lo tanto interesa calcular k
v
en funcion de los parametros

n
y . Los polos de la anterior funcion de transferencia seran p
1,2
=
n

j
n

1
2
y por lo tanto aplicando la expresion (7.32) se tendra que
k
v
=

n
2
(7.34)
La constante de velocidad k
v
tiene dimension de seg
1
. En efecto
e
rp
=

k
v
y como e
rp
se mide en metros (o radianes) y en metros por segundo (o rad
/ seg) se tendra que k
v
vendr a dada por seg
1
.
7.5.3 Seguimiento de aceleracion
Sea un sistema con errores de seguimiento de posicion y velocidad nulos. Para el
estudio de un seguimiento en aceleracion se procede de forma similar a como se
ha hecho anteriormente. Si se supone una entrada en aceleracion se tendra que
R(s) = 1/s
3
, con lo que el valor de E(s) sera
E(s) =
e
2
s
+ e
3
+ s e
4
+ ... (7.35)
Representacion graca de la funcion de transferencia 119
Aplicando nuevamente el teorema del valor nal se tendra que el error de
seguimiento en aceleracion cuando el tiempo tiende a innito sera
e
rp
= lim
s0
s E(s) = e
2
Y deniendo la constante de error en aceleracion k
a
como
k
a
= lim
s
s
2
G(s)
se tendra que
e
2
=
1
k
a
Tomando la segunda derivada de (29) se tendra que
d
2
ds
2

ln
Y (s)
R(s)

=
(Y/R)
Y/R

(Y/R)
1
Y/R

2
de donde es facil de deducir haciendo s = 0, que

2
k
a
=
1
k
2
v
+
n

j=1
1
p
2
j

j=1
1
c
2
j
expresion que permite calcular la constante de velocidad k
a
.
La constante de aceleracion k
a
tiene dimension seg
2
.
7.5.4 Sistemas con error nulo
Supongase que la funcion de transferencia de un sistema en bucle cerrado viene
dada, en forma normalizada, por la expresion siguiente
Y (s)
R(s)
=
b
o
s
m
+ + b
m1
s + b
m
s
n
+ a
1
s
n1
+ + a
n1
s + a
n
(7.36)
Representacion graca de la funcion de transferencia 120
Esta expresion, considerada como cociente de dos polinomios, puede desarrol-
larse en serie, de la forma siguiente:
Y (s)
R(s)
=
b
o
s
m
+ + b
m1
s + b
m
s
n
+ a
1
s
n1
+ + a
n1
s + a
n
= c
o
+ c
1
s + c
2
s
2
+
La determinacion de los coecientes c
i
del desarrollo en serie, puede hacerse
facilmente multiplicando ese desarrollo en serie por el denominador de la funcion
de transferencia, e igualando coecientes entre ambos miembros. Con ello se
obtiene que
c
o
=
b
m
a
n
(7.37)
c
1
=
b
m1
c
o
a
n1
b
m
Recordando la expresion (7.10) se tiene que el error vendr a dado por
E(s)
R(s)
= 1
T(s)
R(s)
Si se supone una entrada en escalon R(s) = 1/s, entonces es evidente que el
error sera nulo en regimen permanente si c
0
= 1, es decir, si a
n
= b
m
.
Por consiguiente es necesario que b
m
= a
n
para que el error en regimen esta-
cionario sea nulo, cuando se aplica como se nal de entrada una se nal en escalon.
Para obtener un error de seguimiento en posicion nulo, para un sistema cuya
funcion de transferencia sea de la forma (30), existen distintas formas posibles.
Si el numerador consiste unicamente en una constante, entonces la forma que se
obtiene es unica y es la siguiente
Y (s)
R(s)
=
a
n
s
n
+ + a
n1
s + a
n
(7.38)
Representacion graca de la funcion de transferencia 121
Supongase que c
0
= 1. En tal caso, c
1
se convierte en
c
1
=
b
m1
a
n1
b
m
(7.39)
Ahora suponiendo una entrada en rampa, el error tendra un valor nulo en
regimen permanente si a
n1
= b
m1
. En tal caso una forma posible para la
funcion de transferencia en bucle cerrado es
Y (s)
R(s)
=
a
n1
s + a
n
s
n
+ a
1
s
n1
+ + a
n1
s + a
n
(7.40)
Estas expresiones se pueden generalizar para entradas de orden superior. El
interes de las mismas radica en que permite especicar el numerador, a partir
de consideraciones de comportamiento en regimen permanente, partiendo del
denominador, obtenido por consideraciones de comportamiento transitorio.
Tema 8
Estabilidad de los sistemas
dinamicos
8.1 Introduccion
La estabilidad es una propiedad cualitativa de los sistemas dinamicos a la que
cabe considerar como la mas importante de todas. Ello es debido a que, en la
practica, todo sistema debe ser estable. Si un sistema no es estable, normalmente
carece de todo interes y utilidad.
El estudio de la estabilidad de los sistemas dinamicos ocupa un lugar primor-
dial en el analisis y en la sntesis de los sistemas realimentados. De hecho, la
sntesis de un sistema de control estara presidida por un imperativo de estabi-
lizacion del sistema realimentado que resulte.
El presente captulo se va a dedicar al analisis de la estabilidad de los sistemas
dinamicos, es decir, a establecer criterios que permitan discernir si un determinado
sistema dinamico, dado en una cierta forma de representacion matematica, es
estable o no. En captulos posteriores se estudiaran las modicaciones a introducir
en los sistemas dinamicos para modicar su estabilidad.
El estudio de la estabilidad de los sistemas dinamicos, se hara atendiendo a la
forma de representacion adoptada; en este sentido se estudiara en primer lugar la
estabilidad de los sistemas dinamicos dados por su descripcion externa, y luego
se hara el estudio para la descripcion interna de los mismos.
122
Estabilidad de los sistemas dinamicos 123
Al mismo tiempo se ver a a lo largo de este captulo como existen distintas
deniciones de estabilidad, lo que da lugar a distintos criterios, asociados a las
distintas deniciones. No obstante, se ver a que pese a la aparente diversidad de
deniciones y criterios, existe una profunda unidad subyacente en todo el tema.
8.2 Criterios de estabilidad relativos a la de-
scripcion externa
Una forma intuitiva de afrontar el problema de la estabilidad de un sistema
es considerar que este sera estable si las distintas magnitudes que lo denen no
alcanzan valores innitos. Basados en esta idea intuitiva se puede dar la siguiente
denicion precisa de estabilidad.
Denicion
Un sistema, inicialmente en reposo, se dice estable si ante cualquier se nal de
entrada acotada, es decir, que no alcanza valores innitos, responde con una se nal
de salida acotada.
Formalmente se dice de una se nal x(t), denida en un cierto intervalo (t
0
, t
1
),
que esta acotada en dicho intervalo, si para todo t (t
0
, t
1
) existe un valor k <
tal que [x(t)[ < k
De una forma mas compacta puede decirse que un sistema es estable si,
se nal de entrada acotada se nal de salida acotada.
Desde un punto de vista intuitivo esta denicion de estabilidad es satisfactoria;
tiene, ademas, la ventaja adicional de que conduce a resultados matematicos
interesantes, seg un se ver a en lo que sigue.
Para el caso de sistemas multivariables esta denicion es igualmente valida,
sustituyendo las se nales de entrada y de salida por los vectores de se nales de
entrada y de salida.
En los libros anglosajones a la estabilidad anteriormente denida se la llama
estabilidad BIBO (bounded-input bounded-output).
Estabilidad de los sistemas dinamicos 124
Si se adopta la forma de descripcion externa dada por la integral de con-
volucion, es decir, si la relacion entre la se nal de entrada u(t) y la se nal de salida
y(t) esta dada por una expresion de la forma,
y(t) =

h(t, ) u() d (8.1)


entonces el criterio de estabilidad de un sistema viene dado por el siguiente
teorema.
Teorema
Un sistema, inicialmente en reposo, representado por una expresion de la
forma (8.1) es estable si y solo si existe un n umero nito k tal que para todo t,

[ h(t, ) [ d k < (8.2)


Demostracion
1. Suciencia
Se trata de demostrar que si se cumple la condicion (8.2), entonces ante
una se nal de entrada acotada, [ u(t) [< k
1
para todo t, la se nal de salida
y(t) es tambien acotada. En efecto, se tiene:
[ y(t) [=[

h(t, ) u()d [

[ h(t, ) [ u() [ d
k
1

[ h(t, ) [ d kk
1
2. Necesidad
Se trata de demostrar que si las se nales de entrada u(t) y de salida y(t) son
acotadas, entonces siempre se cumple la expresion 8.2. Ello es equivalente
a demostrar que si no se cumple la expresion 8.2 entonces pueden existir
se nales de salida y(t) que no esten acotadas aunque lo este la se nal de
entrada u(t).
Supongase que la expresion (8.2) no se cumple, es decir
Estabilidad de los sistemas dinamicos 125

[ h(t
1
, ) [ d =
Si a este sistema se le aplica la siguiente se nal de entrada se tiene una salida
no acotada. En efecto, sea
u(t) = sgn[h(t
1
, )]
en donde,
sgn x =

0 si x = 0
1 si x > 0
1 si x < 0
Es claro que u(t) es acotada. Sin embargo la se nal de salida del sistema no
lo es,
y(t
1
) =

t
1

h(t
1
, ) u() d =

t
1

[ h(t
1
, ) [ d =
Queda demostrado la necesidad de que se cumpla la expresion (8.2) para
que el sistema sea estable.
Para sistemas multivariables el anterior resultado se generaliza diciendo que
un sistema sera estable si la propiedad de la expresion (8.2) se cumple para cada
uno de los elementos de la matriz H(t, ).
Para sistemas invariantes en el tiempo la expresion (8.1) se convierte en
y(t) =

t
0
h(t ) u() d (8.3)
Y la expresion (8.2) se convierte en,


0
[ h() [ d < k < (8.4)
Para sistemas invariantes en el tiempo, la forma de descripcion externa usual-
mente empleada es la funcion de transferencia. Interesa enunciar un criterio de
Estabilidad de los sistemas dinamicos 126
estabilidad en terminos de dicha funcion de transferencia. Es lo que se hace en el
siguiente teorema.
Teorema
Un sistema lineal y estacionario, representado por una funcion racional propia
G(s) es estable si y solo si, todos los polos de G(s) estan situados en el semiplano
izquierdo abierto del plano s.
Una forma equivalente de expresar lo anterior es decir que los polos de G(s)
tienen la parte real negativa.
En el semiplano izquierdo abierto, a que se alude en el anterior teorema, se
excluye el eje imaginario. Si se incluye este eje imaginario se habla del semiplano
izquierdo cerrado.
Demostracion
Si G(s) es una funcion racional propia entonces puede desarrollarse en frac-
ciones parciales, de manera que se descompone en la suma de un n umero nito
de terminos de la forma,
K
(s p
i
)
l
Y ademas, posiblemente, una constante p
i
denota un polo de G(s).
Al hallar la antitransformada de Laplace de G(s) se tiene que g(t) es la suma
de un n umero nito de terminos de la forma t
1
e
pi t
y, ademas, una posible
funcion de Dirac. Es facil demostrar que t
1
e
pi t
es absolutamente integrable
si y solo si pi tiene la parte real negativa. Por lo tanto el sistema G(s) sera estable
si y solo si todos los polos de G(s) tienen la parte real negativa.
Ejemplo 1
Sea el sistema cuya funcion de transferencia es G(s) = 1/s. Este sistema no
es estable, de acuerdo con las anteriores deniciones. En efecto, considerese
una se nal de entrada en escalon U(s) = 1/s. Se tendra que la se nal de
salida sera Y (s) = 1/s
2
. Por lo tanto
y(t) = L
1
(1/s
2
) = t
la se nal de salida y(t) no es acotada y por lo tanto el sistema no es estable.
Estabilidad de los sistemas dinamicos 127
Ejemplo 2
Seg un la denicion anterior un oscilador simple es un sistema inestable. En
efecto, considerese el sistema cuya funcion de transferencia es G(s) = 1/(1+
s
2
) que corresponde a un oscilador. La respuesta impulsional correspon-
diente es g(t) = sen t, la cual se representa en la gura 8.1 (a). Supongase
ahora que se aplica a dicho sistema una se nal de entrada periodica rectan-
gular, de amplitud unidad y de periodo el mismo del oscilador, tal como la
de la gura 8.1 (b). La se nal de salida viene dada por la expresion 8.3.
Supongase ahora que en la expresion 8.3 se hace t = 0. El producto de
se nales g() u() esta representado en la gura 8.1 (c). Es claro que y(0)
es precisamente el area cubierta por dicha curva, cuando tiende a innito.
Por lo tanto y(0) = . Es decir, el sistema es inestable.
A este mismo resultado se llega inmediantamente considerando los polos de
la funcion de transferencia, que resultan estar situados en el eje imaginario.
Para sistemas multivariables se generalizan inmediatamente los anteriores re-
sultados diciendo que un sistema multivariable denido por una matriz de trans-
ferencia G(s) sera estable si cada uno de sus elementos satisface el anterior teo-
rema.
Sea la funcion de transferencia de la forma:
H(s) =
b
0
s
m
+ b
1
s
m1
+ + b
m
s
n
+ a
1
s
n1
+ + a
n
=
b(s)
a(s)
(8.5)
Figura 8.1:
Para determinar si H(s) es estable o no, es necesario:
1. comprobar si m < n;
2. determinar si las raices de a(s) estan situadas en el semiplano abierto ne-
gativo.
Para comprobar si las raices de un determinado polinomio se encuentran en el
semiplano abierto negativo, se aplica el criterio de Routh-Hurwitz que se estudia
en el apartado siguiente.
Estabilidad de los sistemas dinamicos 128
8.2.1 Criterio de Routh-Hurwitz
Una funcion de transferencia T(s) representa a un sistema estable si sus polos
se encuentran en el semiplano izquierdo negativo. Por lo tanto el problema del
analisis de la estabilidad de un sistema se reduce al del analisis de los ceros del
polinomio del denominador.
Un polinomio se denomina un polinomio de Hurwitz si todas sus raices tienen
la parte real negativa. Por lo tanto el problema de la estabilidad se reduce al de
determinar si el polinomio del denominador es, o no, un polinomio de Hurwitz.
El metodo directo de comprobar si un determinado polinomio es o no un poli-
nomio de Hurwitz consiste en determinar todas las raices de dicho polinomio. Este
procedimiento puede ser, ademas de excesivamente laborioso, in util por cuanto
que suministra una informacion superior a la que se requiere. No se trata de
saber cuales son las raices, sino, simplemente, si su parte real sera negativa o no.
El metodo de Routh-Hurwitz, permite determinar si las partes reales de las
raices seran negativas o no sin necesidad de determinarlas. Considerese un poli-
nomio como el siguiente:
s
n+1
+ a
1
s
n
+ + a
n
(8.6)
Para determinar si el anterior polinomio tiene raices con parte real negativa
se procede como sigue:
1. Si alg un coeciente del polinomio es negativo o cero, entonces existe al
menos una raiz en el semiplano cerrado derecho. El sistema es, por lo
tanto, inestable.
2. En el caso de que no se cumplan los supuestos de 1), se procede a construir
la siguiente tabla:
n + 1
n
n 1
n 2
. . .
1

1 a
2
a
4
. . .
a
1
a
3
a
5
. . .

1

2

3

1

2

3
. . .

1
(8.7)
en donde la generacion de las distintas las se hace como sigue, a partir de
los elementos de las dos anteriores
Estabilidad de los sistemas dinamicos 129

1
=
a
1
a
2
a
3
1
a
1
(8.8)

2
=
a
1
a
4
a
5
1
a
1
La tabla anterior recibe la denominacion de tabla de Routh, y el algoritmo que
permite su construccion se denomina algoritmo de Routh. Independientemente
de los trabajos de Routh, que publico originalmente el algoritmo que conduce a la
construccion de la tabla anterior, Hurwitz publico un criterio de estabilidad, que
se estudiara en una seccion posterior de este tema, que esencialmente coincide
con el de Routh. Por ello el criterio lleva conjuntamente el nombre de los dos
autores.
Toda la depende de las dos las precedentes. Se procede sucesivamente a
determinar las hasta que se determine una cuyos elementos sean todos 0. Para
un polinomio de orden n se determinan n + 1 las.
El criterio de estabilidad de Routh-Hurwitz dice que el polinomio tiene sus
raices en el semiplano abierto negativo si todos los elementos de la primera
columna son positivos y no nulos. El n umero de cambios de signo en la primera
columna es igual al n umero de raices del polinomio (8.6) en el semiplano positivo
abierto.
Ejemplo
Sea el polinomio s
4
+ 5s
3
+ 3s
2
+ s + 2 = 0. Para determinar el n umero de
raices en el semiplano positivo, se construye la tabla de Routh y se tiene,
4
3
2
1
0

1 3 2
5 1 0
14/5 2
36/14 0
2
como hay dos cambios de signo en la primera columna existiran dos raices en
el semiplano derecho. Por consiguiente el sistema es inestable.
En la practica el criterio de Routh-Hurwitz se aplica para determinar si el
sistema es estable o no y, en general, no interesa saber el n umero de raices en el
Estabilidad de los sistemas dinamicos 130
semiplano positivo abierto. Por lo tanto, cuando lo unico que interese sea conocer
si el sistema sera estable o no, se procedera a construir la tabla de Routh hasta
encontrar un elemento de la primera columna que sea negativo o cero. Cuando
aparezca un elemento negativo o nulo, se suspendera la construccion de la tabla,
y se dictaminara que el sistema es inestable.
En el caso de que interesase conocer cuantas raices existiran en el semiplano
positivo, o en el eje imaginario, se procede a construir la tabla de Routh completa.
En la construccion de la tabla de Routh, para el caso en que interese completarla
a un cuando aparezcan elementos nulos en la primera columna, se presentan los
dos casos singulares siguientes :
1. Aparece un 0 en la primera columna, siendo no nulos los otros elementos
de la misma la.
2. Aparece una la con todos los elementos nulos, antes de llegar a la la n+2.
En el primer caso se sustituye el 0 por un n umero arbitrariamente peque no .
Se completa la tabla y se calcula el lmite de los elementos en los que aparezca
haciendo 0.
Ejemplo
Considerese el polinomio: s
4
+ s
3
+ 2s
2
+ 2s + 3
Al construir la tabla de Routh se encuentra un cero en la primera columna,
en la la dos. Se sustituye este cero por y se procede a completar la tabla, que
resulta la siguiente:
4
3
2
1
0

1 2 3
1 2
0 3
23

3
Una vez construida la tabla se determina el lmite de aquellos elementos en la
primera columna en los que aparezca , cuando 0. El elemento correspon-
diente a la la 1 tiene el siguiente lmite,
lim
0
2 3

=
Estabilidad de los sistemas dinamicos 131
Por lo tanto, la primera columna queda como sigue:
1
1
0

3
Se presentan dos cambios de signo en la primera columna, y por consiguiente
el sistema tiene dos raices en el semiplano derecho, y es inestable.
El segundo caso particular mas arriba enunciado, es decir, el caso en que
se presente toda una la de ceros, indica que el polinomio tiene, al menos, un
factor par. Es decir, que existe un par de raices reales simetricas con respecto
al eje imaginario, que existen dos raices imaginarias puras conjugadas, o que
existen cuatro raices complejas situadas simetricamente con relacion al origen.
Cuando esto sucede se procede a formar una ecuacion subsidiaria a partir de los
coecientes de la la anterior a aquella en la que todos los elementos sean nulos.
La expresion as obtenida resulta ser el factor par del polinomio. Para obtener
la la siguiente, en la tabla de Routh, se procede a derivar esta expresion una
vez con respecto a s y situar sus coecientes en la la cuyos elementos se haban
anulado. A partir de esta sustitucion se prosigue la construccion de la tabla de
Routh normalmente. Un ejemplo ayudar a a jar ideas.
Ejemplo
Considerese el siguiente polinomio: s
4
+ 3s
3
+ 3s
2
+ 3s + 2
Si se construye la tabla de Routh correspondiente al llegar a la la 1, se
encuentra que todos los elementos son ceros. En efecto
4
3
2
1

1 3 2
3 3 0
2 2
0 0
La ecuacion subsidiaria que se obtiene empleando los coecientes de la segunda
la es la siguiente:
2s
2
+ 2 = 0
Estabilidad de los sistemas dinamicos 132
que corresponde al factor par s
2
+ 1. La derivada de la ecuacion subsidiaria
es 4s. Por lo tanto la tabla se completa como sigue
4
3
2
1
0

1 3 0
3 3 0
2 2
4 0
2
De la observaci on de esta tabla se desprende que el polinomio considerado
no tiene raices en el semiplano positivo. La factorizacion del polinomio anterior
conduce a,
(s
2
+ 1) (s + 2) (s + 1)
El anterior ejemplo muestra que sucede cuando el polinomio en cuestion tiene
raices en el eje imaginario. En tal caso estas raices dan lugar a un factor par, de
la forma del que aparece en el ejemplo, que se pone de maniesto al aparecer una
la de ceros en la tabla de Routh. Procediendo como se ha hecho en el ejemplo,
se elimina la la de ceros y se tiene una tabla de Routh que indica, por medio
de los cambios de signos si existen raices en el semiplano derecho. Observese
que aunque no existan raices en el semiplano derecho, como sucede en el ejemplo
anterior, el sistema sera inestable, puesto que existen raices en el eje imaginario.
La aplicacion de las dos reglas anteriores, a los dos casos singulares que se
acaban de discutir, debe tomarse con ciertas reservas. En particular, la aplicacion
de la primera regla (introduccion de peque nos parametros ) solo esta justicada
cuando el polinomio no tiene raices sobre el eje imaginario. En el libro Theorie
des matrices de Gantmacher, pag. 181, se tiene un ejemplo de un caso al que la
aplicacion de las reglas no es valida. Ello, sin embargo, no debe preocupar puesto
que lo que normalmente interesa de la aplicacion del criterio de Routh-Hurwitz
es, sencillamente, determinar si el sistema sera estable o no, lo cual puede hacerse
en todo caso sin ninguna ambiguedad, detectando si existe alg un cero o alg un
cambio de signo en la primera columna de la tabla de Routh.
El criterio de Routh-Hurwitz suministra una determinacion rapida de la es-
tabilidad absoluta de un sistema. Sin embargo no suministra ninguna indicacion
respecto a la posibilidad de alterar la situacion de las raices. Su principal interes
reside en su empleo como un paso previo, antes de aplicar otros metodos.
Estabilidad de los sistemas dinamicos 133
8.2.2 Matriz de Hurwitz
El criterio de Routh-Hurwitz, objeto del apartado anterior, en realidad fue de-
sarrollado originalmente por Routh. Sin embargo es completamente analogo al
desarrollado por Hurwitz, al que se va a dedicar este apartado.
Sea un polinomio a(s) tal como:
a(s) = s
n
+ a
1
s
n1
+ + a
n1
s + a
n
(8.9)
Se dene la matriz de Hurwitz como la matriz formada por los coecientes
del anterior polinomio, siguiente:
H =

a
1
a
3
a
5
. . . 0 0
1 a
2
a
4
. . . 0 0
0 a
1
a
3
. . . 0 0
0 1 a
2
. . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . a
n2
a
n

(8.10)
El criterio de estabilidad de Routh-Hurwitz se puede enunciar diciendo que
el polinomio a(s) es un polinomio de Hurwitz si y solo si los menores principales
diagonales de H son todos positivos. Los menores principales diagonales de H
son los siguientes:
H
1
= a
1
H
2
= det

a
1
a
3
1 a
2

H
3
= det

a
1
a
3
a
5
1 a
2
a
4
0 a
1
a
3

(8.11)
H
n
= det H
Si en la tabla de Routh los elementos de la primera columna se denotan por
1
,

1
,
1
. . . p
1
, entonces es posible demostrar, despues de algunas manipulaciones
Estabilidad de los sistemas dinamicos 134
algebricas, que,
H
1
=
1
H
2
=
1

1
H
3
=
1

1
(8.12)
Por ello es evidente que el procedimiento de determinar H
1
, H
2
, . . . , H
n
y ver
si son positivos no nulos es equivalente al de construir la tabla de Routh. Los
determinantes H
1
, H
2
, . . . reciben la denominacion de determinantes de Hurwitz.
Para aplicaciones practicas se recomienda emplear el metodo tabular de Routh,
por ser mas simple que la determinacion de las matrices de Hurwitz.
8.3 Criterio de Nyquist
El criterio de Routh permite analizar la estabilidad de un sistema lineal a partir
de los coecientes de la ecuacion caracterstica. El criterio de Nyquist (1932)
permite realizar un analisis de la misma naturaleza a partir de la representacion
graca de la funcion de tranferencia.
Este criterio esta basado en un teorema de Cauchy. Consideres una funcion
racional F(s) (formada por un cociente de polinomios en s). Si s representa a la
variable compleja s = + j entonces F(s) aplica el plano complejo s sobre un
plano complejo denido por las partes reales e imaginaria de F(s) (gura 8.2),
F(C)
Z = 3
P = 1
ReF(s)
ImF(s)
C
j
Figura 8.2: Teorema de Cauchy
de modo que a cada vector de s se corresponde un vector de F(s). Conviene
Estabilidad de los sistemas dinamicos 135
recordar que el argumento del vector F(s) se forma de la manera siguiente. En
el plano s se denen los vectores que unen los polos y ceros de F(s) con el punto
generico s. Pues bien, es facil ver que el argumento de F(s) se forma sumando
los argumentos de los vectores desde los ceros y restando los argumentos de los
vectores desde los polos (gura 8.3).
Figura 8.3: Aplicacion del contorno C
1
: (a) C
1
no rodea ning un polo ni cero; (b)
C
1
rodea un polo
Supongase ahora que se dene una curva cerrada C en el plano s y la corres-
pondiente curva imagen F(C) en el plano F(s). Supongase, ademas, que la curva
C se recorre en un determinado sentido (por ejemplo, el de las agujas del reloj).
A la curva imagen F(C) se asociara tambien un sentido.
El teorema de Cauchy establece que el n umero de veces que la curva F(C)
rodea al origen (tomando el sentido positivo el de las agujas del reloj) es igual a
la diferencia entre el n umero de ceros y el de polos que encierra la curva C en el
plano s. Es decir,
N = Z P
en donde N es el n umero de veces que la curva F(C) rodea al origen, y Z y
P representan, respectivamente, el n umero de ceros y de polos contenidos en la
curva C en el plano s.
Nyquist baso su criterio en una aplicacion muy ingeniosa del teorema de
Cauchy. Considero un sistema realimentado con realimentaci on unitaria, como
el de la gura 8.4. La funcion de transferencia del sistema en bucle cerrado
correspondiente viene dado por la expresion
T(s) =
G(s)
1 + G(s)
Estabilidad de los sistemas dinamicos 136
-
+
U
H(s)
Y
Figura 8.4: Sistema realimentado con realimentaci on unitaria
de esta expresion resulta claro que los polos de T(s) son los ceros de 1 + G(s).
Para estudiar la estabilidad de un sistema en bucle cerrado Nyquit propuso
denir en el plano s la curva cerrada C que se muestra en la gura 8.5, y que
recibe la denominacion de contorno de Nyquist. Este contorno rodea el semiplano
de parte real positiva del plano complejo. Es decir, la region del plano complejo
en la que no debe haber polos de la funcion de transferencia en bucle cerrado, si
se quiere que el sistema sea estable.
H(C)
H(s)
0
j
R =
A
C
B

1
1 + H(s)
ImH(s)
ReH(s)
Figura 8.5: Contorno de Nyquist C para estudiar la estabilidad
Hemos visto que los polos de la funcion de transferencia en bucle cerrado T(s)
son los ceros de 1 + G(s). Por tanto, la estabilidad del sistema en bucle cerrado
estara garantizada si no existe ceros de 1 + G(s) en el interior del contorno de
Nyquist.
Estabilidad de los sistemas dinamicos 137
Veamos ahora como se construye la funcion G(s). Para ello basta observar que
el contorno de Nyquist se compone de tres partes. La recta OA que corresponde
al eje imaginario del plano complejo y que, por tanto, corresponde a la funcion de
transferencia G(j) para valoreS positivos de . La recta BO correspondiente a
la parte negativa del eje imaginario. Y, por ultimo, a la curva que une AB, que
se encuentra situada en el innito del semiplano positivo del plano s. Por tanto,
al recorrer OA, se esta recorriendo G(j) para valores de de cero a innito.
Analogamente, al recorrer BO se esta recorriendo G(j) desde menos innito a
cero. Por ultimo, al recorrer de A a B se esta en valores de s con modulo innito.
En este ultimo caso, si G(j) es tal que elgrado del polinomio del numerador es
menor que el del denominador, esta funcion tomara el valor cero.
Aplicando el teorema de Cauchy, para el caso F(s) = 1+G(s), se puede decir
que un sistema realimentado, con realimentaci on unitaria, es estable si y solo si
G(C) rodea al punto crtico s = 1, en el sentido de las agujas del reloj, un
n umero de veces igual al n umero de polos inestables de la funcion de tranferencia
G(s).
Conviene observar que la parte de G(C) correspondiente al semieje imaginario
[0, j] es, en realidad, la representacion polar de la funcion de transferencia G(s).
As mismo, la parte correspondiente al semieje imaginario negativo [j, 0] es
simetrica con relacion a esa representacion polar. Por lo que respecta a la parte
correspondiente al semicrculo de radio innito (y eventualmente a un semicrculo
innitesimal que rodee al origen) es evidente que si la funcion de transferencia es
tal que el grado del numerador es inferior a del denominador, se reduce a un punto.
Por todo ello, el trazado de G(C) es inmediato conociendo la representacion polar
de la funcion de transferencia G(j).
Por ejemplo, en 8.6a se tiene la representacion de la funcion de transferencia
G(s) =
1
(1 + s)
A partir de esta representaci on graca, se desprende que G(C) tendra la forma
que se indica en la gura 8.6b. Aplicando el criterio de Nyquist se tiene que este
sistema es estable (lo que sucede para todos los sistemas de primer orden cuya
funcion de transferencia sea de la forma 8.6).
En la gura 8.7 se tiene otro ejemplo de aplicacion del criterio de Nyquist, el
correspondiente a la funcion de transferencia
G(s) =
1
s(1 + s)
Estabilidad de los sistemas dinamicos 138
ReH(s)
ImH(s)
=
=
1
< 0
> 0
Figura 8.6: Diagrama polar y contorno G(C) para un sistema de primer orden

C
R =
C
0
j
1 =
=
R =

+
ReH(s)
ImH(s)
H(C
0
)
Figura 8.7: Contorno de Nyquist y G(C) para un sistema con un polo en el origen
Estabilidad de los sistemas dinamicos 139
en este caso se tiene que la funcion de transferencia G(s) presenta un polo en
el origen, el cual debe ser evitado por el contorno de Nyquist, por lo que se
recurre a modicarlo ligeramente a nadiendo el contorno innitesimal C
0
que se
muestra en la gura 8.7. Es facil ver que la adicion de este contorno no modica
el planteamiento anterior.
Un ultimo ejemplo que vamos a considerar es el siguiente
G(s) =
s + 1
s(
s
10
1)
(8.13)
En este caso se tiene que el sistema presenta un polo inestable. En la gura 8.8
se tiene el trazado G(C) correspondiente.
< 0
> 0
Re
Im
0
Figura 8.8: Diagrama de Nyquist del sistema del ejemplo
En el diagrama de la gura 8.8 el punto crtico se ha representado en funcion
de la ganancia K. Observese que la peque na desviacion C
0
alrededor del polo
s = 0 (gura 8.9) da lugar a un gran arco en el innito. Este arco se situa en el
semiplano izquierdo, ya que atraviesa el eje real negativa debido a la contribuci on
de fase de 180 grados del polo en el semiplano de la derecha.
Estabilidad de los sistemas dinamicos 140
Re
Im
180
o
Figura 8.9: Contorno C
0
para el sistema del ejemplo
Para valores grandes de K (K
g
en la gura 8.8) se observa que G(C) rodea
al punto crtico en el sentido contrario de las agujas del reloj; es decir, N = 1.
Por otra parte P = 1, debido al polo en el semiplano de la derecha, por lo que
Z = N + P = 0
donde se concluye que no hay raices inestables en el sistema.
Para valores peque nos de K (K
p
en la gura 8.8) la curva G(C) rodea al punto
crtico en el sentido positivo de las agujas del reloj, por lo que N = +1 y Z = 2,
por lo que el sistema posee dos raices con parte real negativa y es inestable.
De los anteriores ejemplos se desprende que la aplicacion del teorema de
Nyquist hay que tener especial cuidado en los dos puntos siguientes:
Tener en cuenta la posible presencia de polos inestables en bucle abierto;
La evaluaci on del n umero de vueltas en torno al punto crtivo -1 en el caso
en el que haya ramas innitas (ver el ultimo ejemplo).
Sin embargo, para los sistemas de fase mnima, es posible enunciar la siguiente
regla practica:
Estabilidad de los sistemas dinamicos 141
Regla practica de Nyquist
Un sistema realimentado es estable en el caso en el que recorriendo el trazado
polar de la funcion de transferencia en el sentido de las crecientes el punto
crtico -1 quede a la izquierda.
8.3.1 Grado de estabilidad e interpretaci on del criterio de
Nyquist
Seg un se acaba de enunciar en la regla practica del criterio de Nyquist se tiene que
la estabilidad depende de la posicion del punto crtico con relacion al trazado polar
de la funcion de transferencia (gura 8.10). Este hecho sugiere la conveniencia
de introducir una medida de la distancia de G(C) a este punto crtico, por lo que
se dene grado de estabilidad del sistema realimentado por
El margen de ganancia G
m
= 20 log
10
1
A
, siendo A la ganancia correspon-
diente a la fase de 180 grados;
El margen de fase
m
, que es el desfase del punto correspondiente a la
ganancia unidad.
ImH(j)
1
A
ReH(j)
1

m
Figura 8.10: Grado de estabilidad
En la gura 8.10 se representan G
m
y
m
. La estabilidad equivale entonces a una
de las condiciones siguientes:
Estabilidad de los sistemas dinamicos 142
Para el vector en bucle abierto correspondiente a un modulo unidad el
desfase es superior a -180 grados.
Para una fase de 180 grados el modulo del vector de la funcion de transfer-
encia en bucle abierto debe ser inferior as la unidad.
De este modo, los margenes de fase y de ganancia establecen las posibles varia-
ciones de la funcion de transferencia G(s) debidas a perturbaciones eventuales
que no afecten a la estabilidad del sistema. En la practica se considera que un
margen de fase de 50 grados y un margen de ganancia de 10 dB son satisfactorios.
Un margen de ganancia por debajo de los 30 grados no suele ser aceptable.
Tema 9
Compensacion de sistemas
realimentados
9.1 Introduccion.
Un sistema de control realimentado se representa esquematicamente como se in-
dica en la gura 9.1. Sobre este esquema vamos a recordar una serie de conceptos
que consideramos de interes.
K
G(s)
H(s)
`

d
d
d
d

E E E E
T
'
r(t) + e u y(t)
m
Figura 9.1: Sistema de Control realimentado
143
Compensacion de sistemas realimentados 144
Cadena directa o de accion, es la que une los elementos comprendidos
entre la se nal de error y la de salida. Ambas se nales estan relacionadas por
la expresion,
Y (s)
E(s)
= KG(s)
siendo G(s) la funcion de transferencia del sistema considerado.
Cadena de realimentaci on, es la que une la se nal de salida con la de
informacion m(t), que es comparada con la de referencia. Ambas se nales se
relacionan as,
M(s)
Y (s)
= H(s)
En este caso H(s) es la funcion de transferencia de la cadena de reali-
mentacion.
Se llama bucle abierto, al conjunto de elementos que constituyen todo
el sistema, si este se abriese por el punto m(t), es decir, como si la se nal
de entrada fuese e(t) y la de salida m(t). La funcion de transferencia del
conjunto as dispuesto sera
M(s)
E(s)
= KG(s)H(s)
Se llama bucle cerrado, al sistema conectado como se indica en la gura
9.1. Las se nales y(t) y r(t) se relacionan por la conocida formula, facil de
deducir,
Y (s)
R(s)
=
KG(s)
1 + KG(s)H(s)
Observese que, en este caso, la se nal de actuacion sobre el sistema es pro-
porcional a la se nal de error. Se trata pues de un control proporcional (P).
El valor de la ganancia K del amplicador sera, por tanto, un parametro
susceptible de ser variado de acuerdo con las necesidades del problema.
En lo que sigue se supondra siempre que la cadena de realimentaci on es
unitaria, con lo que el esquema fundamental quedara de la forma que se
indica en gura 9.2 y quedando la funcion de transferencia en bucle cerrado
reducida a
Compensacion de sistemas realimentados 145
Y (s)
R(s)
=
KG(s)
1 + KG(s)
Naturalmente en este caso cadena de accion y bucle abierto son dos concep-
tos coincidentes.
K
G(s)
`

d
d
d
d

E E E E
T
r(t) + e u y(t)
m
Figura 9.2: Sistema de Control realimentado unitariamente
Por ultimo, en algunas ocasiones se recurrira a alg un servosistema fsico,
concretamente al conocido servomecanismo elemental de posicion, que re-
sponde en bucle abierto a una ecuacion diferencial lineal de la forma
J
d
2
y
dt
2
+ f
dy
dt
= u(t)
siendo en este caso y(t) un angulo (), J la inercia del conjunto motor-carga
y f el coeciente de friccion viscosa del mismo conjunto.
Para que un sistema de control realimentado act ue aceptablemente, necesita
satisfacer unas determinadas especicaciones de funcionamiento, tanto para su
regimen permanente como para su transitorio que, normalmente, no se consigue
con los elementos que consituyen el bucle de control.
Hay veces en que un simple aumento de la ganancia estatica es suciente
para lograr precision, sin que se afecte demasiado a las caractersticas en estado
Compensacion de sistemas realimentados 146
transitorio. No obstante, como lo normal es que estas se vean empeoradas con una
actuacion de este tipo, o en el mejor de los casos, no se consigan exactamente las
que se pretende que tenga el sistema, es por lo que se desarrollaran a continuaci on
los procedimientos de compensacion que se han dado en llamar Clasicos en razon
de ser los primeros que se utilizaron.
Por el hecho de introducir una compensacion sobre el bucle antes mencionado,
el esquema se modica de alguna manera, como se muestra mas adelante. Se
distinguen dos tipos de compensacion:
Compensacion en serie: Cuando el elemento corrector se coloca en cascada,
en la cadena de accion; y
Compensacion por realimentacion: Cuando el elemento corrector constituye
una segunda cadena de realimentaci on, en el bucle de control.
Los esquemas basicos para uno y otro caso se muestran, respectivamente, en
las guras 9.3 y 9.4.
G
r
(s)
K
G(s)
'

E E E E E
T
r(t) + e u

u y(t)
m
Figura 9.3: Compensacion en serie
Como ya se ha indicado, en el caso de la compensacion en serie, la red correc-
tora se coloca en cascada con los elementos de la cadena de accion, y delante del
amplicador para que el nivel de potencia a que trabaje sea el del error, es decir,
bajo. As mismo, se distinguiran tres tipos de acciones:
Accion proporcional mas derivada (PD);
Accion proporcional mas integral (PI) y
Accion proporcional mas integral y mas derivada (PID).
Compensacion de sistemas realimentados 147
K
G(s)
G
r
(s)
'

'

E E E E E
T T
'
r(t) + e u y(t)
m
Figura 9.4: Compensacion por realimentacion
9.2 Analisis en el dominio de la frecuencia de la
red PD
Tiene lugar cuando la se nal de mando del sistema es la suma de los terminos,
proporcional y derivado de la se nal de error. En este caso se dice que la compen-
sacion es del tipo PD. La funcion de transferenia de una red de este tipo es de la
forma,
Gr(s) = K (1 + s)
La discusion del caso general se hara en el dominio de la frecuencia, en donde
los resultados adquieren mayor generalidad y sencillez. Para ello se estudiara en
primer lugar la respuesta en frecuencia de un corrector PD. Su representaci on
en Bode es la que se indica en la Fig. 9.5. Vemos pues que la red, a frecuencias
mayores que
1

aumentar a la fase y la magnitud de la cadena de accion del sistema


en el que se introduce.
Para frecuencias algo menores que
1

el efecto es menos notorio llegando a ser


despreciable para frecuencias bajas.
En el diagrama de Bode, que se representa en la gura 9.6, se obsevan dos
efectos fundamentales sobre la respuesta en frecuencia de un sistema:
1. Aumento del ancho de banda: contrapartida, en el dominio de la frecuencia,
de la disminuci on del tiempo de subida en la respuesta temporal del sistema.
Compensacion de sistemas realimentados 148
1/
-360
-310
-260
F
a
s
e
(
g
r
a
d
o
s
)
1/
(rad/s)

A
m
p
l
i
t
u
d
(
d
B
)
+20dB/dec
Figura 9.5: Diagrama de Bode para red PD
Este efecto es mas notable en el diagrama de Black, como se vera un poco
mas adelante, ya que alli se trata la respuesta del sistema en bucle cerrado.
2. Aumento del margen de fase: contrapartida, en el dominio de la frecuencia,
de la disminuci on de la sobreoscilacion en el dominio del tiempo.
Las guras 9.7 y 9.8 muestran la variacion de la funcion de transferencia en
bucle abierto de un sistema en el diagrama de Black, al introducir un corrector
PD. Si se elige
1

< w
R
, se consiguen dos efectos:
1. Disminuir el pico de resonancia (M
r
) del sistema en bucle cerrado y
2. Aumentar la frecuencia de resonancia.
Estos efectos de la red PD en el diagrama de Black tienen sus correspondientes
en el dominio del tiempo, a saber:
Aumento de la frecuencia de resonancia equivale a decir aumento del ancho
de banda del sistema en bucle cerrado; por tanto, el sistema deja pasar un
espectro mayor de frecuencias. La consecuencia inmediata es una respuesta
mas rapida y, en consecuencia, un menor tiempo de subida.
Disminuir el pico de resonancia, tiene como consecuencia un aumento del
margen de fase, y se sabe que este efecto va muy ligado a una disminucion
de la sobreoscilacion del sistema en bucle cerrado.
Compensacion de sistemas realimentados 149

(rad/s)

F
a
s
e
(
g
r
a
d
o
s
)

A
m
p
l
i
t
u
d
(
d
B
)
Compensada
Sin compensar
Compensada
Sin compensar
MF
1
MF
2
0 dB
-180
o
Figura 9.6: Bode sistema con compensacion PD
-360 -270 -180 -90 0
Fase(grados)
0
30
60
A
m
p
l
i
t
u
d
(
d
B
)
Figura 9.7: Diagrama de Black red PD
Compensacion de sistemas realimentados 150
-300 -240 -180 -120 -60
Fase(grados)
-100
-50
0
50
100
A
m
p
l
i
t
u
d
(
d
B
)
Compensado
Sin compensar
Figura 9.8: Diagrama de Black sistema con comp. PD
Queda a nadir, nalmente, que las redes PD, son irrealizables sicamente,
porque el grado de su polinomio numerador es mayor que el grado de su polinomio
denominador. No obstante, en un sistema electrico, s se puede conseguir una red
de este tipo utilizando elementos activos, aunque a un en este caso, la solucion no
tiene interes practico ya que estas redes presentan un comportamiento muy malo
frente a los ruidos.
9.3 Analisis en el dominio de la frecuencia de la
red PI
En este caso, la se nal de mando es la suma de un termino proporcional y otro
integral, de la se nal de error.
u(t) = K e + K
i

t
0
e dt
La compensacion es denominada PI y la funcion de transferencia de una red de
este tipo sera:
Gr(s) = K(1 +
1
s
) = K(
1 + s
s
)
El efecto sobre el sistema es, pues, a nadir un polo en el origen (cambia el tipo del
mismo) y una accion derivada.
Compensacion de sistemas realimentados 151
La respuesta en frecuencia de un corrector PI se muestra en la gura 9.9. Se
ve que su accion consiste en disminuir la fase del sistema original, aumentando
simultaneamente la ganancia en bajas frecuencias. Para altas frecuencias, no
modica la respuesta.
1/
(rad/s)
-90
-45
0
F
a
s
e
(
g
r
a
d
o
s
)
1/

A
m
p
l
i
t
u
d
(
d
B
)
-20dB/dec
Figura 9.9: Respuesta en frecuencia Red PI
El efecto de una red PI sobre un sistema puede verse en la gura 9.10.
La gura 9.10, muestra que
1

debe elegirse menor que w


R
para afectar sola-
mente la respuesta del sistema a bajas frecuencias y aumentar la precision del
mismo, ya que si por el contrario, se elige
1

> w
R
aumentar a el pico de resonan-
cia, pudiendo llegarse a inestabilizar el sistema original, como muestra la gura
9.10.
La accion PI se utiliza cuando se quiere mejorar el regimen permanente de un
sistema, es decir, cuando se quiere disminuir el error de seguimiento, y cuando se
quiere que el sistema en cuestion sea insensible a variaciones en la carga.
La introducion de una red PI es causa de que el sistema, en bucle cerrado,
tenga peor regimen transitorio. Se puede dar una interpretaci on fsica de ello muy
simple, y que servira para comparar el efecto de esta red, con el que proporciona
una red PD.
La gura 2.6 muestra en diferentes pasos, como en este caso, la inversi on
del par corrector se realiza con posterioridad al alineamiento de ambos ejes. La
consecuencia de ello es que aumentar a la sobreoscilacion y disminuir a el tiempo
de subida, y el sistema sera mas inestable.
Compensacion de sistemas realimentados 152

(rad/s)

F
a
s
e
(
g
r
a
d
o
s
)

A
m
p
l
i
t
u
d
(
d
B
)
Compensado
Sin compensar
Sin compensar
Compensado
MF
1
MF
2
-180
o
0 dB
Figura 9.10: Efecto Red PI
-100 -80 -60 -40 -20 0
Fase(grados)
0
25
50
A
m
p
l
i
t
u
d
(
d
B
)
Figura 9.11: Respuesta PI.(Black)
Compensacion de sistemas realimentados 153
En resumen una red PI:
Cambia el tipo del sistema (a nade un polo en el origen),
Aumenta la sobreoscilacion y disminuye el tiempo de subida de la respuesta
temporal en bucle cerrado.
Aumenta la precision estatica, compensando las variaciones de la carga a
la salida.
La red PI se encuentra en el mercado con facilidad, llevando normalmente
incorporado el comparador, con lo que el conjunto forma lo que se llama un
regulador de accion PI.
9.4 Accion proporcional, integral y diferencial
(PID)
Como facilmente se comprende, en este caso, la se nal de mando contiene tres
terminos, de tal suerte que la funcion de transferencia del compensador que recibe
el nombre de PID es:
u(t) = K e + K
i

t
0
e dt + K
d
de
dt
Gr(s) = K (1 +
1

1
s
+
2
s) =
K

1
s
(1 +
1
s +
1

2
s
2
)
Se ve pues que, con una accion PID, al sistema se le a nade un polo en el origen
(se cambia el tipo), una accion derivada primera, y una accion derivada segunda.
Tomando
1
=
2
= el diagrama de Bode queda como indica la gura 9.12 y su
efecto sobre un sistema se muestra en la gura 9.13.
Si se elige
1

<
R
(que era condicion para el caso de correctores PD y PI) se
pueden conseguir buenas caractersticas, tanto en el regimen transitorio como en
el permanente, es decir, es posible beneciarse de los efectos de ambos tipos de
redes.
Compensacion de sistemas realimentados 154
1/
(rad/s)
-90
0
90
F
a
s
e
(
g
r
a
d
o
s
)
1/
(rad/s)

A
m
p
l
i
t
u
d
(
d
B
)
-20dB/dec
20dB/dec
Figura 9.12: Respuesta en frecuencia Red PID
-300 -240 -180 -120 -60
Fase(grados)
-100
-50
0
50
100
A
m
p
l
i
t
u
d
(
d
B
)
Figura 9.13: Diagrama de Black sistema con comp. PID
Compensacion de sistemas realimentados 155
9.5 Compensacion por avance de fase
Como se ha visto en el tema anterior una red PD aumenta la fase de la funcion de
transferencia del sistema a corregir para frecuencias proximas a
1

y superiores,
es decir, aumenta el margen de fase (disminuye la sobreoscilacion) y aumenta el
ancho de banda (disminuye el tiempo de subida). Tambien se ha dicho que una
red PD es irrealizable fsicamente.
No obstante, es posible conseguir elementos correctores que constituyen una
aproximacion a una red PD, en el rango de frecuencias en que los efectos son
interesantes. Estas redes reciben el nombre de redes de adelanto de fase.
Las redes de adelanto de fase tienen una funcion de transferencia de la forma:
Gr(s) =
1 + s
1 + s
; < 1 =
1

<
1

cuya representaci on graca se tiene en la gura 9.14.


1/ 1/at
(rad/s)
-360
-330
-300
F
a
s
e
(
g
r
a
d
o
s
)
1/ 1/at
(rad/s)
0 dB
|20log|
A
m
p
l
i
t
u
d
(
d
B
)
Figura 9.14: Respuesta en frecuencia Red de adelanto de fase
La forma de la graca justica ampliamente la denominacion de red de ade-
lanto de fase. Su efecto constituye una aproximacion excelente a una red PD. En
efecto, la accion de una red de adelanto de fase sobre la funcion de transferencia
del sistema en bucle abierto se muestra en la gura 9.15; si se compara esta con la
gura 9.6, se observara que los efectos sobre el ancho de banda y el margen de fase
Compensacion de sistemas realimentados 156
son practicamente los mismos que los que produce una red PD. La diferencia entre
ambas redes radica en el termino (1+s) cuyo efecto sobre el ancho de banda y
sobre el margen de fase es practicamente despreciable si se elige convenientemente
el valor de 1/. Este valor, como es natural, debe elegirse notablemente superior
al de la frecuencia para la cual la ganancia es 0dB, con objeto de que su efecto
sea despreciable. Los criterios que presidiran la eleccion de estos valores se veran
mas adelante, al considerar los metodos de dise no. Lo que aqu interesa resaltar
es el caracter de aproximacion a la red PD que presenta la red de adelanto de
fase.
10
-1
10
0
10
1
10
2
10
3
(rad/s)

F
a
s
e
(
g
r
a
d
o
s
)

A
m
p
l
i
t
u
d
(
d
B
)
Sin compensar
Compensado
Compensado
Sin compensar
MF
2
0 dB
-180
o
Figura 9.15: Efecto Red de adelanto de fase
En el mercado se pueden encontrar redes de adelanto de fase de tipo neumatico,
hidraulico o electrico, por ejemplo. A continuaci on se propone una red para un
servosistema de tipo electrico, de facil realizacion, y que se muestra en la gura
9.16. En esta se tiene:
e
i
= jZ + e
o
con e
0
= jR

siendo
Z =
R
1
jwC
R +
1
jwC
=
R
1 + jwCR
e
i
=
e
o
R

Z + e
0
=
e
0
R

(Z + R

) =
e
0
R

(
R
1 + jwCR
+ R

) =
e
o
R

R + R

+ jwCRR

1 + jwCR
Compensacion de sistemas realimentados 157
e
i
C
R
R

e
s
Figura 9.16: Realizacion de una red de avance
e
0
e
i
=
R

(1 + jwCR)
R + R

+ jwCRR

=
R

R + R

.
1 + jwCR
1 + jwC.
RR

R+R

y llamando
R

R+R

= y = CR queda
G

r(s) =
e
0
e
i
=
1 + jw
1 + jw
; Gr(s) =
1

r(s) =
e
s
e
i
=
1 + jw
1 + jw
como funcion de transferencia de la red.
9.6 Efecto en el dominio de la frecuencia
La respuesta en frecuencia de esta red electrica de adelanto de fase, se muestra
en la gura 9.15.
De la expresion de la funcion de transferencia se puede ver que el desfase que
produce la red propuesta es:
tan =
w w
1 + w
2

2
y la frecuencia a la cual se produce el maximo:
w = w
m
=

=
1

Compensacion de sistemas realimentados 158


el valor de =
m
es maximo,
tan
m
=
w
m
(1 )
1 + w
2
m

2
=
w
m
(1 )
1 + 1
=
1
2

y de aqu
sen
m
=
tan
m
1 + tan
2

m
=
1
2

1 +
(1)
2
4
=
1

4 + 1 +
2
2
=
1
1 +
relacion esta mas manejable que la anterior y que da el valor de para el margen
de fase apetecido,
m
. El valor de se deducira de la expresion
w
m
=
1

=
1

= w
m

sustituyendo w
m
por la pulsacion para la cual queremos que se produzca el
maximo adelanto de fase.
Debe hacerse notar que para que la ganancia estatica del sistema no quede
afectada, hay que aumentar la ganancia del amplicador en el valor
1

, siendo
la atenuaci on que produce la red a bajas frecuencias.
La gura 9.17. muestra el efecto de una red de adelanto de fase sobre la
respuesta en bucle cerrado del sistema, en el plano de Black. Puesto que se
pretende un efecto del tipo PD, se comprende facilmente que la frecuencia w
R
debe situarse en las proximidades de la frecuencia de resonancia del sistema w
R
para que de esta forma la nueva frecuencia de resonancia w

R
sea menor que w
R
.
Asimismo, el pico de resonancia M

sera menor que el anterior, M.


NOTA: Otros autores utilizan como expresion de la funcion de transferencia
de la red la siguiente expresion
1
a
1 +

as
1 +

s
siendo las equivalencias entre esta y la estudiada anteriormente, las siguientes:
1
a
= w
m
=
1

= sen
m
=
a 1
a + 1
9.7 Metodo practico
Para ver el metodo practico de compensacion mediante una red de avance, lo
haremos con la ayuda de un ejemplo. Dicho ejemplo consiste en compensar el
sistema cuya funcion de transferencia en bucle abierto es:
Compensacion de sistemas realimentados 159
-300 -240 -180 -120 -60
Fase(grados)
-150
-50
50
A
m
p
l
i
t
u
d
(
d
B
)
Compensada
Sin compensar

m2

m1
M
m
Figura 9.17: Diagrama de Black sistema con Red de adelanto de fase
G(s) =
K
s(1 + s)(1 + 0.0125s)
para que cumpla las siguientes especicaciones:
1. Margen de fase > 50

,
2. Error de seguimiento para una entrada u(t) = t, menor que el 1 %.
Resolucion:
Para cumplir la especicacion de regimen permanente,
K
v
= K =
R
E
=
1
0.01
= 100
Las dos frecuencias de esquina son 1 y
1
0.0125
= 80
En Bode se ve que el sistema es inestable. El margen de fase es de unos
2

aproximadamente.
Se compensara el sistema mediante una red de adelanto.
Compensacion de sistemas realimentados 160
Para el calculo de , se toma un angulo
m
algo mayor que el mnimo
requerido, por ejemplo 55

y se tendra que,
sen 55

=
1
1 +
= 0.82 de donde 0.1
Para hallar se procede as:
1. Se calcula la atenuacion total de la red, que sera:
20 log = 20 log 0.1 = 20 dB
2. Se busca la frecuencia para la cual la atenuaci on del sistema es la mitad
que la de la red, es decir, 10dB, y se elige aquella como la frecuencia para
la que se quiere la maxima desviacion de fase. Con ello, en el nuevo punto
de corte (que estara desplazado ligeramente hacia la derecha con respecto
al anterior), se tendra el margen de fase buscado.
Por lo dicho,
w
m
=
1

= 18 rad/seg
luego
w
1
=
1

= w
m

= 5.7 rad/seg.
w
2
=
1

=
w
m

= 57 rad/seg.
As la funcion de transferencia de la red sera
G

r(s) =
1 + s
1 + s
= 0.1
1 +
1
5.7
s
1 +
1
57
s
o Gr(s) =
1 + 0.1754s
1 + 0.01754s
Para que la ganancia a bajas frecuencias no se altere, ha de introducirse una
ganancia adicional de K
a
= 1/ = 10, con lo que el sistema, una vez corregido,
tendra como funcion de transferencia:
G

(s) =
100(1 +
1
5.7
s)
s(1 + s)(1 + 0.0125s)(1 +
1
57
s)
Con este ejemplo se han ilustrado los pasos necesarios para la colocacion de
una red de avance de fase, de forma que su aprovechamiento sea el maximo
posible.
Compensacion de sistemas realimentados 161
10
-1
10
0
10
1
10
2
10
3
(rad/s)


A
m
p
l
i
t
u
d
(
d
B
)

1
0dB
-10dB
Figura 9.18:
Tema 10
Representacion matematica de
sistemas
10.1 Introduccion
10.1.1 Generalidades
El objeto de los Sistemas de Control es la concepcion de unos ingenios que conec-
tados a un proceso real sean capaces de gobernarlo de manera autonoma, es decir,
sin la intervencion (o con una intervenci on mnima) del ser humano. Dado un
determinado proceso industrial, o un cierto ingenio como un barco o un avion,
se trata de dise nar un aparato que le suministre las se nales de mando oportunas
para que su funcionamiento sea el requerido.
El sistema de control, a partir de la informacion que le suministra el proceso
a controlar, determina que acciones deberan tomarse para que el funcionamiento
de este sea el requerido. El funcionamiento requerido de un determinado proceso
implica un comportamiento dinamico. Por lo tanto el estudio del comportamiento
dinamico de los procesos, o en general de los objetos fsicos, tiene un interes
primordial en Automatica.
Por otra parte, en cierta medida, se puede considerar a un sistema de control
como un sistema de toma de decisiones. Es decir, el sistema de control toma
las decisiones de las acciones a tomar sobre el proceso para que su evolucion sea
la requerida. Para esta toma de decisiones se requiere que el sistema de control
162
Representacion matematica de sistemas 163
conozca el comportamiento dinamico del proceso a controlar. Es decir, se requiere
que el sistema de control conozca como reaccionara el proceso ante las posibles
se nales de excitacion que este le suministre. De nuevo se tiene la necesidad del
conocimiento del comportamiento dinamico del sistema a controlar.
De lo anterior se desprende que en Automatica el estudio del comportamiento
dinamico de los sistemas tiene un interes primordial. Este estudio se concreta en
el de los sistemas dinamicos, que se va a considerar a continuaci on.
10.2 Descripcion interna de los sistemas dina-
micos
La descripcion externa, seg un se ha visto en la seccion anterior, suministra una
relacion explcita directa entre las se nales de entrada y de salida. Esta relacion no
es satisfactoria en ciertos casos. Por ejemplo, supongase que se esta realizando la
simulacion de un sistema dinamico con ayuda de un computador digital. Es claro
que al ser el valor de la se nal de salida, en cada instante, funcion de todos los
valores de la se nal de entrada, en instantes anteriores, se presentaran dos notables
problemas al realizar la simulaci on:
1. la memoria debera registrar los valores de la se nal de entrada, lo cual re-
querira un gran volumen de la misma con el agravante de ir creciendo con
el tiempo; y
2. el n umero de calculos a efectuar crecera con el tiempo alcanzado, con ello,
valores prohibitivos.
Los problemas del tipo de los anteriores se solucionan con ayuda de la denominada
descripcion interna que no es sino una relacion explcita indirecta entre las se nales
de entrada y de salida. La relacion se dice que es indirecta puesto que u(t) e y(t)
no estan relacionadas directamente sino a traves de otra variable x(t) llamada
estado del sistema dinamico, que juega un papel primordial en esta forma de
descripcion.
Se entiende por estado de un sistema dinamico la menor coleccion de varia-
bles cuyo valor, en un cierto instante de tiempo t, resume el pasado dinamico
del sistema hasta dicho instante y es suciente para predecir la futura evoluci on
del sistema a partir del mencionado tiempo t. El estado se representa, normal-
mente, por la letra x, y el conjunto de todos los estados por X. Un ejemplo lo
Representacion matematica de sistemas 164
suministra, en mecanica racional, el conjunto de valores tomados por la posicion
y velocidad de una partcula, cuyo conocimiento, en cierto instante, resume el
pasado dinamico de la partcula y permite prever la futura evoluci on de la misma.
Debe notarse que, tal como se ha denido, el estado de un sistema dinamico
representa una magnitud abstracta sin ninguna referencia, en principio, a mag-
nitudes fsicas medibles. Ello, no obstante, no se opone a que en alguna cir-
cunstancia el estado de un sistema dinamico pueda ser asimilado a conjuntos de
magnitudes susceptibles de interpretaci on fsica e incluso medibles, como suceda
en el ejemplo mas arriba mencionado del estado de una partcula en mecanica
racional.
La descripcion interna esta basada en la existencia de las dos funciones si-
guientes:
1. La funcion de transicion que describe el cambio de estado que experi-
menta el sistema entre dos instantes de tiempo t
0
y t
1
como consecuencia
de la aplicacion de una se nal u[t
0
, t
1
]. Formalmente se escribe,
x(t
1
) = (t
1
, t
0
, x
0
, u) (10.1)
en donde representa la funcion de transicion, x
0
el estado en el instante
t
0
y u la se nal de entrada aplicada entre t
0
y t
1
La funcion de transicion debe satisfacer las propiedades:
(a) Causalidad: para todo u
1
y u
2
tales que u
1
(t) = u
2
(t), t
0
< t
1
se
tendra,
(t
1
, t
0
, x
0
, u
1
) = (t
1
, t
0
, x
0
, u
2
)
lo que se puede expresar diciendo que a la misma causa sigue el mismo
efecto.
(b) Consistencia: ((t
0
, t
0
, x
0
, u) = x
0
(c) Composicion: Para t
2
> t
1
> t
0
se tiene,
(t
2
, t
0
, x
0
, u) = (t
2
, t
1
, x
1
, u)
x
1
= (t
1
, t
0
, x
0
, u)
La interpretaci on de las anteriores propiedades es evidente.
2. La funcion de lectura o de salida que suministra el valor de la se nal de
salida en el instante de tiempo t cuando el sistema se encuentra en el citado
Representacion matematica de sistemas 165
x(t) y esta sometido a un valor de la se nal de entrada u(t). Formalmente
se escribe,
y(t) = [t, x(t), u(t)] (10.2)
en donde representa la funcion de lectura.
Con el n de establecer una denicion formal de un sistema dinamico se
denotara por T el conjunto de instantes de tiempo considerados, por X el conjunto
de estados, por U el conjunto de valores de la se nal de entrada, por U = [ T
U el conjunto de valores de entrada aceptables, por Y el conjunto de valores
posible para la se nal de salida, y por Y = y [ T Y el conjunto de se nales de
salida. Con estas notaciones se puede denir formalmente un sistema dinamico
como sigue:
Denicion
Un sistema dinamico es el objeto matematico constituido por el quntuplo,
(U, Y, X, , )
en donde la funcion de transicion cumple las propiedades a), b), c), mas
arriba indicadas.
Debe observarse que, tal como se indicaba al principio de esta seccion, la
relacion entre la se nal de entrada u(t) y la se nal de salida y(t) se hace indirecta y
se realiza a traves del estado x(t). Es decir, que as como en la descripcion externa
la funcion F determina y(t), a partir de u[t
0
, t], en la descripcion interna, a partir
de u[t
0
, t], y por medio de la funcion de transicion, se genera el estado x(t), y es
a partir del estado y de la funcion de la lectura como se tiene el valor de la se nal
de salida y(t). La mayor complejidad que aparentemente presenta este segundo
camino se ve ampliamente compensada por la mayor simplicidad conceptual y
facilidad operativa que se obtiene con el. Ello se pondra de maniesto en lo que
sigue.
A continuaci on se estudia la descripcion interna de los sistemas mas corrien-
temente encontrados en la practica de la automatica y que son aquellos cuyos
tipos de relacion entre la entrada y la salida se considero en la seccion 3.3.
Representacion matematica de sistemas 166
10.2.1 Sistemas de estados nitos
Son aquellos en que el estado solo puede formar un conjunto nito de valores.
Igualmente las se nales de entrada y salida solo pueden tomar sus valores de un
conjunto nito. En tal caso las funciones de transicion y de lectura pueden ser
tabuladas. Estos sistemas se estudian en cursos sobre sistemas logicos o sobre
teora de automatas y aqu se mencionan a ttulo de ejemplo y para mostrar la
profunda unidad del concepto de sistema dinamico.
Ejemplo
1/0
0/0
2
3
1
1/0
0/0
0/1 1/1
Figura 10.1: Diagrama de estados
Considerese el sistema representado por el diagrama de la gura 10.1. En el
es claro que,
X = 1, 2, 3
U = 0, 1
Y = 0, 1
U e Y son secuencias de 1

y 0

.
En cuanto a y pueden representarse en forma tabular como sigue,
Representacion matematica de sistemas 167

0 1 0 1
1 1 1 0 0
2 1 3 1 1
3 1 2 0 0
Debe observarse que al estudiar los sistemas de estados nitos el estado es un
objeto matematico de caracter general, que, en principio, no tiene porque ser un
vector como sucedera en las clases de sistemas que se consideraran mas abajo.
10.2.2 Sistemas dinamicos lineales en tiempo continuo
Una amplia clase de sistemas dinamicos lineales en tiempo continuo admite una
representacion matematica de la forma
x = A(t)x + B(t)u
y = C(t)x + D(t)u (10.3)
en donde x

, y

e u

son vectores de dimension n

, p

y m

respectivamente y A,B,C y D
son matrices de dimension nn, nm, pn y pm respectivamente. El vector
x es el vector de estado del sistema. En la mayor de las aplicaciones D = 0, por
lo que en lo sucesivo y mientras no se indique lo contrario, se prescindira de la
matriz D.
La escritura de las ecuaciones diferenciales que rigen la evolucion de un sis-
tema dinamico seg un las expresiones 10.3 recibe el nombre de representaci on por
variables de estado o por vector de estado del mismo.
En lo que sigue se trataran unicamente los sistemas dinamicos invariantes en
el tiempo con lo que, teniendo en cuenta ademas que D = 0, las ecuaciones 10.3
se emplearan en la forma
x = Ax + Bu
y = Cx (10.4)
En donde A, B y C son matrices cuyos elementos son numericos. Se hablara
indistintamente de un sistema dinamico

y de la terna (A, B, C) que lo repre-
senta.
Representacion matematica de sistemas 168
Los sistemas dinamicos lineales que admiten una representaci on matematica
tal como la de las expresiones 10.3 reciben la denominacion de sistemas lineales
diferenciales de dimensiones nitas, haciendo alusion con esta denominacion a
que el vector de estado es un vector de dimension n. Existen otras clases de
sistemas dinamicos lineales, como son los (sistemas de parametros distribuidos)
en los cuales el vector de estado tiene una dimension innita. De estos ultimos
no nos ocupamos en estos apuntes.
Obtencion de la representaci on por variables de estado
Todo sistema dinamico descrito por ecuaciones diferenciales de la forma de la
expresion (3.5) admite una representaci on por variables de estado de la forma de
las expresiones 10.3. Aqu se discutira exclusivamente el caso de que la ecuacion
diferencial sea de coecientes constantes, y que u(t) e y(t) sean escalares(sistemas
con una entrada y una salida).
Para un sistema dinamico dado, existen innitas formas de representaci on de
la descripcion interna. Es decir, existen innitas ternas(A, B, C) que caracterizan
a un mismo sistema. Todos estas ternas estan ligadas entre s por unas relaciones
algebraicas que se estudiaran mas adelante en esta seccion.
Se estudiaran a continuacion las formas mas usuales de representaci on interna
de los sistemas dinamicos lineales.
Forma canonica de control
Sea el sistema descrito por la ecuacion diferencial,
d
n
y
dt
n
+ a
1
d
n1
y
dt
n1
+ ... + a
n
y = u (10.5)
Se denen,
x
i
=
d
i1
y
dt
i1
i = 1, ...n (10.6)
La anterior ecuacion diferencial de orden n se puede escribir como un sistema
de n ecuaciones diferenciales de primer orden. Es decir
Representacion matematica de sistemas 169
x
1
= x
2
x
2
= x
3
.
.
.
.
.
.
.
.
.
x
n
= a
n
x
1
... a
1
x
n
+ u
y = x
1
(10.7)
Lo cual se puede escribir en la forma de las expresiones 10.3 deniendo,
x
T
=

x
1
x
2
x
n

A =

0 1 0 . . . 0
0 0 1 . . . 0
. . . .
. . . .
. . . .
0 0 0 . . . 1
a
n
a
n1
a
n2
. . . a
1

(10.8)
B
T
=

0 0 1

(10.9)
C =

1 0 0

(10.10)
Para el caso en que la ecuacion (10.5) tome la forma mas general siguiente:
d
n
y
dt
n
+ a
1
d
n1
y
dt
n1
+ ... + a
n
y = b
1
d
n1
u
dt
n1
+ ... + b
n
u (10.11)
o, lo que es lo mismo, el sistema tiene la funcion de transferencia:
G(s) =
b
1
s
n1
+ b
2
s
n2
+ ... + b
n
s
n
+ a
1
s
n1
+ ... + a
n
=
n(s)
d(s)
(10.12)
Representacion matematica de sistemas 170
u 1
d
v
n
y
Figura 10.2: Factorizacion del sistema en el sistema de funcion de transferencia
en serie.
Supongase que se introduce la nueva variable v(t), tal que:
v(s)
u(s)
=
1
d(s)
(10.13)
es decir
d(s)v(s) = u(s)
Por otra parte,
n(s)v(s) = y(s) (10.14)
La introduccion de la variable v equivale a factorizar el sistema (10.12) en el
sistema de funcion de transferencia (10.13) en serie con el de (10.14), tal como se
indica en la gura 10.2. Observese que el sistema (10.13) tiene la misma forma
que el (10.5), por lo que haciendo
x
1
= v x
2
= x
1
= v ... x
2
= x
1
= v
n1
(10.15)
se tiene que el par (A, B) para ese sistema sera el dado por la expresiones (10.8-
10.9). Ademas, llevando (10.15) a (10.14) se tiene
y = b
n
v + b
n1
v + ... + b
2
v
n2
+ b
1
v
n1
= b
n
x
1
+ b
n1
x
2
+ ... + b
2
x
n1
+ b
1
x
n
= [b
n
b
n1
... b
2
b
1
]x
Por tanto, las expresiones (10.8) y (10.9) son igualmente validas pero la (10.10)
toma la forma mas general,
C =

b
n
b
n1
b
1

(10.16)
En la gura 10.3 se muestra el diagrama interno de bloques del sistema dinamico,
descrito por la ecuacion (10.11), correspondiente a la estructura de la forma
canonica de control.
Representacion matematica de sistemas 171
y
+
+
+
+
+
-
u
+
+
+
+

x
2

x
1
b
n
a
n
b
n1
a
n1

x
n

b
2
b
1
a
1
a
2
x
n
x
n1
Figura 10.3: Diagrama interno de bloques
Representacion matematica de sistemas 172
Ejemplo
Sea el sistema descrito por la ecuacion diferencial,
d
3
y
dt
3
+ 4
d
2
y
dt
2
+ 3
dy
dt
+ 2y = 3u + 2
du
dt
Las matrices A, B y C en la forma canonica de control seran las siguientes:
A =

0 1 0
0 0 1
2 3 4

B =

0
0
1

C =

3 2 0

Forma canonica de observaci on


La obtencion de la forma canonica de observacion ilustra otro metodo general de
obtencion de la representaci on por variables de estado de un sistema dinamico.
Consiste este procedimiento en determinar, en primer lugar, el diagrama in-
terno de bloques para luego asignar a la salida de cada integrador una variable de
estado y as construir las matrices A, B y C.
Sea la ecuacion diferencial con coecientes constantes,
d
n
y
dt
n
+ a
1
d
n1
y
dt
n1
+ ... + a
n
y = b
1
d
n1
u
dt
n1
+ ... + b
n
u (10.17)
cuya descripcion por variables de estado, en la forma canonica de observacion,
se quiere determinar. Para obtener un diagrama interno de bloques se procede
como sigue. Llamando D al operador
d
dt
, la expresion (10.17) se puede escribir:
D
n
y + D
n1
(a
1
y b
1
u) + ... + D(a
n1
y b
n1
u) + a
n
y b
n
u = 0
Dividiendo por D
n
y despejando y se tiene:
y =
1
D
(b
1
u a
1
y) + ... +
1
D
n1
(b
n1
u a
n1
y) +
1
D
n
(b
n
u a
n
y) (10.18)
Representacion matematica de sistemas 173
La expresion (10.18) conduce a un diagrama de bloques como el de la gura
10.4.

b
n
b
1

a
n
a
n1

b
n1
u
x
1
x
1
x
2
x
2
a
1
y
x
n
x
n
x
n1
x
n1
Figura 10.4: Forma canonica de observaci on
De la observaci on de la gura 10.4 se desprende:
x
1
= a
n
x
n
+ b
n
u
x
2
= a
n1
x
n
+ x
1
+ b
n1
u
. . .
x
n1
= a
2
x
n
+ x
n2
+ b
2
u
x
n
= a
1
x
n
+ x
n1
+ b
1
u
y = x
n
Las anteriores ecuaciones pueden escribirse en forma compacta empleando la
notacion matricial en cuyo caso se tienen dos ecuaciones como las 10.3 (A
o
= A
T
c
)
con,
Representacion matematica de sistemas 174
A =

0 0 0 ... a
n
1 0 0 ... a
n1
0 1 . .
. . 1 .
. . . . .
0 0 0 ... a
2
0 0 0 1 a
1

(10.19)
B
T
= (b
n
b
n1
. . . b
1
) (10.20)
C = (0 0 . . . 1) (10.21)
Ejemplo
Sea el sistema descrito por la ecuacion diferencial,
d
3
y
dt
3
+ 4
d
2
y
dt
2
+ 3
dy
dt
+ 2y = 3u + 2
du
dt
cuya forma canonica de control se determino anteriormente. En su forma
canonica de observacion las matrices A, B y C seran:
A =

0 0 2
1 0 3
0 1 4

B =

3
2
0

C =

0 0 1

Para un mismo sistema dinamico existen diferentes formas de representaci on


por variables de estado. Notese que, de hecho, los diagramas de las guras 10.3
y 10.4 serviran para simular el sistema en un computador digital o bien en un
calculador analogico. Ello pone de maniesto como la descripcion interna sum-
inistra un modelo de maquina que realiza el sistema, mientras que la descripcion
externa se limita a describir lo que sucede en la salida por efecto de la accion
que se realice a la entrada. La descripcion externa muestra que hace el sistema
mientras que la interna indica como lo hace (al menos una forma de hacerlo)
Representacion matematica de sistemas 175
Representaciones equivalentes
Se ha visto en el apartado anterior como un mismo sistema admita distintas
representaciones. Se van a estudiar en este apartado las formas equivalentes de
representacion de un mismo sistema. Para ello interesa introducir los conceptos
de equivalencia y de similaridad.
Dos sistemas dinamicos se dicen equivalentes si ante la misma se nal de entrada
responden con la misma se nal de salida. Dos sistemas seran equivalentes si tienen
la misma representaci on externa. El concepto de equivalencia entre sistemas tiene
una cierta sutileza que se pone de maniesto en el ejemplo siguiente.
Ejemplo
Sean dos sistemas dinamicos cuyas funciones de transferencia son las siguien-
tes:
T
1
(s) =
1
s + 1
T
2
(s) =
s + 2
s
2
+ 3s + 2
=
s + 2
(s + 1)(s + 2)
Las dos funciones de transferencia representan al mismo sistema. Sin em-
bargo observese que si se obtienen las descripciones interna de cada una de estas
funciones de transferencia, se obtendran distintas dimensiones para el vector de
estado.
Un concepto mas restrictivo que el de equivalencia entre sistemas, es el de
similaridad. Dos sistemas se dicen similares si ademas de ser equivalentes, dan
lugar a realizaciones con la misma dimension para el vector de estados. Por
ejemplo, si a partir de una cierta funcion de transferencia se obtienen las formas
canonicas de control y observacion, estas dos formas de representacion constituyen
dos formas similares.
Sean (A
1
, B
1
, C
1
) y (A
2
, B
2
, C
2
) dos representaciones por variables de estado
de un mismo sistema. Es facil ver que existe una transformacion no singular T
tal que
A
2
= TA
1
T
1
B
2
= TB
1
(10.22)
C
2
= C
1
T
1
En efecto si,
x = A
1
x + B
1
u
Representacion matematica de sistemas 176
y = C
1
x
y x = Tx, (T no singular), se tiene que,
T
1

x = A
1
T
1
x + B
1
u
lo que premultiplicado por T resulta

x = TA
1
T
1
x + TB
1
u
y = C
1
T
1
x
de donde resultan las expresiones (10.22).
Ejemplo
En el sistema dinamico cuyas formas canonicas de control y de observacion se
han determinado anteriormente se comprueba que,
T =

5 12 3
12 11 2
3 12 0

cumple las anteriores relaciones.


La equivalencia entre sistemas esta relacionada con la descripcion externa
de los mismos, mientras que la similaridad lo esta con la descripcion interna.
La equivalencia entre sistemas para el caso de una entrada y una salida, puede
parecer un concepto trivial. No lo es cuando se aplica a sistemas multivariables
La similaridad entre sistemas, o entre dos formas de representacion de un
mismo sistema, es un concepto extraordinariamente fecundo como se vera en
lo que sigue. De hecho, en el estudio de los sistemas diferenciales lineales por
variables de estado, lo que se va buscando es la forma de representaci on que
mas convenga al problema que se esta tratando de resolver, y por medio de
transformaciones de similaridad como las descritas por las ecuaciones (10.22),
determinar estas formas de representaci on.
Debe notarse que la transformacion de similaridad en representaciones de
sistemas dinamicos equivale a una transformacion lineal del vector de estados, es
decir a un cambio de bases en la representacion del mismo.
Representacion matematica de sistemas 177
10.2.3 Funci on de transicion de los sistemas dinamicos lin-
eales
Se va a considerar con detalle unicamente el caso de sistemas invariantes en el
tiempo. Sean las expresiones 10.4.
x = Ax + Bu
y = Cx (10.23)
en el caso en que las matrices (A, B, C) no dependan del tiempo, es decir esten
formadas por n umeros.
Se trata de resolver, de una manera general, las anteriores ecuaciones diferen-
ciales, en particular la primera, para ver que conduce a una funcion de transicion
entre estados de la forma denida al principio de esta seccion. (recuerdese la
expresion 10.1). Para resolver la ecuacion 10.23 se va a emplear el metodo de
Laplace seg un el cual se puede escribir,
sX(s) x(0) = AX(s) + BU(s)
de donde se puede despejar X(s),
(sI A)X(s) = x(0) + BU(s)
Llamando (s) = (sI A)
1
se tiene,
X(s) = (s)x(0) + (s)BU(s) (10.24)
cuya antitransformada de Laplace es
x(t) = (t)x(0) +

t
0
(t )Bu()d (10.25)
en donde (t) = L
1
[(s)]. La matriz (t) recibe el nombre de matriz de tran-
sicion
Representacion matematica de sistemas 178
La expresion (10.25) es de la misma forma que la expresion (10.1) y representa
la transicion entre los estados x(0) y x(t) como consecuencia de la aplicacion de
una se nal de entrada u en el intervalo (0, t). Puede comprobarse facilmente que
la expresion (10.25) cumple las propiedades de causalidad, consistencia y com-
posicion exigidas a la funcion de transicion entre estados. La existencia de (10.25)
para todo sistema descrito por ecuaciones de la forma (10.23) permite establecer,
que todo sistema dinamico cuyas ecuaciones diferenciales pueden escribirse en la
forma 10.23 admite una descripcion interna de acuerdo con la denicion dada al
principio de esta seccion. Observese que la funcion de lectura viene dada por la
segunda de las expresiones (10.23).
Se dice que al pasar de la descripcion externa a la interna lo que se hace es
factorizar la funcion que representa la descripcion externa en las funciones de
lectura y de transicion entre estados. Esto se puede interpretar con el siguiente
diagrama,
B
u
(s)
x
C
y
Para el caso de sistemas que varen con el tiempo la expresion (10.25) toma
la forma mas general,
x(t) = (t, t
0
)x(t
0
) +

t
0
(t, )B()u()d (10.26)
Volviendo al caso invariante en el tiempo y suponiendo un vector de estado
de dimension n = 1 se tendra, haciendo A = [a]
(s) =
1
s a
es decir
(t) = e
at
El anterior resultado se puede generalizar por una dimension del vector de
estado arbitraria (aunque nita) y hacer,
Representacion matematica de sistemas 179
(t) = e
At
(10.27)
en donde
(t) = e
At
= I + At + ... +
A
k
t
k
k!
+ ... (10.28)
Esta forma de escribir la matriz de transicion tiene un indudable interes en
desarrollos formales y en el estudio de propiedades de los sistemas dinamicos
lineales invariantes en el tiempo.
Para determinar la matriz de transicion se puede emplear varios metodos pero
aqu se consideraran solo dos:
1. empleo de la expresion (10.28) y
2. determinacion de su transformada de Laplace seg un (s) = (sI A)
1
y
posteriormente haciendo su antitransformada:
(t) = L
1

(sI A)
1

Ejemplo
Sea un sistema dinamico cuya matriz A es la siguiente
A =

1 1
0 1

Se trata de determinar la matriz de transicion (t) por los dos metodos indi-
cados mas arriba.
1. Para emplear el desarrollo en serie (10.28) se tendra que,
A
2
=

1 2
0 1

; A
3
=

1 3
0 1

; A
k
=

1 k
0 1

Luego
e
At
=

k=0
A
k
t
k
k!
=

t
k
k!

t
k
(k1)!
0

t
k
k!

e
t
te
t
0 e
t

Representacion matematica de sistemas 180


2. Para determinar (s) se procede como sigue:
(s) = (sI A)
1
=

s 1 1
0 s 1

1
=
1

s 1 1
0 s 1

siendo = (s 1)
2
. Hallando la antitransformada de (s) se tendra,
(t) = L
1
[(s)] =

e
t
te
t
0 e
t

Se tiene el mismo resultado que en 1.


Llevando a la expresion (10.23) el valor de x(t) que da la expresion (10.26) se
tiene,
y(t) = C(t)(t
1
, t
0
)x(t
0
) + C(t)

t
t
0
(t
1
, )B()u() d (10.29)
Suponiendo que el instante inicial se estima en el pasado remoto () en que
el sistema se encontraba en reposo, se puede escribir
y(t) =

C()(t
1
, )B()u()d (10.30)
Comparando las expresiones (10.30) y (3.8) se tiene que la respuesta impul-
sional del sistema en funcion de F, G y H se puede escribir,
h(t
1
, ) = C(t)(t
1
, )B() (10.31)
Por otra parte, y para sistemas invariantes en el tiempo, a partir de las ex-
presiones (28) y (15) se puede escribir
H(s) =
Y (s)
U(s)
= C(sI A)
1
B (10.32)
en donde se ha tenido en cuenta que al determinar la funcion de transferencia
se parte de x(0) = 0, pues esta se dene para condiciones iniciales nulas. La
expresion (35) permite determinar la funcion de transferencia a partir de las
matrices A, B y C.
Representacion matematica de sistemas 181
El problema inverso del anterior, es decir, el problema de determinar las ma-
trices A, B y C a partir de la matriz de transferencia, ya ha sido considerado
anteriormente, en la seccion 10.2.2, para el caso de sistemas con una entrada y
una salida. Para sistemas multivariables el problema puede adquirir una notable
complejidad adicional si se trata de obtener una representacion con una dimension
del vector de estado mnima. Este problema recibe el nombre de problema de
realizacion y se estudiara mas adelante.
10.2.4 Sistemas dinamicos lineales en tiempo discreto
Para los sistemas dinamicos lineales en tiempo discreto se tienen resultados
analogos a los obtenidos en la seccion 10.2.2 para los sistemas lineales en tiempo
contnuo. Para estos ultimos la descripcion por variables de estado toma la forma
siguiente:
x(k + 1) = (k)x(k) + (k)u(k) (10.33)
y(k) = C(k)x(k) + D(k)u(k) (10.34)
En donde las matrices y vectores que aparecen tienen una interpretacion
analoga a la de las matrices y vectores de las expresiones 10.3. Igual que all,
habitualmente, D = 0 y el caso de mayor interes es aquel en que las matrices
(k), (k)yC(k) no dependen de k. Es decir, en lo que sigue se tendra,
x(k + 1) = x(k) + u(k) (10.35)
y(k) = Cx(k) (10.36)
Para obtener la representacion por variables de estado de un sistema descrito
por ecuaciones en diferencias nitas se procede en forma analoga a la empleada
para los sistemas descritos por ecuaciones diferenciales, teniendo presente que a
la derivada all, aqu corresponde el adelanto un perodo elemental, a la integral
el retraso, y a la transformada en s la transformada en z.
Ejemplo
Sea el sistema dinamico cuya ecuacion en diferencias es la siguiente:
Representacion matematica de sistemas 182
y(t + 3) + 4y(t + 2) + 3y(t + 1) + 2y(t) = 3u(t) + 2u(t + 1)
Este sistema admite las mismas formas canonicas de control y de observacion
que los ejemplos tratados en sistemas contnuos.
Se dene la matriz de transferencia (k) de manera que,
(0) = I
(k + 1) = (k)
Es claro que a partir de (10.35) se puede escribir
x(n) = (n k)x(k) +
n1

j=k
(n j 1)Bu(j)
Esta expresion es analoga a la (10.25) y se puede hacer aqu las consideraciones
que all se hicieron. Observese que,
(k) =
k
expresion correspondiente a la (10.27)
La respuesta impulsional, en funcion de y H, se puede escribir,
h(k) = C(k)B (10.37)
y la funcion de transferencia,
H(z) =
Y (z)
U(z)
= C(zI A)
1
B
10.2.5 Muestreo de sistemas en tiempo contnuo
Sea un sistema dinamico descrito por,
Representacion matematica de sistemas 183
x = Ax + Bu
y = Cx
Supongase que el anterior sistema se somete a una se nal de entrada escalonada,
es decir a una se nal de entrada tal que,
u(t) = u(kT) para kT t (k + 1)T
en donde k = 0, 1, 2, .... Una se nal arbitraria u(t) puede convertirse en una
se nal escalonada por medio de unos circuitos retenedores (sample - hold). En la
gura 8 se ilustra el proceso de escalonamiento de una se nal u(t).
Al ser excitado el sistema 10.38 con una se nal escalonada u(t) se obtendra una
se nal de salida y(t). Supongase que de esta se nal se miden solamente los valores
que toma en el conjunto discreto de tiempos t = kT para k = 0, 1, 2, ... Es decir
la se nal de salida se muestrea de manera periodica, con un perodo T.
La evoluci on del estado del sistema 10.38 vendra dada de acuerdo con (10.25),
por la expresion
x(t) = (t t
0
)x(t
0
) +

t
t
0
(t )Bu()d
Si se hace t
0
= kT y t = T(k + 1) se tendra,
x((k + 1)T) = (T)x(kT) +

(k+1)T
kT
((k + 1)T )Bu(kT)d
En la integral del segundo miembro se puede hacer el cambio de variables
= (k + 1)T con lo cual la anterior expresion queda,
x(k + 1 T) = (T)x(kT) +

T
0
()Bd

u(kT)
Llamando,
=

T
0
()Bd

; (T) =
Representacion matematica de sistemas 184
y prescindiendo de T, para simplicar la notacion, se puede escribir
x(k + 1) = x(k) + u(k) (10.38)
expresion que, unida a y(k) = Cx(k) , permite decir que el muestreo de un
sistema dinamico en tiempo contnuo da lugar a un sistema lineal en tiempo
discreto. Observese que la matriz es precisamente el valor de la matriz de
transicion del sistema en tiempo contnuo para un valor del tiempo de T segundos.
Ejemplo
Sea el sistema cuya ecuacion diferencial es
d
2
y
dt
2
+
dy
dt
=
du
dt
+ 2u
El cual admite una forma canonica de control
A =

0 1
0 1

; B =

0
1

; C = (2 1)
y cuya funcion de transferencia es,
Y (s)
U(s)
=
s + 2
s(s + 1)
Supongase que este sistema se somete a una entrada escalonada y que su salida
se muestrea, ambos procesos con periodo t = T seg. Se trata de determinar el
sistema en tiempo discreto equivalente (ver gura 9).
Se tendra
(s) = (sI A)
1
=

s 1
0 s + 1

1
=
1
s(s + 1)

s + 1 1
0 s

1
s
1
s(s + 1)
0
1
(s + 1)

Por tanto,
Representacion matematica de sistemas 185
(t) =

1 1 e
t
0 e
t

luego
=

1 0.428
0 0.572

Por otra parte


=

1
0

1 1 e

0 e

0
1

d =

1
0

1 e

d =

0.572
0.428

C = (2 1)
El proceso de muestreo al que se ha dedicado este apartado es un modelo del
que se realiza cuando se introduce un computador en un proceso
10.2.6 Sistemas no-lineales: linealizacion
Existen muchos problemas practicos en que los sistemas encontrados no admiten
una descripcion por medio de ecuaciones diferenciales lineales. En tal caso no
es posible, en principio, tener unas expresiones de la forma 10.3. Sin embargo,
si la ecuacion diferencial es de orden n, supongase que puede escribirse como n
ecuaciones diferenciales de primer orden, de la forma
x = f(x, u, t) (10.39)
en donde f(.,.) es una funcion no-lineal de x y u, que se supondra, en lo que
sigue, diferenciable con respecto a sus argumentos. Observese que la expresion
(10.38) es un caso particular de la (10.39).
En tal caso se puede concebir un sistema lineal que represente el compor-
tamiento dinamico del sistema para peque nas perturbaciones en torno a una
trayectoria previamente determinada, llamada trayectoria nominal. Sea esta
trayectoria nominal x

(t) se tendra
Representacion matematica de sistemas 186
x

= f(x

, u

, t)
Por otra parte la trayectoria real sera la indicada por (10.39). Si las variaciones
de la trayectoria real con relacion a la nominal son peque nas se podra escribir,
llamando x = x x

y u = u u

y empleando la formula de Taylor,


( x) = f(x, u, t) f(x

, u

, t) =

f
x

x = x

u = u

x +

f
u

x = x

u = u

u (10.40)
Con ello se tiene el comportamiento lineal de las peque nas perturbaciones en
torno a la trayectoria nominal.
Para jar ideas supongase que la dimension del vector x es 2. Las ecuaciones
(10.39) toman la forma
x
1
= f
1
(x
1
, x
2
, u, t)
x
2
= f
2
(x
1
, x
2
, u, t)
y supongase que la trayectoria nominal viene dada por x

1
(t), x

2
(t) y u

(t).
En tal caso se tendra que las ecuaciones (10.40) tomaran la forma

x
1
x
2

f
1
x
1
f
1
x
2
f
2
x
1
f
2
x
2

x
1
= x

1
(t)
x
2
= x

2
(t)
u = u

(t)

x
1
x
2

f
1
u
f
2
u

x
1
= x

1
(t)
x
2
= x

2
(t)
u = u

(t)
u
Ejemplo
Sea el sistema no-lineal descrito por
x
1
= x
2
x
2
= au bx
2
2
Representacion matematica de sistemas 187
q
h
V, c
q
1
q
2
c
1
c
2
Figura 10.5: Diagrama de un deposito mezclador.
y sea la trayectoria nominal,
x

1
=
t
2
2
x

2
= t
u

=
1
a
( + b
2
t
2
)
Aplicando el metodo antes desarrollado se tiene,

x
1
x
2

0 1
0 2bt

x
1
x
2

0
a

u
10.2.7 Deposito mezclador
En la gura 14.3 se muestra un esquema elemental de un proceso de mezcla de dos
uidos en un deposito. Este deposito de volumen V y altura h esta alimentado
por los caudales q
1
y q
2
, cada uno de los cuales con concentracion c
1
y c
2
de un
determinado producto qumico. La concentracion de este producto en el deposito
es c. El deposito evacua por un conducto situado en su parte baja mediante
un caudal q. Se supone que la homogeneizacion de las concentraciones de los
caudales de entrada se produce instantaneamente gracias a la accion de unas
Representacion matematica de sistemas 188
palas batidoras. Se supone, as mismo, que la densidad es constante en el interior
del deposito.
Las ecuaciones del balance de masas son las siguientes:
dv(t)
dt
= q
1
(t) + q
2
(t) q(t) (10.41)
d[c(t)v(t)]
dt
= c
1
(t)q
1
(t) + c
2
(t)q
2
(t) c(t)q(t) (10.42)
El ujo de salida del deposito viene dado por
q(t) = k

h(t) = k

v(t)
a
(10.43)
En donde k es una constante y a es el area del deposito. De modo que v = ha.
Supongase un estado estacionario de funcionamiento en el que se produce un
equilibrio entre las entradas y salidas del deposito, para los siguientes valores de
los ujos de entrada y salida, as como del volumen en el deposito v
0
y de su
concentracion c
0
.
q
1
(0) = q
10
, q
2
(0) = q
20
, q(0) = q
0
, v(0) = v
0
, c(0) = c
0
Convienen observar que las concentraciones de entrada c
1
y c
2
se establecen en
la etapa anterior del proceso. En estas condiciones de regimen estacionario, las
ecuaciones (14.5, 14.6,14.7) toman la forma:
0 = q
10
+ q
20
q
0
0 = c
1
q
10
+ c
2
q
20
c
0
q
0
q
0
= k

v
0
a
Se trata de determinar las ecuaciones lineales que rigen el comportamiento
del sistema en torno a este estado estacionario en el supuesto de que se trate de
perturbaciones sucientemente peque nas como para justicar la linealizacion.
Conviene observar que el proceso que se esta considerando es un proceso no
lineal; es decir, la ecuaciones que gobiernan su comportamiento son no lineales.
Esta no linealidad tienen un doble origen. Por una parte, la ecuacion (14.6) es no
lineal ya que en ella aparecen producto de variables. Por otra parte, la expresion
(14.7) liga q con v (o con h) mediante una relacion no lineal (la raz cuadrada).
Representacion matematica de sistemas 189
Las variaciones de las distintas variables con respecto a los valores tomados
en regimen estacionario se denotaran mediante un tilde sobre la variable corres-
pondiente. Es decir,
q(t) = q(t) q
0
representa la variacion del caudal q respecto al valor estacionario q
0
. Analogamente
se denen el resto de las variables
v(t) = v(t) v
0
q
1
(t) = q
10
+ q
1
(t)
q
2
(t) = q
20
+ q
2
(t)
c(t) = c
0
+ c(t)
Si las variaciones son sucientemente peque nas, entonces la expresion no lin-
eal (14.7) se puede linealizar en torno al valor correspondiente por regimen esta-
cionario, de acuerdo con
q(t) q
0
=
k

v(t)
v(t)
[
v=v
0
(v(t) v
0
)
Es decir
q(t) =
k
2v
0

v
0
a
v(t) (10.44)
De este modo la relacion entre la variacion q(t) del caudal con respecto al valor
en regimen estacionario, y la correspondiente al volumen v(t), queda linealizada.
Llevando las deniciones de las variaciones v(t), q
1
(t), q
2
(t) y c(t) a las expresiones
(14.5) y (14.6) y tendiendo en cuenta la denicion del regimen estacionario y
(14.8) se tiene que
d v(t)
dt
= q
1
(t) + q
2
(t)
1
2
q
0
v
0
v(t)
d c(t)
dt
v
0
+ c
0
d v(t)
dt
= c
1
q
1
(t) + c
2
q
2
(t)
1
2
c
0
q
0
v
0
v(t) q
0
c(t)
=
v
0
q
0
Representacion matematica de sistemas 190
Si se escribe
x
1
= v
x
2
= c
u
1
= q
1
u
2
= q
2
y
1
= q
y
2
= c
y
=
v
0
q
0
se tiene que las ecuaciones del sistema dinamico linealizado pueden escribirse de
la forma siguiente:

x
1
x
2

1
2
0
0
1

x +

1 1
c
1
c
0
v
0
c
2
c
0
v
0

u
Sistema dinamico lineal que describe el comportamiento del sistema perturbado
en torno al regimen estacionario.
Tema 11
Controlabilidad y observabilidad
de sistemas dinamicos
11.1 Introduccion
La descripcion interna de un sistema dinamico lineal suministra modelos para
la representaci on de una amplia clase de sistemas dinamicos encontrados en la
practica. Esta descripcion reposa sobre la existencia de la terna (A, B, C) que
caracteriza completamente su comportamiento dinamico.
Asociados a la descripcion interna de un sistema lineal emergen dos conceptos
que tienen una importancia capital y cuya sola existencia justica la adopcion
de la descripcion interna frente a la externa. Son los conceptos de controlabil-
idad y de observabilidad. Su formulaci on da respuesta precisa a dos cuestiones
fundamentales:
1. Se puede determinar el estado de un sistema a partir de la observaci on de
la salida?.
2. Se puede determinar una se nal de entrada que transera el sistema de un
estado a otro?
La controlabilidad y la observabilidad son propiedades de la descripcion in-
terna de los sistemas dinamicos. Estas propiedades se reeren, respectivamente,
a la inuencia de la entrada sobre el estado y del estado sobre la salida.
191
Controlabilidad y observabilidad de sistemas dinamicos 192
No es necesario insistir aqu sobre el interes de esos conceptos puesto que
quedara ampliamente puesto de maniesto en todo lo que sigue.
Historicamente ambos conceptos no aparecieron a la vez. El de controlabil-
idad, mas antiguo, fue empleado por Pontryagin en sus trabajos sobre el prin-
cipio del maximo. Sin embargo corresponde a Kalman el primer tratamiento
sistematico de ambos, as como el establecimiento de las relaciones entre ellos
(dualidad), y sobre todo su amplia difusion, por lo que es frecuente leer que ha
sido Kalman el introductor de estos conceptos.
En lo que sigue se estudiara la controlabilidad y la observabilidad de los sis-
temas lineales invariantes en el tiempo. Se estudiaran a su vez criterios para
determinar si un sistema dinamico lineal es, o no, controlable u observable. De
todo ello se extraeran conclusiones practicas para abordar el problema de sntesis
que sera tratado en el captulo siguiente. Se vera como todo ello se reduce a
propiedades algebraicas de la terna (A, B, C).
11.2 Controlabilidad de sistemas dinamicos li-
neales
El concepto de controlabilidad pretende dar un signicado preciso a la idea de
transicion entre estados. Dada la importancia del concepto de estado en la de-
scripcion de los sistemas dinamicos, interesa estudiar bajo que condiciones sera
posible conducir un determinado sistema a un cierto estado. De manera intu-
itiva la nocion de conducir el sistema a un determinado estado es equivalente
a la de controlarlo.
De una manera general se dira que un sistema es controlable si para cada
transicion entre estados que se desee realizar existe una se nal de control que la
realice. El tiempo de la transicion entre estados se supone nito y la se nal de
control se supone sin ninguna clase de restricciones. Para precisar los conceptos
se introducen las siguientes deniciones.
11.2.1 Estados alcanzables
El conjunto de estados alcanzables desde el estado x, A
x
, esta formado por los
elementos x
1
X para los que existe una se nal de entrada u(t), denida en un
Controlabilidad y observabilidad de sistemas dinamicos 193
cierto intervalo (t
0
, t
1
) tal que
(t
1
, t
0
, x, u(t
0
, t
1
)) = x
1
El espacio de estados X de un sistema dinamico

se dice alcanzable desde
x si A
x
= X.
En la gura 11.1 se ilustra el concepto de conjunto de estados alcanzables desde
x. Normalmente el estado que se toma de referencia para denir el conjunto de
estados alcanzables es el estado de reposo x = 0.
A
x
x = 0
u
1
u
2
u
3
Figura 11.1: A
x
= Conjunto de estados alcanzables desde x = 0
La alcanzabilidad exige que la aplicacion (., t
0
, x, .) sea suprayectiva.
El concepto de controlabilidad se tiene como contra parte del de alcanzabilidad
invirtiendo el tiempo.
11.2.2 Estados controlables
Se dene el conjunto de estados controlables a x, C
x
, como el formado por los
elementos x
1
X para los que existe una se nal de entrada u(t), denida en un
cierto intervalo (t
0
, t
1
) tal que
(t
1
, t
0
, x
1
, u(t
0
, t
1
)) = x
Un sistema dinamico se dice controlable a x si C
x
= x.
Un sistema dinamico se dice controlable si es controlable al origen.
Controlabilidad y observabilidad de sistemas dinamicos 194
Las consideraciones hechas mas arriba respecto al concepto de alcanzabilidad
son validas aqu respecto al de controlabilidad. En la gura 11.2 se ilustra el
conjunto C
x
.
x = 0
C
x
u
3
u
2
u
1
Figura 11.2: C
x
= Conjunto de estados controlables a x
En algunos casos se dene la controlabilidad a la se nal de salida ademas de a
los estados, sin embargo, en estos apuntes el concepto de controlabilidad que se
manejara es el denido mas arriba.
11.2.3 Estados conectados
El espacio de estados X de un sistema dinamico se dice conectado, si para cada
par de estados x
0
, x
1
, X existe una se nal u(t), denida en un cierto intervalo
(t
0
, t
1
) tal que
(t
1
, t
0
, x
0
, u(t
0
, t
1
)) = x
1
Es evidente que si el espacio de estados esta conectado, el sistema sera alcan-
zable y controlable. Es decir, que
conexion alcanzabilidad + controlabilidad
Los conceptos de alcanzabilidad, controlabilidad y conexion entre estados,
son equivalentes entre s para los sistemas dinamicos lineales estacionarios. Este
hecho justica el que en lo que sigue se hable exclusivamente del concepto de
controlabilidad.
Ejemplo
Controlabilidad y observabilidad de sistemas dinamicos 195
Sea el sistema de la gura 11.3. Para su descripcion interna se requieren dos
variables de estado x
1
y x
2
, que se puedan identicar con las cargas de cada uno
de los condensadores. Si la se nal de entrada es la tension que se aplica a las formas
correspondientes, es claro que se puede transferir a x
1
o a x
2
a cualquier valor;
sin embargo, no se puede transferir a x
1
y a x
2
a un par de valores arbitrarios.
Por lo tanto la ecuacion que describe el comportamiento de este sistema no es
controlable.
Los conceptos de controlabilidad, alcanzabilidad y conexion se reeren a las
posibles transferencias en el espacio de estados que resultan de la aplicacion de
se nales de entrada. El concepto de controlabilidad se reere a la transferencia de
un estado inicial arbitrario a una trayectoria deseada. Normalmente la trayectoria
deseada es un punto de equilibrio. Este es el caso que se ha considerado aqu,
tomandose ademas el elemento cero de X para representar este equilibrio.
R
C
C
R
u
x
1
x
2
Figura 11.3: Ejemplo de sistema no controlable
11.3 Controlabilidad de los sistemas en tiempo
discreto
Aunque en este curso nos ocupamos fundamentalmente de sistemas en tiempo
continuo, la introduccion del concepto de controlabilidad se hace de forma mucho
mas sencilla en el caso de los sistemas dinamicos en tiempo discreto. Por ello, en
primer lugar nos vamos a ocupar de la controlabilidad de un sistema de este tipo.
Controlabilidad y observabilidad de sistemas dinamicos 196
11.3.1 Ejemplos de introduccion
Sistema controlable.
Sea el sistema de posicionamiento de un cilindro, de inercia unitaria, sometido
a un par u(t), suponiendo que el rozamiento sea despreciable. Este sistema
representa una versi on idealizada del problema del posicionamiento de un
satelite en un plano. Sus ecuaciones se pueden escribir
x =

0 1
0 0

x +

0
1

u
es decir:
A =

0 1
0 0

B =

0
1

se tiene:
(sI A)
1
=

s 1
0 s

1
=
1
s
2

s 1
0 s

1
s
1
s
2
0
1
s

por tanto
(t) =

1 t
0 1

(T) =

1 T
0 1

Conviene recordar que la matriz de transicion entre estados en un sistema


en tiempo discreto viene dada por:
=

(k+1)T
kt
((k + 1)T ) Bd
= kT
=

T
0
(t )B = d
= T
=

T
0
()Bd
De acuerdo con lo cual, la matriz de transicion entre estados para el sistema
en tiempo discreto de posicionamiento del cilindro resulta ser:
Controlabilidad y observabilidad de sistemas dinamicos 197
=

T
0
(t)Bd =

T
0

1
0 1

0
1

d =

T
0

d =

T
2
/2
T

Por tanto el sistema en tiempo discreto (tambien llamado sistema muestreado)


sera:
x
k+1
= Ax
k
+ Bu
k
=

1 T
0 1

x
k
+

T
2
/2
T

u
Supongamos que se aplica una se nal u
o
, en el instante t = 0, con las
condiciones iniciales x
o
= [ ]
T
, lo que hace que en el primer instante
de muestreo se alcance el estado
x
1
= Ax
0
+ Bu
0
x
1,1
= + T + (T
2
/2) u
0
x
2,1
= + Tu
0
Si con la se nal u
o
que hemos aplicado pretendiesemos transferir el estado
inicial [] al origen del espacio de estado; es decir si quisiesemos x
1,1
=
x
2,1
= 0 entonces tendramos:
+ T + (T
2
/2) u
0
= 0
es decir
u
0
=
( + T)
T
2
/2
Pero tambien se ha de cumplir:
+ T u
0
= 0
u
0
=

T
Controlabilidad y observabilidad de sistemas dinamicos 198
Por tanto, para que exista una se nal u
o
que transera en un solo paso el
estado [, ] al origen se requiere que este estado no sea uno cualquiera,
sino que este situado en la region del espacio de estados denida por la
expresion:
=
+ T
T/2
T = 2 + 2T
2 + T = 0
En consecuencia, no es posible transferir un estado arbitrario del espacio
de estados, en un solo paso, al origen. Veamos que sucede si en lugar de
considerar un solo paso, consideramos dos; es decir una secuencia de se nales
sucesivas u
o
, u
1
. En tal caso se tendra:
x
2
= A
2
x
0
+ ABu
0
+ Bu
1
es decir
x
2,1
= + 2T + (3T
2
/2)u
0
+ (T
2
/2)u
1
x
2,2
= + Tu
0
+ Tu
1
Si, como en el caso anterior, se pretende llevar un estado arbitrario [] al
origen; es decir
para x
2,1
= x
2,2
= 0
(3T
2
/2) u
0
+ (T
2
/2)u
1
= 2T
Tu
0
+ Tu
1
=
Se trata de resolver este sistema de ecuaciones en u
o
y u
1
. Para que ese
sistema lineal de ecuaciones tenga solucion se requiere que el determinante
de la matriz de la parte izquierda del sistema sea no singular, lo que efec-
tivamente sucede en este caso.
det

3T
2
/2 T
2
/2
T T

= 3
T
3
2

T
3
2
= T
3
= 0
Controlabilidad y observabilidad de sistemas dinamicos 199
Por tanto, para una posicion arbitraria del estado [] existe una secuencia
de se nales de actuacion sobre el sistema u
o
u
1
que transere ese estado arbi-
trario al origen. En tal caso estamos autorizados para decir que el sistema
es controlable al origen, de acuerdo con la denicion que hemos introducido
mas arriba.
Sistema no controlable.
Consideremos ahora el sistema denido por las ecuaciones:
x
k+1
= Ax
k
+ Bu
k
=

1 1
0 2

x
k
+

1
1

u
k
Y como se ha hecho en el caso anterior supongase que se trata de transferir
un estado inicial arbitrario [] al origen. En primer lugar, considerese el
caso de un solo paso, en el que se aplica la se nal u
o
.
x
1
= Ax
0
+ Bu
0
El estado que se alcance despues de aplicar esta se nal sera:
x
1,1
= + + u
0
x
2,1
= 2 + u
0
Si se quiere que este estado alcanzado sea precisamente el origen, es decir,
si se quiere que x
1,1
= x
2,1
= 0 entonces es facil ver que ello solo sera posible
si = . Es decir, existe un subespacio del espacio de estados, formado
por la recta que dene la bisectriz del primer cuadrante, tal que si el estado
inicial se encuentra sobre esta recta entonces con un solo paso es posible
llevar ese estado al origen. Esta recta representa lo que se conoce como
subespacio controlable del sistema.
x
1,1
= x
2,1
= 0 =
lo que dene el subespacio controlable en un solo paso.
Veamos ahora que sucede si aplicamos una secuencia de dos pasos u
o
u
1
. En
tal caso se tiene que el estado alcanzado es:
Controlabilidad y observabilidad de sistemas dinamicos 200
x
2
= A
2
x
0
+ ABu
0
+ Bu
1
es decir
x
2,1
= + 3 + 2u
0
+ u
1
x
2,2
= 4 + 2u
0
+ u
1
De nuevo queremos transferir el estado [] al origen; es decir, se quiere que
x
2,1
= x
2,2
= 0. En tal caso se tiene que los valores tomados por la se nal de
entrada u
o
y u
1
deberan satisfacer el sistema de ecuaciones lineales:
2u
0
+ u
1
= 3
2u
0
+ u
1
= 4
Pero este sistema de ecuaciones carece de solucion, puesto que:
det

2 1
2 1

= 0
El sistema solo es controlable si se cumple a la vez
+ 3 = 4 =
Es decir, de nuevo nos encontramos en la misma condicion que se haba en-
contrado para el caso de un solo paso. El subespacio controlable sigue siendo
exclusivamente la bisectriz que atraviesa el primer y tercer cuadrantes.
Si en lugar de considerar dos pasos, consideramos tres mediante la frecuencia
u
o
u
1
u
2
, entonces el estado alcanzado ser:
x
3
=

+ 7 + 4u
0
+ 2u
1
+ u
2
8 + 4u
0
+ 2u
1
+ u
2

Controlabilidad y observabilidad de sistemas dinamicos 201


El lector comprobara facilmente que nuevamente esta ecuacion solo tiene
solucion si = .
Nos encontramos, por tanto, en este segundo ejemplo con un sistema del que
no podemos decir que sea controlable; es decir, del que dado un estado inicial
arbitrario no podemos determinar una secuencia de entrada que lo transera al
origen. solamente, si el estado inicial se encuentra en una cierta region privile-
giada, que denominamos subespacio controlable, es posible esta transferencia.
Lo que se acaba de ver para estos dos ejemplos concretos es facilmente gener-
alizable para un sistema cualquiera en tiempo discreto:
x
k+1
= Ax
k
+ Bu
k
En tal caso, para una secuencia de entrada de p se tendra que el estado que
se alcanza ser:
x
p
= A
p
x
0
+ A
p1
Bu
0
+ A
p1
Bu
1
+ + ABu
p2
+ Bu
p1
es decir
A
p1
Bu
0
+ A
p2
Bu
1
+ + ABu
p2
+ Bu
p1
= A
p
x
0
Para el caso p = n se tendra:
A
n
x
0
= A
n1
Bu
0
+ A
n2
Bu
1
+ + ABu
n2
+ Bu
n1
Lo que se puede escribir, con notacion matricial
A
n
x
0
= [A
n1
B
.
.
.
.
.
.AB
.
.
.B]

u
0
u
1
...
u
n1

Para que este sistema de ecuaciones tenga solucion, de modo que dado un
estado inicial arbitrario x
o
se pueda determinar una secuenciau
o
u
1
u
2
. . . u
n1
se
requiere que la matriz ( sea de rango completo.
Controlabilidad y observabilidad de sistemas dinamicos 202
11.3.2 Controlabilidad de sistemas en tiempo continuo
La controlabilidad de los sistemas en tiempo continuo aunque conceptualmente
sea la misma que la de los sistemas en tiempo discreto, sin embargo resulta un
poco mas difcil de analizar. Vamos a considerar alg un ejemplo introductorio que
nos allane el camino.
Ejemplo
Sea el sistema denido por las ecuaciones
x
1
= u
x
2
= ax
2
y = x
1
+ x
2
cuya representaci on en forma de diagrama de bloques se tiene en la gura 11.4
De la observaci on de la gura se desprende claramente que x
2
es una variable de
estado no controlable.
u
a
x
2
y
x
1
Figura 11.4: Diagrama de bloques de un sistema no controlable
Sin embargo, la variable de estado x
1
s es controlable; es decir, cualquiera que
sea el valor que tome esta variable de estado x
1
puede ser llevada al origen (x = 0)
en un tiempo nito. Basta para ello encontrar una trayectoria x
1
(t) que una x
1
(0)
con x
1
() = 0, en donde es el tiempo nito de transicion entre estados. Por
ejemplo si se adopta una recta, tal como se hace en la gura 11.5, entonces la
Controlabilidad y observabilidad de sistemas dinamicos 203
se nal de entrada u(t) que debe aplicarse en el intervalo (0, ), se calcula facilmente
de acuerdo con
u(t) =
d
dt
x
1
(t) para t [0, ]
x
1
t
seg
Figura 11.5: Trayectoria de x
1
Debe observarse que aunque la variable x
2
no sea controlable, sin embargo
s afecta a la salida, hasta el extremo de que si a es negativa, el sistema sera
inestable.
11.3.3 Criterio de controlabilidad
Para sistemas estacionarios, que son los que se consideraran en estos apuntes,
existe un criterio muy simple que permite establecer si un cierto sistema dinamico
es controlable o no. Este criterio se basa en unas propiedades algebraicas del par
(A, B). Este criterio se establece con el siguiente teorema.
Teorema
Un sistema

es controlable si y solo si
rango ( = n
en donde (

B
.
.
.AB
.
.
....
.
.
.A
n1
B

y n = dim X.
Controlabilidad y observabilidad de sistemas dinamicos 204
La matriz ( recibe el nombre de matriz de controlabilidad.
Demostracion
1. Necesidad
Se trata de demostrar que si el sistema es controlable entonces se cumple
que el rango de la matriz de controlabilidad es n.
(sistema controlable rango ( = n)
Se sabe
x(t
1
) = e
At
1
x(0) +

t
1
0
e
A(t)
Bu() d (11.1)
Se toma seg un la denicion de controlabilidad, x(t
1
) = 0.
Luego,
0 = e
At
1
x(0) +

t
1
0
e
A(t
1
)
Bu() d
Premultiplicando por e
At
1
se tiene,
x(0) =

t
1
0
e
A
Bu() d
Por otra parte, recuerdese que
e
A
=

i=0
A
i
t
i
i!
ademas, (s) = (sI A)
1
, luego (A) = 0 y, por tanto,
A
n
+ a
1
A
n1
+ ... + a
n1
A + a
n
I = 0
es decir, A
n
es combinaci on lineal de las n1 potencias de A. Combinando
estos dos resultados, se tiene que
e
A
=
n1

i=0

i
()A
i
luego
x(0) =
n1

i=0
A
i
B

t
1
0

i
()u() d (11.2)
Controlabilidad y observabilidad de sistemas dinamicos 205
se denen las funciones auxiliares

i
(0, t
1
) =

t
1
0

i
()u() d
con lo que (11.2) puede escribirse
x(0) =
n1

i=0
A
i
B
i
(11.3)
es decir:
x(0) =

B AB AB
2
. . . A
n1
B

1
.
.
.

n1

Puesto que x(0) es arbitrario la anterior expresion implica que debe ser
posible representar cualquier vector como una combinacion lineal de las
columnas de (. Luego, seg un la denicion de controlabilidad, que el sistema
sea controlable implicara (es necesario) que rango ( = n.
2. Suciencia
Se trata de demostrar que si el rango de ( es n, entonces el sistema es
controlable, es decir, existe una se nal de entrada que lo transere al origen.
Formalmente,
rango ( = n sistema controlable
Sea
rango ( = n
Si se aplica al sistema una se nal
u(t) = u
0
(t) + u
1

(1)
(t) + + u
n1

(n1)
(t) (11.4)
en donde u
i
son vectores de dimension n y
(k)
(t) representa la derivada k
- esima de (t) y que tiene la propiedad

(k)
(t ) f() d =
d
k
f(t)
dt
k
x(0) = (

u
0
u
1
.
.
.
u
n1

Controlabilidad y observabilidad de sistemas dinamicos 206


Luego si rango ( = n, entonces admite solucion el anterior sistema de
ecuaciones lineales con n incognitas, que son los valores de n
i
para i =
0, n = 1.
Es decir, si rango ( = n el sistema es controlable ya que es posible construir
una (al menos) se nal de entrada tal como la de la expresion (2) que transera
al sistema desde un estado arbitrario x(0) al origen x(t
1
) = 0.
11.3.4 Ejemplos de controlabilidad
Se presentan en este apartado algunos ejemplos de aplicacion del criterio de con-
trolabilidad que, ademas ayuden a captar el sentido fsico de este concepto.
Ejemplo 1
Sea el sistema de la gura 11.6, al que corresponden las ecuaciones:
x
1
x
2
u
-1
+1
-2
Figura 11.6: Diagrama de bloques del ejemplo 1
x
1
= x
1
+ u
x
2
= x
1
2x
2
+ u
Controlabilidad y observabilidad de sistemas dinamicos 207
es decir
A =

1 0
1 2

B =

1
1

Si se aplica el criterio de controlabilidad a este sistema se tiene que:


( =

1 1
1 1

det ( = 0
Por tanto el sistema no es controlable. Este es un ejemplo de un sistema que
aparentemente es controlable, ya que al observar la gura del diagrama parece que
tanto x
1
como x
2
son accesibles desde la entrada u, pero que luego se comprueba
que no lo es.
Este ejemplo nos pone en alerta sobre una interpretaci on intuitiva de la con-
trolabilidad basada en los diagramas de la descripcion interna.
Ejemplo 2
Recordando el ejemplo de un deposito en el que se mezclaban dos uidos con
caudales Q
1
Q
2
, de un uido con una cierta sustancia en disolucion. Sucede que si
estos dos caudales tienen la misma concentraci on; es decir C
1
= C
2
= C
c
entonces
el sistema deja de ser controlable. En efecto, las ecuaciones correspondientes son
x(t) =

1
2
0
0
1

x(t) +

1 1
0 0

u(t)
El diagrama correspondiente se tiene en la gura 11.7 la entrada (en realidad
las dos entradas) u(t) afecta unicamente a la variable x
1
(t), es decir el incremento
de volumen. La variable x
2
(t), el incremento de concentracion, no tiene conexion
con la entrada, y por tanto no puede ser afectado por ella. Es decir, es imposible
mover x
2
(t) desde un estado inicial arbitrario x
2
(t
o
) a un estado determinado
x
2
(t
1
) en un intervalo de tiempo nito (t
o
, t
1
). En este ejemplo se ve fsicamente el
signicado de controlabilidad. Si C
1
= C
2
entonces el sistema es completamente
controlable, como puede vericar facilmente el lector.
Ejemplo 3: La varilla vertical
Controlabilidad y observabilidad de sistemas dinamicos 208
x
2
(0)
x
1
(0)
s
1
s
1
1

1
2
u
1
(s)
x
1
(s) x
2
(s)
s
1
s
1
u
2
(s)
Figura 11.7: Diagrama de bloques del ejemplo 2
Considerese una varilla de longitud L cuya masa M esta concentrada en su
parte superior, tal como se indica en la g.11.8. A partir de las leyes de Newton
se sabe que el sistema esta gobernado por la ecuacion
M
L

x
u
Figura 11.8: Varilla vertical
u(t)cos (t) + L

(t) = g sen (t)


en donde g es la constante de gravitacion. Por otra parte se tiene tambien la
relacion
x(t) = u(t) + L sen (t)
Controlabilidad y observabilidad de sistemas dinamicos 209
Si la varilla se encuentra muy proxima a la posicion vertical (es decir muy
peque no) las dos ecuaciones anteriores pueden reescribirse en funcion de x(t)
como sigue:
x(t) =
g
L
[x(t) u(t)]
Para simplicar la ecuacion se hace L = 1. El anterior sistema se puede
escribir en el espacio de estados, llamando x
1
= x(t) y x
2
= x(t).

x
1
x
2

0 1
g 0

x
1
(t)
x
2
(t)

+ g

0
1

u(t)
siendo la matriz de controlabilidad
( = g

0 1
1 0

puesto que ( es no-singular, el sistema es completamente controlable, lo que


coincide con nuestra experiencia.
Este ejemplo representa una versi on simple de un problema mas general que
presentan muchos sistemas mecanicos en los que aparecen problemas de bal-
anceo tales como el mantenimiento de un satelite en su orbita, el control de
un helicoptero o un cohete cuando asciende verticalmente.
11.4 Notas sobre controlabilidad
11.4.1 Controlabilidad de sistemas monovariables
Sea el sistema

descrito por la ecuacion diferencial
(s
n
+ s
n1
a
1
+ + a
n
)y = (b
0
s
m
+ + b
m
)u
d(s)y = n(s)u
Controlabilidad y observabilidad de sistemas dinamicos 210
Entonces

es controlable si y solo si los polinomios n(s) y d(s) no tienen
factores comunes.
Se puede dar un razonamiento intuitivo a lo anterior: si n(s) y d(s) tienen un
factor com un, entonces existe un

, equivalente (externamente) a

, y tal que
es de orden menor que n.
11.4.2 Transformaci on de la matriz de Controlabilidad
Al cambiar de bases el vector de estados x, la matriz de controlabilidad se trans-
forma como sigue
x = Tx
es decir
b = Tb
A = TAT
1
luego
( = T (
11.4.3 Forma simplicada del criterio de controlabilidad
Si el rango B = r el criterio de controlabilidad se simplica a
rango

B
.
.
.AB
.
.
....
.
.
.A
nr
B

= n
La demostracion del anterior criterio simplicado esta basada en el siguiente
lema.
Controlabilidad y observabilidad de sistemas dinamicos 211
Lema
Si k es un entero tal que
rango

B
.
.
.AB
.
.
....
.
.
.A
k1
B

= rango

B
.
.
.AB
.
.
....
.
.
.A
k
B

= p
entonces
rango

B
.
.
.AB
.
.
....
.
.
.A
e
B

= p para todo e k 1
Demostracion
El hecho de que
rango

B
.
.
.AB
.
.
....
.
.
.A
k1
B

= rango

B
.
.
.AB
.
.
....
.
.
.A
k
B

signica que toda columna de la matriz A


k
B es linealmente dependiente de
las columnas de las matrices B, ...A
k1
B. Por lo tanto todas las columnas de
Ak + 1B son linealmente dependientes de las columnas de AB, ..., A
k
B. Proce-
diendo de esta manera y por induccion se completa la demostracion.
Por el anterior lema, el rango de la matriz ( debe incrementarse en, al menos,
una unidad cuando se a nade un nuevo termino, hasta que se alcanza el rango
maximo n. Por lo tanto si
rango B = r
entonces es suciente incluir a lo sumo nr terminos de la forma AB, ...A
nr
B
para ver si el rango maximo de ( puede ser alcanzado.
11.4.4 La controlabilidad como propiedad generica
Supongase que se tiene una clase S
R
de sistemas dinamicos indicados por un
parametro r R. Supongase ademas que un sistema S
r
posee una determi-
nado propiedad. Esta propiedad se dice que es generica en R si S
r
posee esta
Controlabilidad y observabilidad de sistemas dinamicos 212
propiedad para todo r R, siendo R un conjunto abierto y denso en R. Las
propiedades genericas son muy importantes ya que si R es el conjunto de valores
de los parametros en los que se toman las aproximaciones hechas en el mode-
lado de un sistema, debido a la falta de conocimiento preciso de los valores de los
parametros, es claro que solo las propiedades genericas tendran una interpretacion
real. Puesto que el ser de rango completo es una propiedad generica de las ma-
trices escogidas al azar en R
nn
, es claro que la controlabilidad es una propiedad
generica. Sin embargo en la practica esta cuestion no resulta tan simple ya que
b (y C mas adelante cuando se hable de observabilidad) en la practica describen
conexiones que existen entre el sistema y el mundo exterior. Si la conexion no
existe, entonces el elemento correspondiente de b es exactamente 0 y no tiene
sentido el plantearse su perturbacion innitesimal para obtener un incremento de
rango. Por lo tanto, la genericidad debe realmente denirse separadamente para
cada sistema y la cuestion de la controlabilidad es genuinamente importante.
11.5 Descomposicion del espacio de estados en
sus partes controlables y no controlables
El hecho de que el espacio de estados X de un sistema dinamico

no sea contro-
lable, no implica que alg un subespacio de X no lo pueda ser. Es decir, el hecho
de que todas las componentes del vector de estados no puedan ser transferidas al
origen en un tiempo nito, por aplicacion de una se nal de control conveniente, no
implica que determinadas de estos componentes no puedan ser transferidas. El
problema de la descomposicion del espacio de estado en sus partes controlables
y no controlables, reside, precisamente, en la determinacion de que componentes
del vector de estados son controlables. Con ello se subdivide el espacio de esta-
dos en dos subespacios, el uno de estados controlables y el otro el de estados no
controlables.
Sea el sistema

x = Ax + Bu
y = Cx
Cuya matriz de controlabilidad sera:
Controlabilidad y observabilidad de sistemas dinamicos 213
( =

B AB ... A
n1
B

tal que
rango ( = n
1
< n
En tal caso existe una transformacion no singular T tal que
T( =

(
1
0

en donde (
1
: n
1
nm y rango (
1
= n
1
. La obtencion T se hace determinando
una matriz equivalente a la (( I) de manera que

(
.
.
. I

(
1
.
.
.

.
.
. T
0
.
.
.

La matriz T tiene la notable propiedad de que transforma el espacio de estados


de suerte que los subespacios controlables y no controlables son evidentes. En
efecto, si
x = Tx
la matriz de controlabilidad sera
( = T( =

(
1
0

=
=

(
11
(
12
... (
n
0 0 0

=
=

B AB A
n1
B

(11.5)
Por otra parte la matriz se descompone en dos bloques
Controlabilidad y observabilidad de sistemas dinamicos 214
B =

B
1
B
2

(11.6)
siendo B
1
de dimension n
1
m y B
2
de dimension (n n
1
) m.
Por inspeccion, observando ( y B, es claro que B = 0.
Se descompone
A =

A
11
A
12
A
21
A
22

(11.7)
en donde A
11
= n
1
n
1
y el resto de los bloques tienen las dimensiones
correspondientes. Se tiene que
A( =

A
11
A
12
A
21
A
22

C
1
0

A
11
C
1
A
21
C
1

(11.8)
Por otra parte
A( =

AB A
2
B ... A
n
B

(11.9)
A partir de la expresion (3), se sabe que las (nn
1
) ultimas las de ( son igual
a cero. Por otra parte se sabe que A
n
puede expresarse como una combinaci on
lineal de = A
i
, para i 1...n 1, seg un
A
n
=
n1

i=0

i
A
i
De lo anterior se desprende:
los n 1 primeros bloques en que se ha particionado A( en (7) son tales
que tienen las (n n
1
) ultimas las nulas.
por lo que respecta al ultimo de los bloques, es decir, A
n1
B, sus (n n
1
)
ultimas las tambien nulas, debido a que este bloque puede considerarse
una combinaci on lineal de los anteriores.
Controlabilidad y observabilidad de sistemas dinamicos 215
Por lo tanto si las (n n
1
) ultimas las de A( son igual a cero, se concluye
observando (6) que A
21
= 0, puesto que (
1
no es nulo. Luego
A =

A
11
A
12
0 A
22

B =

B
1
0

Lo anterior conduce a descomponer el espacio de estados X en dos subespacios


X
1
y X
2
, tales que
X = X
1
X
2
siendo la dim x
1
= n
1
y dim x
2
= n n
1
. El subespacio X
1
representa los
estados controlables y el subespacio X
2
los no controlables. En efecto,
x
1
= A
11
x
1
+ A
12
x
2
+ B
1
u
x
2
= A
22
x
2
y = c
1
x
1
+ c
2
x
2
Las anteriores expresiones se pueden interpretar con ayuda de un diagrama
como se hace en la g.11.9. En este diagrama se observa claramente como las
variables de estado comprendidas en x
1
son accesibles a partir de la se nal de
mando u, mientras que la x
2
no lo son. Debe observarse que las variables de
estado no controlables afectan no solo a la salida, sino tambien a la propia parte
controlable del sistema
La funcion de transferencia de

depende exclusivamente de (A
11
B
1
, c
1
) ya
que, por denicion de F de T, esta se obtiene considerando condiciones iniciales
nulas y para x
2
(0) = 0 se tendra x
2
(t) = 0 para todo valor de t > 0. Es decir,
a partirse condiciones iniciales nulas los estados no controlables permanecen en
reposo.
Ejemplo
Sea el sistema
A =

1 0 0
1 1 2
1 0 1

B =

1
1
1

Controlabilidad y observabilidad de sistemas dinamicos 216


y
u
C
2
C
1
+
x
1
x
2

2
x
1
=

A
11
x
1
+

A
12
x
2
+

B
1
u
x
2
=

A
22
x
2
Figura 11.9: Diagrama de bloques de un sistema no controlable
Su matriz de controlabilidad sera
( =

1 1 1
1 0 1
1 0 1

Para determinar T se hace


(( I) =

1 1 1 1 0 0
1 0 1 0 1 0
1 0 1 0 0 1

1 1 1 1 0 0
0 1 0 1 1 0
0 1 0 1 0 1

1 1 1 1 0 0
0 1 0 1 1 0
0 0 0 0 1 1

Luego
Controlabilidad y observabilidad de sistemas dinamicos 217
T =

1 0 0
1 1 0
0 1 1

Para determinar T
1
se hace
(T I) =

1 0 0 1 0 0
1 1 0 0 1 0
0 1 1 0 0 1

1 0 0 1 0 0
0 1 0 1 1 0
0 1 1 0 0 1

1 0 0 1 0 0
0 1 0 1 1 0
0 0 1 1 1 1

Luego
T
1
=

1 0 0
1 1 0
1 1 1

A partir de T y T
1
se tendra
A = T A T
1
=

1 0 2
1 1 2
0 0 1

B = T B =

1
0
0

Es decir
x =

1 0 0
1 1 2
0 0 1

x +

1
0
0

u
El subsistema controlable sera
Controlabilidad y observabilidad de sistemas dinamicos 218
d
dt

x
1
x
2

1 0
1 1

x
1
x
2

1
0

u
11.6 Observabilidad de sistemas dinamicos li-
neales
El concepto de estado tiene una importancia capital al considerar la descripcion
interna de los sistemas dinamicos. Sin embargo, se recordara que el concepto de
estado ha sido introducido como un objeto abstracto, sin ninguna referencia, en
principio, a magnitudes fsicas medibles. Es decir, en un sistema las se nales que
son medibles son las de entrada u y las de salida y, siendo el estado x un concepto
abstracto que se introduce para simplicar el tratamiento formal de los sistemas
dinamicos. Por lo tanto un problema de interes basico sera el de determinar a
partir de las se nales que son accesibles, es decir, las se nales de entrada y de salida
del sistema, el estado en una de las representaciones.
Observabilidad
La observabilidad se reere a la posibilidad de reconstruccion del estado a
partir de la medida de las se nales de salida y de entrada. Sin embargo, se pueden
considerar dos problemas separados a la hora de considerar la reconstruccion del
estado. Uno de ellos trata de deducir el valor del estado en el instante presente a
partir de las observaciones pasadas, y el otro trata de deducir el valor del estado
en un instante determinado a partir de observaciones posteriores. Con el n de
precisar estos conceptos se establecen las siguientes deniciones.
11.6.1 Introduccion a la observabilidad
1. Sistemas en tiempo discreto
Ejemplo
Sea el sistema autonomo (es decir, el sistema con u(t) = 0):
x
1
(k + 1) = x
1
(k) + x
2
(k)
x
2
(k + 1) = 2x
2
(k)
x(k + 1) = Ax(k)
Controlabilidad y observabilidad de sistemas dinamicos 219
y(k) = x
1
(k)
A =

1 1
0 2

C =

1 0

Se mide el sistema en los k = 0 y k = 1.


y(0) = Cx(0) = x
1
(0)
y(1) = Cx(1) = CAx(0) = x
1
(0) + x
2
(0)
luego
y(0) = x
1
(0)
y(1) = x
1
(0) + x
2
(0)
x
1
(0) = y(0)
x
2
(0) = y(1) y(0)
2. Sistema no observable
Sea A como antes pero
y(k) = x
2
(k)
C =

0 1

entonces se tendra
y(0) = x
2
(0)
y(0) = Cx(0) = 2x
2
(0)
Controlabilidad y observabilidad de sistemas dinamicos 220
luego
x
2
(0) = y(0) =
1
2
y(1)
pero no se puede determinar x
1
(0). El sistema no es observable [debido a
la dependencia lineal entre C y CA ].
3. Caso general
x
k+1
= Ax
k
y
k
= Cx
k
x
k
= A
k
x
0
y(k) = CA
k
x
0
y
0
= Cx
0
y
1
= CAx
0
.
.
. =
y
n1
= CA
n1
x
0

y
0
y
1
.
.
.
y
n1

C
CA
.
.
.
CA
n1

x
0
O =

C
CA
. . .
CA
n1

se requiere que O sea una matriz de rango completo.


11.6.2 Observabilidad
Denicion Un sistema

se dice observable en el instante t
0
, si y solo si para
todo estado x(t
0
)X, existe un tiempo t > t
0
tal que el conocimiento de u(t
0
, t),
de y(t
0
, t) y de (A, C) basta para determinar x(t
0
).
Controlabilidad y observabilidad de sistemas dinamicos 221
11.6.3 Reconstructibilidad
Denicion Un sistema

se dice reconstructible en t
0
, si y solo si x(t
0
) X, t <
t
0
tal que el conocimiento de u[t, t
0
], de y[t, t
0
] y de (A, C) basta para determinar
x(t
0
).
De las anteriores deniciones se desprenden los siguientes problemas:
Problema de observacion: El estado actual x(t) debe determinarse a partir de
las entradas y salidas futuras u(), y() : t.
Problema de la reconstruccion El estado actual x(t) debe determinarse a partir
de las entradas y salidas pasadas u(), y() : : t.
Por la propia denicion de invariancia en el tiempo es claro que para sistemas
invariantes en el tiempo ambos problemas son equivalentes, es decir,
Observabilidad reconstructibilidad
En lo que sigue se considerara unicamente el problema de la observaci on.
11.6.4 Criterio de observabilidad
Para los sistemas lineales invariantes en el tiempo existe un criterio algebraico
que permite discernir si el sistema sera observable o no. Ese criterio esta basado
en la determinacion del rango de una matriz que depende exclusivamente del par
(A, C). El criterio se establece por medio del siguiente teorema.
Teorema
Un sistema

es observable si y solo si
rango O = n
en donde O =

C
T
A
T
C
T
... (A
n1
)
T
C
T

T
y n = dim x.
La matriz O recibe el nombre de matriz de observabilidad
Demostracion
1. Necesidad
Controlabilidad y observabilidad de sistemas dinamicos 222
Se trata de demostrar que si el sistema es observable, entonces el rango O =
n. Ello es equivalente, por contradiccion, a decir que si el rango O < n
entonces el sistema es no observable.
En efecto supongase rango O < n y u(t) = 0
Para todo t [t
0
, t
1
], se sabe que
y(t) = Ce
At
x(t
0
)
=
n1

i=0

i
(t)CA
i
x(0) (11.10)
Es sabido que el rango de una matriz es el mismo que el de su transpuesta.
Es decir, que si el rangoO = n
1
< n, entonces el rango O
T
= n
1
. El hecho
de que rango O
T
= n
1
< n implica que las columnas de O
T
no generan el
espacio de n dimensiones, es decir no generan X = R
n
.
El hecho de que las columnas de O
T
no generen R
n
implica que existe un
vector R
n
, = 0, tal que es ortogonal a las columnas de O
T
, es decir,

(A
K
)
T
C
T

O
T
= C A
K
= 0
De (8) se tiene que para todo estado inicial x(t
0
) = KKR, la salida sera
y(t) = 0
lo que signica que existen estados iniciales x(t
0
) = 0 (todos los que de la
forma K) los cuales no pueden determinarse (distinguirse por observaci on
de la se nal de salida y(t) ante una entrada nula u[t
0
, t
1
] = 0. Ello esta en
contradiccion con la hipotesis de que

sea observable.
2. Suciencia
Se trata de demostrar que si el rango O = n entonces el sistema es observ-
able, o lo que es lo mismo, por contradiccion, que el hecho de que el sistema
sea no observable, implica que el rango O < n.
Supongase que

no es observable. Entonces deben existir al menos dos
estados x
1
y x
2
tales que x
1
= x
2
y x
1
indistinguible de x
2
. Es decir
Ce
AT
x
1
Ce
AT
x
2
Sea x
0
= x
1
x
2
; entonces la respuesta de

para u = 0 a partir de x
0
sera
Controlabilidad y observabilidad de sistemas dinamicos 223
y(t) = Ce
AT
x
0
0 (11.11)
es decir que el estado x
0
es indistinguible del estado de reposo.
Derivando (11.11) n 1 veces se tiene
Ce
At
x
0
= 0
CAe
At
x
0
= 0
A
n1
e
At
x
0
= 0
Cx
0
= 0
CAx
0
= 0
.
.
.
CA
n1
x
0
= 0
es decir

C
CA
.
.
.
CA
n1

x
0
= 0
Ox
0
= 0
lo que implica rango O < n, ya que x
0
= 0. Por lo tanto que el sistema
sea no observable implica que rango O < n.
11.7 Sistemas continuos
Sea el cilindro con inercia unitaria, y sin rozamiento que hemos visto en los
ejemplos de introduccion.
Controlabilidad y observabilidad de sistemas dinamicos 224
1. Supongamos, en primer lugar, que la salida del sistema es la posicion angular
del cilindro. En tal caso, la descripcion interna del sistema viene dada por
x =

0 1
0 0

x +

0
1

u
es decir:
A =

0 1
0 0

B =

0
1

y = [1 0]x
Si se deja evolucionar libremente, a partir de unas condiciones iniciales
x
1
(0), x
2
(0) el cilindro girar a velocidad constante. Si se registra la salida
en el perodo (0, T) se obtendra una recta inclinada como la de la gura
11.10. De este registro se puede obtener facilmente:
x
1
(0)
y
T
t
x
2
(0)
Figura 11.10: Trayectoria del sistema
(a) La velocidad inicial, que es la pendiente de la recta.
(b) La posicion inicial, que es la coordenada en el origen.
Por tanto a partir del registro de la salida y(t) es posible reconstruir el
estado inicial del sistema. El sistema es por tanto observable.
2. Supongamos ahora que la salida, en lugar de ser la posicion, es la velocidad
de salida del sistema. En tal caso la ecuacion de transicion entre estados
sera la misma :
x =

0 1
0 0

x +

0
1

u
Controlabilidad y observabilidad de sistemas dinamicos 225
pero la funcion de salida se convertir a, en este caso, en: y = [0 1]x
Si se registra ahora la salida se obtendra una recta horizontal, ya que en vir-
tud del principio de inercia la velocidad de rotacion del cilindro permanece
constante. Se tendra, entonces, la evolucion de la salida que se indica en la
gura 11.11. De esta gura se obtiene inmediatamente la velocidad inicial
del cilindro, que es la ordenada de la recta. Pero no se puede obtener su
posicion. Del sistema, en este caso, no es observable.
y
T
t
x
2
(0)
Figura 11.11: Evolucion de la velocidad del sistema
11.8 Perdida de observabilidad por muestreo
Sea el sistema [oscilador lineal no amortiguado].
y + a
2
y = a
2
u
A =

0 1
a
2
0

b =

0
a
2

c =

1 0

y = x
1
y = x
2
Este sistema es claramente observable
Controlabilidad y observabilidad de sistemas dinamicos 226
O =

1 0
0 1

Supongamos que se muestrea


sI A =

s 1
a
2
s

(s) = (sI A)
1
=
1
s
2
+ a
2

s 1
a
2
s

s
s
2
+ a
2
1
s
+
a
2

a
2
s
2
+ a
2
s
s
2
+ a
2

luego
(t) =

cos (aT)
1
a
sin(aT)
a sin(aT) cos (aT)

se tendra
O =

1 0
cos (aT)
1
a
sin(aT)

El sistema sera no observable si


sin(aT) = 0 T =
k
a
(k entero)
Por tanto, para determinados valores del perodo del muestreo T el sistema
pierde su observabilidad.
Controlabilidad y observabilidad de sistemas dinamicos 227
11.8.1 Notas sobre observabilidad
Se pueden hacer consideraciones semejantes a las desarrolladas en la seccion re-
specto a la controlabilidad.
En particular, y relativo a un cambio de base en X, se tiene que si x = Tx,
se tendra que
OT = O
El resto de las notas se extienden mutatis mutandis a la observabilidad.
11.9 Descomposicion del espacio de estados en
sus partes observables y no-observables
De manera completamente similar a como se hizo en la seccion 4 se puede de-
scomponer el espacio de estados en sus partes observable y no-observable. Al
igual que se hizo all supongase = (A, b, c).
Si
rango O = n
1
< n
entonces existe una transformacion no singular T tal que
T
T
O
T
=

O
1
T
. . .
0

en donde O
1
T
: n
1
np. La determinacion de O
1
se hace a partir de

O
T
I

obteniendo una matriz equivalente


Controlabilidad y observabilidad de sistemas dinamicos 228

O
1
T
.
.
. I

O
1
T
.
.
.

.
.
. T
T
0
.
.
.

Si se hace x = T
1
x es facil ver que
A =

A
11
0
A
21
A
22

B =

B
1
B
2

C =

C
1
0

La demostracion es, en todo, excepto el detalle antes indicado, similar a la


vista en la seccion de controlabilidad. Se invita al lector a desarrollarla el mismo.
En las bases que resultan de la anterior transformacion, el sistema puede
escribirse como sigue:
x = A
11
x
1
+ B
1
u
x
2
= A
21
x
1
+ A
22
x
2
+ B
2
u
y = C
1
x
1
Esta forma de escribir el sistema puede representarse como se hace en el dia-
grama de bloques de la gura 11.12, en donde es aparente que solo el subespacio
x
1
es observable, es decir, solo este subespacio inuye sobre la salida. Ademas,
es evidente que la funcion de transferencia del sistema considerado depende ex-
clusivamente de la terna (A
11
, B
1
, C
1
), es decir, que un sistema con esta ultima
terna tiene la misma funcion de transferencia que el sistema original.
Controlabilidad y observabilidad de sistemas dinamicos 229
x
2
= A
21
x
1
+A
22
x
2
+B
2
u
x
1
=

A
11
x
1
+

B
1
u
C
1
y
Figura 11.12: Diagrama de bloques de un sistema no observable
11.10 Descomposicion canonica del espacio de
estados
Por aplicacion sucesiva de las transformaciones indicadas en las secciones de de-
scomposicion en partes obs. y control. o no, se pueden extraer las partes contro-
lable y observable de un sistema dinamico lineal.
El resultado se puede enunciar como sigue:
Sea = (A, B, C). Si rango O( = n
1
< n entonces existe = (A, B, C) tal
que:
1.
2.
A =

A
11
0 A
13
A
21
A
22
A
23
0 0 A
33

B =

B
1
B
2
0

C =

C
1
0 C
3

Se dice que (A
11
, B
1
, C
1
) es el subsistema controlable y observable de .
Controlabilidad y observabilidad de sistemas dinamicos 230
La funcion de transferencia del sistema (A, B, C, ) es la misma que la del
sistema (A
11
, B
1
, C
1
). Es decir, que solo las partes controlables y observables
de un sistema inuyen en su funcion de transferencia, o sea, en su descripcion
externa. Este resultado sera tratado con detenimiento en el captulo del problema
de la realizacion mnima, que es aquella que dando lugar a la misma funcion de
transferencia, o descripcion externa, tiene una dimension del vector de estados X
mnima.
Ejemplo:
Se trata de extraer la parte controlable y observable del sistema cuyo terna
(A, B, C) es el siguiente:
A =

1 0 0
1 1 2
1 0 1

B =

1
1
1

C =

1 1 1

La matriz de controlabilidad es
( =

1 1 1
1 0 1
1 0 1

cuyo rango es 2. Por lo tanto la dimension del subespacio controlable es 2.


(( I) =

1 1 1 1 0 0
1 0 1 0 1 0
1 0 1 0 0 1

1 1 1 1 0 0
0 1 0 1 1 0
0 1 0 1 0 1

1 1 1 1 0 0
0 1 0 1 1 0
0 0 0 0 1 1

luego
Controlabilidad y observabilidad de sistemas dinamicos 231
T =

1 0 0
1 1 0
0 1 1

y
T
1
=

1 0 0
1 1 0
1 1 1

Por lo tanto
A = TAT
1
=

1 0 0
1 1 2
0 0 1

B = TB =

1
0
0

C = CT
1
=

1 0 1

Luego la parte controlable de (A, B, C) es


A
c
=

1 0
1 1

B
c
=

1
0

C
c
=

1 0

La matriz de observabilidad de (A
c
, B
c
, C
c
) es
O
c
=

1 0
1 0

Controlabilidad y observabilidad de sistemas dinamicos 232


cuyo rango es 1.
Una atenta observaci on de (A
c
, B
c
, C
c
) pone de maniesto que, casualmente,
no es necesario aplicar el algoritmo de descomposicion puesto que ya es aparente.
En efecto el subsistema observable de (A
c
, B
c
, C
c
) es
A
m
= 1
b
m
= 1
c
m
= 1
La parte observable y controlable de un sistema recibe el nombre de realizacion
mnima del mismo.
En general la terna (A
c
, B
c
, C
c
) necesitara ser sometida al algoritmo de de-
scomposicion para la extraccion de su parte observable.
Se va a comprobar que la funcion de transferencia de (A
m
, B
m
, C
m
) es la
misma que la de (A, B, C). En primer lugar se calcula (sI A)
1
. para ello se
aplica el algoritmo de Leverrier (Wiherg, pag. 102).
A =

1 0 0
1 1 2
1 0 1

F
1
= I
a
1
= r AF
1
/1 = 1
F
2
= AF
1
+ a
1
I =

0 0 0
1 0 2
1 0 2

a
2
= rAF
2
/2 = 1
F
3
= AF
2
+ a
2
I =

1 0 0
1 1 2
1 0 1

a
3
= rAF
3
/3 = 1
luego
Controlabilidad y observabilidad de sistemas dinamicos 233
(sI A)
1
=
1
(s)

s
2
1 0 0
s 1 s
2
1 2s 2
s + 1 0 s
2
2s + 1

siendo (s) = s
3
s
2
s + 1.
Es facil ver que
T(s) = c(sI A)
1
b =
(s
2
1)
s
3
s
2
s + 1
=
s
2
1
(s
2
1)(s 1)
=
1
s 1
que es la misma funcion de transferencia que se obtiene de la terna (A
m
, B
m
, C
m
).
11.11 Formas canonicas
Las expresiones estudiadas permiten transformar la terna (A, B, C) en otra forma
de representaci on, de manera que se siga representando el mismo sistema dinamico.
Desde un punto de vista del espacio de estados ello es equivalente a que el vector
de estados se puede representar en distintas bases. Debe resaltarse, sin embargo,
que el vector de estados es un objeto abstracto, sin ninguna referencia, en princi-
pio, con magnitudes fsicas medibles. Es decir, no existe una base natural para
representar a X.
Ello hace que seg un la naturaleza del problema a tratar se adopten unas
bases para el vector de estado que hagan que la forma que toma en ellas la terna
(A, B, C) sea lo mas comoda posible para la resolucion del problema en cuestion.
En ello reside una de las grandes ventajas del uso de la descripcion interna, ya
que esta permite escoger la forma de representacion de la terna (A, B, C) mas
comoda en cada caso.
Aunque se pueden concebir m ultiples formas para la terna (A, B, C) existen
dos especialmente interesantes para las aplicaciones practicas a problemas de con-
trol. Son estas: La forma canonica de control y la forma canonica de observacion.
Cada una de ellas esta relacionada con los problemas de control y de observaci on
seg un se ver a en lo que sigue.
En otro apartado se introdujeron las formas canonicas de control y obser-
vacion, al obtener la representaci on por variables de estado, de una forma in-
Controlabilidad y observabilidad de sistemas dinamicos 234
tuitiva. Aqu se introduciran estas formas canonicas bajo una optica algebraica
que permita tanto su generalizacion comoda a sistemas multivariables como su
aplicacion practica.
Formas canonicas de control
d(s)y = n(s)u
Sea la nueva variable v tal que
d(s)v = u
luego
d(s)y = n(s)d(s)v
es decir
y = n(s)v
Sea
x
1
= v
x
2
= x
1
= v
.
.
.
.
.
.
.
.
.
x
n
= x
n1
= v
(n1)
d(s)v = u x
n
= a
n
x
1
a
n1
x
2
+ u
y = n(s)v y = b
1
v
(n1)
+b
2
v
(n2)
+ +b
n1
v+b
v
n
= b
n
x
1
+b
n1
x
2
+ b
1
x
n
En resumen
Controlabilidad y observabilidad de sistemas dinamicos 235

x
1
x
2
x
3
.
.
.
x
n1
x
n

0 1 0 ... 0
0 0 1 ... 0
0 0 0 ... 1
a
n
a
n
1 a
n1
... a
1

x
1
x
2
...
...
...
x
n

0
0
...
...
...
1

n
Sistemas monovariables
Sea el sistema = (A, B, C), cuya matriz de controlabilidad es
( =

B AB ... A
n1
B

Si se cambia de base al vector x de manera que x = T


c
x se tendra (apartado
4.2).
T
c
= ((
1
Todo sistema monovariable controlable se puede representar en unas bases x
tales que
A =

0 1 0 ... 0
0 0 1 ... 0
0 0 0 ... 1
.
.
.
.
.
.
.
.
.
.
.
.
a
n
a
n1
a
n2
... a
1

B
T
=

0 0 0 ... 1

C =

b
n
b
n1
b
n2
... b
1

siendo la funcion de transferencia del sistema


Controlabilidad y observabilidad de sistemas dinamicos 236
G(s) =
b
1
s
n1
+ b
2
s
n2
+ + b
n
s
n
+ a
1
s
n1
+ a
2
s
n2
+ + a
n
Al par (A, b) corresponde una matriz de controlabilidad ( cuya forma es:
( =

0 0 0 0 1
0 0 0 1
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
0 1
1

n3

n2
1
1

2

n2

n1

(11.12)
En donde los elementos , se generan de acuerdo con la recurrencia

i
=

a
n
a
n1
... a
1

0
0
.
.
.

o
.
.
.

i2

i1

siendo
o
= 1. Es decir ( puede construirse a partir del conocimiento de los
coecientes del denominador de G(s) o del polinomio caracterstico de A.
Es facil ver tambien que
(
1
=

a
n1
a
n2
... a
1
1
a
n2
a
n3
... 1 0
...
a
1
1 ... 0 0
1 0 ... 0 0

(11.13)
basta comprobar que ((
1
= I.
De todo lo anterior se concluye que a partir de la terna (A, B, C), en forma
arbitraria, es posible determinar una transformacion T
c
que transforme dicha
Controlabilidad y observabilidad de sistemas dinamicos 237
terna en la forma canonica de control. Para determinar T
c
se procede como
sigue:
1. Se determina ( a partir de (A, B) y se invierte. Se tiene (
1
.
2. Se determina ( a partir del polinomio caracterstico de A (recordar (10)).
3. Se hace T
c
= ((
1
.
Una forma alternativa de proceder es la siguiente:
1. Se determina ( a partir de (A, B).
2. Se determina (
1
a partir del polinomio caracterstico de A (recordar (11)).
3. Se hace T
1
c
= ((
1
Como siempre se requiere T
c
y T
1
c
el segundo procedimiento evita una in-
version de matrices.
Ejemplo
Sea el sistema dinamico cuya terna (A, B, C) es la siguiente:
A =

1 1 0
0 1 1
2 3 1

B =

1
1
1

C =

0 1 2

Se trata de determinar su forma canonica de control.


La matriz de controlabilidad es
( =

1 2 4
1 2 2
1 4 14

Controlabilidad y observabilidad de sistemas dinamicos 238


y el polinomio caracterstico de A es
(A) = s
3
3s
2
+ 6s 2
Luego (expresion (2))
(
1
=

6 3 1
3 1 0
1 0 0

T
1
c
= ((
1
=

4 1 1
2 1 1
4 7 1

T
c
=

0, 1667 0, 1667 0
0, 1667 0 0, 1667
0, 5 0, 6667 0, 1667

La forma canonica de control es x = Tx


A = T
c
AT
1
c
=

0 1 0
0 0 1
2 6 3

B = T
c
B =

0
0
1

C = CT
1
C
=

10 13 1

Observese que para determinar A y B basta con conocer el polinomio car-


acterstico de A; por lo tanto no se necesita emplear las expresiones anteriores,
ni se requiere el conocimiento de T
c
, ni de T
1
c
. Para lo que si es indispensable
la determinacion de T
1
c
es para calcular (. Pero, observese, que solo para este
ultimo caso se necesita conocer T
1
c
, de modo que puede evitarse el determinar
T
c
, evitando as el tener que invertir la matriz T
1
c
. Es decir, la determinacion de
la terna (A, B, C) a partir de la (A, B, C), puede hacerse sin tener que recurrir
Controlabilidad y observabilidad de sistemas dinamicos 239
a ninguna inversi on inicial, ya que la determinacion de T
1
c
, de acuerdo con el
segundo de los metodos antes propuestos, puede hacerse sin necesidad de invertir
ninguna matriz. Este hecho es de gran importancia en las aplicaciones practicas
por evitar una operacion que tantas dicultades comporta.
A partir de la terna (A, B, C) es inmediato escribir la funcion de transferencia
del sistema que en este caso resulta ser
G(s) =
s
2
+ 13s 10
s
3
3s
2
+ 6s 2
Por lo tanto, la determinacion de la terna (A, B, C) suministra un metodo indi-
recto para determinar la funcion de transferencia asociada a una terna (A, B, C).
11.11.1 Forma canonica de observaci on
Sistemas monovariables
En forma completamente similar a como se hizo en la forma canonica de control
se puede determinar la transformacion T
0
tal que x = T
0
x.
A =

0 0 ... 0 a
n
1 0 ... 0 a
n1
0 1 ... 0 a
n2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 ... 1 a
1

B
T
=

b
n
b
n1
b
n2
... b
1

C =

0 0 ... 1

Seg un se vio la terna (A, B, C) recibe el nombre de forma canonica de obser-


vacion.
Si x = T
0
x se tendra
T
0
= O
1
O
Controlabilidad y observabilidad de sistemas dinamicos 240
Procedimiento en forma similar a como se hizo en la forma canonica de control,
se puede ver que
O
1
=

a
n1
a
n2
... a
1
1
a
n2
a
n3
... 1 0
...a
1
1 ... 0 0
1 0 ... 0 0

Se puede concebir un procedimiento para obtener la forma canonica de obser-


vacion similar al desarrollo en la forma canonica de control. Para determinar T
0
se procede como sigue:
1. A partir de (A, C) se determina O.
2. A partir del polinomio caracterstico de A se determina O
1
.
3. Se hace T
0
= O
1
O.
Ejemplo
Sea el sistema considerado en el ejemplo de la forma canonica de control. Se
trata de determinar su forma canonica de observacion.
Se tiene
O
1
=

6 3 1
3 1 0
1 0 0

y
O =

0 1 2
4 7 1
6 14 6

luego
Controlabilidad y observabilidad de sistemas dinamicos 241
T
0
= O
1
O =

6 1 3
4 4 5
0 1 2

T
1
0
=

0, 2241 0, 0862 0, 1207


0, 1379 0, 2069 0, 3103
0, 0690 0, 1034 0, 3448

Es decir
A = T
0
AT
1
0
=

0 0 2
1 0 6
0 1 3

B = T
0
B =

10
13
1

C = CT
1
0
=

0 0 1

Tema 12
Sntesis de sistemas de control
por variables de estado
12.1 Ley de Control
Al denir el estado de un sistema dinamico, se ha visto como este resume el pasado
dinamico del sistema, y es cuanto se necesita para predecir la futura evolucion
del mismo. Es decir, conocido el estado de un sistema en un instante determi-
nado, esta completamente determinada la evoluci on del sistema a partir de dicho
instante. Con otras palabras, conocido el estado en un instante determinado, los
valores que toma la se nal de salida a partir de dicho instante, dependen exclusi-
vamente de la se nal de entrada que se aplique a partir del instante en el que se
ha denido el estado.
Al dise nar un sistema de control lo que se pretende es conseguir para el sis-
tema una evoluci on preestablecida. Se trata de determinar las se nales de en-
trada que hay que aplicar al sistema para que la evoluci on del mismo sea la
requerida. Puesto que el estado es cuanto se necesita conocer para predecir la
futura evolucion de un sistema, es claro que cuanto se necesitara saber para poder
adoptar una decision respecto a que se nales aplicar al sistema sera, precisamente,
el estado.
Es decir, una ley de control (poltica de mando) es una relacion que liga la
se nal de mando que se aplica al sistema y el estado en que este se encuentra,
supuesto denida previamente una meta de la accion.
242
Sntesis de sistemas de control por variables de estado 243
El principio en virtud del cual los valores de la se nal de entrada deben cal-
cularse a partir del estado, fue enunciado por Richard Bellman a mediados de
la decada de los cincuenta, y puede considerarse como la idea fundamental de la
teora moderna de control. El punto principal reside en que el estado incorpora
toda la informacion necesaria para determinar las acciones de control que deben
ser tomadas, puesto que la evoluci on futura del sistema esta completamente de-
terminada por el estado presente y los valores futuros de la se nal de entrada.
Cuando la meta es la reproduccion a la salida de una se nal de referencia r se
podra escribir la ley de control en la forma
u = f(x, r)
que se puede interpretar gracamente en la gura 12.1.
B
A
x

x
C
y
B
A
x

x
C
y
REGULADOR
b)Sistema en bucle
cerrado
u
a) Sistema en bucle
abierto
Figura 12.1: Sistema de control por variables de estado
Debe notarse, que en el esquema de la gura 12.1-b se supone que los compo-
Sntesis de sistemas de control por variables de estado 244
nentes del vector de estado se pueden identicar con magnitudes fsicas medibles
y que son estas magnitudes las que denen las se nales que se realimentan. El
caso en que la anterior identicacion no sea posible se discutira mas adelante.
En lo que sigue se consideraran leyes de control lineales de la forma
u = k (r (k
1
x
1
+ k
2
x
2
+ + k
n
x
u
)) = k (r K x) (12.1)
siendo
K = (k
1
k
2
... k
u
)
La representacion graca de una ley de control lineal para sistemas monovari-
ables se tiene en la gura 12.2.
B
A
x

x
C
y
REGULADOR
- +
u
X
K
PLANTA
Figura 12.2: Control lineal
La introduccion de una ley de control lineal da lugar, en bucle cerrado, al
siguiente sistema:
en bucle abierto se tiene:
x = Ax + Bu
Sntesis de sistemas de control por variables de estado 245
si se hace
u = k (r Kx)
se tendra :
en bucle cerrado
x = Ax + kB(r Kx) (12.2)
= (A kBK)x + Bkr
y = Cx (12.3)
cuya funcion de transferencia es
Y (s)
R(s)
= C(sI A + kBK)
1
Bk (12.4)
Para aclarar el efecto de la ley de control lineal se puede recurrir a dos in-
terpretaciones. Estas interpretaciones se hacen, sin perdida de generalidad, para
n = 2.
12.1.1 Interpretacion por diagramas
Sea el sistema dinamico descrito por la ecuacion diferencial
y + a
1
y + a
2
y = u (12.5)
cuya funcion de transferencia es
Y (s)
U(s)
=
1
s
2
+ a
1
s + a
2
(12.6)
y cuyo diagrama se tiene en la gura 12.3 a).
u = k (r k
1
x
1
k
2
x
2
) (12.7)
Sntesis de sistemas de control por variables de estado 246
se tendra el sistema cuyo diagrama se tiene en la gura 12.3 b), que a su vez
puede simplicarse al de la gura 12.3 c).
De la gura 12.3 c) se desprende facilmente que la funcion de transferencia en
bucle cerrado sera
Y (s)
R(s)
=
k
s
2
+ (a
1
+ kk
2
)s + (a
2
+ kk
1
)
(12.8)
12.1.2 Interpretacion algebraica
El sistema dinamico
y + a
1
y + a
2
y = u (12.9)
admite una representacion por variables de estado cuya forma canonica de
control es
A =

0 1
a
2
a
1

B =

0
1

C =

1 0

Si se le aplica una ley de control de la forma


u = kr k (k
1
k
2
) x
Se tendra
x =

0 1
a
2
a
1

0
1


kk
1
kk
2

x + k r

Sntesis de sistemas de control por variables de estado 247


r
r
K
c)
(a
1
+Kk
2
)
(a
2
+Kk
1
)
y u x
2 x
1
1
y u
1
x
1
x
2
K k
1
K k
2
K
b)
a)
a
1
a
2
a
1
a
2
y u x
2 x
1
1
1
s
1
s
1
s
1
s
1
s
1
s
Figura 12.3: Control por variables de estado de un sistema de segundo orden
Sntesis de sistemas de control por variables de estado 248
x =

0 1
a
2
kk
1
a
1
kk
2

x +

0
k

r
y =

1 0

x
Cuya funcion de transferencia es
Y (s)
R(s)
=
k
s
2
+ (a
1
+ kk
2
) s + (a
2
+ kk
1
)
que coincide con la expresion (9) obtenida mas arriba.
Como resumen de lo anterior cabe decir que por una conveniente eleccion de
la ley de control puede alterarse arbitrariamente el denominador de la funcion
de transferencia en bucle cerrado del sistema, dejando inalterado el numerador
excepto en la constante k.
Normalmente, en lo que se sigue, se hara k = 1.
12.1.3 Determinacion de la ley de control
Sistemas monovariables
Se supondra k = 1. En caso contrario los coecientes de la ley de control vendr an
afectados por la constante k. Es decir la ley de control que se adopta es de la
forma
u = r Kx
siendo
K = (k
1
k
2
... k
n
)
Supongase que A (en bucle abierto) tiene un polinomio caracterstico.
Sntesis de sistemas de control por variables de estado 249
(A) = s
n
+ a
1
s
n1
+ + a
n
(12.10)
Y supongase que se quiere tener en bucle cerrado una matriz A

tal que
(A

) = s
n
+
1
s
n1
+ +
n
(12.11)
Este polinomio sera, precisamente, el denominador de la funcion de transfer-
encia en bucle cerrado.
Si el sistema se escribe en la forma canonica de control la ley de control tendra
unos coecientes
K = (
n
a
n

n1
a
n1
...
1
a
1
) (12.12)
En efecto, es inmediato comprobar que escribiendo (A, B) en la forma canonica
de control se tiene
A

= A BK =

0 1 0 ... 0
0 0 1 ... 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 ... 1

n

n1

n2

1

Para un par (A, B) arbitrario se puede establecer el siguiente procedimiento


sistematico para la determinacion de la ley de control. Se parte de (A, B) y de
(A

):
1. se determina (A) a partir de A.
2. Se determina ( a partir de los coecientes a
i
de (A).
3. Determinar ( a partir de (A, B). y se invierte para tener (
1
.
4. Determinar K a partir de (A) y de (A

) de acuerdo con (12.12).


5. Determinar K = K

((
1

.
Sntesis de sistemas de control por variables de estado 250
La justicacion del anterior procedimiento es muy simple y se deja como
ejercicio al lector. En esencia consiste en determinar la ley de control en las bases
correspondientes a la forma canonica de control K , de acuerdo con la expresion
(12.12), y posteriormente transformar esta ley a las bases del par original K.
Ejemplo
Sea el sistema dinamico lineal cuyo par (A, B) es el siguiente:
A =

1 0 2
0 1 0
1 0 1

B =

1
2
1

Se pide la ley de control para que el sistema realimentado tenga un polinomio


caracterstico.
(A

) = (s
2
+ s + 1) (s + 10)
Procediendo como se indica mas arriba se tiene
1. Se calcula el polinomio caracterstico de A.
(A) = (s
2
3) (s + 1)
= s
3
+ s
2
3s 3
Observese que el sistema es inestable.
2. Se determina ( .

1
=

3 3 1

0
0
1

= 1

2
=

3 3 1

0
1
1

= 4
luego
Sntesis de sistemas de control por variables de estado 251
( =

0 0 1
0 1 1
1 1 4

3. Se determina ( que resulta ser:


( =

1 3 3
2 2 2
1 0 3

cuya inversa es
(
1
=

0, 5 0, 75 1
0, 333 0 0, 333
1, 667 0, 25 0.6667

4. A partir de (A) y de (A

) se obtiene k
K = (10 (3) 11 (3) 11 1)
= (13 14 10)
5. Se obtiene
K = K

((
1

= (0, 1680 2, 25 14.6681)


Se invita al lector a que compruebe que
(A BK) = s
3
+ 11s
2
+ 11s + 10
12.2 Observadores
Seg un se ha visto en la seccion 1 de la ley de control es funcion de las variables de
estado del sistema. En consecuencia, para realizar fsicamente una ley de control
es necesario disponer de unas se nales que reproduzcan a las componentes del vec-
tor de estado. Sin embargo al introducir la nocion de estado se ha visto que este
es un concepto abstracto sin, en principio, ninguna realidad fsica subyacente.
Sntesis de sistemas de control por variables de estado 252
Es decir, que si bien en determinados casos sera posible identicar a los compo-
nentes del vector de estados con magnitudes fsicas medibles, este no sera el caso
mas general. En el caso en que las variables de estado puedan identicarse con
magnitudes fsicas medibles se dira que el vector de estado es accesible.
En el caso contrario, es decir en el caso de que el vector de estado no sea acce-
sible, para poder aplicar una ley de control hay que recurrir a un camino indirecto
para obtener el estado. Consiste en dise nar un sistema dinamico, denominado
observador, tal que alimentado por las se nales accesibles (de entrada y/o salida)
suministre a su salida unas se nales, que se denotan por x, que reproduzcan la
evolucion del estado del sistema original.
En otra seccion , se ha denido el problema de la observacion, como un pro-
blema de reconstruccion del estado a partir de las se nales de entrada y de salida.
En consecuencia, el observador, como sistema dinamico, no es sino una solucion
mecanizada del problema de la observacion. En consecuencia, el problema no
tendra solucion mas que cuando el sistema sea observable; es decir, sera posible
sintetizar un observador solamente para un sistema observable.
Planteado as, el problema de la sntesis de un observador, tiene una gran
generalidad. En lo que sigue se concretaran las soluciones de mayor interes.
12.2.1 Sistemas monovariables
Observador en bucle abierto
Es la solucion mas simple al problema de la observacion del estado. Consiste,
sencillamente, en una realizacion fsica (analogica) de la ecuacion diferencial.
x = Ax + Bu (12.13)
la cual permite tener en determinados puntos las se nales que reproducen al
estado.
Su diagrama se tiene en la gura 12.4.
Los inconvenientes que presenta este observador son los siguientes:
1. Para que funcione correctamente se requiere el conocimiento del estado
Sntesis de sistemas de control por variables de estado 253
A

u
A
x

x
y
b
b c
x
OBSERVADOR
SISTEMA ORIGINAL
Figura 12.4: Observador en bucle abierto
Sntesis de sistemas de control por variables de estado 254
inicial.
2. Es muy sensible a los errores en la estimacion de los parametros que inter-
vienen en A y B. En particular si alg un auto valor de A es positivo, el mas
mnimo error (siempre existente en la practica) en la evaluacion del mismo,
o en la sntesis del observador, produce la inestabilidad del conjunto.
Observador asint otico
Con el observador asint otico se pretende tener la garanta de que, aunque se
produzcan problemas del tipo de los aludidos al nal de la seccion anterior siempre
cumplira la condicion siguiente
lim
t
( x x) = 0 (12.14)
es decir que la se nal de salida del observador x converge al estado real del
sistema x, al menos para t .
El que se cumpla la propiedad de la expresion 12.14 se consigue muy facilmente
con una ligera modicacion del observador en bucle abierto (gura 12.4) para
convertirlo en un observador en bucle cerrado. La modicacion parte de una idea
muy simple que consiste en comparar la se nal de salida y(t) del sistema real con
la se nal de salida y que se obtiene a partir de la se nal x de salida, del observador
de acuerdo con la expresion:
y = C x
El error entre y e y se emplea para corregir el funcionamiento del conjunto.
Una solucion que explota la anterior idea es la de la gura 12.5. Este obser-
vador recibe el nombre de observador de Luenberger.
Observese en la gura 12.5 que:

x = A x + L(y C x) + Bu (12.15)
es decir
Sntesis de sistemas de control por variables de estado 255
u
A
x

x
y
+
y
-
SISTEMA
ORIGINAL
OBSERVADOR

x
A

B
C
C B
Figura 12.5: Observador asintotico
Sntesis de sistemas de control por variables de estado 256

x = (A LC) x + Ly + Bu (12.16)
Si se dene
x = x x (12.17)
Restando (16) de (14) se tiene

x = (A LC) x (12.18)
Si los autovalores de (A LC) son negativos se tendra que
lim
t
x = 0
es decir x converge a x.
El problema de la sntesis de un observador se reduce a una conveniente
eleccion de L para que (A LC) tenga unos autovalores apropiados.
Se discuten a continuaci on dos posibles soluciones al problema.
Observador asint otico del mismo orden
Seg un se ha visto , todo sistema observable puede escribirse en la forma canonica
de observaci on:
x =

0 0 ... 0 a
n
1 0 ... 0 a
n1
0 1 ... 0 a
n2
...
0 0 ... 1 a
1

x +

b
n
b
n1
.
.
.
b
1

u (12.19)
y =

0 0 ... 1

x
Sntesis de sistemas de control por variables de estado 257
Si se hace
L
T
= (l
1
l
2
... l
n
) (12.20)
Se tiene
A LC =

0 0 ... 0 a
n
l
1
1 0 ... 0 a
n1
l
2
0 1 ... 0 a
n2
l
3
... ... ... ... ...
0 0 ... 1 a
1
l
n

(12.21)
Como los elementos de la ultima columna de ALC determinan su ecuacion
caracterstica, esta podra elegirse arbitrariamente mediante una adecuada se-
leccion de L.
Observese la dualidad entre el problema de determinar la ley de control y el
de sintetizar un observador asintotico del mismo orden.
Observador asint otico de orden mnimo
En el observador del mismo orden no se ha tenido en cuenta que en la forma
canonica de observacion y = x
n
, y por lo tanto la se nal de salida (que es obvia-
mente accesible) reproduce el elemento x
n
del vector de estado. En consecuencia
es posible concebir, en principio, un observador cuya salida sean las (n1) com-
ponentes restantes de x. Este observador recibe el nombre de observador mnimo,
pues su orden es n 1.
Supongase que se tiene el par (A, B) correspondiente a un sistema del que
se quiere construir un observador. Para jar ideas supongase n = 3. En la
ecuacion que rige el comportamiento dinamico del sistema, se pueden particionar
los bloques que se indican en la expresion siguiente:

x
1
x
2

x
3

a
11
a
12
.
.
. a
13
a
21
a
22
.
.
. a
23
.
a
31
a
32
.
.
. a
33

x
1
x
2

x
3

b
1
b
2

b
3

u
Sntesis de sistemas de control por variables de estado 258
Para dise nar el observador de orden mnimo se adopta una expresion como
la anterior haciendo y = x
3
. Llamando x
1
y x
2
a las observaciones del estado,
obtenidas del observador, se tiene que la ecuacion dinamica del mismo puede
escribirse como sigue:


x
1

x
2

a
11
a
12
a
21
a
22

x
1
x
2

a
13
a
23

y +

b
1
b
2

u
En donde se ha prescindido de la tercera lnea, la correspondiente a x
3
, por ser
innecesaria. Se tiene en la expresion anterior un sistema dinamico que alimentado
por las se nales de entrada u y de salida y, permite obtener las componentes del
vector de estado x
1
y x
2
. Se ha resuelto con ello el problema de obtener un
observador de orden mnimo, es decir, un observador cuyo orden sea n 1.
Sin embargo, el observador anterior puede adolecer del defecto de que su
comportamiento dinamico no sea satisfactorio. Puede, incluso, ser inestable. Ello
es debido a que la submatriz (n 1) (n 1) superior izquierda de A, tendra
unos autovalores arbitrarios que, para una forma cualquiera de A, escapan de
la decision del dise nador del observador. Afortunadamente, es posible tener la
matriz A en una forma tal que el bloque superior izquierdo que interesa para la
sntesis del observador, tenga unos autovalores previamente especicados. Ello se
consigue con la transformacion T
1
que se estudia a continuacion.
Sea x el vector de estado en la base correspondiente a la forma canonica de
observacion. Se aplica a x la transformacion T
1
, de manera que x = T
1
x, estando
T
1
denido por
T
1
=

1 0 ... 0
n1
0 1 ... 0
n2
.
.
.
.
.
. .
.
.
.
.
.
.
0 0 ... 1
1
0 0 ... 0 1

(12.22)
en donde el signicado de los coecientes
i
se ver a mas abajo. Es facil ver
que
Sntesis de sistemas de control por variables de estado 259
T
1
1
=

1 0 ... 0
n1
0 1 ... 0
n2
.
.
.
.
.
. .
.
.
.
.
.
.
0 0 ... 1
1
0 0 ... 0 1

(12.23)
Se tendra
A =

0 0 ... 0
n1

1
1 0 ... 0
n2

2
0 1 ... 0
n3

3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 ... 1
1

n1
0 0 ... 0 1
n

(12.24)
B =

b
n

n1
b
1
b
n1

n2
b
1
.
.
.
b
2

1
b
1
b
1

siendo los coecientes


i
funcion
i
y de a
i
.
La forma obtenida para la matriz A es tal que la submatriz (n1)(n1) que
se denotara por A
11
superior izquierda tiene el siguiente polinomio caracterstico:
(A
11
) = s
n1
+
1
s
n2
+ +
n2
s +
n1
Por lo tanto, eligiendo convenientemente los valores de los coecientes
i
de
este polinomio, que determinan la matriz T
1
, se puede tener un comportamiento
arbitrario para el observador.
La ecuacion que regira el comportamiento dinamico del observador sera la
siguiente:
Sntesis de sistemas de control por variables de estado 260
d
dt

x
1
x
2
.
.
.
x
n1

0 0 ... 0
n1
1 0 ... 0
n2
0 1 ... 0
n3
...
0 0 ... 1
1

x
x
2
.
.
.
x
n1

(12.25)
+

2
.
.
.

n1

y + b.u
lo que permite dise nar un observador de orden mnimo con la estructura de
la gura 12.6. En este diagrama la transformacion T es la que permite obtener
la forma canonica de observaci on. Los parametros
i
son los coecientes del
polinomio caracterstico del observador.

x
x
y
T
1
y =

x
n
T
1
1
OBSERVADOR
ASINTOTICO
MINIMO
Figura 12.6: Observador asintotico mnimo
Un problema importante, respecto al que en la actualidad no existe una
solucion completamente satisfactoria, es el de la eleccion de los parametros
i
que aparecen en el polinomio caracterstico del observador. Este polinomio car-
acterstico es el responsable del comportamiento dinamico del observador, y por
lo tanto estos coecientes deben determinarse de suerte que el seguimiento de los
valores reales del estado por la salida del observador sea adecuado al compor-
tamiento global del sistema. Es decir, deben determinarse para que el observador
sea mas rapido en la respuesta que el propio sistema. Sin embargo, aparte
de esta idea intuitiva y clara que debe presidir la eleccion del polinomio carac-
terstico, no existen criterios generales para la determinacion del mismo. Los
Sntesis de sistemas de control por variables de estado 261
unicos criterios analticos que se han publicado para la eleccion de estos coe-
cientes, lo han sido dentro del marco de la teora del control optimo.
Es de resaltar, por ultimo, el caracter asint otico del observador mnimo. Se
invita al lector a que compruebe por s mismo directamente este punto.
Ejemplo
Sea el sistema cuya forma canonica de observaci on se determino en el ejemplo
de sistemas monovariables en forma canonica de observaci on.
Supongase que se quiere dise nar un observador tal que sus autovalores sean

1
= 4
2
= 5
es decir, el polinomio caracterstico del observador sera
(obs.) = (s + 4) (s + 5) = s
2
+ 9s + 20
seg un (23) y (24) se tiene
T
1
=

1 0 20
0 1 9
0 0 1

T
1
1
=

1 0 20
0 1 9
0 0 1

Se toma A
o
y B
o
en la forma canonica de observaci on, y se tiene
A = T
1
A
o
T
1
1
=

0 20 238
1 9 94
0 1 12

B = T
1
b
o
=

30
22
1

Sntesis de sistemas de control por variables de estado 262


Por lo tanto la ecuacion dinamica del observador resulta ser

x =

0 20
1 9

x +

238
94

y +

30
22

u
Con una conversi on a las bases originales a la forma
x = T
1
o
T
1
1
x =

02241 0, 0862 5, 1371


0, 1379 0, 2069 4, 9304
0, 0690 0, 1039 1, 9658

x
1
x
2
y

12.3 Sntesis del sistema en bucle cerrado


En la seccion 1 se ha considerado la determinacion de la ley de control para el
caso en que las variables de estado fuesen accesibles.
En la seccion 2 se han estudiado los observadores que permiten observar (eval-
uar) el estado cuando este no es accesible. La solucion inmediata a la sntesis de
un sistema de control cuando el sistema no es accesible es aplicar la ley de control
a las se nales obtenidas a la salida del observador, que reproducen el estado de un
sistema, de acuerdo con el diagrama de la gura 12.7.
y

u r
OBSERVADOR
x
CONTROL
LEY DE
Figura 12.7: Sistema de control por variables de estado con observador
Para estudiar el sistema conjunto se procede como sigue:
Sea el sistema en bucle abierto
Sntesis de sistemas de control por variables de estado 263
x = Ax + Bu (12.26)
y = Cx (12.27)
Y supongase que se ha determinado una ley de control
u = r Kx (12.28)
siendo la ecuacion del observador asint otico

x = A x + L(y C x) + Bu (12.29)
La ley de control se aplica sobre la estimacion del estado x. Es decir, en
realidad la expresion de la ley de control toma la forma
u = r K x (12.30)
La evoluci on del sistema en bucle cerrado vendr a regida por las ecuaciones
(12.26), (12.29) y (12.30).
Llevando (12.30) a (12.26) y a (12.29) se tiene
x = A x B k x + Br (12.31)

x = A x LC( x x) + Br Bk x (12.32)
Llamando x = x x, la expresion (12.31) se puede escribir
x = (A BK)x BK x + Br (12.33)
Por otra parte restando (12.33) de (12.32) se tiene

x = (A LC) x (12.34)
Sntesis de sistemas de control por variables de estado 264
Las expresiones (12.33) y (12.34) se pueden escribir de una forma compacta
como sigue :
d
dt

x
x

A BK BK
0 A LC

x
x

B
0

r
y =

C 0


x
x

(12.35)
De un atento analisis de la expresion (35) se desprenden dos conclusiones:
1. Los autovalores del sistema en bucle cerrado son la union de los correspon-
dientes a (A BK) y los correspondientes a (A LC). Esta propiedad
recibe el nombre de propiedad de separacion y es analoga a la que se pre-
senta en los sistemas estocasticos al combinar un ltro de Kalman[222z
con una ley de control optima.
2. Llamando
11
(s) = (sI A + BK)
1
se tendra que
Y (s)
R(s)
= C
11
(s)B
Es decir que el observador no inuye en la funcion de transferencia en bucle
cerrado, puesto que esta funcion de transferencia es la misma que se obtiene
sin observador, cuando las variables de estado son accesibles. Observese que
esta conclusion, pese a su caracter sosticado, es intuitiva ya que el observador
reproduce exactamente las variables de estado si el valor inicial de estas es el
mismo del que parte el observador, y ello es lo que sucede cuando se parte del
reposo. Es decir, al partir del reposo, los valores que toman la variable de estado
son nulos; estos mismos valores son lo que inicialmente suministra el observador
si a su vez parte del reposo. Por lo tanto, inicialmente, el observador suministra
el valor real del estado.
Ejemplo
Sea el sistema formado por dos integradores que se indica en la gura 12.8,
cuya descripcion externa vendr a dada por la funcion de transferencia
Y (s)
U(s)
=
1
s
2
Sntesis de sistemas de control por variables de estado 265
y cuya descripcion interna vendr a dada por
x
1
= x
2
x
2
= u
es decir
A =

0 1
0 0

B =

0
1

C =

1 0

u x
2
x
1
1
s
1
s
Figura 12.8: Doble integrador
Supongase que se quiere obtener en bucle cerrado un polinomio caracterstico
dado por
(s) = s
2
+ a
1
s + a
2
Habida cuenta de la expresion (11) se tendra que
K =

a
2
a
1

Si las variables de estado son accesibles se tiene el diagrama de la gura 12.9. Si


x
2
no es accesible, debe procederse a dise nar un observador. Para ello se escribe
(A, B, C) en la forma canonica de observacion. Se tiene
A
o
=

0 0
1 0

B
o
=

1
0

C
o
=

0 1

La ley de control, en estas bases del vector de estado, vendr a dada por
K
o
=

a
1
a
2

Sntesis de sistemas de control por variables de estado 266


x
2
x
1
-
+
+ r
a
1
a
2
1
s
1
s
+
Figura 12.9: Sistema controlado
Se quiere tener un observador asintotico de orden mnimo. El orden del ob-
servador sera uno, por ser el sistema de orden dos. Si se denota por s + el
polinomio caracterstico del observador, se tendra de acuerdo con las expresiones
(12.22) y (12.23).
T
1
=

1
0 1

T
1
1
=

1
0 1

y, por lo tanto,
A = T
1
A
o
T
1
1
=


2
1

B = T
1
B
o
=

1
0

El observador viene dado por el diagrama de bloques de la gura 12.10.


La ley de control en la base del vector de estado correspondiente a X vendr a
dada por
Sntesis de sistemas de control por variables de estado 267
u
+
-
y

1
s
x
1
x
2
Figura 12.10: Diagrama del observador
k = K
o
T
1
=

a
1
a
1
+ a
2

Por lo tanto el conjunto formado por el sistema original y el compensador sera


el representado en la gura 12.11.
Supongamos ahora que se trata de un problema de regulacion con r = 0.
En tal caso es relativamente sencillo determinar el diagrama que representa la
descripcion interna del controlador, entendido como el subsistema que a partir
de la se nal de salida de la planta a controlar y produce la se nal control u. En la
gura 12.12 se representa el diagrama del controlador.
Si el problema de dise no se hubiese resuelto mediante los metodos clasicos de
control, el controlador vendra especicado mediante su funcion de transferencia.
Para comparar los resultados se puede determinar la funcion de transferencia del
controlador que se acaba de obtener. Esta funcion de transferencia viene dada
por
U(s)
Y (s)
= C(s) =
(a
1
+ a
2
)(s + a
1
) + a
2

s + a
1
+
= (a
1
+ a
2
)
s + a
1
+
a
2

a
1
+ a
2
s + a
1
+
Sntesis de sistemas de control por variables de estado 268

+
-

2 1
s
1
s
2
y u
+
+
-
r
a
1
a
1
+a
2
OBSERVADOR
+
+
x
1
Figura 12.11: Sistema de control por variables de estado con observador
que se puede escribir de forma mas compacta
C(s) = k
s +
1
s +
2
k,
1
,
2
> 0
1
<
2
(12.36)
y que resulta ser lo que en los metodos clasicos se conoce como una red de avance
de fase.
De este modo se ha conseguido resolver el problema de la sntesis de un contro-
lador sin ninguna preconcepcion con relacion a su estructura. Si se quiere dar un
paso mas, supongamos que en bucle cerrado se pretende tener un comportamiento
caracterizado por

c
(s) = s
2
+ 2
n
s +
2
n
en donde 2
n
= a
1
y
2
n
= a
2
. Un valor razonable para el coeciente de amor-
tiguamiento es = 1/

2, en cuyo caso se tiene que los distintos parametros de


la red de avance (12.36) vienen dado por
k = (

2 + )

1
=

3 +

2 +

2
= +

2
Sntesis de sistemas de control por variables de estado 269
Conviene observar que la teora clasica del control no ha sido capaz de pro-
porcionar formulas explcita como las anteriores, a un para un ejemplo tan simple
como el anterior. Los metodos clasicos estan basados en aproximaciones gracas
y reglas practicas, lo que constituye una clase de matematicas aplicadas relati-
vamente anticuadas. Sin embargo, estos comentarios no descalican los metodos
clasicos, que como se vera mas adelante, contin uan teniendo un gran interes, ya
que suministran ndices de robustez que poseen un gran interes practico.

+
-

2 1
s
+
+
-
r
a
1
a
1
+a
2
OBSERVADOR
+
+
x
1
u
y
Figura 12.12: Controlador para le planta 1/s
2
.
Del atento analisis de este ejemplo se desprende que la teora moderna del con-
trol, basada en el empleo de las variables de estado, permite resolver el problema
de la sntesis de un sistema realimentado sin ninguna hipotesis previa respecto a la
forma del regulador que se trata de determinar. Ello permite un planteo analtico
del problema de la sntesis de sistemas de control que representa una notable
alternativa al que proponen los metodos clasicos, basados estos en metodos cuya
justicacion se encuentra mas en una experiencia acumulada que en una vision
teorica global.
A continuaci on se expone un metodo general de sntesis de un sistema de
control.
Sntesis de sistemas de control por variables de estado 270
12.3.1 Metodo practico de sntesis
Problema
Dado un sistema de control monovariable cuya funcion de transferencia en
bucle abierto sea
G(s) =
b
1
s
n1
+ b
2
s
n2
+ + b
n
s
n
+ a
1
s
n1
+ + a
n
Se quiere tener en bucle cerrado un sistema cuya funcion de transferencia sea
tal que el numerador permanezca invariable y el denominador sea
s
n
+
1
s
n1
+ +
n
Para su resolucion se procede a seis pasos:
1. A partir de la funcion de transferencia se obtiene la forma canonica de
control.
A
c
=

0 1 0 ... 0
0 0 1 ... 0
...
0 0 0 ... 1
a
n
a
n1
... a
1

B
T
c
=

0 0 ... 1

C
c
=

b
n
b
n1
... b
1

2. Se determina la ley de control de la forma u = Kx + r.


K =

a
n

n
a
n1

n1
a
1

Observese que los valores numericos de esta ley de control corresponden a


la representaci on del sistema en la forma canonica de control.
Sntesis de sistemas de control por variables de estado 271
3. Se determina la forma canonica de observaci on, lo que se hace a partir de
la funcion de transferencia.
A
o
=

0 0 ... 0 a
n
1 0 ... 0 a
n1
0 1 ... 0 a
n2
...
0 0 ... 1 a
1

B
T
o
=

b
n
b
n1
... b
1

C
o
=

0 0 ... 1

Aunque la forma canonica de observacion se puede obtener directamente


de la funcion de transferencia, debido al uso que posteriormente se hara de
ella interesa obtener la transformacion T que permite pasar de las bases a
la forma canonica de control a la de observacion.
T =

a
n1
a
n2
... a
1
1
a
n2
a
n3
... 1 0
.
.
.
.
.
.
.
.
.
.
.
.
a
1
1 .... 0 0
1 0 .... 0 0

C
C A
.
.
.
C A
n2
CA
n1

4. A partir de la forma canonica de observaci on se procede a construir el


observador mnimo. Para ello se dene la transformacion T
1
tal que
T
1
=

1 0 ... 0
n1
0 1 ... 0
n2
.
.
.
.
.
. ....
.
.
.
.
.
.
0 0 ... 1
1
0 0 ... 0 1

en donde
s
n1
+
1
s
n2
+ +
n1
es el polinomio deseado para el observador.
Observese que
Sntesis de sistemas de control por variables de estado 272
T
1
=

1 0 ... 0
n1
0 1 ... 0
n2
.
.
.
.
.
. ...
.
.
.
.
.
.
0 0 ... 1
1
0 0 ... 0

Se tiene que
A = T
1
A
o
T
1
1
=

0 0 ... 0
n1

1
1 0 ... 0
n2

2
0 1 ... 0
n3

3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 ... 1
1

n1
0 0 ... 0 1
n

B = T
1
B
o
C =

0 0 ... 1

es decir que y = x
n
.
El observador tiene como matriz dinamica el bloque (n 1) (n 1)
superior izquierdo de A y esta excitado por u a traves de los (n1) primeros
elementos de B y de y a traves de (
1
...
n1
)

x
1
= A
11
x
1
+ A
12
y + B u
siendo A
11
: (n 1) (n 1) y estando B formado por los n 1 primeros
elementos de B.
5. Se obtiene la matriz de transformacion de

x a x (correspondientes a la forma
canonica de control en que se ha determinado la ley de control
x = T
1
T
1
1

x
6. A partir de todo lo anterior la matriz del compensador es inmediata
u = K x + r
u = KT
1
T
1
1

x + r
Sntesis de sistemas de control por variables de estado 273
Ejemplo
Sea el sistema cuya funcion de transferencia en bucle abierto es
G(s) =
s + 2
s(s + 1)
Se quiere tener un bucle cerrado el comportamiento representado por la funcion
de transferencia
G
d
(s) =
s + 2
s
2
+ 2s + 3
La aplicacion de los seis pasos anteriores conduce a lo siguiente
1.
A
c
=

0 1
0 1

B
T
c
=

0 1

C
c
=

2 1

2.
K =

3 1

3.
A
o
=

0 0
1 1

B
T
o
=

2 1

C
o
=

0 1

siendo
T =

1 1
1 0

2 1
0 1

2 2
2 1

T
1
=

1/2 1
1 1

4. Adoptando
obs
(s) = s + 3 se tiene que
T
1
=

1 3
0 1

T
1
1
=

1 3
0 1

y por lo tanto
Sntesis de sistemas de control por variables de estado 274
A = T
1
A
o
T

1
1 =

3 6
1 2

B = T
1
B
o
=

1
1

C =

0 1

Estando el observador dado por

x
1
= 3

x
1
6

x
2
u
= 3

x
1
6y u
5.
x = T
1
T
1
1

x =


1
2

1
2
1 2

x
6.
u = KT
1
T
1
1

x + r
=

3 1


1
2

1
2
1 2

u 6y
s + 3
y

+ r
Es decir
U(s) =
U(s)
2(s + 3)

s + 9
2(s + 3)
Y (s) + R(s) (12.37)
lo que se puede interpretar gracamente como se hace en la gura 12.13.
Comprobacion
Para comprobar basta determinar la funcion de transferencia en bucle cerrado
y vericar que es la deseada. En el ejemplo anterior se comprueba que as sucede.
En efecto, la expresion (12.37) se puede escribir, llevando todos los terminos en
U(s) al primer miembro:
U(s)
(2s + 7)
2(s + 3)
= Y (s)
(s + 9)
2(s + 3)
+ R(s)
Sntesis de sistemas de control por variables de estado 275
Como
U(s) = Y (s)
s(s + 1)
s + 2
se tiene
Y (s)

s + 9
2(s + 3)
+
(2s + 7)
2(s + 3)

s(s + 1)
(s + 2)

= R(s)
Es decir
Y
R
(s) =
2(s + 2)(s + 3)
2s
3
+ 10s
2
+ 18s + 18
=
s + 2
s
2
+ 2s + 3
Debe notarse que el observador no aparece de ninguna forma en la funcion de
transferencia en bucle cerrado.
12.3.2 Sntesis algebraica directa (Sntesis externa directa)
En el apartado anterior se ha determinado la compensacion de un determinado
sistema por medio de un observador y una ley de control. Al aplicar al sistema
original el observador y la ley de control en el ejemplo considerado en el apartado
anterior, se ha obtenido el diagrama de la gura 12.13. Ello sugiere adoptar el
diagrama de bloques de la gura 12.14,como diagrama basico para la sntesis de
sistemas de control.
Tomando el diagrama de la gura 12.14 como punto de partida para la sntesis
de un sistema de control, se identican en el los siguientes elementos. La funcion
de transferencia T(s) es la funcion de transferencia del sistema en bucle abierto.
El polinomio q(s) caracteriza el comportamiento dinamico del observador y por
tanto, se establece a priori, de la misma manera que se adoptaban unos valores
para el comportamiento dinamico del observador en el apartado anterior. El
problema de sntesis queda reducido a determinar los polinomios k(s) y h(s). El
objeto de este apartado es precisamente, determinar los polinomios k(s) y h(s)
directamente sin necesidad de determinar que la ley de control y el observador,
que es lo que se haca en el apartado anterior.
El problema se suele plantear en los terminos siguientes. Sea un sistema
cuya funcion de transferencia es T(s) = n(s)/d(s), y supongase que se quiere
obtener en bucle cerrado un comportamiento representado por T
d
(s). Adoptando
Sntesis de sistemas de control por variables de estado 276
v u
y
s+2
s(s+1)
s+9
2(s+3)
1
2(s+3)
+
+
-
+
Figura 12.13: Diagrama de bloques simplicado del sistema controlado por va-
riables de estado con observador
v u
y
+
+
-
+
k(s)
q(s)
h(s)
q(s)
T(s)
Figura 12.14: Diagrama de bloques simplicado del sistema controlado por va-
riables de estado con observador
Sntesis de sistemas de control por variables de estado 277
la conguracion de la gura 12.14, se trata de determinar los polinomios k(s) y
h(s) para que la funcion de transferencia resultante sea precisamente T
d
(s).
Para estudiar el problema se procede, en primer lugar, a particionar T(s) tal
como se hace en la gura 12.15.
u z y
1
d(s)
N(s)
Figura 12.15: Factorizaci on del sistema
De la observaci on de las guras 12.14 y 12.15 se tiene lo siguiente.
d(s)Z(s) = U(s) (12.38)
Y (s) = n(s)Z(s) (12.39)
U(s) = R(s)
1
q(s)
(k(s)U(s) + h(s)Y (s)) (12.40)
= R(s)
1
q(s)
(k(s)d(s) + h(s)n(s)) Z(s) (12.41)
Un conocido resultado del algebra de polinomios establece que, dados dos
polinomios primos entre s n(s) y d(s), y un polinomio arbitrario (s), existen
dos polinomios k(s) y h(s), tales que
n(s)h(s) + d(s)k(s) = (s) (12.42)
Este resultado se estudiara con detalle, en un teorema, posteriormente. Supongase
aqu que (s) = q(s) f(s), en donde el signicado de f(s) se determinara mas
abajo. Se tendra que la expresion (12.40) se convertira en
U(s) = R(s) f(s)Z(s) (12.43)
Sntesis de sistemas de control por variables de estado 278
R(s) = U(s) + f(s)Z(s)
= (d(s) + f(s)) Z(s) (12.44)
luego,
Y (s)
R(s)
=
n(s)
d(s) + f(s)
(12.45)
Esta expresion indica que la funcion de transferencia T
d
(s) debe tener el mismo
numerador que T(s) y, al mismo tiempo, indica como se puede modicar el de-
nominador. Esta modicacion se hacer por adicion de f(s), cuyo signicado es
ahora claro.
El anterior desarrollo lleva implcito un metodo de sntesis. Los pasos de este
metodo son:
1. A partir de d(s) y del denominador de T
d
(s) se determina f(s).
2. Por consideraciones fsicas se adopta q(s), (equivale a
obs
(s)).
3. Se determina (s) = q(s)f(s) y se resuelve la ecuacion polinomial (12.42),
con lo que se obtienen h(s) y k(s).
Debe notarse que el problema es trivial si (n(s)) = 0, es decir si n(s) es una
constante n
0
. En efecto, en tal caso la expresion (12.42) se convierte en
(s) = k(s)d(s) + h(s) n
0
Para la determinacion de k(s) y h(s) se divide (s) por d(s). El cociente de
dicha division es k(s) y el resto h(s) n
0
El problema queda reducido, por lo tanto, a la resolucion de la ecuacion
polinomial (12.42).
Metodo del sistema de ecuaciones lineales
Sea la expresion (12.42) en la que a partir de n(s), d(s) y (s) se trata de deter-
minar h(s) y k(s).
Sntesis de sistemas de control por variables de estado 279
Los grados de los polinomios n(s), d(s) y (s), son:
grado () = q 2n 2
grado (n) = m n 1
grado (d) = n
Los grados de h(s) y k(s) seran
grado (h) = n 1grado (k) = m1
La determinacion de h(s) y k(s) se hace considerando como incognitas sus
coecientes y obteniendo las ecuaciones que resultan de igualar coecientes de
terminos de igual exponente de s en la expresion (12.42). Con ello se obtiene
un sistema de ecuaciones lineales que admite solucion, y esta es unica, si los
polinomios n(s) y d(s) son primos entre s (no tienen factores comunes).
Considerese, sin perdida de generalidad, n = 3 y m = 2, es decir,
d(s) = s
3
+ d
1
s
2
+ d
2
s + d
3
n(s) = n
0
s
2
+ n
1
s + n
2
h(s) = h
0
s
2
+ h
1
s + h
2
k(s) = k
0
s + k
1
(s) =
0
s
4
+
1
s
3
+
3
s +
4
Se tendra,
Sntesis de sistemas de control por variables de estado 280
n(s)h(s) = n
0
h
0
s
4
+ (n
0
h
1
+ n
1
h
0
)s
3
+
+(n
0
h
2
+ n
1
h
1
+ n
2
h
0
)s
2
+
+(n
1
h
2
+ n
2
h
1
)s
2
+ n
2
h
2
d(s)k(s) = k
0
s
4
+ (k
1
+ d
1
k
0
)s
3
+
+(d
1
k
1
+ d
2
k
0
)s
2
+
(d
2
k
1
+ d
3
k
0
)s + d
3
k
1
Al igualar en ambos miembros de (12.42) terminos en la misma potencia de
s, se tendra, escrito en forma compacta

n
2
0 0 d
3
0
n
1
n
2
0 d
2
d
3
n
0
n
1
n
2
d
1
d
2
0 n
0
n
1
1 d
1
0 0 n
0
0 1

h
2
h
1
h
0
k
1
k
0

es decir
MC = (12.46)
La anterior ecuacion en C admite solucion, y esta es unica, si M
1
existe.
Ahora bien, la matriz M tiene como determinante el resultante R(n, d), de los
dos polinomios n(s) y d(s). El resultante de dos polinomios es no nulo si estos
no tienen factores comunes. Ello es lo que sucede cuando el sistema a controlar
es controlable y observable. Por lo tanto, la anterior ecuacion tendra solucion, y
esta sera unica, si n(s) y d(s) no tienen factores comunes.
El inconveniente que presenta este metodo es que requiere la inversi on de una
matriz cuya dimension, para problemas de un cierto orden, puede ser elevada.
Este metodo, por lo tanto, no es el adecuado cuando se trata de resolver el
problema con papel y lapiz. Sin embargo, es mas simple.
Sntesis de sistemas de control por variables de estado 281
Ejemplo
Sea el sistema considerado en el ejemplo 2 del apartado anterior y cuyas funciones
de transferencia en bucle abierto y en bucle cerrado son las siguientes.
T(s) =
s + 2
s
2
+ 2s + 3s
T
d
(s) =
s + 2
s
3
+ 3s
2
+ s + 2
Se tiene que
n(s) = s + 2
d(s) = s
3
+ 2s
2
+ 3s
(s) = q(s) f(s) = s
4
s
2
+ 2s + 2
Se adopta
k(s) = k
0
s + k
1
h(s) = h
0
s
2
+ h
1
s + h
2
El sistema de ecuaciones (44) resulta ser

2 0 0 0 0
1 2 0 3 0
0 1 2 2 3
0 0 1 1 2
0 0 0 0 1

h
2
h
1
h
0
k
1
k
0

2
2
1
0
1

cuya solucion conduce a


Sntesis de sistemas de control por variables de estado 282
h
2
= 1 h
1
= 0 h
0
= 14/6 k
1
= 1/3 k
0
= 1
lo cual coincide con lo obtenido por el metodo anterior.
Debe resaltarse que para aplicar este metodo se requiere el concurso de un
computador, cosa que con el anterior, aunque aparentemente mas complejo, no
suceda.
Tema 13
Sistemas no lineales
13.1 Metodo del primer armonico
Los metodos clasicos de sistemas realimentados lineales estan basados en el em-
pleo de la funcion de transferencia, que posee una interpretaci on en el dominio
de la frecuencia de gran interes para el analisis y la concepcion de esos sistemas
realimentados. Sin embargo, el concepto de funcion de transferencia esta basado
en la propiedad de linealidad (suma de causas produce suma de efectos) que no
poseen, por su propia naturaleza los sistemas no lineales.
Sin embargo, como vamos a ver en lo que sigue, es posible aplicar una version
ampliada del metodo de la respuesta en frecuencia a sistemas no lineales medi-
ante el metodo de la funcion descriptiva. Con este metodo, como vamos a ver,
es posible adaptar los metodos de dise no de sistemas lineales en el dominio de
la frecuencia, empleando los diagramas de Bode y similares, al caso de los sis-
temas no lineales, si bien en este ultimo caso los resultados son exclusivamente
aproximados.
13.1.1 Ejemplo introductorio
Los sistemas no lineales pueden presentar oscilaciones de amplitud y periodo
jos sin excitacion exterior. Esas oscilaciones se denominan ciclos lmites u os-
cilaciones autoexcitadas. Una de la primeras ecuaciones propuestas para estudiar
este fenomeno se debe al ingeniero electrico holandes Balthasar Van der Pol. Esta
283
Sistemas no lineales 284
ecuacion es la siguiente:
x + (x
2
1) x + x = 0 (13.1)
vamos a emplear esta ecuacion como ejemplo introductorio al metodo del primer
armonico. Para ello, vamos a suponer que existe un ciclo lmite de amplitud y
frecuencia no determinadas, y vamos a ver que restricciones impone la ecuacion
anterior a esta amplitud y frecuencia.
+
-
0
x
Elemento Lineal Elemento no lineal ( xx
2
)
(.)
2
x
s
v

s
2
s+1
Figura 13.1: Diagrama de bloques del oscilador de Van der Pol
Puesto que el analisis de la ecuacion de Van der Pol lo estamos haciendo
como introduccion al estudio de sistemas realimentados no lineales conviene que
representamos la ecuacion (13.1) mediante un diagrama de bloques como el de la
gura 13.1. En esta gura se tiene un sistema realimentado, con realimentacion
unitaria, en cuya cadena directa aparece un bloque no lineal y uno lineal. Como
veremos luego, esta sera la forma que tomaran los sistemas realimentados no
lineales a los que se aplica el metodo del primer armonico.
Para justicar el diagrama de la gura 13.1 basta reescribir la expresion (13.1)
de la forma
x x + x = x
2
x
Se dene v = x
2
x, con lo que la anterior expresion se convierte en
x x + x = v
cuya funcion de transferencia es
x
v
(s) =

s
2
s + 1
Sistemas no lineales 285
Supongamos que el sistema de la gura 13.1 oscila, de modo que la se nal x
evoluciona de la forma
x(t) = A sen t (13.2)
en donde A es la amplitud del ciclo lmite y su frecuencia. En este caso se tiene
x(t) = A cos t
por consiguiente, la salida del bloque no lineal de la gura 13.1 viene dada por
v = x
2
x = A
2
sen
2
tA cos t (13.3)
=
A
3

2
(1 cos 2t) cos t (13.4)
=
A
3

4
( cos t cos 3t) (13.5)
El paso de (13.3) a (13.4) se basa en que
2 sen
2
t = 1 cos 2t
ya que
cos 2t = cos
2
t sen
2
t = 1 2 sen
2
t
Por otra parte, el paso de (13.4) a (13.5) es un poco ma as elaborado. Para
demostrarlo se parte de
cos 3t = cos 2t cos t sen t sen 2t
= cos t(1 2 sen
2
t) 2 sen
2
t cos t
= cos t(1 4 sen
2
t)
= cos t(1 2 + 2 cos 2t)
= cos t(2 cos 2t 1)
de donde se tiene que
cos t cos t cos 2t =
1
2
( cos t cos 3t)
En la expresion (13.5) se observa que la se nal v contiene un armonico de tercer
orden. Sin embargo, sucede que la parte lineal se comporta como un ltro paso
bajo, de modo que se puede suponer razonablemente que este armonico de tercer
orden resulta sucientemente atenuado por el bloque lineal y que puede, en una
primera aproximaci on despreciarse. Con estos supuestos, la se nal v toma la forma
aproximada
v
A
3

4
( cos t) =
A
2
4
d
dt
(A sen t) (13.6)
Sistemas no lineales 286
+
-
x x
r = 0
Aproximacion cuasi lineal
A
2
4
s
v

s
2
s+1
Figura 13.2: Aproximacion lineal del oscilador de Van der Pol
De este modo el bloque no lineal de la gura 13.1 puede representarse en forma
aproximada como se hace en la gura 13.2. El bloque no lineal de la gura 13.1 se
describe de forma aproximada, mediante una funcion de transferencia como la que
se indica en la gura 13.2. Conviene observar que esta funcion de transferencia
depende de la amplitud de la se nal de entrada A, lo que no sucede en ning un caso
con una funcion de transferencia de un sistema lineal.
En general, podemos escribir que las se nales de salida v del bloque no lineal
de la gura 13.2 vienen dadas por
v = N(A, )(x) (13.7)
en donde N juega el mismo papel que la funcion de transferencia en un sistema
lineal, aunque en este caso con la propiedad adicional de depender no solamente
de la frecuencia , sino tambien de la amplitud A. A la funcion N la denominare-
mos funcion descriptiva del elemento no lineal correspondiente y constituye una
generalizacion del concepto de funcion de transferencia al estudio de los sistemas
no lineales (aunque aqu con un caracter aproximado ya que para llegar a ella
se han despreciado los armonicos de orden superior al primero, a partir de la
consideracion del caracter del ltro paso bajo del bloque lineal).
En el caso que nos ocupa la funcion descriptiva toma la forma
N(A, ) = j
A
2
4
(13.8)
es decir el bloque no lineal se puede aproximar por la funcion de respuesta en
frecuencia N. De acuerdo con la cadena directa del sistema de la gura 13.2, se
puede escribir
x = A sen t = G(j)v = G(j)N(A, )(x) (13.9)
Sistemas no lineales 287
Se sabe que una se nal senoidal se puede escribir en forma compleja mediante la
exponencial
x = Ae
jt
con lo que la anterior expresion (13.9) puede escribir
Ae
jt
= G(j)N(A, )(Ae
jt
)
de donde se tiene
1 + G(j)N(A, ) = 0 (13.10)
esta expresion, en realidad, es una forma de escribir la expresion (13.1), es decir
la ecuacion del sistema, habida cuenta de la simplicacion que ha permitido pasar
de la expresion (13.3) a la (13.6). La resolucion de esta ecuacion en la amplitud
A y la frecuencia permite determinar la amplitud y frecuencia a la que oscila
el sistema. En el caso concreto que nos ocupa, la expresion (13.10) se convierte
en
1 +

(j)
2
(j) + 1
A
2
4
j = 0 (13.11)
que conduce a
4((j)
2
(j) + 1) + A
2
j = 0
cuya parte real es
4
2
+ 4 = 0
cuya solucion conduce a = 1, y cuya parte imaginaria es
4 + A
2
= 0
por lo que A = 2. Por tanto el sistema admite una solucion en forma de oscilacion
con amplitud A = 2 y frecuencia = 1.
Conviene observar que la expresion (13.11) escrita en forma de Laplace toma
la forma
1 +

s
2
s + 1
A
2
s
4
= 0
que es la ecuacion caracterstica en bucle cerrado del sistema de la gura 13.2.
Los autovalores de esta ecuacion son

1,2
=
1
8
(A
2
4)

1
64

2
(A
2
4)
2
1 (13.12)
en los que haciendo A = 2 se obtienen los autovalores
1,2
= j; es decir existe un
ciclo lmite de amplitud 2 y frecuencia 1. Conviene observar que ni la amplitud
ni la frecuencia obtenidas dependen del parametro .
Sistemas no lineales 288
y(t) x(t)
-
+
r(t) = 0
Elemento lineal Elemento no lineal
v = f(x)
v(t)
G(s)
Figura 13.3: Sistema no lineal
-
+
r(t) = 0
x(t) u(t) y(t)
G
1
(s)
v(t)
G
p
(s)
G
2
(s)
Figura 13.4: Sistema de control con una no linealidad
Sistemas no lineales 289
13.1.2 Principios del metodo
Supuestos basicos del metodo:
1. Hay un unico componente no lineal.
2. Ese componente es invariante en el tiempo.
3. La parte lineal se comporta como un ltro paso-bajo.
4. La no linealidad es simetrica, de modo que no aparece en la salida un se nal
de continua.
Debido a estas limitaciones, el metodo de la funcion descriptiva se utiliza funda-
mentalmente para el analisis de estabilidad y no suele aplicarse a problemas de
dise no optimo de sistemas.
13.1.3 Transformaci on de Fourier
La salida v(t) de un elemento no lineal, en respuesta a una se nal sinusoidal, de
amplitud A y frecuencia , es una se nal periodica de la misma frecuencia, que se
puede desarrollar en serie de Fourier, de la forma:
v(t) = a
0
+

n=1
(a
n
cos (nt) + b
n
sen (nt))
a
0
=
1

v(t)d(t) n = 0, 1, 2, ...
El termino independiente es el valor medio de la se nal en un perodo. Para una
se nal sin componente de continua este valor es cero; es decir a
0
= 0 (recuerdese
el supuesto 4 de 13.1.2).
a
n
=
1

v(t) cos (nt)d(t) n = 0, 1, 2, ... (13.13)


b
n
=
1

v(t) sen (nt)d(t) n = 0, 1, 2, ... (13.14)


Casos de interes:
Sistemas no lineales 290
v(t) es impar [v(t) = v(t)], entonces a
n
= 0, n = 0, 1, 2, ..., y en
desarrollo solo tiene terminos en senos (gura 13.5a).
v(t) es alternada [v(t + ) = v(t)], entonces el desarrollo solo tiene
terminos impares (gura 13.5b).
x
x
a)
x
b)
v(x)
v(x)
v(x)
v(x +)
x +
Figura 13.5: Se nales impar (a) y alternada (b)
En el supuesto de que se considere unicamente la componente fundamental del
desarrollo en serie, y recordando que a
0
= 0, se tiene que la expresion se convierte
en
v(t) = v
1
(t) = a
1
cos (t) + b
1
sen (t) = M sen (t + ) (13.15)
En la gura 13.6 se representa un elemento no lineal y su representacion mediante
N.L. N(A, )
Asen(t) Asen(t) w(t) Msen(t +)
Figura 13.6: Elemento no lineal y funcion descriptiva
la funcion descriptiva. De la expresion (13.15) se tiene
M(A, ) =

a
2
1
+ b
2
1
(A, ) = tag
1

a
1
b
1

En la gura 13.6 se muestra como la componente fundamental de la salida de un


sistema no lineal a una se nal sinusoidal de entrada, es otra se nal sinusoidal de la
misma frecuencia pero de amplitud M y desfase . Empleando una representaci on
compleja la sinusoide puede escribirse
v
1
= Me
j(t+)
= (b
1
+ ja
1
)e
jt
Sistemas no lineales 291
Con los anteriores elementos ya estamos en posicion de denir la funcion descrip-
tiva de un elemento no lineal como el cociente complejo entre la componente
fundamental del elemento no lineal y la se nal sinusoidal de entrada A sen t; es
decir
N(A, ) =
Me
j(t+)
Ae
jt
=
M
A
e
j
=
1
A
(b
1
+ ja
1
) (13.16)
Es decir, la funcion descriptiva N(A, ) es una funcion compleja cuyo modulo
y argumento representan la amplicacion y el desfase del primer armonico de la
salida v(t) de un sistema no lineal ante una entrada sinusoidal de amplitud A y
frecuencia .
El concepto de funcion descriptiva puede, por tanto, ser considerado como
una ampliacion de la nocion de respuesta frecuencial de los sistema lineales. Las
diferencias entre ambos conceptos se limitan a que la funcion descriptiva de un
elemento no lineal depende de la amplitud, mientras que la funcion de trans-
ferencia de un elemento lineal no depende de ella. Sin embargo, con vistas a
las aplicaciones al dise no de sistemas realimentados pueden tratarse de forma
analoga.
En general, por tanto, la funcion descriptiva depende de la frecuencia y la
amplitud de la se nal de entrada. Existen, sin embargo, algunos casos especiales.
Cuando la no linealidad es uniforme (es decir, su caracterstica es una funcion que
asigna a cada valor de la se nal de entrada un unico valor de la se nal de salida)
la funcion descriptiva N es real e independiente de la frecuencia de entrada. El
caracter real de N se debe a que a
1
= 0, debido a que la se nal de salida del
elemento no lineal es impar, y en ese caso, como hemos recordado antes, todos
los terminos a
i
se anulan. Ademas, la salida es siempre alternada, por lo que
los terminos pares desaparecen. Por tanto ante una no-linealidad uniforme se
tendra a
v(t) = b
1
sen t + b
3
sen 3t + b
5
sen 5t + ...
13.2 Algunas funciones descriptivas
La determinacion de la funcion descriptiva se puede hacer basicamente de dos
formas: por calculo analtico o por determinacion experimental.
Por lo que respecta al metodo analtico vamos a presentar un par de ejemplos
para ilustrar su aplicacion. El primero de los ejemplos es una saturacion que
aporta un ejemplo de un sistema no lineal con caracterstica estatica. Tambien
se presenta un ejemplo de un rele con holgura, cuya caracterstica es dinamica.
Sistemas no lineales 292
13.2.1 Saturacion
entrada
sinusoidal
ka
t
ka
0
t

/2
A 0
0 a
x
k
salida no saturada
salida saturada
saturacion
x(t)
v
v(t)
Figura 13.7: Caracterstica de una saturacion.
En la gura 13.7 se muestra la caracterstica de una saturacion. Para valores
de x < a el elementos no lineal transmite la se nal de forma lineal, con una
amplicacion. Para valores de x > a la se nal de entrada queda truncada por
efecto de la no linealidad.
En la gura 13.7 se muestra el efecto de la saturacion sobre una se nal de
entrada de amplitud mayor que a, para el caso en que A sea mayor que a. En tal
caso se tiene que la se nal de salida del elemento no lineal vendra dada por
v(t) =

kA sen (t) 0 t
ka t /2
siendo = sen
1
(a/A)
a
1
= 0 observese que el caracter impar de v(t) implica que a
1
= 0 y que
la simetra de la se nal sobre los cuatro cuadrantes en que se puede considerar
Sistemas no lineales 293
dividido un periodo indica que
b
1
=
4

/2
0
v(t) sen td(t) (13.17)
=
4


0
kA sen
2
td(t) +
4

/2

ka sen td(t)
=
2kA

+
a
A

1
a
2
A
2

por consiguiente, la funcion descriptiva resulta ser


N(A) =
b
1
A
=
2k

+
a
A

1
a
2
A
2

(13.18)
En la gura 13.8 se representa la funcion descriptiva de una saturacion.
0 1 5 10
A/a
0.0
0.2
0.4
0.6
0.8
1.0
1.2
N
(
A
)
/
k
Rango lineal
Figura 13.8: Funcion descriptiva de una saturacion.
13.2.2 Rele
La caracterstica no lineal de un rele se muestra en la gura 13.9. Si se compara
con la caracterstica de una saturacion, que se vio en la gura 13.7 se tiene que la
no linealidad de un rele corresponde a un caso lmite de una saturacion denido
por
a 0, k
Sistemas no lineales 294
0 5 10
A
0.0
0.4
0.8
1.2
1.6
2.0
N
(
A
)
/
M
a cero
a infinito
encendido
apagado
-M
M
0
x
v
Figura 13.9: Caracterstica de un rele
siendo ka = M. Por tanto, b
1
puede obtener de la expresion (13.18) calculando
el lmite. Sin embargo se obtiene mas facilmente calculandolo directamente de
acuerdo con
b
1
=
4

/2
0
M sen td(t) =
4M

(13.19)
por lo que la funcion descriptiva de un rele viene dada por
N(A) =
4M
A
(13.20)
En la gura 13.9 se representa la funcion descriptiva de un rele. Puede compararse
esa funcion descriptiva con la de la saturacion que se vio en la gura 13.8.
13.2.3 Holgura
En la gura 13.10 se muestra la caracterstica de una holgura, que se presenta
a menudo en los sistemas de transmision mecanica mediante engranajes. Como
consecuencia de la holgura, cuando el engranaje primario gira un angulo menor
que b, el secundario no se mueve, como corresponde a la zona muerta (segmento
OA en la gura 13.10); despues de establecido el contacto en engranaje secundario
sigue la rotacion del primario de manera lineal (segmento AB). Si se invierte el
sentido de giro del engranaje primario entonces durante un angulo 2b el secundario
no se mueve, de acuerdo con el segmento BC de la gura 13.10. Cuando se
restablece el contacto entre los dos engranajes el secundario sigue al primario en
la direccion opuesta (segmento CD). Por consiguiente, si el engranaje primario
Sistemas no lineales 295
b
salida
angulo
entrada
angulo
C
B
A
0
-b
D E
b
Engranaje secundario Engranaje primario
Figura 13.10: Caracterstica de una holgura.
esta sometido a un movimiento periodico el secundario recorrera el camino cerrado
EBCD, de la gura 13.10. Conviene observar que los puntos B, C, D y E de la
gura dependen de la amplitud de la se nal sinusoidal de entrada.
La holgura suministra un ejemplo de no linealidad con memoria, en la que
el valor de la salida en un instante de tiempo determinado, no depende exclusi-
vamente del valor de la entrada en ese instante, sino de la historia previa de las
se nales de entrada que afectan al sistema.
El calculo de la funcion descriptiva resulta en este caso mas complejo que
en el de la no linealidades sin memoria. En la gura 13.11 se muestra como
se genera la se nal de salida para una se nal sinusoidal de entrada. La se nal de
salida v(t), en un periodo, se determina dividiendo este periodo en las cuatro
partes correspondientes a los cuatro tramos que aparecen en el romboide de la
caracterstica. Se tiene
v(t) = (A b)k

2
t
v(t) = A( sen t + b)k t
3
2
v(t) = (A b)k
3
2
t 2
v(t) = A( sen t b)k 2 t
5
2
donde = sen
1
(1 2b/A). En este caso la caracterstica no es uniforme y la
componente fundamental de la se nal de salida presenta variaci on de amplitud y
de fase. Se tiene
a
1
=
4kb

b
A
1

b
1
=
Ak

2
sen
1

2b
A
1

2b
A
1

2b
A
1

Sistemas no lineales 296


2
x
t
b
3/2

/2
-A A
x(t)
-b
k(Ab)
k(Ab)
/2
3/2
t
entrada sinusoidal
v
v(t)
Figura 13.11: Generacion de la se nal de salida para una se nal sinusoidal de en-
trada en una holgura.
Sistemas no lineales 297
es decir, la funcion descriptiva de una holgura viene dada por
[ N(A) [=
1
A

a
2
1
+ b
2
1

N(A) = tan
1

a
1
b
1

En las guras 13.12 y 13.13 se representan la amplitud y desfase, respectivamente,


de la funcion descriptiva de una holgura. Observese que en este caso la funcion
0.0 0.2 0.4 0.6 0.8 1.0
b/A
0.0
0.2
0.4
0.6
0.8
1.0
A
m
p
l
i
t
u
d
Figura 13.12: Amplitud de la funcion descriptiva de una holgura.
descriptiva depende exclusivamente de la amplitud de la se nal de entrada, como
suceda en las no linealidades sin memoria (como la saturacion y el rele) que
se han visto anteriormente. Sin embargo, en este caso la funcion descriptiva
tiene modulo y argumento (amplitud y desfase), mientras que en los casos de no
linealidades sin memoria la funcion descriptiva posee unicamente amplitud, y no
desfase.
13.2.4 Determinacion experimental de la funcion descrip-
tiva
En lo ejemplos que se acaban de ver, se ha determinado la funcion descriptiva
mediante la aplicacion de metodos matematicos. Ello es posible cuando la formu-
lacion matematica del problema es aceptablemente sencilla. Cuando no es as, se
procede de manera experimental con ayuda de un analizador armonico. Se excita
Sistemas no lineales 298
0.0 0.2 0.4 0.6 0.8 1.0
b/A
-90
-60
-30
0
D
e
s
f
a
s
e
Figura 13.13: Desfase de la funcion descriptiva de una holgura.
el sistema no lineal cuya descripcion descriptiva se quiere determinar, con se nales
sinusoidales, y la salida se analiza mediante el analizador armonico, de modo
que se discrimine el primer armonico. Comparando las amplitudes y fases de la
se nal de entrada y del primer armonico se puede determinar experimentalmente
la funcion descriptiva. Conviene observar que, en este caso, y al contrario de lo
que sucede con los sistemas lineales, el analisis debe realizarse para se nales de en-
trada de diferente amplitud; es decir, el ensayo debe realizarse variando tanto la
amplitud como la frecuencia de la se nal de entrada. De este modo se determinan
los datos que permiten establecer la funcion N(A, ). Estos datos se procesaran
normalmente mediante tablas, y no mediante expresiones analticas.
13.3 Analisis de sistemas no lineales mediante
la funcion descriptiva
En las secciones anteriores hemos visto como se determina la funcion descriptiva
de un elemento no lineal. Ademas en la seccion 13.1.1 se present o un ejemplo
introductorio que permita analizar la existencia de ciclos lmites en un sistema
no lineal mediante la funcion descriptiva. En esta seccion vamos a generalizar el
metodo all presentado. Para ello, en primer lugar, conviene recordar el criterio
de Nyquist.
Sistemas no lineales 299
+
-
G(s)
H(s)
Figura 13.14: Sistema lineal realimentado.

+
+
-1
plano s
G(s)H(s)
Figura 13.15: Criterio de Nyquist.
13.3.1 Una ampliacion del criterio de Nyquist
Sea el sistema lineal de la gura 13.14, cuya ecuacion caracterstica resulta ser
1 + G(s)H(s) = 0 (13.21)
como se recordara el criterio de Nyquist permite conocer el n umero de raices
de la ecuacion caracterstica con parte real negativa. Para ello basta dibujar la
aplicacion C del contorno de Nyquist en un plano complejo apropiado, determinar
el n umero N de veces que este contorno C rodea al punto (-1,0) y aplicar la
conocida expresion
Z = N + P
en donde P es el n umero de polos inestables de la funcion de transferencia en
bucle abierto GH. Entonces Z es el n umero de polos inestables del sistema en
bucle cerrado (con solo que haya uno, el sistema es inestable).
Sistemas no lineales 300
0
-
+
Re
Im
-1
k G(s)
1/k
H(s)
G(s)H(s)
Figura 13.16: Ampliacion del criterio de Nyquist.
N(A, ) G(j)
Elemento lineal
y(t) x(t)
+
-
Funcion descriptiva
r(t) = 0 v(t)
Figura 13.17: Sistema no lineal.
El criterio de Nyquist se amplia formalmente para el caso en el que una con-
stante k, que consideraremos que puede ser un n umero complejo, se incluye en la
cadena directa de la gura 13.16. En tal caso la ecuacion caracterstica resulta
ser
1 + kG(s)H(s) = 0 (13.22)
y por tanto,
G(s)H(s) =
1
k
(13.23)
Es facil ver que en este caso el criterio de Nyquist se aplica igual que en el caso
anterior (de la gura 13.15) con la diferencia de que ahora N representa el n umero
de veces que el contorno de Nyquist de GH rodea al punto 1/k, lo que se ilustra
en la gura 13.16.
13.3.2 Oscilaciones de un servomecanismo no lineal
Considerese el sistema no lineal de la gura 13.17. Diremos que este sistema
presenta una oscilacion automantenida si para r = 0 el sistema presenta un
Sistemas no lineales 301
comportamiento oscilatorio. Supongamos que esta oscilacion viene dada por la
expresion
x(t) = A cos t (13.24)
El componente fundamental de la se nal de salida del elemento no lineal v(t)
resulta ser
v(t) =[ N(A, ) [ A cos (t + (A, )) (13.25)
Es sabido que (13.24) y (13.25) pueden escribirse de la forma
x(t) = 'Ae
jt

v(t) = '[ N(A, ) [ Ae


j(t+(A,))

Empleando esta ultima forma de representar un comportamiento oscilatorio, se


tiene que la salida del elemento lineal vendr a dada por
y(t) = '[ N(A, ) [ A [ G(j) [ e
j(t++)

siendo =

G(j).
Para que la oscilacion sea automantenida, en ausencia de se nal de excitacion
r, se requiere que:
Ae
jt
=[ N(A, ) [ A [ G(j) [ e
j(t++)
Es decir,
Ae
jt

[ N(A, ) [[ G(j) [ e
j(+)
+ 1

= 0
La anterior expresion se debe satisfacer para todo t, por lo que se tendra
[ N(A, ) [[ G(j) [ e
j(+)
+ 1 = 0
es decir,
N(A, )G(j) + 1 = 0 (13.26)
y por tanto,
G(j) =
1
N(A, )
(13.27)
y cualquier par de valores de A y que satisfaga la anterior ecuacion puede dar
lugar a un ciclo lmite. De aquellos valores que satisfagan esta ecuacion, solo dara
lugar a un ciclo lmite aquellos para los que la oscilacion periodica sea estable.
Sistemas no lineales 302
1/N(A)

Im
Re
A
G(j)
L
Figura 13.18: Determinacion de un ciclo lmite.
13.3.3 Funci on descriptiva independiente de la frecuencia
Considerese el caso en el que la funcion descriptiva N es unicamente funcion de
la amplitud A. Este caso incluye todas las no linealidades cuya caracterstica es
uniforme y algunas no linealidades biformes interesantes como la holgura. En
este caso la expresion (13.27) se convierte en
G(j) =
1
N(A)
(13.28)
En la gura 13.18 se han representado la funcion de transferencia de la parte
lineal G(j) (parametrizado en ) y la curva correspondiente a la inversa de
la funcion descriptiva, con el signo cambiado, (parametrizada en A) en el plano
complejo. Si estas dos curvas se cortan, entonces los valores de A y de corres-
pondientes al punto de intersecci on son soluciones de la ecuacion 13.28, y en
consecuencia, pueden existir ciclos lmites. Por ejemplo, en la gura 13.18 las dos
curvas se cortan en el punto L.
Conviene recordar que para no-linealidades uniformes N es siempre real y por
consiguiente el trazado de (13.28) siempre esta situado sobre el eje real.
13.3.4 Funci on descriptiva dependiente de la frecuencia
En el caso general la funcion descriptiva depende tanto de la amplitud de la se nal
de entrada como de su frecuencia y, en consecuencia el metodo que se acaba de
ver en el apartado anterior, adquiere mayor complejidad. En tal caso la expresion
en el segundo miembro de (13.27) da lugar a una familia de curvas en el plano
Sistemas no lineales 303

Im
Re
A
1/N(A, )
G(j)
Figura 13.19: Determinacion de ciclos lmite con funciones descriptivas dependi-
entes de la frecuencia.

A
1
A
2
A
3
A
4
-1
G(j)N(A, )
Figura 13.20: Resolucion graca de la ecuacion N(A, )G(j) + 1 = 0.
complejo con A como parametro y permaneciendo constante en cada curva,
como se muestra en la gura 13.19. De todas las intersecciones entre la familia de
curvas 1/N(A, ) y la curva G(j) solamente aquellos puntos de intersecci on en
los que coincidan los valores de constituyen soluciones de la ecuacion (13.27), y
son, por tanto, candidatos a ciclos lmites. Existe otro procedimiento graco para
resolver la expresion (13.27). Consiste en considerar la representaciones gracas
de G(j)N(A, ). Dando a A un valor constante y variando de 0 a innito, se
obtiene una curva que representa a G(j)N(A, ). Procediendo con diferentes
valores de A se obtiene una familia de curvas, como la que se muestra en la gura
13.20. La curva de esta familia que pase por el punto (-1,0) en el plano complejo
suministra una solucion de la expresion (13.27) .
Sistemas no lineales 304
L
1
L
2
L
1
L

1
G(j)
Im
Re
1/N(A, )

Figura 13.21: Estabilidad de ciclos lmite.


13.3.5 Estabilidad de los ciclos lmite
Con los ciclos lmites sucede lo mismo que con los equilibrios: que pueden ser
estables o inestables. Las soluciones de la ecuacion (13.27) deben someterse a
un analisis de estabilidad, para determinar cuales de ellas son estables y cuales
no. El criterio de Nyquist ampliado que hemos visto en la seccion 13.3.1, permite
analizar esa estabilidad. Considerese la gura 13.21 en la que se muestran las
intersecciones entre la funcion de transferencia de la parte lineal y la inversa
de la funcion descriptiva de la parte no lineal. Estas dos curvas presentan dos
puntos de interseccion, L
1
y L
2
, por lo que el sistema presenta dos ciclos lmites.
Observese que el valor de A correspondiente al punto L
1
es menor que el de A
correspondiente a L
2
. Supongase que la funcion de transferencia de la parte lineal
G(j) no posee polos inestables.
Vamos a analizar primero la estabilidad del ciclo lmite correspondiente al
punto L
1
. Considerese que el sistema se encuentra inicialmente operando en el
punto L
1
, con un ciclo lmite de amplitud A
1
y cuya frecuencia en
1
. Debido a
una peque na perturbacion, la amplitud de la se nal de entrada al sistema no lineal
se incrementa ligeramente, y el punto de operacion del sistema se mueve de L
1
a
L

1
. Puesto que el nuevo punto L

1
se encuentra a la derecha de la curva G(j), de
acuerdo con el criterio de Nyquist ampliado que se ha visto en la seccion 13.3.1,
el sistema es inestable, en este punto de operacion, y las amplitudes del sistema
tienden a crecer. Por consiguiente, el punto de operacion seguira creciendo a lo
largo de curva 1/N(A, ) hasta el punto L
2
. Por otra parte, si el sistema se
perturba de modo que la amplitud A decrece, entonces el punto de operacion se
movera al punto L

1
. En este caso el punto L

1
queda a la izquierda de G(j) y
Sistemas no lineales 305
el criterio de Nyquist ampliado garantiza la estabilidad del sistema, por lo que
las amplitudes tenderan a decrecer y el punto de operacion se alejara cada vez
mas del punto de equilibrio L
1
. De todo lo anterior se desprende que una ligera
perturbacion destruye la oscilacion en el punto L
1
y que, por consiguiente, que
este ciclo lmite es inestable. Un analisis similar puede desarrollarse para el punto
L
2
con la conclusion de que ciclo lmite en ese caso es estable.
El anterior razonamiento no es del todo convincente, y debe considerarse como
una forma intuitiva de presentar un resultado que, por otra parte es correcto,
como se vera a continuaci on.
Una forma ma as rigurosa de abordar el estudio de la estabilidad de las os-
cilaciones es el siguiente. Sea x = Ae
jt
el primer armonico de la oscilacion
automantenida que se perturba ligeramente hasta que su amplitud toma el valor
A + A y su frecuencia + . Despues de la perturbacion, x(t) ya no es
una funcion periodica, sino que posee un peque no amortiguamiento , positivo o
negativo. Es decir, despues de la perturbacion la se nal se convierte en:
x(t) = (A + A)e
t
e
j(+)t
(A + A)e
j(++j)t
(13.29)
Por otra parte, la expresion (13.26) se puede escribir
X(A, ) + jY (A, ) = 0 (13.30)
agrupando los terminos correspondientes a sus partes real e imaginaria. Por otra
parte, la soluciono(13.29) debe satisfacer tambien la anterior ecuacion dando lugar
a:
X(A + A, + + j) + jY (A + A, + + j) = 0 (13.31)
Desarrollando en serie de Taylor esta expresion, y tomando u unicamente los
terminos de primer orden en A, y , se tiene:
X

+
X
A
A
Y

= 0
Y

+
Y
A
A +
X

= 0
Eliminando :

2
+

X
A
Y


Y
A
X

A
Sistemas no lineales 306
Para que la oscilacion sea estable es necesario que y A sean del mismo
signo, lo que exige que:

X
A
Y


Y
A
X

> 0 (13.32)
En el caso de una no linealidad uniforme se tiene,
N(A, )G(j) + 1 = 0
Haciendo
G(j) = U() + jV ()
C(A) =
1
N(A)
= P(A) + jQ(A)
se tiene
X(A, ) = U() P(A)
Y (A, ) = V () Q(A)
Por lo que la expresion (13.32) se escribe en este caso

Q
A
U


P
A
V

> 0
El primer miembro de esta desigualdad es un producto vectorial lo que puede
escribirse
dG(j)
d

dC(A)
dA
> 0
Este producto vectorial permite la interpretacion geometrica que se muestra en
la gura 13.21. De acuerdo con ella, un ciclo limite sera estable si recorriendo
G(j) en el sentido de las crecientes, en el punto de corte con C(A), se deja a
la izquierda el sentido de las A crecientes, en la curva de C(A) = 1/N(A).
gura: Criterio de estabilidad de ciclos llimite.
De este modo se ha demostrado con rigor el resultado que previamente se
haba obtenido por consideraciones un tanto laxas con respecto al criterio de
Nyquist.
Sistemas no lineales 307
G(s)
r = 0 +
-
Figura 13.22: Sistema con un rele y realimentacion.
Ejemplo
Sea el sistema realimentado de la gura 13.22, que incluye un rele en la cadena
directa. Supongamos, en primer lugar, que la funcion de transferencia de la parte
lineal es:
G
1
(s) =
K
s(s + 2)
Se trata de estudiar las posibles oscilaciones del sistema y su estabilidad.
Recordando la expresion (13.20) se tiene que la funcion descriptiva de un rele
viene dada por
N(A) =
4M
A
En este caso se supone que M = 1.
Seg un lo que se ha visto, el sistema sera oscilatorio si existe una solucion a la
ecuacion
G
1
() =
1
N(A)
Esta ecuacion, en este caso, conduce a
K
j(j + 2)
=
A
4
Es decir
4K = Aj(j + 2)
Igualando sus partes reales e imaginarias se tiene:
4K = A
2
2Aj = 0
Sistemas no lineales 308
De donde se desprende que = 0, y por lo tanto el sistema no oscilara, pues no
existe ninguna frecuencia para la que se tenga una solucion oscilatoria.
A la misma conclusion se llega empleando metodos gracos, y comprobando
que la representaci on graca de la funcion de transferencia de la parte lineal y de
la funcion descriptiva solo se cortan en el origen.
Supongamos ahora que la ecuacion de la parte lineal es
G
2
(s) =
K
s(s + 2)(s + 5)
En ese caso la ecuacion de oscilacion se convierte en
K
j(j + 2)(j + 5)
=
A
4
es decir
4K = Aj(j + 2)(j + 5) = 7A
2
+ Aj(
3
10)
Con lo que igualando partes reales e imaginarias se tiene
4K = 7A
2

3
10 = 0
Por lo tanto, en este caso el sistema oscila con una frecuencia =

10 y una
amplitud A = 2K/35.
Para estudiar la estabilidad del oscilador se recurre al diagrama de Nyquist
que se muestra en la gura 13.23. El punto de oscilacion corresponde al punto
P de esta gura. Para estudiar la estabilidad del ciclo lmite, supongamos, en
primer lugar, una perturbacion que haga que la entrada al elemento no lineal se
incremente a un nuevo valor, de modo que el punto de operacion se desplace a P

.
Puesto que P

se encuentra en la region de operacion estable, la amplitud de la


entrada al elemento no lineal tiende a decrecer y por tanto el punto de operacion
se mueve de nuevo a P. De forma analoga, si la perturbacion hace decrecer la
amplitud de la entrada al sistema no lineal entonces se produce un desplazamiento
del punto de operacion a P

, que se encuentra situado en la region de operacion


inestable. La amplitud de la entrada, en este caso, se incrementa de modo que
el punto de operacion vuelve de nuevo a P. Por consiguiente el sistema tiene un
ciclo lmite estable en P.
Sistemas no lineales 309
Im
A
G
2
(j)
Re
P P P

Figura 13.23: Estudio de la estabilidad de un sistema no lineal con un rele.


13.3.6 Fiabilidad del analisis mediante funciones descrip-
tivas
Cuando se emplea el metodo de la funcion descriptiva conviene no olvidar nunca
el caracter aproximado de esa funcion, lo que conduce a resultados que tienen
tambien una naturaleza aproximada. Este caracter aproximado afecta no solo a
los valores numericos de las amplitudes y frecuencias de las oscilaciones de los
ciclos lmites, sino tambien a la propia existencia de estos.
Conviene recordar una de las hipotesis sobre las que esta basado el metodo:
el caracter de ltro paso bajo del sistema lineal. Ademas, la propia expresion
(13.27) puede ser sensible a las aproximaciones que comporta el metodo. Con
caracter general se puede decir que las conclusiones del metodo seran tanto mas
solidas cuanto mas neta sea la intersecci on de las curvas que representan la parte
lineal y la inversa de la parte no lineal en la resolucion graca del metodo. En la
gura 13.24 se muestran dos situaciones extremas posibles. En la gura 13.24a se
presenta un caso en el que el sistema muestra una gran sensibilidad, lo que hace
temer que las conclusiones del metodo se puedan ver fuertemente afectadas.
Por otra parte, la gura 13.24b muestra un caso en el que las conclusiones son
altamente ables. Cabe decir, que cuanto mas perpendicular es la interseccion
entre las curvas G(j) y 1/N(A, ), mas ables son los resultados del metodo.
Sistemas no lineales 310
a)
b)
Figura 13.24:
Sistemas no lineales 311
13.4 Criterios de estabilidad relativos a la de-
scripcion interna
13.4.1 Teora de Lyapunov
El estudio de la estabilidad de los sistemas en torno a los puntos de equilibrio se
puede hacer con gran sencillez y elegancia con ayuda de la teora de Lyapunov.
La utilidad del metodo de Lyapunov reside en el hecho de que su teora establece
una condicion suciente para la estabilidad de un sistema dinamico. El establec-
imiento de esta suciencia consiste en la determinacion de una funcion de energa,
llamada funcion de Lyapunov, la cual puede determinarse sin el conocimiento
explcito de la solucion de la ecuacion diferencial del sistema.
13.4.2 Un ejemplo introductorio
Sea el sistema de la gura 13.25, constituido por una masa (m = 1), que se
desplaza sobre una lnea recta, y que esta unida a una pared por medio de un
resorte y de un amortiguamiento. Se supone que el resorte y el amortiguamiento
son no lineales. El resorte ejerce una fuerza k(x) que depende del desplazamiento
x de la masa de la posicion de equilibrio. La forma de k(x) se representa en la
gura 13.26. El amortiguador ejerce una fuerza proporcional al valor instant aneo
de la velocidad dx/dt de la masa, de manera que el factor de proporcionalidad
este dado por h(x). El balance de fuerzas sobre el sistema conduce a la siguiente
ecuacion.
d
2
x
dt
2
+ h(x)
dx
dt
+ k(x) = 0 (13.33)
Esta ecuacion puede escribirse, empleando las variables de estado x
1
= x y
x
2
= dx/dt, como sigue,
x
1
= x
2
x
2
= k(x
1
) x
2
h(x
1
) (13.34)
La energa total del sistema V esta formada por la energa cinetica de la masa
en movimiento y la energa potencial almacenada en el resorte, y viene dada por,
V (x
1
, x
2
) =
x
2
2
2
+

x
1
0
k(x
1
)dx (13.35)
Sistemas no lineales 312
k(x)
h(x)
x
Figura 13.25: Sistema formado por una masa unida a un soporte
De la observacion de la anterior expresion se desprende que V satisface las dos
condiciones matematicas siguientes:
V (x) > 0 para x = 0
V (0) = 0 (13.36)
lo que, dicho en palabras, signica que la energa del sistema es siempre positiva
excepto cuando el sistema esta en reposo.
Interesa ahora averiguar como evoluciona la energa del sistema con el tiempo.
Para ello se determina la derivada total de V con respecto al tiempo que resulta
ser,
dV
dt
=
V
x
1
dx
1
dt
+
V
x
2
dx
2
dt
(13.37)
de donde se obtiene, teniendo presente 13.34 y 13.35,
dV
dt
= k(x
1
)x
2
+ x
2
[k(x
1
) x
2
h(x
1
)] = x
2
2
h(x
1
) (13.38)
Se supondra que h(x) > 0 para todo x. Fsicamente, ello representa un amor-
tiguamiento positivo, es decir, que la fuerza que ejerce el amortiguador se opone
siempre al movimiento.
En consecuencia, dV/dt es negativa, excepto en los puntos en donde la veloci-
dad sea nula en los cuales dV/dt es, a su vez, nula. En consecuencia, la energa del
sistema no puede aumentar ni puede permanecer constante excepto en el estado
de equilibrio; por consiguiente, la energa debe siempre decrecer hasta alcanzar el
estado de equilibrio, en donde permanece constantemente igual a cero. Observese
que lo que sucede es que el sistema pierde progresivamente su energa, suma de
la cinematica y la potencial, en un proceso disipativo debido al amortiguamiento
Sistemas no lineales 313
k(x)
x
Figura 13.26: Fuerza estatica que ejerce el soporte
V
1
V
2
V
3
V
3
> V
2
> V
1
Figura 13.27: Las trayectorias cortan transversalmente las curvas equipotenciales
Sistemas no lineales 314
representado por h(x). Si no existiese este amortiguamiento, y fuese h = 0,
entonces en la expresion (13.38) se tendra dV/dt = 0.
Para el caso de que el resorte y el amortiguador sean lineales, se tendra que
k(x) = kx y h(x) = h, en donde k y h son constantes. En tal caso 13.35 se
convierte en,
V (x
1
, x
2
) =
kx
2
1
+ hx
2
2
2
(13.39)
La evoluci on del sistema puede, en este caso, ser objeto de una interpretacion
geometrica. La evolucion de las variables de estado x
1
y x
2
pueden interpretarse
gracamente en un plano llamado el plano de estado. En este plano las supercies
V = const, dan lugar a elipses, tal como se indica en la gura 13.27. La evoluci on
del sistema, es decir, una solucion de la ecuacion 13.33, se representa en el plano
de estado por medio de una trayectoria, tal como la que se indica en la gura
13.27. Puesto que la energa debe siempre decrecer, la trayectoria debe atravesar
las elipses desde el exterior hacia el interior. De este modo, la trayectoria se
aproxima progresivamente al origen, que es el estado de equilibrio.
Debe notarse que las conclusiones relativas a la estabilidad del sistema, a un
en el caso de que el resorte y el amortiguador sean no lineales, se obtienen sin
necesidad de resolver la ecuacion diferencial 13.33. Es decir, de la observaci on de
la expresion 13.38 se concluye que siempre que el amortiguamiento sea positivo,
el sistema evolucionara hacia una posicion de equilibrio.
Este ejemplo muestra la esencia del metodo de Lyapunov, el cual consiste en
la determinacion de una funcion, que juega el mismo papel que la funcion V (t)
en este ejemplo, y en el estudio de la evolucion con el tiempo de la misma. En
las secciones siguientes se estudia con detenimiento este metodo.
13.4.3 Nocion de estabilidad en el sentido de Lyapunov
Antes de proceder al estudio de la estabilidad de un sistema representado por su
descripcion interna, conviene introducir las siguientes deniciones:
1. Estado de equilibrio
Un estado x
e
de un sistema dinamico se dice que es un estado de equilibrio
si,
x
e
= (t, t
0
, x
e
, 0) (13.40)
Sistemas no lineales 315
para alg un t
0
y para todo t > t
0
.
La anterior denicion indica que si el sistema se encuentra en el estado de
equilibrio y no se le aplica ninguna se nal de entrada, permanece indenida-
mente en dicho estado. Formalmente, un estado de equilibrio es una solucion
del sistema de ecuaciones,
x
e
= (t, t
0
)x
e
(13.41)
Es claro que el estado 0 es un estado de equilibrio de un sistema dinamico.
2. Estabilidad en el sentido de Lyapunov
Un estado de equilibrio x
e
se dice estable en el sentido de Lyapunov si, y
solo si, para todo n umero positivo existe un n umero positivo () tal que,
(| x
0
x
e
| ) ((t, t
0
, x
0
, 0) | )
para un cierto valor de t
0
y para todo t > t
0
.
De una manera intuitiva se puede decir que un estado de equilibrio x
e
es
estable en el sentido de Lyapunov si la trayectoria del estado a partir de
un estado sucientemente cercano a x
e
no se separa signicativamente del
estado de equilibrio. En la 13.28 se ilustra el concepto de estabilidad en el
sentido de Lyapunov.
3. Estabilidad asint otica en el sentido de Lyapunov
Un estado de equilibrio x
e
se dice que es asint oticamente estable, si es
estable en el sentido de Lyapunov, y ademas todas las trayectorias del estado
que se inicien sucientemente cerca de x
e
convergen a x
e
cuando t .
Formalmente se puede interpretar este resultado como sigue.
Para todo n umero real > 0, existe una constante real > 0 tales que les
corresponde un n umero real T(, ) > 0 tal que,
[| x
0
x
e
| ] [| (t, t
0
, x
0
, 0) x
e
| ] (13.42)
para todo t > t
0
+ T.
13.4.4 Teorema de Lyapunov
Antes de proceder a enunciar el teorema de Lyapunov conviene introducir el
concepto de funcion denida positiva.
Sistemas no lineales 316

V (x) = k
x
0
Figura 13.28: Estabilidad en el sentido de Liapunov
Una funcion escalar V (x), de n variables, se dice que es denida positiva en
una region R alrededor del origen si,
1. V (x) es continuamente diferenciable en IR.
2. V (0) = 0.
3. V (x) > 0 para todo x = 0 perteneciente a IR.
Si la condicion (3) de la denicion anterior se cambia a V (x) 0 para todo
x perteneciente a R, entonces se dice de V (x) que es positiva semidenida. Si
V (x) < 0, entonces V (x) es denida negativa; y, por ultimo, si V (x) 0 entonces
V (x) se dice semidenida negativa.
Con la ayuda de estos conceptos se puede proceder a enunciar el siguiente
teorema, debido a Lyapunov.
Teorema
El estado de equilibrio x
e
= 0 de un sistema autonomo es estable si
existe una funcion denida positiva V (x), tal que su derivada total
con relacion al tiempo dV (x)/dt a lo largo de toda trayectoria del
sistema, es semidenida negativa.
Sistemas no lineales 317
Demostracion
Una funcion V (x) tal que satisfaga las condiciones del teorema anterior, recibe
la denominacion de funcion de Lyapunov.
La existencia de una funcion de Lyapunov garantiza la estabilidad de un
sistema. En efecto, considerese el espacio bidimensional que se muestra en la
gura 13.28. Considerese ademas, sin perdida de generalidad, que el origen es un
estado de equilibrio, cuya estabilidad se quiere analizar. Para que el sistema sea
estable, debe demostrarse que dado un cierto > 0, entonces existe > 0 tal que
(| x
0
|< ) (| (t, t
0
, x
0
, 0) |< ) (13.43)
para todo t > t
0
. Sea tal como se muestra en la gura 13.28. Puesto que existe
una funcion de Lyapunov V (x), esta funcion sera tal que V (x) > 0 para todo
x = 0.
Considerese el contorno de V (x) = k, para todo x . Se elige un valor de
tal que sea la menor distancia entre el estado de equilibrio y la curva V (x) = k.
Considerese cualquier x
0
situado en el interior del circulo denido por el radio .
Se tendra que V (x
0
) < k.
El anterior teorema puede modicarse para el caso de la estabilidad asint otica,
sencillamente cambiando la condicion de que

V (x) sea semidenida negativa,
por la de que sea denida negativa. La demostracion del teorema, con esta
modicacion, es muy simple.
Ejemplo
Considerese el sistema no-lineal descrito por ,
x
1
= x
2
x
1
(x
2
1
+ x
2
2
)
x
2
= x
1
x
2
(x
2
1
+ x
2
2
)
Si se adopta
V (x) = x
2
1
+ x
2
2
Se tendra

V (x) = 2(x
2
1
+ x
2
2
)
2
La cual es negativa excepto para x
1
= x
2
= 0. Es decir,

V es decreciente a lo
largo de cualquier solucion y, por lo tanto, V es una funcion de Lyapunov. Se
concluye que el sistema es asintoticamente estable.
Sistemas no lineales 318
13.4.5 Aplicacion del metodo de Lyapunov a sistemas li-
neales
Supongase un sistema caracterizado por la terna (A, b, c). Se trata de estable-
cer criterios que permitan discernir si un sistema sera estable o no a partir del
conocimiento de las matrices que constituyen la anterior terna.
Para un sistema lineal, la transicion entre estados puede descomponerse en
una transicion con entrada nula, y una transicion a partir del estado nulo, de
acuerdo con la siguiente expresion:
x(t) = (t
1
, t
0
, x
0
, u) = (t
1
, t
0
, x
0
, 0) + (t
1
, t
0
, 0, u) (13.44)
Ello es una consecuencia inmediata de la propiedad de superposicion. Para el
estudio de la estabilidad tiene un gran interes la anterior descomposicion. De he-
cho, se procede a estudiar por separado la estabilidad de cada uno de los terminos
de la expresion 13.44. Combinando los resultados de estabilidad de cada una de
las partes, se obtiene la estabilidad del sistema.
Sea x
e
un estado de equilibrio. Se puede escribir,
x(t) x
e
= (t) (x
0
x
e
)
= e
At
(x
0
x
e
) (13.45)
y deniendo x = x x
e
se tiene que:
x(t) = e
At
x(0) (13.46)
La estabilidad en el sentido de Lyapunov tal como se ha denido anterior-
mente, exige que [x(t)[ < k, para todo t. De la observaci on de la expresion
13.46, se tiene que el que [x(t)[ < k es equivalente a que | e
At
|< k, en donde
| e
At
| representa la norma de la matriz e
At
.
Por otra parte se sabe que A se puede escribir,
A = P A P
1
(13.47)
en donde P es una matriz no singular y A es la forma de Jordan de la matriz A.
Es sabido que,
e
At
= Pe
At
P
1
(13.48)
Sistemas no lineales 319
luego, de las propiedades de la norma de una matriz, se tiene que,
| e
At
|=| P | | e
At
| | P
1
| (13.49)
De la expresion (13.49) se desprende el hecho de que | e
At
| este, a su vez,
acotada. Por lo tanto el estudio de las condiciones que debe cumplir | e
At
| para
que este acotada, se puede reducir al de | e
At
|.
Ahora bien e
At
esta acotada si y solo si lo estan todos los elementos de esa
matriz. Estos elementos son de la forma t
k
e

i
t
en donde
i
=
i
+ jw
i
es un
autovalor de A. Si
i
es negativo, es inmediato que t
k
e

i
t
esta acotado solo si
k = 0, es decir, el autovalor imaginario puro es un cero simple del polinomio
mnimo de A.
Teorema
El estado de reposo de x = Ax, considerado como estado equilibrio, es
asintoticamente estable si y solo si todos los autovalores de A tienen
la parte real negativa.
Demostracion
Siguiendo la misma lnea de la demostracion del teorema anterior, se tiene
que el estado de reposo sera asint oticamente estable, si ademas de | e
At
| ser
acotada, se exige que e
At
tienda a cero cuando t . Razonando como se hizo
en la demostracion del anterior teorema se tiene que ello solo sera posible si todos
los autovalores de A tienen la parte real negativa.
Para estudiar la estabilidad de la respuesta del sistema a partir del reposo,
debe recordarse que la respuesta de un sistema a partir del reposo viene dada
por:
y(t) =

t
t
0
g(t, ) u() d (13.50)
Por otra parte, la respuesta de un sistema a una entrada nula, viene dada por
la solucion del sistema de ecuaciones diferenciales siguiente,
x = Ax (13.51)
Sistemas no lineales 320
a partir de un estado inicial arbitrario. Esta respuesta viene dada por,
x(t) = (t, t
0
; x
0
, 0) = (t, t
0
)x
0
(13.52)
Para estudiar las aplicaciones del metodo de Lyapunov al estudio de la es-
tabilidad de sistemas lineales, estacionarios, conviene introducir previamente la
nocion de matriz denida positiva.
Una matriz Q se dice denida positiva si la forma cuadratica x
T
Qx es positiva
denida. Se escribe entonces Q > 0.
De forma analoga se dene una matriz semidenida positiva, denida negativa
y semidenida negativa (y se escribe Q 0, Q < 0, y Q 0, respectivamente).
Para determinar si una matriz Q es denida positiva , se aplica el criterio de
Sylvester, el cual establece que la matriz Q es denida positiva si se cumple que
q
11
> 0, det

q
11
q
12
q
21
q
22

> 0, det

q
11
q
12
q
13
q
21
q
22
q
23
q
31
q
32
q
33

> 0,
Considerese un sistema lineal autonomo,
x(t) = Ax(t) (13.53)
Para estudiar si el origen es un estado de equilibrio asintoticamente estable,
se establece el siguiente teorema.
Teorema
Si el sistema (13.53) es asintoticamente estable, entonces para toda
matriz denida positiva P la ecuacion
A
T
Q + QA = P (13.54)
tiene una solucion ( unica) Q denida positiva.
Inversamente, si para una matriz P arbitraria denida positiva, la
ecuacion (13.54) tiene una solucion Q denida positiva, entonces el
sistema (13.53) es asintoticamente estable.
Sistemas no lineales 321
Demostracion
1. Necesidad
Supongase que 13.53 es asintoticamente estable. Entonces para cualquier
P > 0 se dene Q como,
Q =


0
e
A
Pe
A
d
que esta completamente denida si A es asint oticamente estable. En tal
caso
A
T
Q + QA =

A
T
e
A
T

Pe
A
+ e
A
T

Pe
A
A

d
=


0
d

e
A
T

Pe
A

= P
Es decir, si el sistema es asintoticamente estable para cualquier P > 0 existe
Q tal que satisface (13.54).
2. Suciencia
Supongase que para un cierto P > 0, la expresion (13.54) tiene una solucion
Q > 0. Entonces se dene la funcion de Lyapunov
V (x) = x
T
Qx
cuya derivada total es
dV
dt
(x) = x
T
Qx + x
T
Q x
= x
T
A
T
Qx + x
T
QAx
= x
T
Px < 0
es decir, el sistema es asintoticamente estable.
Puesto que la matriz P es arbitraria aunque simetrica, en las aplicaciones
practicas se hace P = I.
Ejemplo
Sistemas no lineales 322
Supongamos que el sistema de la expresion (13.33) se adopta en forma lineal
y se hace h = 1 y k = 2. Se tiene entonces el sistema lineal siguiente:
x + x + 2x = 0
cuya descripcion interna, haciendo x = x
1
y x = x
2
viene dada por:
x
1
= x
2
x
2
= 2x
1
x
2
El estado de equilibrio es el origen x = 0. Se trata de estudiar la estabilidad
de este equilibrio empleando el metodo que se acaba de estudiar. Haciendo P = I
se tiene que la ecuacion (13.54) se convierte en,
A
T
Q + QA = I
la cual, particularizando los valores de A, se convierte en:

0 2
1 1

q
11
q
12
q
12
q
22

q
11
q
12
q
12
q
22

0 1
2 1

1 0
0 1

en donde se ha tenido en cuenta que q


21
= q
12
. La anterior ecuacion se puede
escribir en forma de un sistema de ecuaciones en q
11
, q
12
y q
22
, las cuales resultan
ser las siguientes:
4q
12
= 1
q
11
q
12
2q
22
= 0
2q
12
2q
22
= 1
Estas ecuaciones admiten la solucion
q
11
=
7
4
q
12
=
1
4
q
22
=
3
4
por lo tanto,
Q =

7/4 1/4
1/4 3/4

Esta matriz, aplicando el criterio de Sylvester, resulta ser denida positiva. De


ello se concluye que el sistema es asint oticamente estable en torno al origen. La
funcion de Lyapunov correspondiente es
V (x) =
7
4
x
2
1
+
1
2
x
1
x
2
+
3
4
x
2
2
Sistemas no lineales 323
y

V viene dada por,

V = x
2
1
x
2
2
que es denida negativa, luego el sistema es estable.
Observese que si se adoptase la energa como funcion de Lyapunov (recordando
la expresion (13.35)) se tendra
V = x
2
1
+ x
2
2
y que

V = x
2
2
Lo que se ha querido es mostrar una funcion de Lyapunov general, que no se
corresponda con la energa.
Por otra parte, este ejemplo solo pretende ilustrar el metodo anterior. Estaa
claro que la determinacionode la estabilidad del equilibrio se hace de forma mas
sencilla calculando los autovalores del sistema y comprobando que los dos tienen
parte real negativa.
13.5 Construccion de funciones de Lyapunov con
formas cuadraticas
Sea el sistema no lineal, con equilibrio en el origen:
x = f(x) f(0) = 0 (13.55)
Supongase que la dependencia funcional de f con relacion a las variables x
1
, x
2
, ...x
n
,
se puede descomponer aditivamente; es decir,
f
i
=
n

j=1
f
ij
(x
j
) (13.56)
Este supuesto puede parecer restrictivo, pero en realidad esta implcito en el
tipo de sistemas considerados hasta ahora, en los que se tenan no linealidades
dependientes de una unica variable conectadas entre s mediante modulos aditivos.
En los ejemplos que veremos mas abajo, quedara claro este hecho.
La expresion (13.56) puede escribirse
f
i
=
n

j=1
f
ij
(x
j
)
x
j
x
j
Sistemas no lineales 324
vamos a hacer la hipotesis adicional de que existe el lmite
lim
x
j
0
f
ij
(x
j
)
x
j
lo cual signica que cada funcion f
ij
(es decir, cada caracterstica no lineal del
sistema) tiene en el origen una pendiente no nula. Todas las caractersticas que
se han visto hasta ahora cumplen esta propiedad. En consecuencia, la expresion
(13.55) puede escribirse
x = F(x)x (13.57)
siendo
F(x) =

f
ij
(x
j
)
x
j

observese que (13.57) recuerda formalmente a un sistema lineal como el de la


expresion 17.20, con la diferencia de que aqu la matriz A depende del estado x
(por eso el sistema es no lineal).
Vamos a ver que gracias precisamente a la forma que tiene la expresion (13.57)
es posible ampliar el metodo aplicado a los sistemas lineales, a esta clase de
sistemas no lineales. En efecto, considerese una funcion de Lyapunov de la forma:
V (x) = x
T
Qx Q
T
= Q
derivando esta funcion de Lyapunov con respecto al tiempo, y recordando (13.57),
se tiene

V (x) = x
T
Qx + x
T
Q x
= x
T

F
T
(x)Q + QF(x)

x
De donde se concluye que si Q es denida positiva y si P, denida por
P(x) =

F
T
(x)Q + QF(x)

es tambien denida positiva, entonces se cumplen las condiciones sucientes para


garantizar que el sistema (13.55) es asint oticamente estable.
Ejemplo
Sea el sistema representado en la gura 13.29. Este sistema esta formado por
una parte lineal y un bloque no lineal, que posee la caracterstica h. Se supone
que la referencia es u = 0, y que la caracterstica es tal que h(0) = 0. Se trata de
estudiar su estabilidad.
Sistemas no lineales 325
5
x
2
-
+
-
+ u
-
+ x
1
y
z = h(y)
Figura 13.29:
Para ello, en primer lugar se escribe su descripcion interna
x
1
= x
1
+ 5x
2
x
2
= h(x
1
) x
2
+ u
que, a su vez, se puede reescribir de la forma (13.57).

x
1
x
2

1 5

h(x
1
)
x
1
1

x
1
x
2

0
1

u (13.58)
siendo
F(x) =

1 5

h(x
1
)
x
1
1

(13.59)
Puesto que u = 0 la expresion (13.58) es de la forma (13.57).
Se adopta la siguiente funcion de Lyapunov
V (x) =

x
1
x
2

q
1
0
0 q
2

x
1
x
2

Recordando la expresion (13.5) se tiene


P(x) =

F
T
(x)Q + QF(x)

2q
1
q
2
h(x
1
)
x
1
5q
1
q
2
h(x
1
)
x
1
5q
1
2q
2

La estabilidad del sistema (13.57) estara garantizada siempre que P(x) sea denida
positiva. Para ello se requiere que
q
1
> 0
Sistemas no lineales 326
h(x)
Figura 13.30:
4q
1
q
2

q
2
h(x
1
)
x
1
5q
1

2
> 0
La segunda de estas desigualdades requiere un analisis detenido. Supongase que
los parametros q
1
y q
2
toman dos valores concretos; por ejemplo, q =
1
4
y q
2
= 1.
En este caso la segunda desigualdad se convierte en
1

h(x
1
)
x
1

5
4

2
> 0
que conduce a
9
4
>
h(x
1
)
x
1
>
1
4
Esta desigualdad se puede interpretar gracamente como se hace en la gura
13.30. De acuerdo con esta gura la caracterstica del sistema no lineal H debe
estar comprendida entre las rectas de pendientes 9/4 y 1/4. Si la caracterstica
H cumple esta condicion el sistema tiene garantizada su estabilidad.
Esta forma de establecer el criterio de estabilidad, mediante la denicion de
un sector en el que se conna la caracterstica no lineal del sistema tiene un gran
interes en las aplicaciones y aporta un instrumento para caracterizar la estabilidad
de sistemas no lineales de gran interes y posibilidades.
Sistemas no lineales 327
13.5.1 Metodo de Krasovkii
El metodo de Krasovkii permite determinar la funcion de Lyapunov de un sistema
no lineal de la forma
x = f(x) f(0) = 0 (13.60)
tal que
f
i
x
j
existe en la region de interes. De acuerdo con este metodo se adopta
como funcion de Lyapunov
V (x) = | x|
2
= f
T
(x)f(x) 0 (13.61)
En tal caso se tiene

V =

f
x
x

T
f(x) + f
T
(x)
f
x
x
= f
T
(x)[F
T
(x) + F(x)]f(x)
= f
T
(x)P(x)f(x)
siendo
F(x) =
f
x
(13.62)
y
P(x) = [F
T
(x) + F(x)] (13.63)
Si la matriz P(x) = F
T
(x) +F(x) es denida positiva entonces se cumplen las
condiciones sucientes para que (13.60) sea estable. Para que sea asintoticamente
estable se requiere que P(x) sea denida positiva. Observese que si P es denida
positiva, entonces

V < 0, ya que esto ultimo es cierto para cualquier x y por
tanto paraf.
Ejemplo
Sea el sistema dinamico
x
1
= ax
1
+ x
2
x
2
= x
1
x
2
x
3
2
tal que a > 1. Su unico equilibrio en x = 0.
Sistemas no lineales 328
De acuerdo con (13.62) se tiene que
F(x) =

a 1
1 1 3x
2
2

y recordando (13.63)
P(x) =

2a 2
2 2 + 6x
2
2

para que P(x) sea denida positiva se tiene que cumplir


a > 0
y ademas
4a + 12ax
2
2
4 > 0
Puesto que a > 1 las dos desigualdades se cumplen y el sistema es asint oticamente
estable.
Ejemplo
Sea el sistema dinamico de la gura 13.5.1, en el que se tienen dos se nales de
entrada u
1
y u
2
, dos se nales de salida y
1
y y
2
, y dos no linealidades cuyas car-
actersticas vienen dadas por g
1
y g
2
. Se trata de estudiar la estabilidad de este
sistema.
Las ecuaciones del sistema dinamico correspondiente resultan ser
x
1
= g
1
(x
1
) + g
2
(x
2
) + u
1
x
2
= x
1
ax
2
+ u
2
Se supone que u
1
= u
2
= 0 con lo que el sistema anterior se convierte en un
sistema autonomo. Se supone ademas que g
1
(x
1
) = 0 y g
2
(x
2
) = 0. Recordando
la expresion (13.62) se tiene
F(x) =


g
1
x
1
g
2
x
2
1 a

Sistemas no lineales 329


u
1
= 0
u
2
= 0
x
1
y
1
y
2
x
2
a
+
-
+
+
+
-
+
+
z
1
= g
1
(y
1
)
z
2
= g
2
(y
2
)
Figura 13.31: Diagrama de bloques de un sistema no lineal.
Con lo que, de acuerdo con (13.63)
P(x) =

2
g
1
x
1

1 +
g
2
x
2

1 +
g
2
x
2

2a

Para que este sistema sea asint oticamente estable se requiere


1. a > 0,
2.
g
1
x
1
> 0,
3. 4a
g
1
x
1

1 +
g
2
x
2

2
> 0.
La condicion 2 se interpreta mediante la gura 13.32 en la que se pone de
maniesto que la caracterstica g
1
debe ser siempre monotona creciente.
Sistemas no lineales 330
La condicion 3 conduce a las regiones de estabilidad que se indican en la gura
13.33.
x
1
pendiente siempre
positiva
g
1
(x
1
)
Figura 13.32: Condicion 2 para la estabilidad del sistema.
-1
g
2
(x
2
)
x
2
a
g
1
x
1
Inestable
Estable
Figura 13.33: Condicion 3 para la estabilidad del sistema.
Tema 14
Introduccion a la optimizacion de
sistemas dinamicos
14.1 Introduccion
La optimizacion es un concepto que se emplea habitualmente en la vida ordinaria.
Cada vez que ante un determinado problema existen m ultiples soluciones, se
adopta aquella que, bajo un cierto punto de vista, se considera la mejor. Este
concepto se puede formalizar, siempre que se puedan denir el conjunto | de
soluciones posibles, y exista una funcion J(u) que permita medir el grado de
bondad de cada una de las soluciones, habida cuenta del punto de vista adoptado.
En lo que sigue, se considerara la mejor solucion aquella para la que la funcion
J(u) adquiera el valor mnimo. En tal caso, el problema de optimizacion puede
expresarse formalmente como el de encontrar el valor u

perteneciente a | tal
que:
J(u

) J(u) u |
La forma del conjunto | de soluciones posibles permite una primera clasicacion
de los problemas de optimizacion.
Los elementos que constituyen el conjunto | pueden ser n umeros reales,
entre los que hay que elegir el valor mas conveniente para que J(u) tome un
valor mnimo. En tal caso, el problema de optimizacion recibe la denomi-
nacion de optimizacion estatica, puesto que se trata de determinar el valor
331
Introduccion a la optimizacion de sistemas dinamicos 332
que debe tomar un cierto parametro, o conjunto nito de parametros, para
que se obtenga la mejor solucion posible.
Los elementos que constituyen el conjunto | pueden ser los valores que
toma una funcion del tiempo u(t) para t [0, T]. En tal caso se tiene la
denominada optimizacion dinamica.
El problema de la optimizacion estatica se reduce al de la determinacion de
los mnimos (o maximos) de una funcion escalar. El problema que se estudiara
aqu es el de la optimizacion dinamica, especialmente en su aplicacion a la teora
del control optimo.
14.2 Optimizacion Estatica.
La optimizacion estatica se reduce a la aplicacion de los metodos de maximos y
mnimos de funciones ordinarias, que vamos a repasar en esta seccion.
14.2.1 Minimizacion de funciones
Sea D un subconjunto de n umeros reales x, dado por D = x [ x
0
< x < x
1
y
sea f una funcion real tal que f : D R. Se dice que f tiene un mnimo local
(relativo) en x

si existe un entorno N de x

tal que
f = f(x) f(x

) 0, x N
en tal caso se tiene,
x = (x x

) > 0, f > 0, =
f
x
> 0
x = (x x

) < 0, f > 0, =
f
x
< 0
Estos conceptos se ilustran en la gura 14.1. Es sabido que la condicion necesaria
para tener un mnimo es:
df
dx
= 0
Mientras que la suciente es:
d
2
f
dx
2
> 0
Introduccion a la optimizacion de sistemas dinamicos 333
f
f
x
1
x
x x
o
x

Figura 14.1: Mnimo de una funcion ordinaria


x
x
x
f
df
dx
d
2
f
dx
2
Figura 14.2: Derivadas sucesivas en un mnimo
Introduccion a la optimizacion de sistemas dinamicos 334
En la gura 14.2 se ilustran gracamente estas condiciones.
Los anteriores resultados se generalizan para funciones multivariables. En
efecto, sea x R
n
, f : R
n
R, (y = f(x
1
, ..., x
n
)). Se supone:
f(x) es continua para todo x.
El vector gradiente
f
x
=

f
x
i

es continuo para todo x.


La matriz hessiana H es continua para todo x
H =


2
f
x
i
x
j

En estas condiciones, la condicion necesaria para un mnimo en x

resulta ser
f
x
= 0
mientras que la suciente es que la matriz hessiana
H =


2
f
x
i
x
j

sea denida positiva en x

.
Restricciones o Ligaduras
Supongase que se trata de minimizar f(x) con la condicion adicional de que el
mnimo este localizado en el subespacio denido por g(x) = 0
g : R
n
R
m
Metodo particular: eliminar m de las variables x
1
, ..., x
n
en g(x) = 0 y sustituir
en f(x). Se tiene entonces una funcion de (nm) variables que se resuelve como
mas arriba. Esto no siempre es posible. En tal caso se emplea el metodo de los
multiplicadores de Lagrange.
Introduccion a la optimizacion de sistemas dinamicos 335
Vamos a considerar el caso en el que n = 2 y m = 1. Es decir, se trata
de minimizar una funcion f(x
1
, x
2
) de dos variables x
1
y x
2
, sometida a una
restriccion g(x
1
, x
2
) = 0. La condicion de mnimo es
df(x) =
f
x
1
dx
1
+
f
x
2
dx
2
= 0
ademas la restriccion g(x
1
, x
2
) = 0 implica que
g
x
1
dx
1
+
g
x
2
dx
2
= 0
Se tiene, formalmente,
dx
2
dx
1
=
f
x
1
f
x
2
=
g
x
1
g
x
2
o sea que las fracciones
f
x
1
f
x
2
y
g
x
1
g
x
2
deben ser proporcionales para un valor de x(t) candidato al mnimo (o maximo).
Sea esta constante de proporcionalidad
=
f
x
1
g
x
1
=
f
x
2
g
x
2
(14.1)
Si se dene la lagrangiana
L(x, ) = f(x) + g(x)
se tiene que
L
x
= 0
es equivalente a (14.1), mientras que:
L

= g = 0
Introduccion a la optimizacion de sistemas dinamicos 336
es la restriccion. En general, para un problema de dimension on n arbitraria, la
lagrangiana se dene:
L(x, ) = f(x) +
T
g(x)
Ejemplo
Determinar un punto, en un espacio tridimensional, que minimice la funcion
f(x
1
, x
2
, x
3
) = x
2
1
+ x
2
2
+ x
2
3
y que este situado en la interseccion de la supercies
x
3
= x
1
x
2
+ 5
x
1
+ x
2
+ x
3
= 1
Se dene la lagrangiana
L = x
2
1
+ x
2
2
+ x
2
3
+
1
(x
1
x
2
+ 5 x
3
) +
2
(x
1
+ x
2
+ x
3
1)
lo que conduce a las ecuaciones para el mnimo
L
x
1
= 2x
1
+
1
x
2
+
2
= 0
L
x
2
= 2x
2
+
1
x
1
+
2
= 0
L
x
3
= 2x
3

1
+
2
= 0
L

1
= x
1
x
2
+ 5 x
3
= 0
L

2
= x
1
+ x
2
+ x
3
1 = 0
La solucion esta formada por los dos equilibrios (2, 2, 1) y (2, 2, 1).
14.3 Introduccion al control optimo
Sea un sistema dinamico descrito por una ecuacion diferencial de la forma:
x = f(x, u) (14.2)
Introduccion a la optimizacion de sistemas dinamicos 337
En donde el punto sobre la x representa su derivada con relacion al tiempo
(
dx
dt
x). El sistema dinamico descrito por la ecuacion anterior debe seguir
una determinada trayectoria a partir del estado x(0), durante un intervalo de
tiempo [0, T]. Se trata de determinar la se nal u(t) que debera aplicarse durante
este intervalo de tiempo para que en su evolucion se minimice el funcional:
J =

T
0
L(x, u, t)dt + S(x(T)) (14.3)
en donde las funciones de penalizacion L(x, u, t) y de coste terminal S(x(T)) son
en general funciones no negativas de x y de u, tales que L(0, 0, t) = 0 y S(0) = 0.
De todas las se nales de mando u(t) | que pueden aplicarse al sistema descrito
por la ecuacion (14.2) durante el intervalo [0, T], existira una u

(t) tal que:


J(u

(t)) J(u(t)) u(t) | (14.4)


La se nal u

(t) recibe la denominacion de se nal de control optima. Esta se nal


constituye una prescripcion del conjunto de valores que debe tomar la se nal de
entrada (de control) u durante el intervalo [0, T].
En algunos problemas interesa en lugar de disponer de la se nal de control
optima u

(t), tener una expresion que permita calcular el valor de la se nal de


entrada u en funcion del estado x en que se encuentre el sistema. Es decir,
determinar una expresion de la forma u

(x). En tal caso se dice que se dispone


de una ley de control optima. La solucion es una solucion realimentada en la que
el valor que toma en cada instante, del intervalo [0, T], por la se nal de entrada u
esta determinada a partir del estado x en que se encuentra el sistema.
Las se nales de entrada u(t) normalmente no pueden exceder unos determina-
dos lmites. Una se nal de entrada (control) que satisfaga unas ciertas restricciones
en el control durante todo el intervalo de operacion (0, T) se denomina una se nal
admisible de control (o control admisible). Se denota por | el conjunto de todos
los valores de la se nal u(t) admisibles. u(t) es admisible si:
u(t) | t [0, T]
Tambien pueden darse restricciones sobre x(t). Una trayectoria del estado x(t)
que satisfaga las restricciones sobre el estado durante todo el intervalo de op-
eracion [0, T] se denomina una trayectoria admisible. Si X denota el conjunto de
los valores admisibles, se dice que x(t) es admisible si:
x(t) X t [0, T]
Los requerimientos sobre el funcionamiento de la planta se representan matematicamente
mediante un criterio o ndice de funcionamiento.
Introduccion a la optimizacion de sistemas dinamicos 338
14.3.1 Ejemplos
El problema del control optimo esta formado basicamente por un sistema dinamico
de la forma (14.2) y por un criterio a optimizar de forma (14.3). Vamos a dedicar
esta seccion a presentar algunos ejemplos de criterios de funcionamiento de la
forma (14.3).
Problema del tiempo mnimo
Se da el tiempo t = 0 y el estado inicial x(0) = x
0
. El estado nal se requiere
que se encuentre en una cierta region S X T. S es el conjunto objetivo (si el
estado nal esta jado de antemano, el conjunto S es una recta).
El objetivo del problema es transferir el estado del sistema desde x
0
a S en
un tiempo mnimo. El criterio de funcionamiento es:
J = T
=

T
0
dt
Problema de la energa mnima
Se trata de transferir el estado de un sistema desde x
0
hasta S con un gasto
mnimo de energa.
Normalmente u
2
(t) es una buena medida del ujo de gasto de energa, de
modo que para minimizar este gasto se puede adoptar el ndice:
J =

T
t
0
u
2
(t)dt
Si el sistema posee varias se nales de control se tiene
J =

T
t
0
u
T
(t)u(t)dt
Para permitir mayor generalidad se puede considerar una matriz denida positiva
R de modo que
J =

T
t
0
u
T
(t)Ru(t)dt
Normalmente R es diagonal (si es denida positiva todos sus elementos son posi-
tivos). Los distintos valores de diag(R) representan el peso relativo que se asigna
a cada variable de control en el gasto de energa.
Introduccion a la optimizacion de sistemas dinamicos 339
Problema del mnimo combustible
La tasa de consumo de combustible suele ser proporcional al empuje por lo que
se puede escribir
J =

T
0
[ u(t) [ dt
(siendo u la tasa de ujo del combustible - empuje del cohete), (o del vehculo
espacial que se esta maniobrando). Si existen varios propulsores
J =

T
0
(k
1
[ u(t) [ +k
2
[ u(t) [ +... + k
m
[ u(t) [)dt
siendo k
i
factores de peso (ponderacion) no negativos.
Problema del regulador del estado
Se trata de transferir un sistema desde un estado inicial x
0
a un estado deseado
x
f
(normalmente el estado de equilibrio del sistema) con un valor mnimo del
valor cuadratico medio del error.
Con relacion a x
f
el valor de x(t) x
f
se puede considerar como el error
instantaneo del sistema.
Si se cambia de coordenadas, de modo que x
f
= 0, entonces x(t) es el mismo
error.
J =

T
0
x
T
(t)x(t)dt
En general
J =

T
0
x
T
(t)Qx(t)dt
siendo Q una matriz real, simetrica, semidenida positiva y constante. La forma
mas simple de Q es
Q = diag [q
i
]
en donde q
i
representa el peso que se asigna a la componente x
i
del vector de
estados a la hora de evaluar su contribuci on a J. Cuanto mayor es q
i
mayor es el
esfuerzo de control dedicado a regular (llevar a cero) a x
i
.
Para minimizar la desviacion del estado nal x(T) del sistema del estado
deseado x
f
= 0, se adopta el ndice
J = x
T
(T)Hx(T)
Introduccion a la optimizacion de sistemas dinamicos 340
siendo H real, simetrica, semidenida positiva y constante.
El ndice conjunto es
J = x
T
(T)Hx(T) +

T
0
x
T
(t)Qx(t)dt
que puede resultar a un insatisfactorio. Es mas realista a nadir un termino que
penalice la accion de control u(t). Se tiene entonces
J = x
T
(T)Hx(T) +

T
0
[x
T
(t)Qx(t) + u
T
(t)Ru(t)]dt
Problema del regulador del estado en tiempo innito
J =


0
[x
T
(t)Qx(t) + u
T
(t)Ru(t)]dt
La restriccion terminal en este caso no es necesaria.
En el problema del regulador del estado se trata de mantener el estado peque no
(lo mas proximo posible a x
f
= 0).
Problema del regulador de la salida
Supuesta ajustada la salida del sistema a un valor de referencia, en una escala,
en que sea y
ref
= 0, se trata de mantener y(t) lo mas proxima posible a cero.
J = y
T
(T)Hy(T) +

T
0
[y
T
(t)Qy(t) + u
T
(t)Ru(t)]dt
Problema del seguimiento (tracking)
Se trata de mantener el estado del sistema x(t) lo mas cercano posible al estado
deseado r(t) en [0, T].
J = e
T
(T)He(T) +

T
0
[e
T
(t)Qe(t) + u
T
(t)Ru(t)]dt
siendo e = x r.
Introduccion a la optimizacion de sistemas dinamicos 341
q
h
V, c
q
1
q
2
c
1
c
2
Figura 14.3: Diagrama de un deposito mezclador.
14.3.2 Ejemplo de ndice de funcionamiento cuadratico
Considerese un mezclador de uidos como el que se muestra en la gura 14.3,
en la que se tiene un esquema elemental de un proceso de mezcla de dos uidos
en un deposito. Este deposito de volumen V y altura h esta alimentado por
los caudales q
1
y q
2
, cada uno de los cuales con concentraci on c
1
y c
2
de un
determinado producto qumico. La concentracion de este producto en el deposito
es c. El deposito evacua por un conducto situado en su parte baja mediante
un caudal q. Se supone que la homogeneizacion de las concentraciones de los
caudales de entrada se produce instantaneamente gracias a la accion de unas
palas batidoras. Se supone, as mismo, que la densidad es constante en el interior
del deposito.
Las ecuaciones del balance de masas son las siguientes:
dv(t)
dt
= q
1
(t) + q
2
(t) q(t) (14.5)
d[c(t)v(t)]
dt
= c
1
(t)q
1
(t) + c
2
(t)q
2
(t) c(t)q(t) (14.6)
El ujo de salida del deposito viene dado por
q(t) = k

h(t) = k

v(t)
a
(14.7)
En donde k es una constante y a es el area del deposito. De modo que v = ha.
Introduccion a la optimizacion de sistemas dinamicos 342
Supongase un estado estacionario de funcionamiento en el que se produce un
equilibrio entre las entradas y salidas del deposito, para los siguientes valores de
los ujos de entrada y salida, as como del volumen en el deposito v
0
y de su
concentracion c
0
.
q
1
(0) = q
10
, q
2
(0) = q
20
, q(0) = q
0
, v(0) = v
0
, c(0) = c
0
Convienen observar que las concentraciones de entrada c
1
y c
2
se establecen en
la etapa anterior del proceso. En estas condiciones de regimen estacionario, las
ecuaciones (14.5, 14.6,14.7) toman la forma:
0 = q
10
+ q
20
q
0
0 = c
1
q
10
+ c
2
q
20
c
0
q
0
q
0
= k

v
0
a
Se trata de determinar las ecuaciones lineales que rigen el comportamiento
del sistema en torno a este estado estacionario en el supuesto de que se trate de
perturbaciones sucientemente peque nas como para justicar la linealizacion.
Conviene observar que el proceso que se esta considerando es un proceso no
lineal; es decir, la ecuaciones que gobiernan su comportamiento son no lineales.
Esta no linealidad tienen un doble origen. Por una parte, la ecuacion (14.6) es no
lineal ya que en ella aparecen producto de variables. Por otra parte, la expresion
(14.7) liga q con v (o con h) mediante una relacion no lineal (la raz cuadrada).
Las variaciones de las distintas variables con respecto a los valores tomados
en regimen estacionario se denotaran mediante un tilde sobre la variable corres-
pondiente. Es decir,
q(t) = q(t) q
0
representa la variacion del caudal q respecto al valor estacionario q
0
. Analogamente
se denen el resto de las variables
v(t) = v(t) v
0
q
1
(t) = q
10
+ q
1
(t)
q
2
(t) = q
20
+ q
2
(t)
c(t) = c
0
+ c(t)
Si las variaciones son sucientemente peque nas, entonces la expresion no lin-
eal (14.7) se puede linealizar en torno al valor correspondiente por regimen esta-
cionario, de acuerdo con
Introduccion a la optimizacion de sistemas dinamicos 343
q(t) q
0
=
k

v(t)
v(t)
[
v=v
0
(v(t) v
0
)
Es decir
q(t) =
k
2v
0

v
0
a
v(t) (14.8)
De este modo la relacion entre la variacion q(t) del caudal con respecto al valor
en regimen estacionario, y la correspondiente al volumen v(t), queda linealizada.
Llevando las deniciones de las variaciones v(t), q
1
(t), q
2
(t) y c(t) a las expresiones
(14.5) y (14.6) y tendiendo en cuenta la denicion del regimen estacionario y
(14.8) se tiene que
d v(t)
dt
= q
1
(t) + q
2
(t)
1
2
q
0
v
0
v(t)
d c(t)
dt
v
0
+ c
0
d v(t)
dt
= c
1
q
1
(t) + c
2
q
2
(t)
1
2
c
0
q
0
v
0
v(t) q
0
c(t)
=
v
0
q
0
Si se escribe
x
1
= v
x
2
= c
u
1
= q
1
u
2
= q
2
y
1
= q
y
2
= c
y
=
v
0
q
0
se tiene que las ecuaciones del sistema dinamico linealizado pueden escribirse de
la forma siguiente:

x
1
x
2

1
2
0
0
1

x +

1 1
c
1
c
0
v
0
c
2
c
0
v
0

u
Sistema dinamico lineal que describe el comportamiento del sistema perturbado
en torno al regimen estacionario.
Introduccion a la optimizacion de sistemas dinamicos 344
Supongase ahora que se trata de establecer un criterio cuadratico como ndice
de funcionamiento de este sistema. Sean las condiciones estacionarias para el
deposito
v
0
= 1500 litros
c
0
= 15 gr-mol/litro
y los correspondientes ujos de entrada son
q
10
= 10 litros/seg.
q
20
= 20 litros/seg.
Se trata de construir un ndice de la forma
J =


0
(x
T
Qx + u
T
Ru)dt
en el que las matrices Q y R son de la forma
Q =

q
1
0
0 q
2

R =

r
1
0
0 r
2

Supongase que se produce una variacion del 1% en torno al valor estacionario,


lo que en volumen corresponde a 15 litros, mientras que 1% de variaci on en
concentracion corresponde a 0,15. Supongase que 1% de cambio en concentracion
se penaliza de la misma manera que un 1% de cambio en volumen. En tal caso
se tendra que
q
1
(15)
2
q
2
(0.15)
2
o lo que es lo mismo
q
2
q
1

100
0.01
Por tanto se tiene que
Q =

0.01 0
0 100

Se procede de forma similar con R. A un 1corresponde 0.1 litros/segundo y un


10,2 litros/segundos. Si ambos terminos deben contribuir por igual al ndice de
funcionamiento se tendra
r
2
(0.2)
2
r
1
(0.1)
2
Es decir
r
2
r
1

0.5
2
y por tanto
R =

2 0
0 0.5

Introduccion a la optimizacion de sistemas dinamicos 345


14.4 Problema general del control optimo
Resumiendo lo anterior se puede decir que el problema del control optimo o de
optimizacion dinamica, consiste en:
un sistema dinamico descrito por una ecuacion diferencial de la forma,
x = f(x, u) (14.9)
en donde x es el vector de estado de dimension n, y u es el vector de
control de dimension m, cuyos valores en todo instante deben tomarse de
un conjunto cerrado u(t) |.
unas condiciones iniciales y nales que normalmente son las siguientes:
el instante inicial 0 y el estado inicial x(0) estan jados.
el estado y el instante nal estan denidos por un par (x(T), T) de la
trayectoria del sistema, que pertenezca a un conjunto dado S XT.
un criterio de funcionamiento dado por un funcional de la forma
J =

T
0
L(x, u, t)dt + S(x(T), T) (14.10)
El problema de optimizacion dinamica consiste en buscar la se nal u(t), t [0, T]
que minimice a J de entre todas las se nales posibles que transeran el sistema de
(0, 0) a (x(T), T).
Observese que en el criterio de funcionamiento de la expresion (14.10) aparece
un termino adicional que no estaba en la expresion (14.3). En los criterios de
funcionamiento del problema del regulador del estado, del regulador de la salida
y del seguimiento, que se han visto en la seccion anterior, aparecan terminos de
esta naturaleza. En el apartado 15.1.3 volveremos sobre este termino.
Para el problema as planteado pueden existir, en principio, dos soluciones de
distinta naturaleza:
u

= u

(t): control en bucle abierto.


u

= u

(x): control en bucle cerrado (ley de control).


Introduccion a la optimizacion de sistemas dinamicos 346
En el primer caso se tiene una se nal u

(t) que se aplica al sistema en el


intervalo [0, T]. La aplicacion de esta se nal se hace sin requerir informacion sobre
la evolucion del estado (en general, del sistema), por lo que se trata de una
se nal de control en bucle abierto. Por el contrario, en el segundo caso se tiene
una solucion al problema del control optimo en la que la se nal de control u

es
funcion, en cada instante de tiempo, del estado del sistema. Se trata, por tanto,
de un control por realimentaci on; es decir, en bucle cerrado.
La solucion del problema de control mas interesante es la segunda, por incluir
la estructura de realimentacion, con las conocidas ventajas que esta estructura
comporta. Sin embargo, como veremos luego, este segundo tipo de soluciones
es considerablemente mas difcil de alcanzar que el primero. De hecho, solo
existe una solucion general para el problema de control en bucle cerrado para
sistemas lineales con criterio cuadratico. Sin embargo, si existe una amplia clase
de problemas que admiten solucion en bucle abierto. Una posible solucion en la
practica es determinar el control en bucle abierto, y linealizar en torno a esta
trayectoria optima, aplicando entonces el control en bucle cerrado.
Para determinar el control en bucle abierto se emplean el calculo de varia-
ciones y el principio del mnimo de Pontriagin. Para la determinacion de la ley
de control optima se aplica la programacion dinamica y las variantes derivadas
de este metodo. Por otra parte, el calculo de variaciones permite la solucion del
problema del control optimo cuando no existen restricciones, mientras que la pro-
gramacion dinamica y el principio del mnimo de Pontriagin permiten incorporar
restricciones en |.
14.5 Calculo de variaciones
El calculo de variaciones es la rama de las matematicas que se ocupa de deter-
minar las trayectorias que minimizan o maximizan un funcional. Conviene que
dediquemos alg un espacio al concepto de funcional.
14.5.1 Funcionales y sus variaciones
Sea X una clase de funciones x(t) denidas en el intervalo [0,t]. Si a toda funcion
x(t) X se asocia, de acuerdo con una regla, un n umero J se dice que en la clase
X esta denido el funcional J y se escribe J = J[x(t)]. La clase X se denomina
campo de denicion del funcional. Para nosotros, la clase de funciones X sera la
Introduccion a la optimizacion de sistemas dinamicos 347
clase de se nales x(t) denidas en el intervalo [0, T]. En la gura 14.5 se ilustra
como a cada se nal x(t) denida en [0, T] corresponde un valor de J, que es un
n umero real.
Ejemplo
Sea X = C[0, T] el conjunto de todas las funciones contnua x(t) denidas en el
intervalo [0, 1] y sea el funcional
J[x(t)] =

1
0
x(t)dt
Es decir J = J[x(t)] es un funcional de x(t), ya que a toda funcion x(t) C[0, T]
le corresponde un valor determinado de J = J[x(t)]. Por ejemplo, si x(t) = 1 se
tiene
J[x(t)] =

1
0
dt = 1
o si x(t) = e
x
, se tiene
J[x(t)] =

1
0
e
x
dt = e 1
2
Ejemplo
Sea X = C
1
[a, b] la clase de funciones x(t) que tiene derivada contnua x en el
intervalo [a, b]. Entonces la funcional
J[x(t)] =

b
a

1 + x
2
dt
tiene una interpretaci on geometrica, ya que representa la longitud del arco de la
curva x = x(t) cuyos extremos son los puntos A (a, x(a)) y B (b, x(b)) .
2
El concepto de funcional tiene un gran interes ya que permite asociar a se nales,
que representan trayectorias y por tanto comportamientos, valores numericos que
sirven para medir determinadas propiedades de esas se nales.
El funcional J[x(t)] se dice que es lineal si satisface las condiciones:
Introduccion a la optimizacion de sistemas dinamicos 348
x
t 0 1
M(1, 1)
Figura 14.4: se nales x(t) = t y x
1
(t) = t
2
.
1. J[cx(t)] = cJ[x(t)],
2. J[x
1
(t) + x
2
(t)] = J[x
1
(t)] + J[x
2
(t)],
en donde c es una constante cualquiera y x
1
(t) X y x
2
(t) X. Por ejemplo, el
funcional
J[x(t)] =

b
a
( x + x)dt
es lineal.
Interesa introducir conceptos que permitan formalizar la proximidad entre
se nales. Se dice que las se nales x(t) y x
1
(t) denidas en el intervalo [a, b] son
cercanas con proximidad de orden nulo si el valor de [x(t) x
1
(t)[, que mide la
distancia entre ellas para cada valor de t, es peque no en todo el intervalo [a, b].
Desde un punto de vista geometrico esto signica que las dos se nales toman
valores cercanos en cada instante de tiempo del intervalo considerado.
Analogamente, se dene la distancia entre dos se nales x(t) y x
1
(t) (a t b)
como el n umero no negativo igual al maximo del modulo [x
1
(t) x(t)[; es decir,
= [x
1
(t), x(t)] = max
atb
[x
1
(t) x(t)[
Ejemplo
Determinar la distancia entre las se nales x(t) = t y x
1
(t) = t
2
(gura 14.4). De
acuerdo con la denicion
= max
0t1
[t
2
t[
= max
0t1
(t t
2
)
Introduccion a la optimizacion de sistemas dinamicos 349
Por tanto, se tiene que determinar el maximo de la funcion x = t t
2
, que se
tiene para t = 1/2, de modo que = 1/4.
2
Por otra parte, se dice que las se nales x(t) y x
1
(t) denidas en el mismo
intervalo, son cercanas con proximidad de primer orden si las magnitudes [x(t)
x
1
(t)[ y [ x(t) x
1
(t)[ son peque nas en el intervalo considerado. Geometricamente,
esto signica que tanto los valores tomados por las dos se nales, como los de sus
tangentes (sus derivadas), son cercanos para todo instante de tiempo.
Por ultimo, las dos se nales consideradas se dice que son cercanas con proxim-
idad de orden k sin son peque nos los valores tomados por [x(t) x
1
(t)[, [ x(t)
x
1
(t)[,..., [x
k
(t) x
k
1
(t)[. Basado en ello, se dene la distancia de orden n entre
dos se nales x = x(t) y x = x
1
(t) como el mayor de los maximos de las expresiones
[x(t) x
1
(t)[, [ x(t) x
1
(t)[ ,..., [x
n
(t) x
n
1
(t)[, es decir

n
=
n
[x
1
(t), x(t)] = max
0kn
max
atb
[x
k
1
(t) x
k
(t)[
Se denomina variacion o incremento x(t) del argumento x(t) de un funcional
J[x(t)] a la diferencia entre dos se nales x(t) y x
0
(t) pertenecientes a la clase X
de funciones considerada; es decir
x(t) = x(t) x
0
(t)
Se dene el entorno de orden n de una se nal x = x
1
(t) como el conjunto de
las se nales x = x(t) cuyas distancias de orden n a la se nal x
1
(t) son menores que
; es decir

n
=
n
[x
1
(t), x(t)] <
Denido el concepto de entorno de una se nal, es posible introducir el de con-
tinuidad de un funcional. Un funcional J[x(t)] denida en la clase de funciones
X se llama contnua en x = x
0
(t) si para todo > 0 existe > 0 tal que la de-
sigualdad J[x(t)] J[x
0
(t)] < se satisface para todas las se nales que satisfacen

n
=
n
[x(t), x
0
(t)] <
Sea J[x(t)] un funcional, se dene el incremento de J[x(t)] como
J = J[x(t)] = J[x(t) + x(t)] J[x(t)]
siendo
x(t) = x(t) x(t) x(t) X, x(t) X
Introduccion a la optimizacion de sistemas dinamicos 350
supongamos que J puede escribirse de la forma
J = G[x(t), x(t)] + H[x(t) + x(t)][[x[[ (14.11)
en donde G[x(t), x(t)] es un funcional lineal con relacion a x y H[x(t)+x(t)]
0 cuando [[x[[ 0. En tal caso, la parte del incremento lineal con relacion a x,
es decir G[x, x] se llama variacion del funcional y se representa por J. En ese
caso se dice que el funcional J[x(t)] es diferenciable para la se nal x(t).
Ejemplo
Sea el funcional
J[x(t)] =

b
a
xdt
su incremento vendr a dado por
J = J[x(t) + x(t)] J[x(t)]
=

b
a
(x + x)dt

b
a
xdt
=

b
a
xdt
Es decir, J =

b
a
xdt. Esta expresion es, a su vez, un funcional lineal respecto
a x. Por tanto, el funcional es diferenciable para todo x(t) y su variacion es
J =

b
a
xdt.
2
Ejemplo
Sea el funcional
J[x(t)] =

b
a
x
2
dt
Se tiene que
J =
=

b
a
(x + x)
2
dt

b
a
x
2
dt
=

b
a
2xxdt +

b
a
(x)
2
dt
Introduccion a la optimizacion de sistemas dinamicos 351
En la expresion anterior, la primera integral representa el funcional lineal respecto
a x, mientras la segunda integral conduce a

b
a
(x)
2
dt =

b
a
[x[
2
dt
(max
atb
[x[)
2

b
a
dt
= (b a)[[x[[
2
= [(b a)[[x[[][[x[[
y para [[x[[ 0, se tiene que
(b a)[[x[[ 0
Es decir, el incremento J del funcional es la suma de G[x, x] y un termino de
segundo orden con relacion a [[x[[. Recordando la expresion (14.11) se tiene que
el funcional considerado es diferenciable para todo x(t) y su variaci on es
J = 2

b
a
xxdt
2
Un funcional J[x(t)] se dice que alcanza su maximo para la se nal x = x
0
(t)
si los valores que toma el funcional para cualquier se nal proxima a x
0
(t) no son
mayores que J[x
0
(t)]; es decir si
J = J[x(t)] J[x
0
(t)] 0
Si J 0 x(t) = x
0
(t) y J = 0 solo para x = x
0
(t), se dice que se alcanza
un maximo estricto para x = x
0
(t). Para todas las se nales proximas a x = x
0
(t)
se tiene que J 0.
Ejemplo
Sea el funcional
J[x(t)] =

1
0
(x
2
+ t
2
)dt
Es facil ver que se alcanza un mnimo estricto para la se nal x(t) 0. En efecto,
se tiene que
J = J[x(t)] J[0] =

1
0
(x
2
+ t
2
)dt

1
0
t
2
dt =

1
0
x
2
dt 0
Introduccion a la optimizacion de sistemas dinamicos 352
Por lo que el signo de igualdad se da solo para x(t) 0.
2
Un ejemplo de funcional que emplearemos en la seccion siguiente lo suministra
la expresion
J =

T
0
L(x, x, t)dt
x
0 T t
J(x)
J
Figura 14.5: Un funcional J asigna a cada se nal x(t) un n umero real.
Las tecnicas de estudio de maximos y mnimos de funciones, pueden exten-
derse al estudio de funcionales. En tal caso, se trata de determinar una se nal
x(t) tal que el valor (un n umero real) tomado por el funcional, sea mnimo (o
maximo).
Para el estudio de la optimizacion de funcionales se emplea el calculo de
variaciones. Consiste este en el estudio de como vara un funcional cuando vara
x(t). Una variaci on de x(t), por ejemplo,
x(t) = x
1
(t) x
0
(t)
se interpreta gracamente tal como se hace en la gura 14.6. La variaci on de J
correspondiente sera
J(x, x) = J(x
1
) J(x
0
) = J(x
0
+ x) J(x
0
)
En donde J(x, x) representa el incremento de J debido a la variaci on x(t)
entorno a x(t).
14.5.2 Ecuaciones de Euler
Las ecuaciones de Euler permiten resolver el problema de optimizacion funcional
siguiente:
Introduccion a la optimizacion de sistemas dinamicos 353

x
(t)
x
1
(t)
x
o
(t)
T
Figura 14.6: Ilustracion de la variaci on x(t) de una funcion x(t).
Problema
Determinar los valores de x(t), en el periodo [0, T] que minimicen (o maxim-
icen) el funcional
J =

T
0
L(x, x, t)dt
estando sujetos a las condiciones de contorno jas
x(0) = a x(T) = b
Para resolver el anterior problema se procede a estudiar la variacion de J, e
igualarla a cero. Supongase que el mnimo de J se produce para la trayectoria
x
0
(t). Si esta trayectoria x
0
(t) se somete a una variaci on x se tendra la nueva
trayectoria
x(t) = x
0
(t) + x(t)
esta nueva se nal se supone para satisfacer las condiciones del problema, que
cumple las restricciones de contorno, es decir
x(0) = x(T) = 0
La variaci on total de J sera
J(x, x) =

T
0
[L(x + x, x + x, t) L(x, x, t)]dt
Si se desarrolla la funcion L(x, x, t) en serie de Taylor en torno a x(t) y x(t), se
tendra
L(x + x, x + x, t) L(x, x, t) =

L
x
x +
L
x
x

+ R(x, x, x, x, t)
Introduccion a la optimizacion de sistemas dinamicos 354
luego
J(x, x) =

T
0

L
x
x +
L
x
x

dt +

T
0
R(x, x, x, x, t)dt
Esta expresion tiene la misma forma que (14.11). En efecto, el primer termino
del segundo miembro es lineal en x, x. El segundo, esta formado por terminos
de orden superior al primero. Por tanto, se tendra que la variacion de primer
orden de J vendra dada por
J(x, x) =

T
0

L
x
x +
L
x
x

dt (14.12)
Esta variacion representa la parte lineal del incremento J. Integrando por
partes el segundo miembro de (14.12), se obtiene
J(x, x) =

T
0

L
x

d
dt
L
x

xdt +
L
x
x [
T
0
y puesto que de momento estamos considerando condiciones de contorno jas, se
tendra a que x(0) = x(T) = 0, por lo que
J(x, x) =

T
0

L
x

d
dt
L
x

xdt (14.13)
Esta expresion da la variacion de primer orden en J, cuando la se nal x(t) sufre
una variacion x(t). Si existe un valor de x

(t) tal que para este valor de x(t) el


funcional J toma un valor mnimo (o maximo), entonces sucedera que
J(x, x) = 0
este resultado es analogo a la condicion necesaria para la minimizacion (o max-
imizacion) de funciones ordinarias y se conoce como la condicion necesaria fun-
damental del calculo de variaciones. Llevando este resultado a (14.13) se tiene la
variacion de primer orden de J. Es decir,

T
0

L
x

d
dt
L
x

xdt = 0
Puesto que la anterior expresion debe satisfacerse para cualquier variaci on x(t)
de x(t), ello solo sera posible si
L
x

d
dt
L
x
= 0
La solucion de esta ecuacion diferencial en x es x

(t). Esta ecuacion recibe la


denominacion de ecuacion de Euler.
Introduccion a la optimizacion de sistemas dinamicos 355
Como hemos recordado en la seccion anterior, en el estudio de los maximos
y los mnimos de una funcion ordinaria L(u) se tiene una ecuacion algebrica
dL/du = 0, cuya solucion en u permite determinar el valor de u que minimiza (o
maximiza) a esta funcion. La ecuacion de Euler juega el mismo papel que esta
ecuacion cuando el problema de optimizacion es funcional. En tal caso, no se
trata de determinar el valor de una variable, sino el conjunto de valores tomados
por una se nal en un determinado intervalo, y en lugar de una simple ecuacion
algebrica, se tiene una ecuacion diferencial.
La ecuacion de Euler es una condicion necesaria pero no suciente para de-
terminar un mnimo. Las condiciones de mnimo o maximo se determinan por el
estudio de las variaciones segundas. Este estudio es relativamente complejo y no
se realizara aqu.
Debe observarse que la ecuacion de Euler es una ecuacion de segundo orden y
por lo tanto en su solucion aparecen dos constantes arbitrarias. Para determinar
estas constantes se requieren dos ecuaciones adicionales. Estas ecuaciones vienen
dadas precisamente por las condiciones de contorno.
x(0) = a x(T) = b
A partir de estas dos ecuaciones se pueden determinar las dos constantes que
aparecen en la solucion de la ecuacion de Euler.
En el desarrollo anterior se ha considerado que x era un escalar. Los resultados
obtenidos se generalizan con toda facilidad para el caso en que x sea un conjunto
de n se nales. El funcional a optimizar es de la forma
J(x) =

T
0
L(x, x, t)dt (14.14)
en donde x es un vector de dimension n. Las ecuaciones de Euler toman la forma

L
x
i

d
dt
L
x
i

= 0
para i = 1, 2, ..., n.
Observese que se tiene un conjunto de n ecuaciones diferenciales. Su solucion
comportara 2n constantes, para cuya determinacion se necesitaran 2n ecuaciones,
que vendr an dadas por las condiciones de contorno.
En el caso de funcionales que implican n funciones independientes se tienen
n ecuaciones de Euler; cada ecuacion es, en general, una ecuacion diferencial
Introduccion a la optimizacion de sistemas dinamicos 356
ordinaria, de segundo orden y no lineal, con condiciones de contorno separadas,
que suele ser difcil de resolver. Esta situacion se complica ademas por el hecho
de que las n ecuaciones de Euler son simult aneas. Se emplean normalmente
soluciones numericas.
Sin embargo, la integraci on numerica presenta a su vez problemas ya que para
integrar numericamente se requiere tener la condiciones de contorno denidas para
uno de los extremos de integraci on (las condiciones iniciales o las nales). Sin
embargo, las ecuaciones diferenciales de Euler presentan condiciones de contorno
iniciales y nales a la vez. Se tienen entonces problemas de contorno con dos
extremos cuya resolucion numerica requiere un tratamiento especco.
Ejemplo
Determinar las trayectorias optimas que minimicen los funcionales siguientes:
a) sea el funcional
J =

b
a
(2x
1
x
2
2x
2
1
+ x
1
2
x
2
2
)dt
es decir
L = 2x
1
x
2
2x
2
1
+ x
1
2
x
2
2
se tiene,
L
x
1
= 2x
2
4x
1
L
x
2
= 2x
1
L
x
1
= 2 x
1
L
x
2
= 2 x
2
Las ecuaciones de Euler en este caso dan lugar al siguiente sistema de ecuaciones
diferenciales:
2x
2
4x
1
2
d
2
x
1
dt
2
= 0
2x
1
+ 2
d
2
x
2
dt
2
= 0
Introduccion a la optimizacion de sistemas dinamicos 357
cuya resolucion conduce a
d
4
x
2
dt
4
+ 2
d
2
x
2
dt
2
+ x
2
= 0
cuya ecuacion caracterstica es
r
4
+ 2r
2
+ 1 = 0
r = j(dobles)
por lo tanto
x
2
(t) = c
1
te
jt
+ c
2
e
jt
+ c
3
te
jt
+ c
4
e
jt
por otra parte,
x
1
(t) =
d
2
x
2
dt
2
2
Ejemplo: Distancia mnima entre dos puntos
Vamos a aplicar las ecuaciones de Euler para demostrar un resultado bien cono-
cido: que la distancia mas corta entre dos puntos es la lnea recta. Supongamos
una curva x(t) que une los puntos x(a) = A y x(b) = B. El parametro t es un
parametro arbitrario que sirve para especicar la familia de curva que une los
puntos del plano (a, A) y (b, B), tal como se indica en la gura 14.7.
La longitud de una curva particular x(t) viene dada por
J =

b
a

1 + x
2
dt (14.15)
La determinacion de la curva x(y) que minimice la distancia entre (a, A) y (b, B)
se reduce a determinar la curva x

(t) que minimice (14.15). Ese problema se


puede resolver mediante la ecuaciones de Euler. Se tiene
L(x, x) =

1 + x
2
Introduccion a la optimizacion de sistemas dinamicos 358
A
B
x
a b t
Figura 14.7: Distanciamnima entre dos puntos
por lo que
L
x
= 0
L
x
=
x

1 + x
2
por lo tanto, la ecuacion de Euler, en este caso, se reduce a:
d
dt
x

1 + x
2
= 0
ecuacion diferencial que, a su vez, se reduce a
d
2
x
dt
2
= 0
cuya integraci on conduce a
x

(t) = c
1
t + c
2
que, aplicando las condiciones de contorno, se convierte en
x(t) =
(A B)t + (aB bA)
a b
con lo que queda demostrado lo que ya sabamos: que la distancia mnima entre
dos puntos es una recta.
Restricciones o ligaduras
Supongase que existen unas determinadas ligaduras (o restricciones) en las trayec-
torias posibles de x(t). Es decir, de todas las trayectorias posibles que unan el
Introduccion a la optimizacion de sistemas dinamicos 359
estado inicial con el estado nal, solo son admisibles aquellas que, ademas, sat-
isfagan una ecuacion de la forma
g(x, x, t) = 0 (14.16)
En este caso se tiene un problema de optimizacion con restricciones. En el estu-
dio de los maximos y mnimos de funciones ordinarias se aplicaba el metodo de
Lagrange para resolver el problema. En el estudio de la optimizacion funcional, se
aplica igualmente una generalizacion del metodo de Lagrange. La demostracion
de esta generalizacion no se hara aqu, pero sin embargo s se enunciar a el metodo.
Supongase que se trata de optimizar un funcional tal como el de la expresion
(14.14), en donde x(t) esta sometido a las restricciones dadas por la expresion
(14.16). Entonces se puede formar el funcional (funcional aumentado)
J

T
0
[L(x, x) + g(x, x)] dt
en donde el multiplicador de Lagrange (t) es una funcion del tiempo. El pro-
blema queda reducido a optimizar el nuevo funcional J

con relacion a x y a
.
El metodo se generaliza facilmente para el caso en que x sea un vector, y el
n umero de restricciones sea un n umero nito m.
14.5.3 Estado nal variable
En el apartado anterior se ha considerado el caso de la optimizacion funcional
cuando el estado inicial y el estado nal estaban perfectamente determinados.
En esta seccion se va a estudiar el caso en el que el estado nal no esta comple-
tamente determinado. Por ejemplo, se va a estudiar el problema de determinar
las trayectorias que une un punto a una curva tal como se representa en la gura
14.8.
Es decir, se trata de determinar x

(t) tal que minimice el funcional


J =

T
0
L(x, x, t)dt
de manera que x(0) tome un valor previamente determinado, y x(t) sea tal que se
encuentre sobre una determinada trayectoria. Es decir, ni x(T) ni T estan jados
de antemano, sino que ambos estan ligados por una determinada expresion.
Introduccion a la optimizacion de sistemas dinamicos 360
x(0)
0
Figura 14.8: Conjunto de trayectorias que se inician en el estado x(0) y que
nalizan sobre una curva.
Es obvio que la trayectoria optima x

(t) debe satisfacer las ecuaciones de


Euler. En efecto, considerese el problema completamente resuelto y supongase
determinado el estado nal alcanzado por dicha trayectoria optima x

(T). Se
puede entonces considerar el problema como un problema con el estado nal jo
al que hay que aplicar las ecuaciones de Euler. Es decir, si x

(t) minimiza a J
en el caso de estado nal variable, logicamente minimizara a J para el caso mas
restringido de estado nal jo.
Por lo tanto, el problema de determinar x

(t) para el caso de estado nal


variable, conduce a la resolucion de las ecuaciones diferenciales de Euler. Sin em-
bargo, el problema se plantea a la hora de establecer las ecuaciones auxiliares que
permiten determinar las constantes que aparecen en la resolucion de la ecuacion
de Euler. Al estudio de este problema se va a dedicar el resto de la seccion.

x
(T)
x(T
f
)T
T +T T
x
f
Figura 14.9: Trayectoria x(t) y su variacion en el caso de extremo nal libre.
Introduccion a la optimizacion de sistemas dinamicos 361
En la gura 14.9 se representa una trayectoria x(t), y una variaci on de la
misma x(t) +x(t), cuyo punto inicial es com un con la primera, pero cuyo punto
nal no coincide. La variaci on de J correspondiente a estas dos trayectorias sera
la siguiente
J = J(x + x) J(x)
=

T+T
0
L(x + x, x + x, t)dt

T
0
L(x, x, t)dt
lo cual puede reescribirse como sigue
J =

T+T
T
L(x+x, x+ x, t)dt+

T
0
[L(x+x, x+ x, t)L(x, x, t)]dt (14.17)
Se supone que T es sucientemente peque no, de manera que se pueda aplicar el
teorema del valor medio a la primera de las integrales anteriores, con lo que se
obtiene

T+T
T
L(x + x, x + x, t)dt

= L(x, x, t) [
T
T (14.18)
Por otra parte, el segundo termino de la expresion (14.17), despreciando terminos
de orden superior al primero (analogamente a como se hizo para deducir las
ecuaciones de Euler), puede escribirse:

T
0
[L(x + x, x + x, t) L(x, x, t)]dt

T
0

L
x
x +
L
x
x

dt
En donde el signo

= denota la aproximaci on de primer orden. Integrando por
partes el segundo termino del segundo miembro de la anterior expresion, se tiene,

T
0
[L(x + x, x + x, t) L(x, x, t)]dt

T
0

L
x

d
dt
L
x

xdt +
L
x
x [
T
0
Si x(t) es una trayectoria optima, entonces se satisfacera la ecuacion de Euler, y
por lo tanto, el primer termino del segundo miembro de la anterior expresion, sera
identicamente nulo. En efecto, sea x

(t) una trayectoria optima, del caso en el


que T y x(T) no estan jados. Se tendra que x(T) = x

(T). Por tanto, se puede


plantear el problema de control optimo con condiciones nales jas (x(T), T)
cuya solucion satisfacera las ecuaciones de Euler. Es decir, la trayectoria x

(t) es
optima para un problema de control optimo con condiciones de contorno jas, y,
en consecuencia satisfacera las ecuaciones de Euler.
Por tanto, se podra escribir:

T
0
[L(x + x, x + x, t) L(x, x, t)]dt

=
L
x
x [
T
0
(14.19)
Introduccion a la optimizacion de sistemas dinamicos 362
Habida cuenta de las expresiones (14.18) y (14.19) modicadas, se tendra que la
expresion (14.17) se puede escribir
J

=
L
x
x [
T
0
+L(x, x, t) [
T
T (14.20)
Expresion que representa la variaci on de J cuando se perturba una trayectoria
optima y el extremo nal no esta jado. Observese que puesto que x(0) = 0
sucede que J depende exclusivamente de lo que sucede en el extremo nal en
el que se produce la variaci on. En este extremo, con ayuda de la gura 14.9 se
tiene,
x
f
+ x
f
= x(T + T) + x(T + T)
= x(T) + x(T)T + x(T) + ...

= x
f
+ x(T)T + x(T)
o sea,
x(T) = x
f
x(T)T (14.21)
lo que llevado a (14.20) conduce a
J =
L
x
[
T
[x
f
x(T)T] + L(x, x, t) [
T
T
y puesto que J = 0, se tiene
L
x
[
T
x
f
+

L(x, x, t) x
L
x

[
T
T = 0 (14.22)
Esta expresion recibe la denominacion de condicion de transversalidad, y per-
mite establecer una ecuacion algebrica adicional para la determinacion de las
constantes en la solucion de la ecuacion de Euler.
En la aplicacion practica de la condicion de transversalidad se pueden dar tres
casos.
1. Supongase que el instante nal T esta jado de antemano, pero no as el
estado alcanzado. En tal caso, el estado nal debe estar situado en una
recta vertical tal como la de la gura 14.10. Analticamente se tendra que
T = 0, y la expresion (14.22) se convierte en
L
x
[
T
= 0
Introduccion a la optimizacion de sistemas dinamicos 363
T
0
x(0)
Figura 14.10: Trayectorias con el tiempo nal T jo y el estado nal x(T) libre.
x(0)
x(T)
Figura 14.11: Trayectorias con el estado nal x(T) jo y el tiempo nal T libre.
Introduccion a la optimizacion de sistemas dinamicos 364
2. Si el estado nal esta determinado, pero no el instante en el que se alcanza,
el punto nal debera estar situado en una lnea horizontal tal como la de
la gura 14.11. En tal caso se tendra que x
f
= 0, con lo que la expresion
(14.22) se convierte en:

L(x, x, t) x
L
x

[
T
= 0
3. Si el estado nal y el instante nal estan ligados a una expresion analtica
de la forma
x(t) [
T
= y(t) [
T
se tendra que x
f
= y(T)T (ver gura 14.12), con lo que la ecuacion
(14.22) se convierte en

L(x, x, t) + ( y x)
L
x

[
T
T = 0
x(0)
y

(T)
y(t)
T T +T
Figura 14.12: Trayectorias con el estado nal denido sobre la curva y(t).
Introduccion a la optimizacion de sistemas dinamicos 365
Cuadro resumen de condiciones
de contorno en calculo variacional.
Descripcion Condiciones Notas
del problema de contorno
1. T, x(T) x

(t
0
) = x
0
2n condiciones para
jos x

(T) = x
f
2n constantes
de integracion
2. T jo y x

(t
0
) = x
0
2n condiciones para
x(T) libre
L
x

T
= 0 2n constantes
de integracion
3. T libre y x

(t
0
) = x
0
2n + 1 condiciones para
x(T) jo x

(T) = x
f
2n constantes

L(x, x) x
L
x

T
= 0 de integracion y T
4. T y x(T) x

(t
0
) = x
0
2n + 1 condiciones para
libres, pero x

(T) = (T) 2n constantes


ligadas por

L(x, x) + ( y x)
L
x

T
= 0 de integraci on y T.
x(T) = (T)
Introduccion a la optimizacion de sistemas dinamicos 366
Ejemplo 3
Considerese una variante del ejemplo 2, en la que se trata de determinar la trayec-
toria mnima entre el origen y la recta y(t) = 2 t (gura 14.13). Del ejemplo
t
2
y
2
Figura 14.13: Trayectoria mnima entre el origen y la recta y(t) = 2 t.
2 se sabe que las soluciones del problema de Euler viene dadas por la familia de
rectas:
x

= c
1
t + c
2
Para la determinacion de las constantes c
1
y c
2
se recurre a las condiciones
de contorno 4 del cuadro adjunto. Puesto que x(0) = 0, se tiene que c
2
= 0. Por
otra parte, la condicion de contorno nal conduce a:

1 + x

(T)
2
+
x

(T)

1 + x

(T)
2
[ y(T) x

(T)] = 0
Puesto que x

(T) = c
1
e y(T) = 1, se tiene

1 + c
2
1

c
1

1 + c
2
1
[1 + c
1
] = 0
De donde se obtiene
c
1
= 1
por lo que la trayectoria mnima viene dada por
x

= t
Introduccion a la optimizacion de sistemas dinamicos 367
El valor de T se determina mediante la ecuacion
x

(T) = y(T)
lo que da T = 1.
Tema 15
Metodos Variacionales en
Control Optimo
15.1 Aplicacion del calculo de variaciones a la
resolucion del problema del Control Op-
timo
Sea el sistema dinamico
x = f(x, u) (15.1)
y supongase, ademas, un ndice de funcionamiento dado por
J =

T
0
L(x, u)dt (15.2)
Se trata de determinar la se nal de control optima u

(t) en el intervalo (0, T).


Se pueden presentar dos casos, seg un que se pueda o no dejar explcita u en
la expresion (15.1).
15.1.1 Se puede eliminar u
Supongase que en la expresion (15.1) es posible dejar explcita u. En tal caso se
podra escribir
u = g(x, x, t)
368
Metodos Variacionales en Control Optimo 369
lo que se le podra llevar a la expresion (15.2) obteniendose
J =

T
0
L(x, g(x, x, t), t)dt (15.3)
J =

T
0
L

(x, x, t)dt (15.4)


con lo que el problema se ha reducido a uno de calculo variacional, para cuya
solucion se emplean las ecuaciones de Euler.
Ejemplo 1
Sea el sistema descrito por la ecuacion:
x = x + u
se trata de determinar u(t) que minimice
J =

1
0
(x
2
+ u
2
)dt
De la ecuacion del sistema se tiene que u = x +x, y sustituyendo en la expresion
de J, se tiene
J =

1
0
(x
2
+ ( x + x)
2
)dt =

1
0
(2x
2
+ 2x x + ( x)
2
)dt
es decir,
L = 2x
2
+ 2x x + ( x)
2
Recordando la ecuacion de Euler:
L
x

d
dt
L
x
= 0
En este caso se tiene
L
x
= 4x + 2 x
L
x
= 2x + 2 x
d
dt
L
x
= 2
dx
dt
+ 2
d
2
x
dt
2
Por lo tanto la ecuacion de Euler resulta ser
d
2
x
dt
2
2x = 0
Metodos Variacionales en Control Optimo 370
La integraci on de esta ecuacion diferencial determina la trayectoria optima de
x(t):
x(t) = C
1
e

2t
+ C
2
e

2t
x(t) =

2C
1
e

2t
+

2C
2
e

2t
Por tanto la trayectoria optima de la se nal de mando es:
u(t) = x(t) + x(t)
= C
1
(1

2)e

2t
+ C
2
(1 +

2)e

2t
Las constantes C
1
y C
2
se determinan en funcion de los estados inicial y nal del
sistema.
Suponiendo x(0) = 1; x(1) = 0; se tiene
C
1
= 1.0628 C
2
= 0.0628
Ejemplo 2
Para un integrador simple x = u encontrar la entrada de control u(t) que conduzca
al sistema desde cierto estado inicial x(0) al estado nal x(t) de manera que se
minimice la integral,
J =

T
0
(x
2
+ u
2
)dt
sujeta a cada una de las condiciones siguientes:
a) x(0) = 1, x(T) = 0 y T = 1.
b) x(0) = 1, x(T) sin especicar y T = 1.
c) x(0) = 1, x(T) = 0 y T sin especicar.
Calcular el valor de la integral correspondiente a cada caso.
Resolucion.
En este caso
L = x
2
+ u
2
= x
2
+ ( x)
2
Luego,
L
x
= 2x
L
x
= 2 x
Metodos Variacionales en Control Optimo 371
La ecuacion de Euler en este caso conduce a,
d
2
x
dt
2
x = 0
cuya solucion general es,
x(t) = C
1
e
t
+ C
2
e
t
a) Es el caso mas simple de aplicacion de condiciones de contorno. Estas condi-
ciones conducen a,
1 = C
1
+ C
2
0 =
C
1
e
+ C
2
e
Cuya solucion es C
1
= 1.157 y C
2
= 0.157. Luego,
x(t) = 1.157e
t
0.157e
t
y,
u(t) = 1.157e
t
0.157e
t
El valor de J para este caso resulta ser J = 1.11.
b) La condicion de transversalidad se escribe en este caso
L
x

T=1
= 0
lo que se traduce en
x(1) = 0
Por lo tanto las condiciones en los extremos son
x(0) = 1 x(1) = 0
lo que conduce a
1 = C
1
+ C
2
0 =
C
1
e
+ C
2
e
Es decir, C
1
= 0.88 y C
2
= 0.12. El valor de J resulta ser 0.761.
Metodos Variacionales en Control Optimo 372
c) En este caso la condicion de transversalidad se convierte, al estar jo el
valor de x
f
y no el de T en

L x
L
x

T
= 0
pues T, en T es nulo y x
f
no.
Por lo tanto,
L x(T)
L
x
(T) = 0
lo que conduce a
x(T) = 0
Se sabe por lo tanto que
x(0) = 1 x(T) = 0 x(T) = 0
Se tienen, por tanto, tres ecuaciones con tres incognitas C
1
, C
2
y T. Las anteriores
ecuaciones se convierten en
1 = C
1
+ C
2
0 = C
1
e
T
+ C
2
e
T
0 = C
1
e
T
+ C
2
e
T
Es facil ver que la solucion del anterior sistema de ecuaciones es
T =
C
1
= 1
C
2
= 0
ci nendonos a valores de t > 0, es decir suponiendo que el sistema evoluciona en
el sentido de los tiempos crecientes
Luego
x(t) = e
t
u(t) = e
t
(0 t < )
En este caso J = 1.
Metodos Variacionales en Control Optimo 373
15.1.2 No se puede eliminar u
Si la eliminacion de u en la expresion (15.1) no es posible, entonces se recurre a
la aplicacion del metodo de los multiplicadores de Lagrange observando que la
ecuacion (15.1) puede interpretarse como una restriccion de la forma
g(x, x) = f(x, u) x
Se tendra que el funcional modicado que se trata de optimizar sera
J

T
0
L

(x, x, u, )dt
en donde
L

(x, x, u, ) = L(x, u) [f(x, u) x] (15.5)


Se considerara en lo que sigue m = 1, n = 1 por razones de simplicidad. La
generalizacion es muy simple y el resultado se presentara al nal. El problema
queda reducido a determinar los valores de x(t), u(t) y (t) que minimicen el
funcional J

.
Para resolver este problema se recurre a las ecuaciones de Euler. El n umero
de estas ecuaciones sera tres, correspondiente a las variaciones de cada una de las
variables anteriores. Se estudian estas ecuaciones para cada una de las variables
x(t), u(t) y (t).
Ecuacion de Euler con relacion a x. Se tendra

x
[L + (f x)]
d
dt

x
[L + (f x)] = 0

x
[L + (f x)]
d
dt

x
( x) = 0

x
[L + f] =

(15.6)
Ecuacion de Euler con relacion a u

u
[L + (f x)]
d
dt

u
[L + (f x)] = 0
como L + (f x) no depende de u, se tendra

u
[L + f] = 0 (15.7)
Metodos Variacionales en Control Optimo 374
Ecuacion de Euler con relacion a
f x = 0 (15.8)
Se dene la funcion H(x, u, ) de acuerdo con
H(x, u, ) = L(x, u) + f(x, u)
esta funcion recibe la denominacion de funcion de Hamilton o hamiltoniana. Se
tendra que las ecuaciones anteriores pueden escribirse:
H
x
=

(15.9)
H
u
= 0 (15.10)
H

= x (15.11)
El problema queda reducido a resolver el anterior conjunto de ecuaciones diferen-
ciales para determinar u

(t). Un metodo sistematico para hacerlo es el siguiente:


1. Formar la funcion de Hamilton o Hamiltoniana
H(x, u, ) = L(x, u) + f(x, u)
2. Resolver la ecuacion algebraica
H(x, u, )
u
= 0
que permite obtener u

(x, ).
3. Formar la hamiltoniana minimizada, llevando u

a H, con lo que se tiene,


H

(x, u

, )
4. Resolver el sistema de ecuaciones diferenciales,
x =
H

=
H

x
(15.12)
con las condiciones de contorno x(0) y x(t).
5. Los valores de x

(t) y (t), determinados en 4, se llevan a 2, con lo que se


tiene
u

(x

(t),

(t), t) = u

(t)
En el cuadro se resume el metodo.
Metodos Variacionales en Control Optimo 375
Resumen de la aplicacion del
Calculo Variacional
a la determinacion del
Control Optimo
Se da el sistema x = f(x, u)
Se da el criterio J =

T
0
L(x, u)dt
Paso 1 Se forma la Hamiltoniana
H(x, u, ) = L(x, u) + f(x, u)
Paso 2 Se determina u

(x, ) admisible tal que


H
u
= 0
Paso 3 Se determina la Hamiltoniana mnima
H

(x, ) = H(x, u

(x, ), )
Paso 4 Se resuelve el sistema de 2n ecuaciones
x =
H

=
H

x
con las condiciones de contorno correspondientes.
Se obtiene x

(t) y

(t).
Paso 5 Se determina u

(t) = u

(x

(t),

(t))
Metodos Variacionales en Control Optimo 376
Ejemplo 3
Para el sistema
x = 2x + u
con el ndice
J =
1
2

1
0
u
2
dt
determinar la se nal de control optima u(t) tal que conduzca al sistema de x(0) =
1 a x(1) = 0. La resolucion del problema se descompone en los siguientes pasos:
1. Se forma la hamiltoniana, que resulta ser
H =
u
2
2
+ (u 2x)
2. Se minimiza la hamiltoniana
H
u
= u +
luego,
u

=
3. Se forma la hamiltoniana minimizada
H

=

2
2

2
2x (15.13)
=

2
2
2x (15.14)
4. Se tiene
H

= 2x;
H

x
= 2
de donde se tienen las ecuaciones diferenciales (4)
2x = x (15.15)
2 =

(15.16)
cuya resolucion conduce a

2 = 0 (15.17)
= k
1
e
2t
(15.18)
Metodos Variacionales en Control Optimo 377
es decir,
x + 2x = k
1
e
2t
que constituye la solucion general de la homogenea x
g
= k
2
e
2t
.
La solucion particular de la completa toma la forma x
p
= Ae
2t
. en donde,
2Ae
2t
+ 2Ae
2t
= k
1
e
2t
luego
A =
k
1
4
La solucion de las ecuaciones diferenciales anteriores, sera de la forma,
x =
k
1
4
e
2t
+ k
2
e
2t
Aplicando las condiciones de contorno se tiene
1 =
k
1
4
+ k
2
(15.19)
0 =
k
1
4
e
2
+ k
2
e
2
(15.20)
Eliminando k
2
se tiene
k
1
=
1
e
4
4
1 e
4
luego,
=
4
e
4
(1 e
4
)
e
2t
5. Por lo tanto,
u

=
4
e
4
(1 e
4
)
e
2t
Ejemplo 4
Sea la planta
x
1
= x
2
x
2
= u
y el ndice de funcionamiento
J =
1
2

2
0
u
2
dt
Metodos Variacionales en Control Optimo 378
condiciones de contorno
x
1
(0) = x
2
(0) = 1
x
1
(2) = x
2
(2) = 0
1. Se forma la hamiltoniana
H =
1
2
u
2
+
1
x
2
+
2
u
2. Se resuelve la ecuacion en u
H
u
= 0
que en este caso resulta ser
H
u
= u +
2
= 0
lo que conduce a
u

=
2
Observese que

2
H

2
u
= 1
por lo que u

minimiza la Hamiltoniana.
3. Se forma la Hamiltoniana optimizada
H

(x

, , t) =
1
2

2
2
+
1
x
2

2
2
=
1
x
2

1
2

2
2
4. Se forman las ecuaciones de estado
x
1
=
H

1
= x
2
x
2
=
H

2
=
2
y las de coestado

1
=
H

x
1
= 0

2
=
H

x
2
=
1
Metodos Variacionales en Control Optimo 379
Las condiciones de contorno son
x
1
(0) = x
2
(0) = 1
x
1
(2) = x
2
(2) = 0
Resolucion del problema de contorno mas las ecuaciones de estado
x
1
= x
2
x
2
=
2

1
= 0

2
=
1
(1)

1
= 0
1
= k
1
(2)

2
=
1

2
= k
1

2
= k
1
t + k
2
(3) x
2
=
2
x
2
= k
1
t k
2
x
2
(t) =
k
1
t
2
2
k
2
t + k
3
(4) x
1
= x
2
x
1
=
k
1
t
2
2
k
2
t+k
3
x
1
(t) = k
1
t
3
6
k
2
t
2
2
+k
3
t +k
4
Es decir
x
2
= k
1
t
2
2
k
2
t + k
3
x
1
= k
1
t
3
6
k
2
t
2
2
+ k
3
t + k
4
Para t = 0 x
1
= x
2
= 1, luego k
3
= 1, k
4
= 1.
Para t = 2 x
1
= x
2
= 0, se tiene k
1
= 3 k
2
=
7
2
.
Luego
x

2
=
3t
2
2

7t
2
+ 1 (15.21)
x

1
=
t
3
2

7t
2
4
+ t + 1 (15.22)
ademas

1
= 3

2
= 3t +
7
2
(5) u

2
= 3t
7
2
Metodos Variacionales en Control Optimo 380
Ejemplo 5
Se trata de regular la temperatura de una habitacion con el consumo mnimo de
energa posible. Si (t) es la temperatura en la habitacion,
a
es la temperatura
ambiental fuera de la habitacion (que se supondra constante) y u(t) es la tasa
de calor que se inyecta en la habitacion, se sabe que el proceso viene descrito
mediante la ecuacion

= a(
a
) + bu (15.23)
en donde a y b son dos constantes que dependen del aislamiento de la habitacion.
Se dene el estado como
x(t) = (t)
a
, (15.24)
de modo que la ecuacion de estado se puede escribir
x = ax + bu (15.25)
Puesto que se trata de regular la temperatura en un cierto periodo de tiempo [0, T]
con el mnimo suministro de energa posible, se dene el ndice de funcionamiento
J =
1
2

T
0
u
2
(t)dt (15.26)
Se tiene, por tanto, denido un problema de control optimo mediante las expre-
siones (15.25) y (15.26). Para su resolucion se procede mediante los cuatro pasos
anteriores.
1. Se forma la Hamiltoniana
H =
u
2
2
+ (ax + bu) (15.27)
2. se resuelve con respecto a u la ecuacion
0 =
H
u
= u + b (15.28)
con lo que se tiene
u

(t) = b

(t) (15.29)
3. Se forma la Hamiltoniana optimizada
H

=
u
2
2
+ (ax b
2
)
Metodos Variacionales en Control Optimo 381
Se forman las ecuaciones de coestado, que resultan ser
x = ax b
2
(15.30)

= a (15.31)
cuya resolucion permitira obtener

(t) y la trayectoria de estado optima


x

(t).
Para integrar las ecuaciones de coestado vamos a proceder como si conociesemos
el valor nal de (T). En tal caso, la solucion de (15.31) es

(t) = e
a(Tt)
(T) (15.32)
que llevado a (15.30) da
x = ax b
2
(T)e
a(Tt)
(15.33)
Esta ecuacion se puede resolver empleando la transformada de Laplace. En
efecto, se tiene
X(s) =
x(0)
s + a

b
2
(T)e
aT
(s + a)(s a)
=
x(0)
s + a

b
2
a
(T)e
aT

1/2
s + a
+
1/2
s a

(15.34)
De modo que
x

(t) = x(0)e
at

b
2
a
(T)e
aT
sinhat (15.35)
Las expresiones (15.32) y (15.35) nos dan

(t) y x

(t) en funcion de el
estado inicial x(0) y el valor nal de (T).
Supongamos que la temperatura inicial de la habitacion es igual a la tem-
peratura exterior
a
= 10
0
. Se hace
x(0) = 0 (15.36)
Ademas, supongase que se trata de que la temperatura nal (T) sea 20
0
al cabo de T segundos. Por tanto, el estado nal se pretende que alcance
el valor
x(T) = 10 (15.37)
Se tiene, por tanto, un problema de control optimo en el que tanto el estado
nal como el tiempo nal estan jados (aunque de momento no hayamos
asignado un valor concreto a T).
Metodos Variacionales en Control Optimo 382
Con ayuda de (15.36) y de (15.37) se puede determinar (T). En efecto, en
la expresion (15.35) se tiene
x(T) = x(0)e
aT

b
2
2a
(T)(1 e
2aT
) (15.38)
teniendo en cuenta (15.36) y (15.37) se tiene que
(T) =
20a
b
2
(1 e
2aT
)
(15.39)
lo que llevado a la expresion (15.32) conduce a

(t) = e
a(Tt)
(T) (15.40)
=
20ae
aT
b
2
(1 e
2aT
)
e
at
(15.41)
=
10a
b
2

e
at
e
aT
e
aT
2
(15.42)
=
10ae
at
bsinhaT
(15.43)
Recordando que
sinhaT =
e
aT
e
aT
2
Por ultimo, la tasa optima de inyeccion de calor en la habitacion viene dada
por (15.29), es decir
u

(t) =
10ae
at
sinhaT
(15.44)
y la trayectoria optima para el estado viene dada por
x

(t) = 10
sinhat
sinhaT
(15.45)
Observese que x

(T) = 10.
15.1.3 Introduccion de un termino de control terminal
Vamos a considerar ahora el caso, que se presenta a veces en aplicaciones, en el que
en el ndice de funcionamiento aparezca un termino (o varios) escalar que dependa
Metodos Variacionales en Control Optimo 383
del valor alcanzado por el estado en el instante nal x(T) y eventualmente del
propio tiempo nal T. Es decir, sea un ndice de funcionamiento de la forma
J =

T
0
Ldt + S(x(T), T) S(x(0), 0) (15.46)
en donde S(x(T), T) representa el llamado termino de control terminal. Este caso
se puede reducir al estudiado hasta aqu. En efecto, considerese
J =

t
0

L +
dS
dt

dt (15.47)
=

t
0
Ldt +

t
0
dS (15.48)
es decir
J =

T
0
Ldt + S(x(T), T) S(x(0), 0) (15.49)
Observese que puesto que x(0) y el instante inicial 0 estan jados de antemano,
la minimizacion del ndice (15.49) es equivalente a la minimizacion del ndice
(15.47). (Normalmente S(x(0), 0) = 0)
Observese que la expresion (15.47) puede escribirse tambien:
J =

T
0

L +
S
x
x +
S
t

dt (15.50)
Por lo que esta sera la forma que se adoptara para el ndice de funcionamiento en
lo que sigue. Por tanto, el problema de control con termino de control terminal
se puede plantear, como se ha hecho hasta ahora modicando la funcion L(x, u)
para convertirla en
J

T
0
L
a
(x, x, u, t)dt (15.51)
con este planteamiento se puede aplicar el calculo de variaciones, tal como se ha
hecho anteriormente.
Recordando la expresion, se tiene que de la aplicacion del metodo de los
multiplicadores de Lagrange se desprende que en este caso
L

= L
a
+ (f x) (15.52)
= L +
S
x
x +
S
t
+ (f x) (15.53)
Vamos a comprobar que la introduccion de un termino de control terminal no
altera el planteamiento Hamiltoniano que se ha presentado en la seccion anterior,
Metodos Variacionales en Control Optimo 384
excepto en lo que respecta a las condiciones de transversalidad, como veremos
luego. Para presentar el metodo de Hamilton de resolver el problema de control
optimo se ha partido de la expresion (15.5). Ahora debemos partir de la (15.53).
La ecuacion Euler con relacion a x conduce a

x
[L
a
+ (f x)]
d
dt

x
[L
a
+ (f x)] = 0 (15.54)
desarrollando el primer miembro del primer termino se tiene

L +
S
x
x +
S
t
+ (f x)

=

x
[L + f] +

2
S
x
2
x +

2
S
xt
Por otra parte se tiene

L +
S
x
x +
S
t
+ (f x)

=
S
x
(15.55)
por lo que el segundo termino de (15.54) sera
d
dt

S
x

teniendo en cuenta que


d
dt

S
x

=

x

dS
dt

=

x

S
x
x +
S
t

se tendra que (15.54) se puede escribir

x
[L + f] =

que resulta ser la misma expresion que se tena en (15.6). Es decir, la ecuacion
de Euler con relacion a x es la misma se tenga o no termino de control terminal.
Es inmediato comprobar que sucede lo mismo con las ecuaciones de Euler con
relacion a u y a dadas en las expresiones (15.7 y 15.8).
El tiempo nal T y el estado que se alcance en dicho instante x(T) pueden
estar jados de antemano o no. En este segundo caso, que por otra parte es el
mas frecuente en los problemas con termino de control terminal, hay que recurrir
a las condiciones de transversalidad. Vamos, ademas, a aprovechar esta opor-
tunidad para establecer la condiciones de transversalidad en el planteamiento
hamiltoniano.
Metodos Variacionales en Control Optimo 385
Recordando la expresion (14.22) se tiene que las condiciones de transversabil-
idad para este caso vienen dadas por la expresion
L

T
x
f
+

x
L

T
T = 0 (15.56)
Es claro que de (15.53) y (15.55) se tiene:
L

x
=
S
x

Por lo que la expresion (15.56) se convierte en

S
x

T
x
f
+

L +
S
x
x +
S
t
+ (f x)

S
x

T[
T
= 0
lo que se puede escribir

S
x

x
f

T
+

L + f +
S
t

T
T = 0
que tambien puede escribirse

S
x

T
x
f
+

+
S
t

T
T = 0 (15.57)
El punto 4) del procedimiento de resolucion implica el resolver las ecuaciones
diferenciales (4)
x =
H

=
H

x
Si la dimension del vector de estado es n, entonces la resolucion del anterior
sistema de ecuaciones diferenciales implica la determinacion de 2n constantes.
Estas constantes se determinaran con ayuda de las condiciones de contorno. Estas
condiciones son:
1. Estado inicial x(0) que permite el establecimiento de n ecuaciones.
2. Condiciones nales generalizadas que vienen dadas por la ecuacion

S
x

T
x
f
+

+
S
t

T
T = 0
Metodos Variacionales en Control Optimo 386
si no existe termino de control terminal, es decir, si S(x, T) = 0, se simplican a
[
T
x
f
+ H

[
T
T = 0
Se pueden distinguir dos casos:
1. Estado nal impuesto y tiempo nal libre.
En tal caso x
f
= 0, y la determinacion de las n constantes se hace a partir
de

H

+
S
t

T
= 0
2. Estado nal libre y tiempo nal T determinado.
En tal caso se tiene que T = 0, por lo que la anterior ecuacion implicara
que

S
x

[
T
= 0 (15.58)
lo que permite establecer n ecuaciones suplementarias para determinar las
n constantes restantes.
Si S = 0, se tiene
i
(T) = 0.
Las dos situaciones anteriormente consideradas constituyen los dos casos extremos
que se pueden dar. Supongase, que ni el estado nal ni el instante nal T estan
dados de antemano, pero s la trayectoria y(t) en la que debe encontrarse el
estado nal. En tal caso, las condiciones de contorno en el extremo nal pueden
escribirse
(T)x
f
+ H

[x(T), (T), T]T = 0 (15.59)


Es inmediato ver que dx = y(T)dt, y puesto que dt es arbitrario, es necesario que
(T) y(T) + H
0
(T) + y(t)
S
x
[
T
+
S
x
[
T
= 0 (15.60)
Esta ecuacion, junto con el hecho de que x(T) = y(T) especica completamente
la solucion.
Ejemplo 6
Sea el sistema:
x = u(t) (15.61)
Metodos Variacionales en Control Optimo 387
que representa un movil que se acelera, y se trata de maximizar la distancia
recorrida en un tiempo determinado, minimizando al mismo tiempo una medida
cuadratica de la actuacion; es decir, adoptando el ndice
J = x(T) +
1
2

T
0
u
2
dt (15.62)
Se pide la se nal de control, para el caso x(0) = 0 y x(0) = 0
La descripcion interna del sistema (15.61) viene dada por
x
1
= x
2
x
2
= u(t)
con las condiciones iniciales x(0) = 0 y x(0) = 0.
Se construye la Hamiltoniana
H = L +
1
f
1
+
2
f
2
=
u
2
2
+
1
x
2
+
2
u
Minimizandola con respecto a u se tiene
H
u
= 0
Es decir
u +
2
= 0
por lo que la se nal de control optima sera
u

=
2
Por tanto, la hamiltoniana optima vendra dada por
H

2
2
2
+
1
x
2
Por los que las ecuaciones de Hamilton pueden escribirse
H

x
1
=

1
H

x
2
=

2
Metodos Variacionales en Control Optimo 388
es decir

1
= 0

2
=
1
y, por tanto,

1
= k
1

2
= k
1
t + k
2
Para determinar las constantes de integraci on se recurre a las condiciones de
contorno que, en este caso, puesto que T es jo y el estado nal x(T) es libre
resultan ser

S
x
i

T
= 0
Por tanto

S
x
1

T
= 0
1
(T) = 1
1
= 1

S
x
2

T
= 0
2
(T) = 0
2
(t) = T + t
Se tiene que la se nal de control optimo es
u

(t) = T t
Por tanto la se nal de control optima es tal que la fuerza aplicada debe de crecer
linealmente con el tiempo, hasta anularse para t = T.
Este problema puede resolverse tambien aplicando directamente las ecuaciones
de Euler, puesto que estamos en el caso en el que se puede eliminar u que se vio
en 15.1.2. En efecto, el ndice (15.62) del problema puede escribirse, eliminado u,
e incorporando al integrando el termino de control terminal (recordando lo que
se hizo en (15.48)), de la forma
J =

T
0

1
2
x
2
2
x
2

dt
Por tanto se tiene un problema de Euler con
L =
1
2
x
2
2
+ x
2
con condiciones iniciales x
1
(0) = x
2
(0) = 0. Para determinar las ecuaciones de
Euler se tiene que
L
x
2
= 1
L
x
2
= x
2
Metodos Variacionales en Control Optimo 389
Por lo que la ecuacion de Euler
L
x
2

d
dt
L
x
2
= 0
se convierte en
x
2
= 0
cuya integraci on conduce a x
2
(t) =
t
2
2
+ c
1
t + c
2
Las condiciones de contorno como, en este caso, puesto que T es jo, son
L
x
2
[
T
= x
2
(T) = T + c
1
luego c
1
= T. Ademas x
2
(0) = c
2
= 0. Por tanto,
u = x
2
= T t
Ejemplo 7
Se trata de determinar la se nal de control optimo para el sistema de primer orden
x = x + u
con x(0) = 0 para que se maximice el valor nal de x al tiempo que se minimiza
el funcional
1
2

1
0
u
2
dt. Se supone que la ponderacion entre ambos objetivos es
de manera que
J =

1
0
1
2
u
2
dt x(1)
Se procede de acuerdo con los pasos siguientes:
1. Se forma la hamiltoniana
H =
1
2
u
2
+ (u x)
2. Se minimiza la hamiltoniana
H
u
= u +
es decir
u

=
Metodos Variacionales en Control Optimo 390
3. Se forma la hamiltoniana minimizada
H

=

2
2

2
x =

2
2
x
4. Se forman las ecuaciones diferenciales (4)
H

x
=
H

= x
Que resultan ser

=
x = x
De la primera de estas ecuaciones se tiene,

= 0 = k
1
e
t
(15.63)
De la segunda se tiene
x + x =
es decir, de ambas,
x + x = k
1
e
t
cuya solucion es
x(t) = k
2
e
t

k
1
2
e
t
Las condiciones de transversalidad son (puesto que el estado nal es com-
pletamente libre y T = 1)
[
S
x
][
T=1
= 0 (15.64)
como S = x(t) se tiene
S
x
= (15.65)
De (15.64) y (15.65) se tiene
(1) =
Seg un (15.63), se tiene
(1) = k
1
e
es decir
k
1
=
(1)
e
=

e
luego
u

= (t) =

e
e
t
= e
(t1)
Metodos Variacionales en Control Optimo 391
Ejemplo 8
En este ejemplo vamos a considerar una variante del ejemplo de la regulacion
de la temperatura en una habitacion que se ha visto al nal de la seccion ante-
rior. Vamos a suponer que se trata de que la temperatura nal alcanzada por la
habitacion no sea exactamente de 10
o
(es decir que el estado nal x(T) no sea
exactamente 10), sino que se trata de minimizar el ndice
J =
1
2

T
0
u
2
(t)dt +
1
2
(x(T) 10)
2
en donde es un factor de ponderacion entre los dos terminos que aparecen en el
ndice de funcionamiento. El primer termino de J mide el coste de la actuacion,
y es el mismo que se tena en la expresion (15.26). El segundo termino es una
expresion cuadratica que mide la desviacion del estado nal x(T) del valor 10.
De acuerdo con este termino se trata de penalizar el hecho de que x(T) no sea
igual a 10, pero sin pretender que este sea exactamente el valor alcanzado.
Por tanto, el ndice J esta formado por dos terminos. El primero penaliza el
coste de la actuacion. Mientras que el segundo se reere a la meta que se persigue
mediante el funcionamiento del sistema: que el estado nal alcance un valor lo
mas cercano posible a 10. Estos dos terminos se suman afectando a uno de ellos
(en este caso al primero) mediante un factor de peso que mide la importancia
relativa que se asigne al comportamiento deseado (primer termino) o al coste de
alcanzarlo (segundo termino). Es decir, si se adopta un valor para muy grande,
entonces la solucion optima cumplira preferentemente la meta de que x(T) toma
un valor proximo a 10, dando poca importancia al coste necesario para alcanzar
esta meta. Por el contrario, si es peque no practicamente lo unico que se tiene
presente es el coste y nos encontramos con un problema analogo al discutido
anteriormente.
Para la resolucion del problema se procede en este caso como anteriormente,
pero sin embargo en este caso se tiene un termino de control terminal y el estado
nal x(T) no esta dado. Se trata, por tanto, de un problema de control optimo
con termino de control terminal, estado nal libre y tiempo nal T determinado.
Las condiciones de contorno en T vienen dadas, en ese caso, por la expresion
(15.58), que, en este caso, conduce a
(T) =
S
x
[
T
= (x(T) 10) (15.66)
Metodos Variacionales en Control Optimo 392
que es la nueva condicion nal. Esta expresion se puede escribir
x(T) =
(T)

+ 10 (15.67)
que llevada a (15.38) y recordando que x(0) = 0 conduce a
x(T) =
20a
2a + b
2
(1 e
2aT
)
(15.68)
llevando, a su vez, esta expresion de (T) a la expresion (15.32) se tiene

(t) =
10ae
at
ae
aT
+ b
2
sinhaT
(15.69)
Por ultimo, mediante la expresion (15.29) se tiene
u

(t) =
10abe
at
ae
aT
+ b
2
sinhaT
(15.70)
La trayectoria optima resulta ser
x

(t) =
10b
2
sinhat
ae
aT
+ b
2
sinhaT
(15.71)
Observese que si tiende a innito la se nal de mando (15.70) se convierte en la
(15.44) y el resto de las trayectorias tienden a ser las mismas que las determinadas
antes. En particular el estado nal x

(T) tiende a alcanzar exactamente el valor


10.
Tema 16
Principio del Mnimo de
Pontriagin
16.1 Introduccion
Al aplicar los metodos variacionales (ecuacion de Euler) a la resolucion del pro-
blema del control optimo, se pueden presentar los siguientes tipos de dicultades:
1. Los metodos variacionales suministran los maximos y mnimos relativos de
J(u) y no los absolutos;
2. Las ecuaciones de Euler son, normalmente, no lineales lo que frecuentemente
imposibilita la obtencion de la solucion de forma explcita;
3. Normalmente, los valores admisibles para las se nales de control estan aco-
tados, lo que hace imposible la determinacion de la se nal de control optimo
por metodos variacionales.
Al estudiar en el apartado anterior el problema del control optimo, se ha consider-
ado que los valores posibles tomados por la se nal de entrada no estaban acotados.
Es decir, que U = IR. Este caso, obviamente, no es el mas general, sino que debe
considerarse el caso en que la region de las se nales de control admisibles este
acotada; es decir, U este acotada.
Esta ultima circunstancia, especialmente, tuvo una importancia decisiva para
el desarrollo de nuevas ideas en la teora del control optimo. Las limitaciones que
393
Principio del Mnimo de Pontriagin 394
se imponen normalmente a las se nales de control son del tipo,
[ u
i
[ M
i
Este tipo de limitaciones son perfectamente naturales en las aplicaciones. As,
por ejemplo, los valores que alcanza una magnitud electrica, como la tension o
la intensidad, en un determinado circuito, estan, en la practica, limitadas por
consideraciones de tipo fsico; lo mismo sucede en los equipos mecanicos con las
posiciones o las velocidades; y as en cualquier sistema fsico. En general, una
forma de la evolucion de una magnitud fsica, y en particular de una se nal de
mando, en un proceso fsico real, toma la forma que muestra la gura 16.1.
t
Figura 16.1:
Seg un se ver a mas abajo, para obtener comportamientos optimos con respecto
a determinados criterios se requiere que se mantengan las se nales de control en
sus valores extremos. Esto sucede especialmente en los problemas de control en
tiempo mnimo.
En 1956, los matematicos rusos Pontriagin, Boltianskii y Gamkrelidge estu-
diaron el problema de la optimizacion dinamica para el caso en que la region
de se nales de control admisibles | estuviese acotada, y establecieron el famoso
principio del mnimo (en el trabajo original del maximo) al que se ha unido el
nombre del primero de estos tres autores.
El principio del mnimo de Pontriagin constituye una generalizacion de los
resultados alcanzados con ayuda del calculo variacional para resolver el problema
del control optimo. La diferencia esencial entre los resultados alcanzados con
ayuda del calculo variacional y aquellos que se obtienen con ayuda del principio
del mnimo de Pontriagin, reside en que en este ultimo caso se puede denir un
espacio de funciones admisibles |(t) para las se nales de control u(t). Al mismo
tiempo las se nales u(t) de control admisibles pueden presentar discontinuidades
Principio del Mnimo de Pontriagin 395
en un n umero nito de puntos; con ello se abre la posibilidad de estudiar el control
por conmutacion, que tanto interes tiene en determinadas aplicaciones practicas,
como se vera mas adelante.
Recordando el problema del control optimo, se tiene un sistema cuya evoluci on
viene dada por
x = f(x, u) (16.1)
siendo conocido x(0).
Las se nales de control admisibles deben pertenecer a un conjunto cerrado |,
es decir,
u(t) | (16.2)
El estado y el instante al nal del proceso estan denidos por un conjunto de
pares (x(T), T) B.
El criterio a optimizar es de la forma
J =

T
0
L(x, u)dt + S(x(T), T) (16.3)
Se dene, ademas, la funcion hamiltoniana de acuerdo con la expresion siguiente
H(x, u, ) = L(x, u) + f(x, u) (16.4)
El principio del mnimo de Pontriagin permite establecer las condiciones nece-
sarias para que una se nal de control admisible de lugar a un control optimo.
Sea u(t) una se nal de control admisible y x(t) la trayectoria correspondiente, de
manera que x(t) este denida por
x = f(x, u) (16.5)
x(0) = 0 (16.6)
Por otra parte, se denen las ecuaciones adjuntas o de coestado como sigue:
d
dt
=
f
x

L
x
(16.7)
Por ultimo, recordando las expresiones (15.57) las condiciones nales dan lugar a
(T)x
f
H(T)T =
S
x
x
f
+
S
t
T (16.8)
Con todo los elementos anteriores se puede enunciar el principio del mnimo de
Pontriagin como sigue:
Teorema (Principio del mnimo de Pontriagin).
Principio del Mnimo de Pontriagin 396
Supuesto que existe un vector adjunto (t) tal que satisfaga las ecua-
ciones adjuntas (16.7) y las condiciones nales (16.8) para todo vector
(x
f
, T) tangente a B en el punto (x(T), T), entonces la condicion
necesaria para la existencia de un mnimo es que en todo punto
t (0, T) la funcion hamiltoniana H(x, u, ) alcance su mnimo con
relacion a u.
De acuerdo con el principio de Pontriagin la eleccion del control optimo u

es muy
simple: en cada instante de tiempo, u debe seleccionarse de manera que garantice
el mnimo posible de la hamiltoniana H, teniendo en cuenta las restricciones
(limitaciones) impuestas sobre los valores admisibles de u.
La funcion hamiltoniana permite evaluar variaciones del criterio J debido a
variaciones admisibles e innitesimales de la se nal de control u(t). La variacion
del hamiltoniano H debida a una variaci on u se denota por H, y se escribe,
H =

L
u
+
f
u

u (16.9)
Para la demostracion del teorema del mnimo de Pontryagin interesa establecer
en primer lugar el siguiente lema:
Lema
Sea una trayectoria nominal (o de referencia) x(t) de un sistema
dinamico, generada por una se nal de mando u(t).
La variaci on del criterio J debida a una variaci on admisible u de
la se nal de control optimo u

(que determinara una variaci on de la


trayectoria x) viene dada por
J =

T
0
H(t)dt (16.10)
en el supuesto de que se cumplan las ecuaciones adjuntas (16.7) y las
condiciones nales (16.8).
Demostracion
Sea el sistema dinamico
x = f(x, u)
Principio del Mnimo de Pontriagin 397
Debido a la variaci on de la se nal de control u se produce una variaci on de la
trayectoria x que vendr a dada por la ecuacion diferencial siguiente:
x + x = f(x + x, u + u)
es decir
x =
f
x
x +
f
u
u
Por las razones que se pondran de maniesto mas abajo interesa calcular la
variacion con el tiempo de x. Se tiene
d(x)
dt
=
d
dt
x +
d(x)
dt
=

L
x

f
x

x +

f
x
x +
f
u
u

=
L
x
x +
f
u
u
Pasando al primer miembro el primer termino del segundo miembro, y sumando
a ambos miembros
L
u
u se tiene, recordando (16.9).
d(x)
dt
+
L
x
x +
L
u
u =
f
u
u +
L
u
u
=

f
u
+
L
u

u
= H
Observese que en H se indica la variacion de H debida exclusivamente a la
variacion de u, supuestos x y constantes. Integrando la anterior expresion
entre 0 y T, y recordando que x(0) = 0 se tiene
(T)x(T) +

T
0

L
x
x +
L
u
u

dt =

T
0
Hdt (16.11)
Por otra parte, de acuerdo con la gura 16.2, se puede aproximar el desplaza-
miento x
f
entre la trayectoria nominal y la trayectoria perturbada con la si-
guiente expresion, (que es la misma que la (14.21))
x(T) = x
f
x(T)T (16.12)
siendo (x
f
, T) tangente a B. Es decir,
(T)x(T) = (T)(x
f
x(T)T) (16.13)
Principio del Mnimo de Pontriagin 398

x
(T)
x(T
f
)T
T +T T
x
f
Figura 16.2:
Recordando las condiciones nales (16.8), se tiene, en el caso en que S = 0,
(T)x
f
= H(T)T (16.14)
Por lo que (16.13) se puede escribir
(T)x(T) = H(T)T (T) x(T)T (16.15)
Por otra parte, se tiene que
H(T) = (T)f(T) + L(T) (16.16)
lo que se puede escribir
(T) x(T) = H(T) L(T) (16.17)
lo que llevado a la expresion (16.15) conduce a
(T)x(T) = L(T)T (16.18)
Por otra parte se sabe que
J =

T
0

L
x
x +
L
u
u

dt + L(T)T (16.19)

T+T
T
Ldt L(T)T (16.20)
Teniendo en cuenta (16.18) la anterior expresion se reescribe:
J =

T
0

L
x
x +
L
u
u

dt + (T)x(T) (16.21)
Principio del Mnimo de Pontriagin 399
lo que seg un (16.11) conduce a:
J =

T
0
Hdt (16.22)
con lo que queda demostrado el lema. 2
Recuerdese que la variaci on de H que se considera en la expresion (16.22) es
exclusivamente la debida a u. Es decir, la expresion (16.22) se puede escribir
J = J(u) J(u

) =

T
0
(H(x

, u, ) H(x

, u

, ))dt (16.23)
Aparentemente no hay nada de extraordinario en el anterior lema. De hecho,
la ecuacion adjunta y las condiciones de tranversalidad preguran el resultado
alcanzado. Sin embargo es interesante resaltar el interes de la expresion (16.22),
ya que permite evaluar el efecto sobre J de una variaci on local de u. Esta
interpretacion conduce al teorema del mnimo de Pontriagin. Para enunciar ese
teorema se parte del hecho de que toda trayectoria optima esta caracterizada por
la condicion
J 0, u(t) (16.24)
que, de acuerdo con el lema, se convierte en que la condicion necesaria para el
mnimo es

T
0
H(t)dt 0 (16.25)
para toda variacion innitesimal admisible u(t).
Considerese variaciones u(t) tales que,
u(t) = u < t <
= 0 resto
de manera que se cumpla:

u(t) + u(t) |
x(t) + x(t) corta a B
La condicion de mnimo de la expresion (16.25) se convierte en
H(t) 0 (16.26)
Principio del Mnimo de Pontriagin 400
para todo 0 < t < T. En efecto, para demostrar la expresion (16.26) se procede
por contradicci on. Supongase que existe un valor de u y uno del tiempo t
1
tales
que
H(x

(t
1
), u

(t
1
), (t
1
)) > H(x

(t
1
), u, (t
1
)) (16.27)
es decir, que H( u) en t
1
es menor que H(u

) optima. Entonces es posible concebir


una se nal u(t) tal que coincide con u

(t) para todo valor de t excepto en un


peque no entorno de t
1
en el que toma el valor u(t
1
) = u (gura 16.3). Puesto que
T
t
1
t
1 T
0
0
u

u
Figura 16.3:
H es continua con relacion a x, y (en la medida en que lo son L y f) se tendra
que en un entorno de t
1
se podra determinar un valor de

tal que
H(x

(t), u

(t), (t)) H(x

(t), u(t), (t)) <

(16.28)
para todo t tal que t t
1
< . De lo anterior se desprende
J = J( u(t)) J(u

(t))
=

T
0
(H(x

(t), u(t), (t)) H(x

(t), u

(t), (t)))dt <

Haciendo arbitrariamente peque no se tiene


J < 0 (16.29)
Principio del Mnimo de Pontriagin 401
en contradicci on con lo supuesto. Es decir, en el caso en que para un valor u y
un tiempo t
1
se cumpla la expresion (16.27) puede suceder (16.29). Para que no
suceda (16.29) es necesario que (16.27) no suceda. Luego tiene que cumplirse,
como establece el teorema que se trataba de demostrar.
De hecho el principio del mnimo de Pontriagin no hace sino generalizar los
resultados alcanzados en el apartado anterior para el caso en que u

(t) se encuen-
tre en los lmites de U, y no en el interior de esta region. Es decir, el principio
del mnimo de Pontriagin generaliza al caso en que u este acotada el resultado
demostrado anteriormente seg un el cual la determinacion de la se nal de control
u

que minimiza al funcional J es equivalente a la determinacion de la se nal u

que minimice la funcion hamiltoniana H.


El interes del principio del mnimo, como el del calculo variacional, reside
en que el problema inicial de minimizar un funcional J se transforma en una
innidad (para cada valor de t (0, T)), de problemas de minimizacion de un
escalar H.
En el apartado anterior se ha visto que la determinacion de u

(t) que minimice


a H se haca resolviendo la ecuacion algebrica
H
u
= 0
Esta ecuacion permite determinar el mnimo de H en el caso en que u

se encuen-
tre en el interior de U, lo que siempre sucede en el caso de que u no este acotada.
En el caso en que u este acotada, la determinacion del mnimo de H debe hacerse
por otro tipo de consideraciones, y no con ayuda de la ecuacion anterior. La
demostracion rigurosa de que u

debe elegirse de manera que minimice H es la


contribucion basica de Pontriagin a la teora del control optimo.
Habida cuenta del principio del mnimo de Pontriagin, los cinco pasos enun-
ciados en el apartado anterior para resolver el problema de la determinacion de
la ley de control optima mantienen su vigencia, excepto el segundo que toma la
forma siguiente:
- Determinar u

tal que
u

= arg. min.H
en donde arg. min. debe leerse obtener el argumento u

que minimice H.
Es decir, la hamiltoniana se minimiza en cada punto del tiempo a lo largo de
la trayectoria optima por eleccion de los valores de u optimos. As, para cualquier
Principio del Mnimo de Pontriagin 402
valor de t [t
0
, T] sucede que o existe una solucion interior en la cual
H
n
= 0
como sucede en los casos considerados al estudiar el calculo de variaciones, o se
tiene un asolucion de contorno en la cual
H
n
0
en donde n es una normal dirigida hacia el exterior sobre el contorno de |. En
la gura 16.4 se representan gracamente estas dos posibilidades, para el caso en
que la dimension de u sea 1.
Solucion interior

u
o
u
H
H
o
Solucion de contorno

u
o
u
H
o
H
Figura 16.4:
En la gura se considera la forma de H, en funcion de u, para un instante
generico de tiempo t.
En el cuadro se resume el metodo modicado.
Principio del Mnimo de Pontriagin 403
Resumen de la aplicacion del
Principio del mmimo de Pontriagin
a la determinacion del
Control Optimo
Se da el sistema x = f(x, u)
Se da el criterio J =

T
0
L(x, u)dt
Se dan las restricciones [ u [ M
i
Paso 1 Se forma la Hamiltoniana
H(x, u, ) = L(x, u) + f(x, u)
Paso 2 Se determina u

(x, ) admisible tal que


minimice H(x, u, ) con respecto a u
Paso 3 Se determina la Hamiltoniana mnima
H

(x, ) = H(x, u

(x, ), )
Paso 4 Se resuelve el sistema de 2n ecuaciones
x =
H

=
H

x
con las condiciones de contorno correspondientes.
Se obtiene x

(t) y

(t).
Paso 5 Se determina u

(t) = u

(x

(t),

(t))
Principio del Mnimo de Pontriagin 404
Debe notarse que el principio del mnimo representa exclusivamente una condicion
necesaria, es decir, que una vez obtenido el valor debe comprobarse que efectiva-
mente corresponde a un mnimo.
En algunos libros, y especialmente en el original de Pontriagin, el principio del
mnimo se denomina del maximo. En ultimo extremo ello no es sino un problema
de signos en la hamiltoniana que debe ser optimizada.
Ejemplo 1
Se trata de trazar una curva x(t), 0 t T, que se inicie en x(0) = 0, cuya
pendiente en cada punto no sea mayor que 1 y que maximice el valor de x(t) en
t = T.
El problema puede formularse representando la curva mediante el sistema
dinamico:
x = u(t)
Este curva debe ser tal que x(0) = 0, y ademas se pide que u(t) 1. Puesto que
se pretende maximizar x(T) el criterio sera:
J = x(T)
Se trata, por tanto, de un problema de control optimo con un termino de control
terminal tal que S(x(T), T) = x(T). Aplicando el metodo que se acaba de pre-
sentar, se tendra que en este caso L(x, u) = 0 y f(x, u) = u por lo que la funcion
hamiltoniana sera:
H = u
Conviene notar que en la funcion hamiltoniana no aparece el termino relativo al
control terminal (al estado nal). De la expresion de H se desprende que para
< 0 el valor optimo de u es y para > 0 es u = 1.
Las ecuaciones de Hamilton resultan ser:
x =
H

= u (16.30)

=
H

x
= 0 (16.31)
Integrando (16.31) se tiene
(t) = k
Principio del Mnimo de Pontriagin 405
T
x(t)
x
1
(t)
Figura 16.5: Problema de la curva optima con crecimiento acotado.
siendo k una constante. Por otra parte la condicion de contorno, puesto que
se trata de un problema con estado nal libre y tiempo nal T determinado,
resulta ser, recordando (15.58), (T) = 1. Por tanto k = 1, y (t) = 1 > 0.
En consecuencia, la se nal de control optima sera u = 1. Llevando este valor a
(16.30), y recordando que x(0) = 0, se tiene que la curva optima sera
x(t) = t
Este resultado, que se muestra en la gura 16.5, tiene un contenido muy intuitivo.
Ejemplo 2: Control optimo de un sistema lineal
Sea el sistema
x = 2x + u
con el ndice

T
0
x
2
dt
y con la restriccion [ u [ 1. Se forma la hamiltoniana,
H = x
2
+ (u 2x)
Para optimizar la hamiltoniana se observa que la dependencia de esta funcion de
u se limita al termino u. Por tanto, teniendo presentes las restricciones sobre u,
es claro el valor optimo de u sera u = +1 si < 0 y u = 1 si > 0 Ver gura
16.6).
Principio del Mnimo de Pontriagin 406
u
u
+1
1
1
+1
H
H
> 0
< 0
Figura 16.6:
Si se emplea la funcion sgn (se lee signo) se escribe,
u

= sgn ()
La hamiltoniana optima sera
H = x
2
sgn () 2x
La ecuacion adjunta es:

= 2x + 2
El conjunto se puede mecanizar interpretar mediante un diagrama como el de la
gura 16.7.
Observese que puesto que S = 0, la condicion de contorno es (T) = 0.
Ejemplo 3: Control optimo de un sistema de dimension dos
Sea el sistema (planta) con ecuaciones de estado
x
1
= x
2
x
2
= x
1
+ u
Se trata de minimizar el criterio de funcionamiento
J =
1
2

T
0
(x
2
1
+ u
2
)dt
Principio del Mnimo de Pontriagin 407
-1
x
-2
-2 2

Figura 16.7: Diagrama de bloques.


Con se nales de control admisibles tales que
[ u(t) [ 1 t [0, T]
Para resolver el problema se procede de acuerdo con los pasos indicados anteri-
ormente.
1. Se forma la hamiltoniana
H =
1
2
x
2
1
+
1
2
u
2
+
1
x
2
+
2
(u x
1
)
2. Se minimiza H con relacion a todos los valores de u admisibles, para de-
terminar u

= u

(x, , t). En este caso se separan los terminos en u de


H
1
2
u
2
+
2
u
Si la se nal de control no esta saturada, el mnimo se obtiene haciendo
H
u
= 0
lo que da
u

=
2
Por tanto, si [
2
(t) [< 1 entonces se adopta u

=
2
ya que con ello se
esta en la zona no saturada de u). Si [
2
(t) [> 1 entonces, segun se ha
visto en el ejemplo anterior, el valor que minimiza H sera
u

= sgn (
2
)
Principio del Mnimo de Pontriagin 408
u

(t)

2
(t)
Figura 16.8: Representacion de u

Por tanto u

tiene la forma que se indica en la gura 16.8.


Para determinar
2
(t) se resuelven las ecuaciones
x
1
= x
2
x
2
= x
2

1
= x
1

2
=
1
con las condiciones de contorno que correspondan.
16.2 Control optimo por conmutaci on
16.2.1 Control en tiempo mnimo de un sistema de se-
gundo orden
Supongase un movil sin rozamiento, cuyo movimiento esta controlado por una
fuerza u que esta acotada ([u[ < 1). La ecuacion dinamica del movimiento es
d
2
y
dt
2
= u
que admite la representaci on por variables de estado:
x
1
= x
2
x
2
= u
y = x
1
Principio del Mnimo de Pontriagin 409
El control en tiempo mnimo consiste en determinar en cada instante t, la fuerza
que hay que aplicar u(t) de manera que evolucione desde un estado inicial (x
1
, x
2
)
al origen (0, 0), en un tiempo mnimo.
El ndice de funcionamiento vendr a dado por
J =

T
0
dt = T (16.32)
por lo tanto, se tiene que,
L(x, u) = 1 (16.33)
En primer lugar se procede a formar la hamiltoniana
H = 1 +
1
x
2
+
2
u
Es claro que H alcanzara el valor mnimo
si
2
< 0 haciendo u = +1
si
2
> 0 haciendo u = 1
es decir,
u

(t) = sgn (
2
(t))
por lo que la hamiltoniana minimizada resultara ser
H

= 1 +
1
x
2

2
sgn (
2
)
Las ecuaciones adjuntas resultan ser en este caso

1
=
H

x
1
= 0

2
=
H

x
2
=
1
cuya integraci on conduce a

1
= k
1

2
= k
1
t + k
2
Se observa que
2
es monotona (creciente o decreciente, seg un los signos de k
1
y
k
2
), por lo que cambiara de signo, a lo sumo, una sola vez. Por lo tanto u, o bien
tomara solo uno de los valores +1 o 1 hasta alcanzar el origen, o cambiara una
sola vez de valor antes de alcanzarlo.
Principio del Mnimo de Pontriagin 410
En cualquir caso, las unicas se nales que se aplicaran al sistema seran + 1 o -
1. Por lo tanto interesa estudiar como evoluciona el sistema cuando u = +1, y
cuando u = 1.
Para u = +1 se tiene,
x
2
= t + c
1
x
1
=
t
2
2
+ c
1
t + c
2
es decir,
x
2
2
= 2x
1
+ c
3
siendo c
3
= c
2
1
2c
2
. La anterior expresion puede representarse gracamente
como se hace en la gura 16.9a.
b)
x
1
x
2
x
2
x
1
u = +1 A
a)
u = 1
t
0
B
0
t
Figura 16.9:
La unica trayectoria que pasa por el origen es AO, luego sera por esta trayec-
toria por la que debera alcanzarse el origen.
Para u = 1 se demuestra analogamente que las trayectorias vienen dadas
Principio del Mnimo de Pontriagin 411
por
x
2
= 2x
1
+ c
4
lo que se representa gracamente en la gura 16.9b. Las mismas consideraciones
hechas anteriormente para la trayectoria AO valen aqu para la trayectoria BO.
Los resultados anteriores pueden resumirse en la gura 16.10.
0
A
B
u = +1
u = 1
x
2
x
1
Figura 16.10:
Del examen de esta gura se desprende que,
1. Si el estado inicial se encuentra sobre AO(BO) se aplica u = +1(u = 1)
y no se produce ninguna conmutacion.
2. Si el estado inicial se encuentra por debajo (por encima) de BOA se aplica
u = +1(u = 1) hasta que el estado, recorriendo la parabola correspon-
diente, alcance la lnea BO(AO) en cuyo caso se conmutara la se nal de
mando haciendo u = 1(u = +1).
De acuerdo con lo anterior la curva de conmutacion vendr a dada por
x
1
=
1
2
x
2
[ x
2
[
de manera que la ley de control sera,
u

= sgn ()
Principio del Mnimo de Pontriagin 412
siendo,
= x
1

1
2
x
2
[ x
2
[
Esta ley de control puede realizarse practicamente con un esquema como el
de la gura 16.11.
x
2
1
2
x
|
+1
+
+
-
+
y
r
= 0

-1
u
0
1
s
1
s
x
1
x
2
[ x
2
[
+1
Figura 16.11: Ley de control
Debe observarse que, en cierta manera, lo que se ha hecho ha sido determinar
una ley de control, puesto que la se nal de mando que se aplica en cada instante,
a partir de las consideraciones anteriores, depende unicamente del estado del
sistema.
16.2.2 Ejemplo 4: Problema del alunizaje suave
Determinar la ley de control optima que transera al modulo lunar (gura 16.12)
desde una posicion inicial (z(0), z(0), M(0)) a la posicion nal (0, 0, M(T)) con
un consumo mnimo de combustible. La se nal de control u esta acotada por
0 < u < Q.
Solucion
Haciendo x
1
= z, x
2
= z, las ecuaciones dinamicas del sistema se transforman
en
x
1
= x
2
(16.34)
Principio del Mnimo de Pontriagin 413
z
Mg
ku
Figura 16.12: Aterrizaje lunar
x
2
= g +
ku
M
(16.35)
Observese que M depende del tiempo, de modo que
M(t) = M(0)

t
0
udt
Se supone que
M
M
=
M(T) M(0)
M(0)
es muy peque na, de modo que la expresion (16.35) puede considerarse correcta
en primera aproximacion. El criterio a minimizar es
J =

T
0
udt
por lo que
H = u +
1
x
2
+
2

g +
ku
M

es decir
H =
1
x
2

2
g + u

1 +
k
2
M(0)

t
0
udt

Minimizando H respecto a u se observa que el control viene dado por


u = 0 si

1 +
k
2
M(0)

t
0
udt

> 0
Principio del Mnimo de Pontriagin 414
u = Q si

1 +
k
2
M(0)

t
0
udt

< 0
Las ecuaciones adjuntas son

1
=
H
x
1
= 0
1
= k
1

2
=
H
x
2
=
1

2
= k
1
t + k
2
El que
2
crezca (o decrezca) linealmente con el tiempo implica que el signo de

1 +
k
2
M(0)

t
0
udt

cambie una vez como maximo, y por lo tanto u solo toma los valores 0 y Q una
sola vez en la trayectoria optima.
Cuando u = 0 (caida libre del modelo), las ecuaciones dinamicas toman la
forma:
x
1
= x
2
x
2
= g
de donde se tiene
x
2
= gt + x
2
(0) = gt + z(0) (16.36)
y
x
1
= g
t
2
2
+ z(0) + z(0)t (16.37)
De la ecuacion (16.36) despejamos el tiempo
t =
z(0) x
2
g
y lo sustituimos en la ecuacion (16.37)
x
1
= z(0) +
z
2
(0)
2g

x
2
2
2g
es decir,
x
2
2
= z
2
(0) + 2g(z(0) x
1
)
esta expresion da la familia de trayectorias en el plano de estado, en funcion de
las condiciones iniciales z(0), z(0).
Principio del Mnimo de Pontriagin 415
x
2
x
1
u = 0
z(0)
z(0)
Figura 16.13:
En la gura 16.13 se representan las trayectorias correspondientes
Cuando u = Q
x
1
= x
2
x
2
= g +
kQ
M(0)

t
0
udt
=
kQ
M(0) Qt
g
Integrando la segunda de las anteriores expresiones se tiene
x
2
z(0) = k (ln(M(0) Qt) ln M(0)) gt
lo que llevado a la primera
x
1
= x
2
= z(0) k ln(M(0) Qt) + k ln M(0) gt
es decir
x
1
z(0) = z(0)t + k
M(0)
Q

1
Qt
M(0)

ln

1
Qt
M(0)

g
t
2
2
+ k ln M(0)t
En el ultimo paso se ha tenido en cuenta que

ln xdx = x ln x x
Las trayectorias en el plano de fase corresponden a curvas de la forma que se
indica en la gura 16.14.
La unica trayectoria que pasa por el origen es la AB, y es por lo tanto la curva
de conmutaci on, como la se nal u solo cambiaba de valor una vez en la trayectoria
Principio del Mnimo de Pontriagin 416
A
CHOQUE
z(0)
B
u = Q
z(0)
x
1
x
2
Figura 16.14:
optima, cualquier trayectoria del movil correspondera a una caida libre si se
encuentra por encima de la trayectoria AB. Las ecuaciones parametricas de la
trayectoria AB corresponden a
z =
g
2

2
k =
kM(0)
Q
ln

1
Q
M(0)

z = g + k ln

1
Q
M(0)

Zona de caida libre


Choque
con
velocidad
Z
o
n
a
d
e
c
h
o
q
u
e
u = Q
k = 0
Linea de
conmutacion
x
2
x
1
Figura 16.15:
En la gura 16.15 se representa la evolucion conjunta de las representadas en
las guras 16.13 y 16.14.
Tema 17
Principio de optimalidad de
Bellman
17.1 Introduccion
Dado un criterio de optimalidad, las N se nales de mando o decisiones que con-
ducen el sistema del estado A al B, de acuerdo con este criterio, y a traves de
N pasos sucesivos, son tales que cualquiera que sea el estado C resultado de
aplicacion de la primera de ellas, las N 1 se nales restantes dan lugar a una
trayectoria optima de C a B.
Al cumplirse lo anterior para el primer paso es evidente que se cumple para
cualquier paso intermedio.
Gracamente se interpreta en la gura 17.1, diciendo que si la trayectoria
AB es optima, lo mismo lo es la CB. Es decir una trayectoria optima tiene
la propiedad de que cualesquiera que sean el estado inicial y la primera accion
tomada sobre el sistema, las restantes acciones deben constituir una trayectoria
optima a partir del estado resultante de la primera accion.
Observese que se exige que B sea siempre el estado nal. Es decir, que un
tramo de la trayectoria AB, que no acabe en B, no puede considerarse optimo.
417
Principio de optimalidad de Bellman 418
B
C
A
Figura 17.1: Principio de optimalidad: si la trayectoria AB es ooptima, tambien
lo es la CB.
Ejemplo
Se trata de determinar la trayectoria optima de A a P, en 6 etapas. Los tramos
de cada porcion de la primera trayectoria estan penalizados con un costo que se
representa en la gura 17.2 con un n umero sobre el correspondiente tramo. El
criterio de optimalidad es el minimizar el costo total del recorrido.
Se considera en primer lugar la quinta y la sexta etapa (gura 17.3). En cada
uno de los nudos se escribe un n umero rodeado por un circulo que representa
el coste mnimo del recorrido desde dicho nudo a P, supuesto por la trayectoria
optima.
Es evidente que desde N y O, al no haber opcion el correspondiente n umero
sera el costo de la trayectoria. Lo mismo sucedera desde K y M, desde los que
las unicas trayectorias posibles son KNP y MOP, de costos 8 y 9 respectiva-
mente. Sin embargo desde L dos trayectorias son posibles, la INP y la LOP de
costos 7 y 8 respectivamente. Por lo tanto la optima sera la LNP y se encerrara
un 7 en el circulo correspondiente. Observese que a lo largo de la trayectoria
optima la diferencia entre los n umeros encirclados es igual al costo del tramo
correspondiente. De la misma manera se puede estudiar la 4 etapa (gura 17.4).
Debe notarse que en este paso ya se obtiene un notable benecio de los calculos
anteriores y que al, por ejemplo, calcular la trayectoria optima desde H, se tiene
en cuenta las trayectorias optimas desde K y desde L, y no se tiene que volver a
calcular todo el trayecto. De hecho lo que se hace es decidir entre HK y HL de
Principio de optimalidad de Bellman 419
1 2 3 4 5 6 7
A
B
C
E
F
D
G
H
I
J
K
N
O
P
L
M
3
1
6
4
6
5 2
8
9
2
3 7
4
5 9
6 5
3
5 7
3
1
4
2
Figura 17.2: Retculo de trayectos posibles entre A y P.
M
L
K
N
O
P
8
7
5
9
3
Figura 17.3: Las dos ultimas etapas para llegar a P.
Principio de optimalidad de Bellman 420
M
L
K
N
O
P
8
7
5
9
3
J
I
H
G
18
14
12
14
Figura 17.4: Las tres ultimas etapas para llegar a P.
Principio de optimalidad de Bellman 421
manera que la suma del costo correspondiente al nuevo tramo y el costo optimo
a K o a L (n umero encirclado), sea mnimo.
Procediendo de esta manera se llega a cubrir todo el diagrama con los costos
mnimos desde los correspondientes nudos. De la gura 17.5 y de los anterior-
mente expuestos, se deduce que la trayectoria optima es la ABEHKNP.
M
L
K
N
O
P
8
7
5
9
3
J
I
H
G
18
14
12
14
A
B
C
D
E
F
17
16
17
18
14
15
Figura 17.5: Trayectoria optima de A a P.
17.1.1 Ejemplo de un sistema binario en tiempo discreto
Sea un sistema que admite una entrada u(k) que toma unicamente los valores 0
y 1, para todo k discreto. La ecuacion que gobierna la evoluci on del mismo es
la siguiente:
x(k + 1) = x(k) + u(k) (17.1)
Se trata de encontrar la secuencia u(k), k = 0, 1, 2, 3 que transera el estado del
sistema de x(0) = 2 a x(4) = 0 de manera que se minimice la funcion de costo
J =
3

t=0
[ 5x(k) 3 [ (17.2)
Para una mejor comprension del metodo se empleara un diagrama sobre un plano
x y, en donde en el eje y se representa el estado del sistema (17.1) y en el eje
x el ndice k (gura 17.6).
En dicho diagrama se tienen unos circulos correspondientes a los distintos
pares (x, k) y unas echas que los unen. Estas ultimas llevan asociados n umeros
que representan el costo de la transicion de un punto a otro, y se calculan seg un
(17.2). Este costo depende exclusivamente del estado previo.
Principio de optimalidad de Bellman 422
0 1 2 3 4
2
1
7
7
7 7
7
2
2
2
2
3
3
2
13 11 9
6 4 2
6 3 0
x(t)
t
B
A
Figura 17.6: Trayectorias posibles desde A hasta B.
En cuando a los circulos, tienen tambien n umeros cuya generacion se va a ver
a continuaci on. Estos n umeros representan J

i
(x).
En primer lugar, considerese k = 3, y J

1
. Para los dos valores posibles de x,
x = 0 y x = 1 que conducen a B, los valores de J

1
correspondientes son:
J

1
(0) = 3
J

1
(1) = 2
Puesto que no hay diferentes rutas desde los dos puntos no se requiere mini-
mizacion.
Sea ahora k = 2. Los puntos en los que se puede iniciar el proceso son en este
caso x = 0, 1, 2. Para x = 0, 2 no existe problemas de adopcion de ruta pero para
x = 1 si es posible aplicar u = 0 o u = 1.
En tal caso se tiene,
J

2
(1, 2) = min
u
[2 + J

1
] = 4
De la misma forma se procede para t=1, resultando
J

3
(0) = 9 (17.3)
J

3
(1) = 6 (17.4)
J

3
(2) = 11 (17.5)
y asimismo para k = 0, siendo en ese caso
J

4
(2) = 13
Principio de optimalidad de Bellman 423
Una vez realizados los calculos anteriores la determinacion de la trayectoria
optima es ya un problema trivial. Los distintos tramos de la misma estaran
formados de acuerdo con la regla J

i
(x
1
) J

i1
(x
2
) = costo de la transicion de x
1
a x
2
.
De acuerdo con este criterio, cuya interpretacion es obvia, se obtiene la trayec-
toria de trazo fuerte de la gura 17.7.
0 1 2 3 4
2
1
7
7
7 7
7
2
2
2
2
3
3
2
13 11 9
6 4 2
6 3 0
x(t)
t
B
A
Figura 17.7: Trayectoria optima entre A y B, en trazo grueso.
17.1.2 Programacion dinamica en tiempo discreto y Prin-
cipio de Optimalidad
El ejemplo anterior admite la siguiente generalizacion. Sea un sistema dinamico
en tiempo discreto
x(k + 1) = f(x(k), u(k), k) (x(T), T) B
cuyo funcionamiento se pretende que optimece el criterio
J =
T1

t
0
L(x(k), u(k), k) + S(x(T), T) (17.6)
En lugar de considerar el problema correspondiente con un estado e instante
inicial dados (x(t
0
), t
0
), vamos a considerar el problema mas general con un estado
y condiciones iniciales (x, t) arbitrarias. Para cada uno de estos problemas se
dene la funcion
V (x, t) = min J
Es decir, para cada (x, t) la funcion V (x, t) nos da el coste optimo, desde
ese estado y tiempo. Si recordamos los dos ejemplos anteriores veremos que la
Principio de optimalidad de Bellman 424
funcion V (x, t) toma, en esos problemas, el valor que se representa en las guras
17.5 y 17.6 en el interior de un peque no crculo.
Para la aplicacion de la programacion dinamica, conviene observar, en primer
lugar, que el criterio (17.6) es aditivo. Debido precisamente a este caracter aditivo
y aplicando el principio de optimalidad de Bellman se tiene que
V (x, t) = min
u(t),u(t+1),...

T1

t
L(x(k), u(k), k) + S(x(T), T)

= min
u(t)

L(x(t), u(t), t) + min


u(t+1),u(t+2),...

T1

t+1
L(x(k), u(k), k) + S(x(T), T)

es decir, el valor de V es el mnimo de la suma del primer paso que se toma desde
(x, t) mas el valor optimo desde el resultado de ese primer paso. Recuerdese como
se calculaban los n umeros encirclados en los dos ejemplos anteriores. La anterior
expresion se puede escribir
V (x, t) = min
uU
[L(x(t), u(t), t) + V (f(x, u, t), t + 1)]
Las condiciones en los lmites correspondientes al problema son
V (x, T) = S(x(T), T)
ademas, la ley de control optima se determina en cada etapa mediante la expresion
u(x, t) = arg min
uU
[L(x(t), u(t), t) + V (f(x, u, t), t + 1)]
Conviene resaltar que este metodo nos ha conducido de manera natural a que
la solucion toma la forma de una ley de control, y no de una se nal de control
como suceda en la solucion del control optimo mediante metodos variacionales.
17.2 Programacion dinamica y ecuacion de Ha-
milton-Jacobi-Bellman
Para sistemas en tiempo discreto, el principio de optimalidad de Bellman da lugar,
de una forma muy sencilla, a recurrencias que permiten determinar la secuencia
optima de se nales de control, como hemos visto en los ejemplos anteriores. Para
sistemas en tiempo contnuo, el anterior principio puede aplicarse tambien. Con el
Principio de optimalidad de Bellman 425
n de precisar la aplicacion del principio de optimalidad de Bellman a sistemas en
tiempo continuo supongase el problema de control optimo denido por el sistema
dinamico:
x = f(x, u) (17.7)
y el criterio de funcionamiento:
J(x, u) =

T
0
L(x, u)dt + S(x(T), T) (17.8)
siendo
u U (x(T), T) B (17.9)
Para sistemas en tiempo continuo el principio de optimalidad de Bellman
puede enunciarse de la forma siguiente:
Si u

() es optimo en el intervalo [t, T], partiendo del estado x(t),


entonces u

() es necesariamente optimo en el subintervalo [t +t, T]


para cualquier t tal que T t t > 0.
Gracamente puede interpretarse mediante la gura 17.8, en que se representa
la trayectoria optima que une el estado inicial (x, t) con el estado nal (x(T),T)
por medio de la curva AB.
A
x(T)
T
C
B
(x, t)
x
t +t t
Figura 17.8: Trayectoria optima contnua de A a B.
Si inicialmente el sistema se encuentra en (x, t), al cabo de t unidades de
tiempo, el sistema se encontrar a en el punto C. Seg un el principio de optimalidad
de Bellman, si AB es una trayectoria optima, entonces CB sera a su vez otra
trayectoria optima.
Principio de optimalidad de Bellman 426
Demostracion
Se procede por contradiccion. Supongase que existe un u

tal que de un valor


menor para

T
t+t
L(x, u, )d + S(x(T))
que el que daba u

en el subintervalo [t +t, T]. Considerese una nueva se nal de


control u() dada por
u() =

(), para t t + t
u

(), para t + t T
(17.10)
Entonces en el intervalo [t, T] se tendra

t+t
t
L(x

, u

, )d +

T
t+t
L(x

, u

, )d + S(x

(T))
<

t+t
t
L(x

, u

, )d +

T
t+t
L(x

, u

, )d + S(x

(T)) (17.11)
Pero se ha partido del supuesto de que u

es optimo en el intervalo [t, T], y


(17.11) implica que u dado por (17.10) da lugar a un valor para J menor que el
optimo. Lo que esta en contradicci on con el supuesto del que se haba partido.
Conviene observar que en las expresiones anteriores x

denota la trayectoria
del estado correspondiente a la se nal de control u

, x

la correspondiente a u

y
x

= x

para = t +t, puesto que u y u

son las mismas en el intervalo [t, T].


La idea fundamental de la programacion dinamica consiste en separar la op-
eracion de minimizacion en dos niveles, separacion que es lcita por las dos razones
siguientes:
el criterio J es aditivo con relacion a la trayectoria,
el comportamiento dinamico esta representado por una ecuacion diferencial
de primer orden.
Con el n de aplicar el principio de optimalidad de Bellman conviene denir
la funcion:
V (x, t) = J

(x, t)
Principio de optimalidad de Bellman 427
siendo J

(x, t) el valor de la funcional J cuando se recorre la trayectoria optima


desde el estado (x, t). Por tanto:
V (x, t) = J

(x, t) = min
u
[t,T]

T
t
L(x(), u()) d + S(x(T), T)

con:
u
[t,T]
= u()[t < T
es decir, u
[t,T]
es el conjunto de todas las acciones de control posibles en el intervalo
[t, T].
Recordando la gura 17.8, tenemos que si el valor del funcional J para la
trayectoria optima que se inicia en (x, t) se representa por V (x, t), entonces el
valor de J para la trayectoria CB, vendra dado por V (x +x, t +t). Es decir,
V (x + x, t + t) es el coste mnimo del proceso para el intervalo (t + t, T).
Ademas, por el principio de la optimalidad sabemos que si la trayectoria AB es
optima, tambien lo sera la trayectoria CB. Todo ello permite escribir
V (x, t) = min
u[t,T]

t+t
t
L(x(), u())dt + min
u[t+t,T]

T
t+t
L(x, u, t)dt + S(x(T), T)

(17.12)
es decir,
V (x(t), t) = min
u[t,T]

t+t
t
L(x(), u())d + V (x(t + t), t + t)

(17.13)
En esta ultima expresion se ha tenido en cuenta el que el valor mnimo V a
partir del estado x(t+t) en el tiempo t+t viene dado por V (x(t+t), t+t).
Conviene observar que empleando el principio de optimalidad, el problema a de-
terminar el control optimo sobre el intervalo [t, T] se ha reducido al de determinar
el control optimo sobre el intervalo reducido [t, t + t].
Aplicando el teorema de la media al primer miembro del segundo termino de
(17.13), se tendra

t+t
t
Ldt Lt (17.14)
es decir,
V (x, t) = min
u()
[Lt + V (x + x, t + t)] (17.15)
siendo u() la se nal optima en el intervalo t t +t. Desarrollando en serie
V (x + x, t + t) en torno a (x, t) (en el supuesto de que tanto V como f sean
Principio de optimalidad de Bellman 428
sucientemente diferenciables ) se tendra,
V (x + x, t + t) = V (x, t) +
V
x
x +
V
t
t + ... (17.16)
en donde
V
x
representa el vector gradiente de V con relacion a x, y
V
t
representa
la derivada parcial de V con relacion a t.
Llevando (17.16) a (17.15), y despreciando variaciones de orden superior, se
tiene
V (x, t) = min
u()

Lt + V (x, t) +
V
x
x +
V
t
t

(17.17)
Los terminos V (x, t) y
V
t
t no estan afectados por la minimizacion (puesto que
no dependen de u()) por lo que la expresion anterior se puede escribir:
min
u()

Lt +
V
x
x

+
V
t
t = 0 (17.18)
Dividiendo por t, haciendo t 0 se tiene:
min
u(t)

L(x, u, t) +
V
x
x

+
V
t
= 0 (17.19)
Esta ecuacion se conoce bajo el nombre de ecuacion de Hamilton-Jacobi-
Bellman.
Para resolver la ecuacion de optimizacion (17.19) se procede en dos pasos. En
el primero se realiza la minimizacion indicada. Ello conduce a
u(x, t) = arg min
u(x,t)

L(x, u, t) +
V (x, t)
x
f(x, u, t)

(17.20)
Es decir a una ley de control de la forma
u

V
x
, x, t

(17.21)
El segundo consiste en sustituir (17.21) en (17.19) y resolver la ecuacion no
lineal en derivadas parciales
L(x, , t) +
V
x
f(x, , t) +
V
t
= 0 (17.22)
Principio de optimalidad de Bellman 429
con las condiciones de contorno
V (x, T) = S(x(T), T) (17.23)
sobre B.
Observando la expresion (17.22) y recordando la denicion hamiltoniana parece
apropiado escribir
H(x, , t) = L(x, , t) +
V
x
f(x, , t) (17.24)
con lo que la expresion (17.22) puede escribirse
H(x, , t) +
V
t
= 0 (17.25)
En general no es posible resolver analticamente esta ecuacion en derivadas
parciales. Sin embargo, en la seccion siguiente se presentar a un caso general para
el que si tiene solucion. En el caso de que sea posible esta solucion y se determine
V , entonces se calcula el gradiente de V con respecto a x y se tiene la ley de
control optima por realimentaci on del estado
u

V
x
, x, t

= k(x, t) (17.26)
Debe observarse que la resolucion de la ecuacion de Hamilton-Jacobi-Bellman es
solo una condicion necesaria para la optimizacion.
Con vistas a las aplicaciones el metodo anteriormente expuesto se puede sin-
tetizar en los siguientes cinco pasos:
1. Formar la hamiltoniana, sustituyendo por
V
x
.
H

x, u,
V
x

= L +
V
x
f (17.27)
2. Minimizar H

x, u,
V
x
, t

con relacion a u U para obtener


u

= u

x,
V
x

(17.28)
Principio de optimalidad de Bellman 430
3. Determinar la hamiltoniana minimizada
H

x,
V
x

= H

x, u

,
V
x

(17.29)
4. Resolver la ecuacion de Hamilton-Jacobi-Bellman que, con la introduccion
de la hamiltoniana minimizada, queda convertida en,
H

x,
V
x

+
V
t
= 0 (17.30)
Esta ecuacion en derivadas parciales recibe la denominacion de ecuacion de
Hamilton-Jacobi. Esta ecuacion admite las condiciones de contorno dada
por la expresion (17.23).
5. Llevar los resultados de 4 a 2 para obtener la ley de control optima. Es
decir, una vez se ha determinado V (x, t) se puede determinar su gradiente
V
x
y llevarlo a la ecuacion (17.28) para obtener la ley de control optima
u

(x, t).
Estos pasos se resumen en el cuadro siguiente:
Resumen de la aplicacion del metodo de Hamilton-Jacobi-Bellman
a la determinacion del Control Optimo
Principio de optimalidad de Bellman 431
Se da el sistema x = f(x, u)
Se da el criterio J =

T
0
L(x, u)dt + S(x(T), T)
Paso 1 Se forma la Hamiltoniana
H

x, u,
V
x
, t

= L(x, u) +
V
x
f(x, u)
Paso 2 Se determina u

= u

x,
V
x
, t

admisible tal que


minimice H

x, u,
V
x
, t

con respecto a u U
Paso 3 Se determina la Hamiltoniana mnima
H

x,
V
x
, t

= H

x, u

,
V
x
, t

Paso 4 Se resuelve el sistema de ecuaciones en derivadas parciales


H

x,
V
x
, t

+
V
t
= 0
con las condiciones de contorno V (x, T) = S(x(T), T).
Se obtiene V

(x, t).
Paso 5 Se determina u

(x)
En general, la aplicacion del metodo anterior presenta dos dicultades que limitan
grandemente su empleo. En primer lugar, es generalmente imposible resolver
la ecuacion de Hamilton-Jacobi a un para problemas sencillos, puesto que no se
conoce una tecnica general de resolucion para ese tipo de ecuaciones en derivadas
parciales. Por otra parte, a un si la ecuacion de Hamilton-Jacobi puede resolverse,
la ley de control obtenida es normalmente muy dicil de realizar fsicamente.
Las anteriores razones hacen que, desde un punto de vista practico, sea mas
interesante el principio de Pontriagin que la ecuacion de Hamilton-Jacobi-Bellman
Principio de optimalidad de Bellman 432
en la resolucion del problema de control. Sin embargo, existe un caso para el que
el metodo de Hamilton-Jacobi-Bellman es el idoneo. Es el de la determinacion
de la ley de control para un sistema dinamico lineal invariante en el tiempo,
cuando el criterio de funcionamiento es cuadratico. Este problema es de por
s lo sucientemente interesante como para justicar el estudio del metodo de
Hamilton-Jacobi-Bellman.
Ejemplo 1
Determinar la ley de control optimo para el sistema
x = u
con el ndice
J =

T
0
(x
2
+ u
2
)dt
1. Se forma la hamiltoniana
H = x
2
+ u
2
+
V
x
u
2. Se minimiza la hamiltoniana
H
u
= 2u +
V
x
= 0
lo que da
u

=
1
2
V
x
3. Se forma la hamiltoniana mnima
H

= x
2

1
4

V
x

2
4. Se tiene la ecuacion de Hamilton-Jacobi-Bellman
V
t
+ x
2

1
4

V
x

2
= 0
Con la condicion de contorno
V (x(T), T) = 0
Principio de optimalidad de Bellman 433
Una forma de resolver la ecuacion de Hamilton-Jacobi-Bellman es asumir
una solucion, y comprobar si satisface la ecuacion y las condiciones de con-
torno. Supongase una solucion de la forma
V (x, t) = k(t)x
2
en donde k(t) es una funcion a ser determinada. Se tendra
V
x
= 2k(t)x
V
t
=

kx
2
Por tanto la ecuacion de Hamilton-Jacobi-Bellman se convierte en

kx
2
+ x
2

1
4
(4k
2
x
2
) = 0
es decir

k + 1 k
2
= 0
De V (T) = 0 se tiene k(T) = 0. La solucion es
k(t) = tanh(T t)
y, por tanto,
u

= tanh(T t)x(t)
17.2.1 Relacion entre la programacion dinamica y la for-
mulacion Hamiltoniana del problema de control
optimo
Recordemos la ecuacion de Hamilton-Jacobi-Bellman
V
t
+ min
u(t)

L(x, u, t) +
V (x, t)
x
f(x, u, t)

= 0 (17.31)
Si V es sucientemente diferenciable y suponiendo que el mnimo se alcanza
en un punto interior a |, la expresion anterior es equivalente a

L(x, u, t) +
V
x
f(x, u, t) = 0
L
u
+
V
x
f
u
= 0
Principio de optimalidad de Bellman 434
La segunda de estas expresiones caracteriza la ley u(x, t) que minimiza al hamil-
toniano. En tal caso la primera de ella equivale a (17.31).
Interesa calcular como evoluciona el vector
V
t
a lo largo de una trayectoria
optima. Derivando con respecto al tiempo se tiene
d
dt
V
t
=

2
V
tx
+

2
V

2
x
f(x, u) (17.32)
Por otra parte, derivando (17.2.1) con relacion a x se obtiene
d
dt
V
t
=

2
V
tx
+

2
V

2
x
f(x, u) +
L
x
+
L
u
u
x
+
f
x
V
x
+
V
x
f
x
u
x
= 0
de donde, teniendo en cuenta (17.2.1) y (17.32), se llega a
d
dt
V
t
=
f
x
V
x

L
x
Esta expresion es precisamente la ecuacion adjunta o de coestado del metodo
de Hamilton. Por tanto, a lo largo de una trayectoria optima se puede identicar
V
t
= (t)
con lo que se pone de maniesto la equivalencia de ambos planteamientos. Esta
equivalencia resulta mas notable cuando se tiene en cuenta la diferencia de planteamien-
tos de los que se ha partido.
17.3 Control de sistemas dinamicos lineales con
criterio cuadratico
17.3.1 Breve rese na historica
El problema del control lineal cuadratico tiene su origen en el trabajo de Norbert
Wiener sobre ltrado cuadratico medio para el control de ca nones antiaereos du-
rante la Segunda Guerra Mundial. Wiener empleo metodos basados en el dominio
de la frecuencia para resolver este problema. Sin embargo aporto como novedad
importante un desarrollo teorico que permita un metodo analtico para resolver
el problema de dise no. Este plantemiento analtico contrastaba con los metodos
Principio de optimalidad de Bellman 435
de ensayos sucesivos con metodos gracos, basados en el criterio de estabilidad de
Niquyst, que entonces se empleaba. El metodo de Wiener permita ademas tener
en cuenta cuestiones tales como los ruidos de medida y otras perturbaciones de
caracter aleatorio.
Las ideas de Wiener fueron realaboradas durante los a nos 50 empleando la
descripcion interna de los sistemas y condujeron a lo que hoy se conoce como
la teora del control lineal cuadratico, que va a ser el objeto de lo que sigue y
de los captulos siguientes. De acuerdo con esta teora el objetivo de un sistema
de control es el minimizar un ndice de funcionamiento cuadratico. Se trata de
mantener a este sistema en un estado lo mas cercano al de reposo x = 0. El costo
correspondiente a las desviaciones del estado de reposo se expresa por
J
1
=

T
0
x
T
Qxdt + x
T
(T)Sx(T)
sujeto a las restricciones que representan un sistema lineal
x = Ax + Bu
Lo que recibe la denominacion de problema del regulador lineal cuadratico
o problema LQR (acronimo de Linear Quadratic Regulator). Su solucion, como
veremos luego, se reduce a la de una ecuacion diferencial de Ricatti. Durante el
perodo 1.960-70 se desarrollaron muchos estudios teoricos sobre este problema.
Las ventajas que presenta la solucion de este problema sobre las tecnicas de dise no
clasicas son las siguientes:
Permite la optimizacion para intervalos de tiempo nito (los metodos en
el dominio de la frecuencia de Wiener estaban limitados a intervalos de
optimizacion innitos);
son aplicables a sistemas que varan con el tiempo (los metodos en el dominio
de la frecuencia estan limitados a sistemas invariantes en el tiempo); y
permiten abordar de forma relativamente simple el problema de los sistemas
multivariables.
Sin embargo,la teora LQR no aborda dos cuestiones muy importantes que apare-
cen en el dise no de sistemas de control realimentados: la falta de precision en el
modelo de la planta y los ruidos en los sensores. Ademas, la teora LQR pre-
supone el conocimiento del estado del sistema que, como ya se puso de maniesto
cuando se postulo la necesidad de los observadores, es frecuente que no este
Principio de optimalidad de Bellman 436
disponible. Como veremos en el captulo siguiente, el problema lineal-cuadratico
con perturbaciones aleatorias se reduce a la solucion de dos ecuaciones de Riccatti
desacopladas, ya que se puede demostrar que es posible separar este problema
en dos: el problema del control optimo con realimentacion del estado, tal como
se aborda en la teora LQR y el problema de la estimacion del estado. Esta
separacion puede justicar teoricamente en el caso de que las perturbaciones es-
tocasticas sean gausianas, por lo que el problema lineal cuadratico estocastico se
conoce com unmente como el problema lineal-cuadratico-gausiano (LQG).
17.3.2 Problema LQR
Sea un sistema dinamico lineal descrito por
x = Ax + Bu (17.33)
Se trata de mantener a este sistema en un estado lo mas cercano al de reposo
x = 0. El costo correspondiente a las desviaciones del estado de reposo se expresa
por
J
1
=

T
0
x
T
Qxdt + x
T
(T)Sx(T) (17.34)
Por otra parte, el costo de la aplicacion de una se nal de mando u viene dado por
J
2
=

T
0
u
T
Rudt (17.35)
Las matrices Q y S son matrices semidenidas positivas, y la matriz R es denida
positiva.
El problema consiste en determinar la se nal u que debe aplicarse en cada
instante para que el costo total J
1
+J
2
sea mnimo. Es decir, se trata de minimizar
el funcional
J =

T
0
[x
T
Qx + u
T
Ru]dt + x
T
(T)Sx(T) (17.36)
Se supone que T esta jado de antemano, y que el estado nal es libre.
Q y R son matrices simetricas que representan los costes de la desviacion del
estado y del esfuerzo de control respectivamente. En la mayora de las aplica-
ciones seran matrices diagonales, por lo que la funcionales J
1
y J
2
adoptaran
normalmente la forma:
J
1
=

T
0
(q
1
x
2
1
+ q
2
x
2
2
+ + q
n
x
2
n
) dt
Principio de optimalidad de Bellman 437
J
2
=

T
0
(r
1
u
2
1
+ r
2
u
2
2
+ + r
m
u
2
m
) dt
para un sistema con n variables de estado y m se nales de entrada.
Si el sistema posee una sola entrada, entonces la matriz R se convierte en un
escalar, como es el caso de la planta que nos ocupa.
Por ultimo, pueden existir terminos de control terminal, que deberan ser de
la forma:
x
T
(T)Sx(T)
siendo S una matriz simetrica.
La hamiltoniana correspondiente a este problema es
H = x
T
Qx + u
T
Ru +
V
x
T
(Ax + Bu) (17.37)
Haciendo
H
u
= 0
se obtiene
B
T
V
x
+ 2Ru = 0 (17.38)
por lo tanto u

(x, t) esta dado por


u

=
1
2
R
1
B
T
V
x
(17.39)
Llevando este valor de u

a la hamiltoniana se tiene la hamiltoniana minimizada


que resulta ser,
H

= x
T
Qx +
V
x
T
Ax
1
4
V
x
T
BR
1
B
T
V
x
(17.40)
La ecuacion de Hamilton-Jacobi-Bellman correspondiente es
V
t
+
V
x
Ax
1
4
V
x
T
BR
1
B
T
V
x
+ x
T
Qx = O (17.41)
con la condicion de contorno
V (x, T) = x
T
Sx (17.42)
Para la integraci on de (17.41) es razonable adoptar (como ya se hizo, con buenos
resultados, en el ejemplo 1) una funcion de la forma:
V (x, t) = x
T
P(t)x (17.43)
Principio de optimalidad de Bellman 438
siendo P(t) una matriz real simetrica. Llevando (17.43) a la ecuacion de Hamilton-
Jacobi-Bellman (17.41) se tiene:
x
T

Px + 2x
T
PAx x
T
PBR
1
B
T
Px + x
T
Qx = 0
o lo que es lo mismo
x
T


P + 2PA PBR
1
B
T
P + Q

x = 0 (17.44)
La matriz entre parentesis no es simetrica, puesto que PA no lo es. Se sabe que
toda matriz M puede escribirse:
M = M
s
+ M
a
(17.45)
en donde M
s
es simetrica (es decir, M
s
= M
T
s
) y M
a
es antisimetrica (es decir,
M
a
= M
T
a
). Para demostrar (17.45) basta sumar y restar M
T
/2 a M, con lo
que se tiene
M =
M
2
+
M
T
2
+
M
2

M
T
2
y comprobar que
M
s
=
M
2
+
M
T
2
es simetrica y
M
a
=
M
2

M
T
2
antisimetrica. De (17.45) se tiene que
x
T
Mx = x
T
M
s
x + x
T
M
a
x (17.46)
Pero, puesto que (17.46) es un escalar, y
x
T
M
a
x = x
T
M
T
a
x = x
T
M
a
x
se tendra que
x
T
Mx = x
T
M
s
x
Lo que equivale a decir que la matriz M asociada a una forma cuadratica puede
escojerse simetrica.
Ademas, sabemos que la parte simetrica de una matriz M viene dada por:
M
s
=
M + M
T
2
Principio de optimalidad de Bellman 439
Por tanto, toda forma cuadratica x
T
Mx puede escribirse:
x
T
M
s
x = x
T
M + M
T
2
x
Aplicando estas consideraciones a (17.44), para el caso M = PA, se llega a la
siguiente ecuacion:

P + A
T
P + PA PBR
1
B
T
P + Q = 0 (17.47)
P(T) = S
que recibe la denominacion de ecuacion de Riccati. La resolucion de esta ecuacion
permite obtener P(t), o, lo que es lo mismo
V (x, t) = x
T
P(t)x
La ecuacion (17.47) es simetrica, como tambien lo es la matriz S que dene las
condiciones de contorno, por lo que tambien lo sera la solucion P(t). Esta simetra
sirve para simplicar el calculo de P(t). En efecto, a primera vista puede parecer
que la expresion (17.47) representa un conjunto de n
2
ecuaciones diferenciales,
ya que P(t) es una matriz n n. Sin embargo, debido a la simetra de P(t) el
n umero de ecuaciones es en realidad de n(n + 1)/2.
Otra propiedad importante de P(t) es su caracter denido positivo. Ello se
debe a que para todo u(t) = 0 el valor de J (el coste del proceso) debe ser positivo,
y por tanto as debe ser V (x, t) = x
T
P(t)x, lo que impone el caracter denido
positivo de P(t).
Una vez determinado V (x, t) se procede a determinar la ley de control optima,
que resulta ser:
u

(x, t) =
1
2
R
1
B
T
V
x
= R
1
B
T
Px (17.48)
El resultado ha sido pues, una ley de control lineal, que se ha obtenido a partir
de la imposicion de un criterio de mnima varianza en las variables de estado y
en el esfuerzo de control.
Para encontrar la solucion de la ecuacion de Riccati sera necesario imponer
condiciones de contorno en P, que se obtendran de los terminos de control ter-
minal:
Si J posee terminos de control terminal, entonces P(T) = S.
Si no existen dichos terminos, entonces P(T) = 0.
Principio de optimalidad de Bellman 440
Un caso especialmente interesante es aquel en que T tienda a . Entonces
se dice que el problema tiene horizonte innito. En tal caso, la matriz P se
convierte en constante. En efecto, para cualquier par de instantes iniciales t
1
y
t
2
, los valores tomados por V (x, t
1
) y V (x, t
2
) son iguales. Esto ultimo es evidente
ya que tanto el sistema como el ndice de funcionamiento son invariantes en el
tiempo, y por consiguiente una traslacion nita en la escala de tiempos no debe
afectar al problema (nos va a costar tanto llegar al innito desde ahora que desde
dentro de media hoira). Por tanto, la matriz P es constante.
La matriz P puede determinarse resolviendo la siguiente ecuacion
A
T
P + PA PBR
1
B
T
P + Q = 0 (17.49)
la cual se obtiene de la expresion (17.47), haciendo

P = 0. Esta ecuacion recibe
la denominacion de ecuacion de Riccati degenerada.
La solucion de la ecuacion (17.49) no es unica ya que es una ecuacion del
segundo grado en P. Sin embargo, si se impone la condicion de que P sea denida
positiva, entonces la solucion es unica.
Tendremos, por tanto, una regulacion mediante realimentaci on de variables
de estado, con una ley de control lineal y constante en el tiempo.
u = K
c
x
siendo
K
c
= R
1
B
T
P (17.50)
Debe observarse en las expresiones anteriores que la ley de control optimo que
se ha determinado es una ley de control lineal. Este es un resultado que ya se
haba obtenido, a partir de otros supuestos, al estudiar el control de sistemas
lineales para su estabilizacion. La estructura que se obtiene aqu, que es la que se
representa en la gura 17.9, es la misma que se encontr o all. Esta identidad de
estructuras constituye uno de los puntos mas sobresalientes de la moderna teora
del control.
Ejemplo 2
Ejemplo
Supongase el sistema dinamico
x = u
Principio de optimalidad de Bellman 441
y el criterio a minimizar
J =

T
0
(x
2
+ u
2
)dt
De acuerdo con ello tiene que
A = S = [0] B = Q = R = [1]
Por lo que la ecuacion de Ricati que debe resolverse es

P + 1 P
2
= 0 P(T) = 0
Esta ecuacion diferencial puede resolverse por separacion de variables. Su
solucion es
P(t) =
1 e
2(Tt)
1 + e
2(Tt)
Por lo que la ley de control optima resulta ser
u

= P(t)x(t)
Ejemplo 3
Determinar los coecientes de la ley de control para el sistema
x = 3x + u
siendo
J =


0
(x
2
+ 0.1u
2
)dt
Por tanto, se tiene
A = 3 B = 1 Q = 1 R = 0.1
luego la ecuacion de Ricatti es
6P 10P
2
+ 1 = 0
y, en consecuencia, P = 0.1359 Por otra parte,
K
c
=
P
0.1
= 1.359
luego
u = 1.359x
Principio de optimalidad de Bellman 442
Ejemplo 3
Determinar los coecientes de la ley de Control para el sistema
x =

0 1
2 1

x +

0
2

u
si
J =


0
(x
2
1
+ u
2
)dt
A
T
P =

2p
12
2p
22
p
11
p
12
p
12
p
22

PA =

2p
12
p
11
p
12
2p
22
p
12
p
22

PBR
1
B
T
P =

4p
2
12
4p
12
p
22
4p
12
p
22
4p
2
22

Q =

1 0
0 0

La ecuacion de Riccati
A
T
P + PA PB R
1
B
T
P + Q = 0
da lugar a tres ecuaciones,
2p
12
2p
12
4p
2
12
+ 1 = 0 (17.51)
2p
22
+ p
11
p
12
4
12
p
22
= 0 (17.52)
2(p
12
p
22
) 4p
2
22
= 0 (17.53)
De (17.51) se tiene
4p
2
12
+ 4p
12
1 = 0
cuya unica solucion positiva es
p
12
= 0.20710
llevada a (17.53) se tiene
4p
2
22
+ 2p
22
2p
12
= 0
cuya unica solucion positiva es
p
22
= 0.15311
Principio de optimalidad de Bellman 443
Eliminando p
11
de (17.52) se tiene,
p
11
= 4p
12
p
22
+ 2p
22
+ p
12
= 0.64016
Por tanto,
P =

0.64016 0.20710
0.20710 0.15311

K
c
= R
1
B
T
P = [0.41420 0.30622]
u = [0.41420 0.306322]

x
1
x
2

x
C
y
x u
B
R
1
B
T
P
Figura 17.9: Estructura de control de un sistema lineal con criterio cuadratico
Una notable propiedad que tiene el sistema de control representado en la
gura 17.9 es que es estable. En efecto, el sistema en bucle cerrado que resulta
de aplicar la ley de control (17.48) viene dado por:
x = (A + BK
c
)x (17.54)
ecuacion que rige la evolucion del estado en bucle cerrado. Es facil ver que la
funcion
V (x) = x
T
Px (17.55)
es una funcion de Liapunov para este sistema. En efecto, en primer lugar se tiene
que puesto que P es denida positiva, V (x) lo sera a su vez. Por otra parte se
tiene que
dV
dt
= ( x
T
Px + x
T
P x) (17.56)
Principio de optimalidad de Bellman 444
teniendo presente las expresiones (17.54) y (17.49) se tiene
dV
dt
= x
T
(Q + PBR
1
B
T
P)x (17.57)
es decir que dV/dt < 0 para todo x. Es decir V (x) cumple las propiedades que
denen una funcion de Liapunov y, por lo tanto, el sistema es estable. Puesto
que PBR
1
B
T
P es denida no negativa entonces para que dV/dt < 0 la matriz
Q tiene que ser denida positiva. Es decir, si Q es denida positiva entonces la
estabilidad asint otica esta garantizada.
La aplicacion del anterior resultado requiere algunas matizaciones. En par-
ticular, conviene resaltar el hecho de que se requiere que Q sea positiva denida.
Considerese el sistema
x = x + u
con el ndice de funcionamiento
J =
1
2


0
u
2
dt (17.58)
En este ndice de funcionamiento conviene observar que no existen terminos en
x (en tal caso es evidente que Q = 0 por lo que Q no es positiva denida, sino
denida no negativa). Quiere ello decir que se pondera unicamente el coste de
actuacion y no el coste de comportamiento. Este tipo de situacion no es com un
en las aplicaciones. No obstante, y a los efectos formales que aqu interesan,
vamos a continuar analizando este ejemplo. La solucion optima existe y es ob-
viamente u

= 0. Lo cual quiere decir que en un sistema en el que lo unico que


se penaliza es el coste de actuacion, y no se establecen especicaciones respecto
al funcionamiento, lo mejor es no hacer nada. Pero siguiendo con los aspectos
formales sucede que aplicando esa se nal (o ley) de control el sistema en bucle
cerrado resulta ser
x = x
que es inestable. Esta inestabilidad es debida a que la trayectoria inestable e
t
no contribuye al ndice de funcionamiento. Es decir, no se maniesta en (17.58).
Se puede decir que los estados inestables no son observados por el ndice de fun-
cionamiento. Ello es debido aunque el sistema es controlable, no es ni observable
ni detectable, ya que el modo inestable e
t
no es observable. Conviene recordar
que un sistema se dice detectable si los modos inestables son observables.
Si todas las trayectorias, o al menos las inestables, son detectadas en la
parte x
T
Qx del integrando del ndice de funcionamiento, entonces la estabili-
dad asint otica del sistema de control optimo realimentado queda a garantizar, ya
que si algunas de estas variables de estado no convergen a cero el coste optimo
Principio de optimalidad de Bellman 445
J

sera innito. Todas las trayectorias del sistema se detectaran en x


T
Qx si Q
es denida positiva. Por tanto el caracter denido positivo de Q es una condicion
suciente para la estabilidad asint otica del regulador optimo.
Es posible, sin embargo, encontrar una condicion menos restrictiva. Supong-
amos que Q es simplemente denida no negativa (lo que no es extra no en la
practica, como se vera en el ejemplo mas abajo). La propiedad de estabilidad
asintotica del sistema en bucle cerrado se conservara si todas las trayectorias se
detectan en la parte x
T
Qx del integrando del ndice de funcionamiento. Este
recibimiento se cumple si el par (A, D) es completamente observable, en donde
D es cualquier matriz tal que D
T
D = Q.
Para que el sistema sea estable se rquiere que

V 0, estando

V dado por
la ecuacion (17.57). Supongase que

V es identicamente nulo a lo largo de una
trayectoria que se inicia en un estado inicial no nulo x(0). Entonces x
T
Qx y
x
T
PBR
1
B
T
Px son identicamente nulos y R
1
B
T
Px, el control optimo para
el sistema en bucle cerrado, es tambien identicamente nulo. Por consiguiente, las
trayectorias del sistema en bucle cerrado son las mismas que las del sistema en
bucle abierto, que estan dadas por
x(t) = e
At
x(0)
ahora bien
x
T
Qx = x
T
(0)e
A
T
t
Qe
At
x(0)
= x
T
(0)e
A
T
t
D
T
De
At
x(0)
debe ser identicamente nulo. Esto contradice la hipotesis de que el par (A, D)
es completamente observable, ya que la observabilidad de (A, D) implica que
De
At
x(0) para alg un t [0, ) si y solo si x(0) = 0. En consecuencia es imposible
tener

V identicamente nulo a lo largo de una trayectoria que se inicie en un estado
no nulo. Con ello queda garantizada la estabilidad asintotica del sistema en bucle
cerrado para este caso.
Se dene la salida sintetica como
y = Dx (17.59)
La observabilidad del par (A, D) implica que el sistema dado por las ecuaciones
(17.33) y (17.59) es completamente observable.
Principio de optimalidad de Bellman 446
Ejemplo
Sea el sistema
x =

0 1
0 0

x +

0
1

u
que se pretende que minimice el ndice de funcionamiento
J =


0
(x
2
1
+ u
2
)dt
En este caso se tiene
A =

0 1
0 0

B =

0
1

Q =

1 0
0 0

R = [2]
La matriz D es tal que D
T
D = Q siendo
D =


2 0

Es inmediato comprobar que (A, D) es observable. En consecuencia el sistema


optimo en bucle cerrado sera asint oticamente estable. En efecto, resolviendo la
correspondiente ecuacion de Riccati tiene que
P =

2 2
2 2

de modo que la ley de control viene dada por


u

(t) =
1
2
[0 1]

2 2
2 2

2

x
1
x
2

= x
1

2x
2
que se puede comprobar que efectivamente da lugar a un sistema estable.
17.4 Ecuacion de Riccati en el dominio de la
frecuencia
Vamos a modicar seguidamente la ecuacion de Riccati, de forma que los resul-
tados que esta nos proporcione sean expresiones en terminos de funcion de trans-
ferencia. Este planteamiento es totalmente analogo a la forma en que la hemos
utilizado anteriormente, y los resultados a los que conduce son equivalentes.
Principio de optimalidad de Bellman 447
Sea el sistema
x(t) = Ax(t) + Bu(t)
donde u es de dimension 1, sometido al criterio de funcionamiento:
J =


0
(x
T
Qx + ru
2
)dt
Suponemos r = 1 sin perdida de generalidad, ya que podemos englobarlo en los
coecientes de Q. La solucion a este problema es una ley de control lineal dada
por:
u = k
c
x
siendo
k
c
= B
T
P (17.60)
P se obtiene de la ecuacion de Riccati:
A
T
P + PA PBR
1
B
T
P + Q = 0
Reordenando esta ecuacion y teniendo en cuenta que R = 1:
PA A
T
P = QPBB
T
P
Sumando y restando Ps al primer miembro se tiene:
P(sI A) + (sI A
T
)P = QPBB
T
P
Recordando la matriz de transicion entre estados (s) = (sI A)
1
y la expresion
(17.60) se tiene:
P
1
(s) + (
T
)
1
(s)P = Qk
T
c
k
c
Premultiplicando por B
T

T
(s) y postmultiplicando por (s)B:
B
T

T
(s)P
1
(s)(s)
. .. .
I
B + B
T

T
(s)(
T
)
1
(s)
. .. .
I
P(s)B =
B
T

T
(s)[Qk
T
c
k
c
](s)B
B
T

T
(s) PB
....
k
T
c
+B
T
P
. .. .
k
c
(s)B =
B
T

T
(s)Q(s)B B
T

T
(s)k
T
c
k
c
(s)B
La funcion de transferencia en bucle abierto cuando se aplica la ley de control
(gura 17.10) es G(s) = k
c
(s)B = B
T

T
(s)k
T
c
, luego tenemos:
G(s) + G(s) = B
T

T
(s)Q(s)B G(s)G(s)
Principio de optimalidad de Bellman 448
B K (s)
Figura 17.10: Bucle abierto con realimentacion del estado.
que se puede reescribir de la forma:
[1 + G(s)][1 + G(s)] = 1 + B
T

T
(s)Q(s)B (17.61)
Denimos: F(s) 1 + G(s). F(s) se conoce como la funcion de diferencia del
retorno. Ahora supongamos el segundo miembro factorizado de la forma:
1 + B
T

T
(s)Q(s)B = (s)(s) (17.62)
entonces:
F(s)F(s) = (s)(s)
y por tanto:
F(s) = (s)
llegamos a la expresion que nos da la funcion de transferencia del sistema con la
realimentacion de las variables de estado:
G(s) = (s) 1
Debe observarse que mediante la factorizacion (17.62) se resuelve la ecuacion de
Riccati, aunque lo que se obtiene ahora es G(s), lo cual es equivalente a determinar
k
c
, ya que ambas vienen relacionadas por la expresion G(s) = k
c
B. Por tanto,
la factorizacion (17.62) equivale a la resolucion de la ecuacion de Riccati. Con
otras palabras, la factorizacion (17.62) permite resolver la ecuacion de Riccati en
el dominio de Laplace.
Ejemplo
En este ejemplo se va a mostrar el empleo de la ecuacion de Riccati en el dominio
de la frecuencia para la determinacion de la ley de control. Sea el sistema
x = x + u
Principio de optimalidad de Bellman 449
y el criterio
J =


0
(3x
2
+ u
2
)dt
En primer lugar el problema se va a resolver mediante la ecuacion de Riccati, tal
como se ha visto en la seccion anterior. Para este problema se tiene que
A = 1 B = 1 Q = 3 R = 1
por lo que la ecuacion de Riccati correspondiente resulta ser
p p p
2
+ 3 = 0
es decir,
p
2
+ 2p 3 = 0
cuyas soluciones son p
1,2
= 1, 3, por lo que la constante de la ley de control
resulta ser k = 1.
Vamos ahora a resolver el problema mediante la ecuacion de Riccati en el
dominio de la frecuencia. En primer lugar, se tiene que para este problema
(s) =
1
s + 1
por lo que el primer miembro de la expresion (17.62) tomara la forma
1 + B
T

T
(s)Q(s)B = 1 +
3
(1 s)(1 + s)
=
3 + (1 s)(1 + s)
(1 s)(1 + s)
cuyo numerador se puede escribir
3 + (1 s)(1 + s) = 4 s
2
= (2 s)(2 + s)
y por tanto
(2 s)(2 + s)
(1 s)(1 + s)
= (s)(s)
es decir
(s) =
2 + s
1 + s
En consecuencia
G(s) = (s) 1 =
2 + s
1 + s
1 =
1
s + 1
por lo que se obtiene el mismo valor para k que se obtuvo anteriormente.
Conviene observar que aunque en este ejemplo, al ser de dimension uno, el
segundo metodo empleado aparentemente es mas laborioso que el primero, no
Principio de optimalidad de Bellman 450
sucede lo mismo para sistemas de dimension mayor, por lo que el segundo metodo
es el habitualmente empleado para determinar la ley de control, ya que para el
unico problema para el que se requieren metodos numericos elaborados que es la
factorizacion, se dispone de soluciones informaticamente decientes.
2
Por otra parte, de la expresion (17.61) se deduce que los reguladores LQR
presentan una robustez excelente. En efecto, si factorizamos Q de la forma Q =
H
T
H y hacemos s = j en (17.61) se obtiene:
|1 + G(j)|
2
= 1 +|H(j)B|
2
de donde:
|1 + G(j)| > 1
Si interpretamos esta condicion en el plano polar, la curva de G(j) no puede
entrar dentro de un circulo de centro 1 y radio 1, por lo que aseguramos un
margen de fase mayor de 60 grados y un margen de ganancia innito.
17.5 Resolucion del problema LQR
La solucion dada al problema del control optimo con criterio cuadratico de un
sistema lineal. Este problema tiene un importante interes tanto teorico como
practico, ya que, como se ha visto posee las tres notables propiedades siguientes:
La adopcion de la estructura de realimentaci on viene determinada por la
solucion del problema, y no por un presupuesto previo (como sucede en los
metodos clasicos y en los de variables de estado).
La estabilidad del sistema en bucle cerrado esta garantizada.
La robustez del sistema tambien esta garantizada por el amplio margen de
fase que posee.
El problema LQR, tal como ha sido resuelto, supone que todas las variables
de estado son accesibles. Esto no siempre es as y cuando no lo son hay que
proceder, al menos, a estimarlas. Es lo que se hace con los metodos que veremos
en el proximo tema.
Principio de optimalidad de Bellman 451
Resumen del problema lqr
Se da el sistema x(t) = Ax(t) + Bu(t)
y el criterio de funcionamiento J =

0
[x
T
Qx + u
T
Ru]dt + x
T
(T)Sx(T)
Ley de control ptima u

(t) = K
c
x(t)
siendo K
c
= R
1
B
T
P
Ecuacin de Riccati A
T
P + PA PBR
1
B
T
P + Q = 0
Valor optimo de J J

=
1
2
x
T
(t)Px(t)
Tema 18
Estimacion del estado
18.1 Nocion de se nal aleatoria
Se dene una variable aleatoria como aquella que, como resultado de un ensayo,
toma un cierto valor imprevisible exactamente y dentro de un conjunto de valores
permitidos. Para caracterizar completamente una variable aleatoria es necesario
denir el conjunto de valores posibles, as como la probabilidad de cada uno de
ellos. Esta caracterstica reciben el nombre de ley de distribucion. Estos conceptos
se suponen conocidos y se recuerdan aqu a ttulo de revision.
Supongase una variable aleatoria que vara con el tiempo, como, por ejemplo,
el error de medida de una cierta magnitud que se dibuja continuamente en un
registrador graco. El resultado de una prueba o ensayo es una medida que es
funcion del tiempo. Una variable aleatoria de esta naturaleza se llama una se nal
aleatoria o proceso estocastico.
Una se nal aleatoria se dene, en consecuencia, como una variable funcion del
tiempo, tal que, para cada valor del argumento, o para cada conjunto de valores,
se comporta como una variable aleatoria (18.1).
Para un cierto valor de t, el valor de la se nal aleatoria x(t) es una variable
aleatoria, para la que se puede denir una ley de distribucion. Estas leyes de
distribucion reciben el nombre de distribuciones unidimensionales y se especican
por medio de la funcion de densidad de probabilidad unidimensional p
1
(x; t), que
en principio depende de t.
452
Estimacion del estado 453
0
0
0
t
t
1
t
1
t
1
t
t
Figura 18.1: Se nal aleatoria
De la misma manera y teniendo presente dos instantes de tiempo t
1
y t
2
se
denen las distribuciones bidimensionales y la correspondiente funcion de den-
sidad de probabilidad p
2
(x
1
, x
2
; t
1
, t
2
) Lo anterior se puede generalizar para n
instantes de tiempo, en cuyo caso se tiene la funcion de densidad de probabilidad
p
n
(x
1
, ..., x
n
; t
1
..., t
n
). Un proceso estocastico se dice estacionario si
p
1
(x, t) = p
1
(x)
p
2
(x
1
, x
2
; t
1
, t
2
) = p
2
(x
1
, x
2
; t
2
t
1
)
En realidad la estacionaridad as denida no es la mas general que cabe concebir
pero sin embargo es suciente a los efectos aqu interesan. Para un proceso esta-
cionario sus caractersticas estadsticas son invariantes por traslacion temporal.
18.1.1 Descripcion estadstica de las se nales aleatorias
Las caractersticas de una se nal aleatoria que aqu se van a considerar son su
media, su covarianza y su funcion de autocorrelacion. La media se dene como
m
x
(t) = E[x(t)] =

xp
1
(x; t)dx (18.1)
en donde E representa la esperanza matematica. Si el proceso es estacionario su
media permanece constante al variar el tiempo; es decir, se tiene E[x(t)] = m
x
constante. La media de un proceso estacionario se puede tambien denir como
m
x
= lim
T
1
2T

T
T
xdt (18.2)
Estimacion del estado 454
Si (18.1) y (18.2) conducen al mismo resultado el proceso se llama ergodico. En lo
que sigue los procesos que se consideraran seran ergodicos. Se dene la covarianza
de una se nal aleatoria x(t) como:
E[(x(t) m
x
(t))(x() m
x
())] =

(x
1
(t) m
x
(t))(x
2
() m
x
())p(x
1
, x
2
; t, )dx
1
dx
2
Por ultimo, la funcion de autocorrelacion se dene como
E[x(t)x()] =

x
1
(t)x
2
()p(x
1
, x
2
; t, )dx
1
dx
2
para procesos estacionarios la funcion de autocorrelacion se reduce a
E[x(t)x(t + )] =
xx
() = lim
t
1
2T

T
T
x(t)x(t + )d
Ejemplo
Sea la se nal aleatoria denida por las siguientes propiedades.
1. Solo toma dos valores +a y a
2. Permanece en uno de estos valores durante un tiempo pasado el cual cambia
al otro o permanecen en aquel con probabilidad
1
2
.
El aspecto de esta se nal x(t) es la de la gura 18.2.
La media de esta se nal es E[x(t)] = 0. Para determinar la funcion de auto-
correlacion se procede en dos pasos.
1. [ [> En tal caso es evidente que
xx
= 0.
2. [ [ Se ve en la gura que durante una fraccion de tiempo
T [ [
T
, las
se nales x(t) y x(t +) toman el mismo valor, y por lo tanto su producto es
igual a
2
.
Durante el resto del periodo, es decir durante una fraccion de tiempo

T
, el
producto toma el valor +a
2
o a
2
, con probabilidad
1
2
.
Estimacion del estado 455
0
t
+1
-1
x(t)
b)
a)
3 2

R
xx
()
1
0
Figura 18.2: Se nal aleatoria binaria
De lo anterior se deduce
E[x(t)x(t + )] = a
2
T [ [
T
+ a
2
[ [
2T
a
2
[ [
2T
es decir

xx
() = a
2

1
[ [
T

Esta se nal constituye una aproximacion a una se nal de gran interes, que es la
se nal blanca, que por denicion es aquella cuya funcion de autocorrelacion es un
impulso de Dirac, es decir,

bb
= A(t)
Esta se nal no se presenta nunca en la practica con las propiedades teoricamente
exigidas. Solo se tienen aproximaciones de las cuales la se nal binaria considerada
constituye una de las mas interesantes.
Una propiedad interesante de la funcion de autocorrelacion de un proceso
estacionario es

xx
() =
xx
()
Interesa denir tambien la funcion de la intercorrelaci on, o de correlacion cruzada,
entre dos se nales aleatorias:
E[x(t)y(t + )] =
xy
() = lim
t
1
2T

T
T
x(t)y(t + )dt
Estimacion del estado 456
18.2 Transmisi on de se nales aleatorias a traves
de sistemas lineales: descripcion interna
Vamos a estudiar en esta seccion el comportamiento de la salida de un sistema
lineal, cuando es excitado con una se nal aleatoria, cuya descripcion estadstica es
conocida. Sea el sistema dinamico lineal
x(t) = Ax(t) + Bw(t) (18.3)
excitado por un ruido blanco estacionario w(t) de caractersticas
E[w(t)] = 0
E[w(t)w
T
()] = Q(t )
tal que Q 0. Q recibe tambien la denominacion de intensidad del ruido.
Las condiciones iniciales vienen especicadas mediante un vector aleatorio
gausiano x(t
0
), independiente de w(t) y con media x
0
y covarianza P
0
; es decir:
E[x(t
0
)] = x
0
(18.4)
E[(x(t
0
) x
0
)(x(t
0
) x
0
)
T
] = P
0
(18.5)
E[x(t
0
)w
T
(t)] = 0 t (18.6)
La trayectoria de x(t), de acuerdo con (18.3), viene dada por:
x(t) = (t)x(t
0
) +

t
t
0
(t )Bw()d (18.7)
Por tanto, se tiene que la evolucion de la media de x(t) vendr a dada por:
E[x(t)] = E[(t)x(t
0
)] + E

t
t
0
(t )Bw()d

= (t)E[x(t
0
)] +

t
t
0
(t )BE[w()]d
= (t) x
0
(18.8)
Por otra parte, para determinar la matriz de covarianza del vector x(t) vamos a
estudiar, en primer lugar la evolucion de:
P

(t) = E[x(t)x
T
(t)] (18.9)
Derivando esta expresion con relacion al tiempo se obtiene:

(t) = E[ x(t)x
T
(t) + x(t) x
T
(t)]
Estimacion del estado 457
Recordando (18.3) se tiene:

(t) = E[Ax(t)x
T
(t) + Bw(t)x
T
(t) + x(t)x
T
(t)A
T
+ x(t)w
T
(t)B
T
]
= AP

(t) + P

(t)A
T
+ E[Bw(t)x
T
(t) + x(t)w
T
(t)B
T
]
Y recordando, a su vez, (18.7), se tiene:

(t) = AP

(t) + P

(t)A
T
+ E

Bw(t)

(t)x(t
0
) +

t
t
0
(t )Bw()d

+ E

(t)x(t
0
) +

t
t
0
(t )Bw()d

w
T
(t)B
T

Conmutando el operador esperanza matematica y la integraci on se tiene:

(t) = AP

(t) + P

(t)A
T
+ BE[w(t)x
T
(t
0
)]
T
(t)
+

t
t
0
BE[w(t)w
T
()]B
T

T
(t )d
+ (t)BE[x(t
0
)w
T
()]B
T
+

t
t
0
(t )BE[w()w
T
(t)]B
T
d
Teniendo en cuenta las caractersticas de las se nales w(t) y x(t) la anterior ex-
presion conduce a:

(t) = AP

(t) + P

(t)A
T
+ BE[w(t)x
T
(t
0
)]
T
(t)
+

t
t
0
BQ(t )B
T

T
(t )d (18.10)
+ (t)BE[x(t
0
)w
T
(t)]B
T
+

t
t
0
(t )BQ( t)B
T
d (18.11)
= AP

(t) + P

(t)A
T
+ BQB
T
(18.12)
Para el paso de (18.11) a (18.12) hay que tener presente, por una parte que los
terminos segundo y cuarto se anulan de acuerdo con (18.6). Por otra parte, por
lo que respecta a los terminos tercero y quinto, hay que tener presente que la
funcion aqu es simetrica y que (0) = I. La funcion simetrica tiene las
siguientes propiedades:
(t ) = ( t)
Estimacion del estado 458


b
a
f()( t)d =

0 si t < a o si t > b
f(t) si a < t < b
En tal caso, si el valor de t coincide con uno de los lmites de integracion, por
ejemplo t = b, se tiene que

b
a
f()( b)d =
f(b)
2
puesto que el area unidad que cubre la funcion se distribuye la mitad a la
derecha de t = y la otra mitad a su izquierda. Observese que de acuerdo con
los lmites de integraci on, los miembros tercero y quinto de (18.11) aportan solo
1/2.
La ecuacion (18.12) tiene las condiciones iniciales:
P

(t
0
) = E[x(t
0
)x
T
(t
0
)]
A partir de los resultados anteriores es posible determinar la evolucion de la
matriz de covarianza:
P(t) = E[(x(t) x(t))(x(t) x
T
(t))] (18.13)
En efecto, deniendo x(t) = x(t) x(t) (es decir, x es la diferencia entre el valor
de la variable x y su media) la evolucion de x viene dada por
d x
dt
= A x + Bw(t)
ya que la de x(t) se rige por (18.3) y la de x
T
(t) por

x
T
(t) = A x
T
(t). Por tanto, la
expresion (18.13) tiene la misma forma que la (18.9), y la ecuacion de evoluci on
de x es identica a (18.3). En consecuencia P(t) satisface la ecuacion diferencial:

P(t) = AP(t) + P(t)A


T
+ BQB
T
(18.14)
P(t
0
) = P
0
que rige la evolucion de la covarianza de la salida del sistema lineal (18.3) cuando
se excita con una se nal aleatoria blanca de intensidad Q.
18.3 El problema de la observaci on: Filtro de
Kalman
Para poder implementar un regulador mediante una ley de control de la forma
u = f(x) es necesario conocer en cada instante el valor de todas las variables
Estimacion del estado 459
de estado. Para estudiar la estimacion del estado se adopta la misma estructura
que se adopta para un observador, y que aqu recibe la denominacion de ltro de
Kalman. Para el estudio de este ltro se parte de un modelo del sistema, cuyo
estado se va a estimar, mediante un sistema dinamico con perturbaciones de la
forma: siguiente forma:
x(t) = Ax(t) + Bu(t) + w(t) (18.15)
y(t) = Cx(t) + v(t)
donde w(t) y v(t) son variables aleatorias correspondientes a un ruido blanco o
ruido gausiano, y presentar an, por tanto, las siguientes propiedades:
- E[w
i
(t)] = 0 para i = 1 . . . n.
- E[v
i
(t)] = 0 con i = 1 . . . m.
Es decir, su media es nula para cada instante de tiempo.
- E[w
i
(t)w
j
(t )] = q
ij
() con i, j = 1 . . . n.
- E[v
i
(t)v
j
(t )] = r
ij
() con i, j = 1 . . . m.
siendo () la funcion delta de Dirac. Es decir,
E[w(t)w
T
(t )] = Q()
E[v(t)v
T
(t )] = R()
Cada se nal unicamente esta correlacionada consigo mismo en el instante de pro-
ducirse. Esto implica un espectro de frecuencias plano, donde no hay ninguna
predominante, y cuya amplitud nos da la covarianza de la se nal.
Las variables v(t) y w(t) representan lo siguiente:
w(t): El sistema nunca queda perfectamente modelado, por lo que el estado
alcanzado en cada instante por el modelo matematico diere del existente en
el sistema real. Con w(t) se representan las desviaciones en la evoluci on de
los dos sistemas (el real y el modelo matematico). Estas variables tambien
son una representacion de las perturbaciones que pueden aparecer en las
distintas partes del sistema real.
v(t): Modela los errores que aparecen al medir la variable de salida del
sistema. Estos errores, en general, pueden ser cuanticados de manera mas
exacta que los anteriores.
Estimacion del estado 460
Para la evaluacion de los estados estimados x se adopta la misma estructura que
para un observador, es decir:
d x
dt
= A x + Bu + K
o
(y C x) (18.16)
donde:
x es la estimacion del vector de estado.
u es la se nal de entrada al sistema.
y es la salida del sistema.
K
o
es el vector de ganancias del ltro de Kalman.
En la gura 18.3 se muestra la estructura correspondiente. Con la expresion
y(t)
u(t)
B

x
A
C
K
o
y(t)
y(t) y(t)
+
+
+
- +
Figura 18.3: Filtro de Kalman
(18.16), a partir de la estimacion del estado x, de la se nal de entrada u y del error
en la variable de salida y C x generamos evolucion de las estimaciones.
Sea
P(t) = E[( x x)( x x)
T
] = E[ x x
T
]
la matriz de covarianza del error de estimacion x = x x.
El objetivo es encontrar los valores de K
o
que minimicen la discrepancia entre
los estados reales x y los estados estimados x. Esta discrepancia se mide por el
valor cuadratico medio del error:
J = E[ x
T
x] = trP(t) (18.17)
Estimacion del estado 461
Restando la expresion (18.16) de la (18.15), y recordando que x = x x, se tiene
que la evolucion del error x viene dada por la ecuacion:
d x
dt
= (A K
o
C) x + w + K
o
v (18.18)
A partir de las caractersticas de los ruidos v y w se tiene que el ruido blanco que
act ua sobre el sistema lineal anterior posee la covarianza:
E[(w(t) K
o
v(t))(w() K
o
v())
T
] = (Q + K
o
RK
T
o
)(t ) (18.19)
De acuerdo con (18.14) la covarianza P(t) del error x vendra dada por
d
dt
P(t) = (A K
o
C)P(t) + P(t)(A K
o
C)
T
+ Q + K
o
RK
T
o
(18.20)
Por otra parte, es inmediato que:
(K
o
PC
T
R
1
)R(K
T
o
R
1
CP) = K
o
RK
T
o
PC
T
K
T
o
K
o
CP +PC
T
R
1
CP
Por tanto, sumando y restando PC
T
R
1
CP a (18.20), teniendo en cuente esta
ultima expresion, se tiene:
d
dt
P(t) = AP(t) +P(t)A
T
PC
T
R
1
CP +Q+(K
o
PC
T
R
1
)R(K
T
o
R
1
CP)
(18.21)
El problema del estimador optimo puede enunciarse diciendo que se trata de
determinar K
o
de modo que se minimice (18.17), estando P(t) sujeto a (18.22).
Es decir, el criterio a optimizar viene dado por (18.17), las ecuaciones de evolucion
del sistema por (18.22) y la se nal a optimizar es K
o
(t). Al formar la funcion de
Hamilton del correspondiente problema de control optimo se tiene que el unico
termino en esta funcion que depende de K
o
(t) es (K
o
PC
T
R
1
)R(K
T
o
R
1
CP),
por lo que es claro que el K
o
(t) optimo vendra dado por:
K
o
(t) = P(t)C
T
R
1
(18.22)
Llevando este valor de K
o
a (18.22) se tiene que P(t) satisface la ecuacion difer-
encial:

P(t) = P(t)A
T
+ AP(t) + Q(t) P(t)C
T
R
1
CP(t) (18.23)
con las condiciones iniciales P(t
0
) = P
0
.
Si comparamos las expresiones (??) y (18.23) con las (17.50) y (17.50) del
captulo anterior se comprueba que la solucion del ltro optimo es dual de la del
problema del control. Esta dualidad se puede resumir en el cuadro siguiente:
Estimacion del estado 462
Problema de la Problema del
Estimacion Control
B
T
C
C
T
B
R
o
R
c
Q
o
Q
c
K
o
K
c
A
T
A
En este cuadro R y Q se han subindiciado con c o con o seg un se reeran a los
problemas del control o de la estimacion. El cuadro muestra que los problemas
de la estimacion y del control son esencialmente el mismo.
Al igual que se haca en el caso del LQR consideraremos horizonte de tiempo
innito, con lo cual, lo que se pretendera es minimizar en valor medio la difer-
encia entre los estados reales y los estimados, y no hacer mnimo dicho valor en
un intervalo de tiempo determinado, que es lo que se persigue con el anterior
planteamiento. En consecuencia, al hacer esta consideracion, la variable tiempo
desaparece de las ecuaciones que proporcionan los parametros del ltro de Kalman
y se tiene que K
o
toma el valor constante dado por:
K
o
= PC
T
R
1
(18.24)
donde el unico parametro desconocido es la matriz P, que se halla resolviendo la
ecuacion de Riccati para la observaci on
AP + PA
T
+ QPC
T
R
1
CP = 0 (18.25)
La matriz K
o
recibe la denominacion de ganancia de Kalman.
Para la determinacion del ltro de Kalman se ha partido de la estructura
representada en la gura 18.3, que es la de un observador clasico, y se ha ajustado
K
o
para que el error de estimacion sea el mnimo con una norma cuadratica. Sin
embrago, se puede demostrar que en realidad esa es la estructura que produce
las mejores estimaciones de todos los posibles estimadores. Esta demostracion es
muy compleja, por lo que no se incluye en un curso introductorio como este. Se
trata de un resultado de la misma naturaleza que el que se ha visto al estudiar
el problema lineal cuadratico, en donde si se ha demostrado que la ley de control
lineal era la optima, y no se han ajustado simple los valores de k para que lo
fuera, que es en realidad lo que hemos hecho en el caso del ltro de Kalman.
Estimacion del estado 463
Resumen del Filtro de Kalman
Se da el sistema x(t) = Ax(t) + Bu(t) + w(t)
con la funcion de lectura y(t) = Cx(t) + v(t)
Se tiene E[w(t)] = 0
E[v(t)] = 0
E[w(t)w
T
(t )] = Q()
E[v(t)v
T
(t )] = R()
Ecuaciones del ltro
d x
dt
= A x + Bu + K
o
(y C x)
Ganancia de Kalman K
o
= PC
T
R
1
Propagacion de la

P(t) = P(t)A
T
+ AP(t) + Q(t) P(t)C
T
R
1
CP(t)
covarianza del error P(t
0
) = P
0
Error cuadraatico
de la estimacion tr P
Estimacion del estado 464
u
w
y
B

-1
1
v
Figura 18.4: Sistema lineal de dimension 1.
18.3.1 Ejemplo
Sea el sistema dinamico de dimension 1 que se muestra en la gura 18.4, y en el
que A = 1. Se trata, por tanto, de un sistema de primer orden al que se asocian
un ruido de modelado w y un ruido de lectura v. La salida de este sistema es
la se nal z. Se trata de reconstruir el estado x a partir de la se nal z. Para ello
se adopta la estructura de un ltro de Kalman, tal como se indica en la gura
18.5. La determinacion del ltro de Kalman se reduce, en ultimo extremo, a la
determinacion de la constante K de modo que el valor cuadratico medio del error
de estimacion sea mnimo. Supongamos que las intensidades de los ruidos de
modelado y medida vienen dadas por

ww
= Q() = 3()

vv
= R() = ()
El valor de K
o
en la gura 18.5 viene dado por la expresion (??). Para determinar
el valor de p se requiere resolver la ecuacion (18.23). Los parametros necesarios
para escribir esta ecuacion, en el problema que nos ocupan, son
A = 1 C = 1 Q = 3 R = 1
Con los valores de estos parametros la expresion (18.23) toma la forma
dp
dt
= 2p p
2
+ 3
que en el caso de un proceso estacionario, en el que el valor cuadratico medio del
error sea constante, se tiene que dp/dt = 0, y p es igual a constante. En tal caso
se tiene que la ecuacion que satisface p es la (18.25), es decir,
p
2
+ 2p 3 = 0
Estimacion del estado 465
1

-1
B
u
B
u

-1
1
y
w
v
K
o
y
+
-
Figura 18.5: Sistema lineal con ltro de Kalman.
Estimacion del estado 466
Resolviendo esta ecuacion en p se obtiene
p = 1
Lo que llevado a (18.24) conduce a
K
o
= 1.
18.4 Metodo LQG
En sistemas dinamicos lineales con perturbaciones aleatorias gausianas y criterio
de optimizacion cuadratico se puede demostrar que el regulador optimo se obtiene
separando los problemas de estimacion y control, resolviendo cada uno de ellos
separadamente, y conectandolos en serie.
Es decir, a partir de las se nales de salida y por medio de un ltro de Kalman
se obtienen las estimaciones de los estados, y a partir de estas estimaciones y con
ayuda de la ley de control, obtenida prescindiendo del caracter estocastico del
sistema, se determina la se nal de accion sobre el mismo.
La estructura de control as obtenida recibe la denominacion de control LQG
(lineal cuadratico y gausiano), la cual requiere que se adopten modelos estocasticos
para el ruido de los sensores y del proceso, y que se dena un criterio cuadratico
como criterio de funcionamiento. Lo que se plantea en ese caso es un problema
de control optimo estocastico.
Veamos, con detalle, el regulador LQG. Sea un sistema dinamico lineal (con
n estados, m entradas y l salidas):
x = Ax + Bu + w
y = Cx + v
siendo:
x: vector de estados (n 1).
u: vector de entradas (m1).
y: vector de salidas (l 1).
A: (n n).
B: (n m).
C: (l n).
y siendo w y v se nales aleatorias, de ruido blanco gausiano, con media nula y
Estimacion del estado 467
mutuamente independientes, que satisfacen:
E[w(t)w
T
(t )] = Q
o
()
E[v(t)v
T
(t )] = R
o
()
E[w(t)v
T
(t )] = 0
donde:
Q
o
= Q
T
o
0 , R
o
= R
T
o
0
El objetivo es determinar la se nal de control u de forma que la siguiente funcional
sea mnima:
J =


0
(x
T
Q
c
x + u
T
R
c
u) dt
con:
Q
c
= Q
T
c
0 , R
c
= R
T
c
0
El teorema de separacion establece que el optimo global se tiene dividiendo el
problema en dos subproblemas:
1. Un problema de control optimo, del que se obtiene la regulacion por reali-
mentacion de variables de estado:
u = K
c
x
siendo
K
c
= R
1
c
B
T
P
c
P
c
se determina a partir de la ecuacion de Riccati:
A
T
P
c
+ P
c
A P
c
BR
1
B
T
P
c
+ Q
c
= 0
2. Un problema de ltrado optimo, mediante el ltro de Kalman:
d x
dt
= A x + B u + K
o
(y C x)
donde
K
o
= P
o
C
T
R
1
o
y P
o
se obtiene de
AP
o
+ P
o
A
T
+ Q
o
P
o
C
T
R
1
o
CP
o
= 0
El problema, por lo tanto, queda descompuesto en dos partes.
Estimacion del estado 468
1. Resolucion del problema del control, prescindiendo en el sistema de pertur-
baciones, para obtener la Ley de control K
c
.
2. Filtrado de Kalman para obtener x.
El esquema de regulacion que se obtiene uniendo estos dos problemas aparece en
la gura 18.6 y el compensador resultante es el que se muestra en la gura 18.7.
r +
-
z(t)
y(t)
u(t)
Planta
x(t)
Control
Ley de
Filtro de
Kalman
Figura 18.6: Separacion del control y de la estimacion en el problema LQG
Estimacion del estado 469
-
+
x(t)
K
c
+ 0 u(t)
B
x(t)

+
x(t)
A
Planta
C
y(t)
B
K
o
C
A

x(t)

+
+
+ +
-
Observador
Figura 18.7: Estructura del regulador del problema del control estocastico