Vous êtes sur la page 1sur 37

Capitolo 1

Risposta a forzanti non


deterministiche
Tratto dalle dispense di aeroelasticit` a applicata
Una volta analizzata la risposta del velivolo a forzanti descrivibili in modo completo mediante una storia
temporale nota a priori, e ricordando che si `e presupposta lasintotica stabilit` a del sistema, si rende
necessario tenere conto del fatto che non sempre si `e in grado di predire in modo deterministico tutte le
forzanti a cui esso sar`a sottoposto durante la vita operativa.
`
E il caso delle rache o dei carichi che spesso
vengono schematizzati considerandoli come successioni di forme descrivibili mediante funzioni semplici,
quali il gradino, la rampa saturata e la funzione 1 cos. E da notare che lampiezza della forzante
deve comunque spesso essere determinata con un approccio statistico. Mediante una approssimazione
deterministica delle forzanti `e quindi successivamente possibile ricavare la risposta del sistema in esame.
Nulla per` o garantisce che eventuali picchi pi` u elevati nella risposta non possano essere riscontrati per
forzanti di durata maggiore.
Questo approccio consente di limitare lapproccio statistico alla sola ampiezza della forzante, e studiare
poi in modo deterministico la risposta del sistema dinamico. In particolare, nel caso in cui sia possi-
bile ritenere la raca abbastanza omogenea da non variare in modo apprezzabile lungo lapertura, la
descrizione statistica della sola ampiezza della raca con prolo assegnato pu` o risultare notevolmente
semplicata. Naturalmente questa ipotesi vale solo nel caso in cui lapertura alare sia piccola rispetto
alle dimensioni tipiche di un fenomeno turbolento che si pu` o incontrare in volo, e pu` o quindi venire a
cadere per velivoli particolarmente grandi.
Un secondo approccio, che verr` a esposto in questo capitolo, `e invece quello di tentare una descrizione
statistica della risposta, nota una descrizione statistica sucientemente completa della forzante.
Vediamo una raca descritta in funzione del tempo (Figura 1.1). Si tratta ovviamente di un campione
del segnale in esame: ci si chiede ora come descriverlo in modo statistico mediante un numero ridotto
di indicatori. Intuitivamente si pu` o schematizzare il segnale mediante un numero nito di livelli discreti
(Figura 1.2).
Viene ora introdotto il parametro frequenza relativa, f, denito come il rapporto tra il numero di vol-
te in cui il segnale rientra in un particolare intervallo di valori e il numero totale di eventi registrati
nellintervallo di tempo scelto; si tratta di una misura empirica della probabilit` a, che verr` a denita pi` u
rigorosamente in seguito.
f
i
=
n
i

_
V
Gi+1
, V
Gi

N
tot
Ovviamente si ha

i
f
i
= 1. Dal diagramma delle frequenze relative di diversi livelli della velocit` a di
raca, calcolate per tratti uniformi, si ottiene un istogramma (Figura 1.3).
1
2 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
Vg
t
Figura 1.1: Raca
Vg
t
Delta(Vgi)
Figura 1.2: Raca discreta
n/N
Vg
Figura 1.3: Istogramma
3
Si noti come tipicamente la distribuzione per la raca tenda ad essere simmetrica rispetto allorigine;
questo `e dovuto al fatto che nellatmosfera la velocit` a verticale media `e nulla. Intuitivamente si pu` o
calcolare la media:

VG
=

V
Gi
f
i
e la varianza:

2
VG
=

i
_

V
Gi

VG
_
2
f
i
dove con

V
Gi
si intende il valore medio dellintervallo
_
V
Gi+1
, V
Gi

. Naturalmente si dovr`a vericare


che la media e la varianza siano indipendenti dal campione scelto e rimangano sostanzialmente costanti
allallungarsi dello stesso.
`
E ragionevole ritenere che media e varianza possano cambiare solo su tempi
lunghi, ad esempio al variare delle stagioni o almeno delle settimane o dei mesi, ma si assume che si
mantengano costanti almeno per il tempo relativo ad un volo. In eetti, queste denizioni sono valide
per una categoria ristretta di fenomeni, detti ergodici, che consente una grande semplicazione operativa
in quanto rende possibile descrivere le caratteristiche di un processo stocastico mediante un solo campione
qualsiasi. Per quanto detto sopra lipotesi di ergodicit` a va intesa come unastrazione accettabile a zone.
In particolare lattenzione verr` a concentrata sui fenomeni ergodici gaussiani.
`
E ora opportuna una rappresentazione analitica degli indicatori statistici appena introdotti. Come gi` a
detto un fenomeno si dice ergodico quando i suoi indicatori statistici (media, varianza e frequenze relative)
sono indipendenti dal campione considerato. Per descrivere analiticamente la densit`a di probabilit` a, qui
denita come la curva limite dellistogramma delle frequenze relative, una delle funzioni pi` u utilizzate `e
la Gaussiana, che ben rispecchia molti fenomeni interessanti ai ni applicativi. Essa dipende appunto
dai due soli parametri, media e varianza:
p
VG
=
1

2
VG
e

1
2

V
G

VG

VG

2
Dal punto di vista pratico verr` a qui considerata come la migliore curva approssimante un diagramma delle
frequenze relative ricavabile sperimentalmente. Si noti che lipotesi di turbolenza Gaussiana `e spesso non
rispondente alla realt`a; la turbolenza viene qui assunta come Gaussiana per semplicit` a di presentazione.
La probabilit` a che la velocit` a di raca appartenga allintervallo [V
1
, V
2
] `e data da:
P
VG
(V [V
1
, V
2
]) =
_
V2
V1
p
VG
dV
G
In particolare, la probabilit` a di avere una raca con velocit` a minore di

V `e:
P
VG
_

V
_
=
_
V

p
VG
dV
G
e ovviamente:
_
+

p
VG
dV
G
= 1
Come utilizzare media e varianza? Non si `e pi` u in grado di ricostruire il segnale in funzione del tempo; si
vogliono per` o calcolare gli indicatori della risposta, cio`e media e varianza, una volta assegnati quelli della
forzante. Ci` o, per esempio, consentir`a di determinare il numero medio di volte in cui entro la struttura,
per eetto di una forzante casuale, verr` a superato un livello di sforzo assegnato.
4 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
Come gi` a detto, una nota densit`a di probabilit` a che `e univocamente determinata da media e varianza `e
la Gaussiana, di cui si far`a uso nel seguito per alcune signicative applicazioni. Per questo motivo, anche
se non strettamente necessario per quanto segue, viene enunciato ora un teorema fondamentale del quale
non si riporta la dimostrazione:
Sia assegnato un sistema lineare asintoticamente stabile
Sia applicata ad esso una forzante ergodica a distribuzione gaussiana
allora
anche la risposta del sistema alla forzante `e ergodica e gaussiana.
In verit`a la risposta tende ad essere distribuita gaussianamente anche per forzanti non gaussiane. Si
prospettano quindi due dierenti vie per determinare gli indicatori statistici delluscita:
utilizzare in modo deterministico un campione della storia temporale della forzante, e calcolare
le statistiche sulluscita con unelaborazione dellistogramma dellampiezza della risposta come gi` a
fatto precedentemente.
ricavare direttamente gli indicatori delluscita noti quelli della forzante: questa sar`a la strada pi` u
conveniente, anche perche, come si vedr`a pi` u avanti, praticabile per una classe di forzanti pi` u ampia
di quella ergodica.
Generalizzando le denizioni gi` a viste, si calcola ora la media di un processo ergodico su un campione
temporale limitato:

x
=
1
2T
_
T
T
x(t +) dt
facendo ora tendere T allinnito si ottiene la media di un processo ergodico, che verr` a chiamata anche
valore atteso (Expected value, E). Per semplicit` a si utilizzer`a la seguente simbologia:

x
=
_
Mx(t +) dt
esprimendo cio`e loperatore media con:
E
ergodico
() =
_
M() dt = lim
T
1
2T
_
T
T
() dt
La varianza sar`a allora denita come:

2
xx
=
_
M(x(t +)
x
)
2
dt =
_
M(x(t +))
2
dt
dove con (t) si intender` a dora in poi il valore assunto dalla variabile al tempo t depurato della
media: (t) = (t)

.
Si osservi inoltre che per lipotesi di ergodicit` a, unarbitraria traslazione nel tempo non altera i valori
di media e varianza. Chiaramente i valori di cui sopra coincidono con quelli ottenibili dalla funzione
densit`a di probabilit` a.
Si consideri ora un semplice sistema asintoticamente stabile ad un ingresso ed una uscita, la cui funzione
di trasferimento nel dominio delle frequenze sia H (s), mentre h(t) ne rappresenti la risposta impulsiva
nel dominio del tempo; la risposta y (t) ad un ingresso x(t) nel dominio del tempo `e data dallintegrale
di convoluzione:
y (t) =
_

h() x(t ) d (1.1)


5
Si calcoli la media della risposta:
_
My (t) dt =
_
M
_

h() x(t ) d dt
Poich`e la media coinvolge solo lintegrazione nel tempo, la si pu` o portare allinterno della convoluzione
ottenendo

y
=
_

h()
_
Mx(t ) dt d =
x
_

h() d
Sottraendo lultima equazione alla (1.1) si ottiene
y (t) =
_

h() x(t ) d
che indica come il valore delluscita depurato del suo valore medio sia pari allintegrale di convoluzione
del valore dellingresso depurato dal suo valore medio. Questa propriet` a e luso di () come dierenza
rispetto alla media verranno usate estensivamente nel seguito.
Si noti che
_

h() d
causalit`a
=
_

0
h() d = H (0)
dove H (s) `e la trasformata di Laplace della risposta impulsiva:
H (s) =
_

0
h(t) e
st
dt
La media della risposta risulta quindi essere pari alla media dellingresso moltiplicata per la funzione di
trasferimento valutata a frequenza nulla, ed `e perci`o interpretabile come la risposta statica alla media
dellingresso. Allora:

y
= H (0)
x
Si assuma che nel dominio del tempo il sistema dinamico considerato sia descritto dal sistema agli stati:
{ x} = [A] {x} + [B] u
y = [C] {x} +Du
E possibile sottoporre il sistema alloperatore di media. La media della derivata di un qualsiasi processo
ergodico,

x
=
_
M x dt
`e nulla; per dimostrarlo si consideri la denizione di integrale in media, da cui risulta

x
= lim
T
1
2T
_
T
T
x(t) dt = lim
T
x(T) x(T)
2T
= 0
Lultimo limite tende a zero dal momento che x(T) e x(T) sono limitate per ipotesi. Naturalmente
poiche la media di un vettore `e data dal vettore delle medie dei suoi componenti sar`a pure {
x
} = {0}.
Applicando allora la media allequazione di stato, risolvendo il primo insieme di equazioni per {
x
} e
sostituendo il risultato ottenuto nellequazione che determina la media delluscita si ottengono inne le
seguenti espressioni per la media dello stato e delluscita:
{
x
} = [A]
1
[B]
u

y
=
_
[C] [A]
1
[B] +D
_

u
6 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
Questultimo risultato va confrontato con lintegrale visto in precedenza:
_
+

h() d
causalit`a
=
_
+
0
h() d = H (0) = [C] [A]
1
[B] +D
Si ha cos` la conferma che i risultati ottenuti nel dominio del tempo e in quello delle frequenze coincidono.
Nel caso in esame la media della velocit` a di raca `e tipicamente nulla; se tuttavia fosse diversa da zero la
si potrebbe trattare semplicemente calcolando la media dellingresso e determinando quella della risposta.
Si proceda ora al calcolo della varianza delluscita:

2
yy
=
_
M(y (t))
2
dt
=
_
M
__
+

h(v) x(t v) dv
_
+

h(w) x(t w) dw
_
dt
=
_
+

_
+

h(v) h(w)
_
Mx(t w) x(t v) dt dw dv
Questo risultato indica che, per il calcolo della varianza delluscita, `e necessario calcolare un termine
aggiuntivo,
_
Mx(t w) x(t v) dt,
che indica in qualche modo come i valori dellingresso a due tempi diversi siano imparentati tra loro.
Questa informazione `e necessaria anche se si `e supposto che il fenomeno sia ergodico. Si denisce pertanto
il concetto di autocovarianza, o semplicemente covarianza, per un processo ergodico:
k
xx
() =
_
Mx(t) x(t +) dt
Si osservi che k
xx
`e simmetrica in , cio`e k
xx
() = k
xx
(). I passaggi necessari a vericare questa
propriet` a sono semplici, e possono essere dedotti dalla verica, riportata di seguito, di una propriet` a
simile (antisimmetria dellintercovarianza).
Una covarianza con andamento esponenziale in , ad esempio, indica che la funzione perde parentela
in modo esponenziale al crescere della traslazione ; una correlazione esponenziale modulata da un
seno signica che la funzione perde parentela con legge esponenziale, con dei picchi di parentela ad
intervalli costanti, ed `e quindi possibile identicare una frequenza caratteristica. La funzione `e simmetrica
rispetto allorigine, in corrispondenza della quale assume il suo massimo valore. Viene denita anche
lintercovarianza (cross-covariance), in cui un segnale viene correlato con un altro:
k
xy
() =
_
Mx(t) y (t +) dt
Lintercovarianza `e antisimmetrica, cio`e k
xy
() = k
yx
(). per eettuare la verica si scriva la deni-
zione di k
xy
():
k
xy
() =
_
Mx(t) y (t ) dt
si applichi ora uno spostamento pari a alla funzione integranda; poich`e il segnale `e ergodico, ci`o non
condiziona il risultato:
k
xy
() =
_
Mx(t +) y (t) dt
Questultimo integrale corrisponde alla denizione di intercovarianza tra y e x:
_
Mx(t +) y (t) dt =
_
My (t) x(t +) dt = k
yx
()
7
Per completare la denizione degli indicatori funzionali tipici dei processi ergodici viene introdotta ora
lautocorrelazione:
r
xx
() =
_
Mx(t) x(t +) dt
E possibile ottenere una relazione che lega lautocovarianza allautocorrelazione e alla media. Svolgendo
infatti i prodotti della denizione di autocovarianza si ottiene:
k
xx
() =
_
M(x(t)
x
) (x(t +)
x
) dt
=
_
Mx(t) x(t +) dt
_
Mx(t)
x
dt
_
Mx(t +)
x
dt +
_
M
2
x
dt
ergodicit` a
=
_
Mx(t) x(t +) dt
. .
rxx()
2
_
Mx(t)
x
dt +
2
x
. .

2
x
e quindi:
k
xx
() = r
xx
()
2
x
In tutti i casi in cui la media sia nulla lautocovarianza `e chiaramente uguale allautocorrelazione.
`
E
possibile denire anche lintercorrelazione in modo tuttaatto analogo allintercovarianza. Si osservi che
la varianza precedentemente denita non `e altro che lautocovarianza valutata per t = 0, cio`e
2
xx
=
k
xx
(0).
E ora possibile procedere al calcolo dellautocovarianza delluscita di un sistema dinamico. Si consideri
a tal ne un sistema dinamico asintoticamente stabile con uscita y (t), ingresso x(t) e risposta impul-
siva h(t). Allora, ricordando che y (t) `e pari allintegrale di convoluzione di x(t), lautocovarianza
delluscita `e:
k
yy
() =
_
My (t) y (t +) dt
=
_
M
__
t
0
h(u) x(t u) du
_
t
0
h(v) x(t + v) dv
_
dt
=
_
t
0
_
t
0
__
Mx(t u) x(t + v) dt
_
h(u) h(v) du dv
Si operi, con un certo abuso di notazione, il seguente cambio di variabili con Jacobiano unitario:
t u = z
u = u
v = v
si riconosce allora che lintegrale tra parentesi `e, per denizione, lautocovarianza di x valutata in
(u + v):
k
xx
(u + v) =
_
Mx(z) x(z +u + v) dz
Lautocovarianza delluscita `e quindi pari a
k
yy
() =
__
+

h(u) k
xx
(u + v) h(v)dudv
In particolare la varianza sar`a data da:

2
yy
=
__
+

h(u) k
xx
(u v) h(v)dudv
8 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
Esempio 1.1 Si calcoli lautocovarianza delluscita y di un sistema avente risposta impulsiva h(t) =
Asca (t) e
t
, soggetto ad un ingresso x avente media nulla e autocovarianza k
xx
= w ().
Soluzione:
Lingresso considerato si chiama rumore bianco e verr` a denito pi` u avanti; le caratteristiche fornite
sono sucienti per lo svolgimento del problema. Assumendo che il sistema sia asintoticamente stabile,
e quindi > 0, per denizione si ha:
k
yy
=
__
,+
h(u) k
xx
(u + v) h(v)dudv
= A
2
w
__
,+
sca (u) e
u
(u + v) sca (v) e
v
dudv
causalit`a
= A
2
w
__
0,+
e
u
(u + v) e
v
dudv
= A
2
we

_
+
max(,0)
e
2u
du
=
A
2
w
2
e

e
2max(,0)
=
A
2
w
2
e
||
dove si `e sfruttato il fatto che
_
+
0
(u + v) e
v
dv = sca (u +) e
(u+)
Lestremo inferiore di integrazione max (, 0) nasce dallintersezione della condizione u > contenuta
nella funzione sca (u +) e della condizione u > 0 imposta dalla causalit`a della risposta impulsiva. La
funzione `e simmetrica, e decresce esponenzialmente al crescere di .
1.1 La formula di Rice
Una volta in grado di calcolare gli indicatori statistici delluscita, sotto lipotesi di ergodicit`a gaussiana,
si pu` o da questi risalire a sollecitazioni e sforzi equivalenti nella struttura al ne di procedere al suo
dimensionamento; per fare ci`o si pu` o ricorrere a due dierenti metodologie:
la prima, pi` u semplice ed empirica, consiste nel valutare delle sollecitazioni deterministiche equiva-
lenti, di un livello tale che la probabilit` a di superarlo sia inferiore ad un limite pressato in fase di
progetto: per il momento ettente in corrispondenza di una determinata sezione alare, ad esempio,
si potrebbe stabilire:
M
F equivalente
= M
F medio
+ 4 5
_

2
MF
che corrisponde a una probabilit` a di non superamento, per una distribuzione Gaussiana, pari a,
rispettivamente, 0.999968 e 0.9999997. Le probabilit` a di superamento sono quindi pari a, nei due
casi, 3.2E-5 e 3E-7.
Naturalmente non si garantisce con assoluta certezza il non superamento dei livelli di sollecitazione
che esso `e in grado di prevedere. Si apre quindi un nuovo modo di concepire la sicurezza, su cui
non ci si dilungher` a. E chiaro per` o che la sicurezza non esiste pi` u, ma ci si pu` o al pi` u ridurre ad
un elevato grado di improbabilit`a.
la seconda metodologia consiste nel determinare la probabilit` a di superamento (non superamento)
durante la vita operativa del velivolo di un livello ammissibile di sollecitazione o di sforzo.
1.1. LA FORMULA DI RICE 9
A tale scopo si far`a uso della formula di Rice che fornisce una stima del numero medio di volte N (x) che,
per un fenomeno gaussiano ed ergodico, un livello x assegnato viene attraversato nellunit`a di tempo:
N (x) =
1

x x

xx
e

1
2

x
x

xx

2
dove
2
x x
rappresenta la varianza della derivata temporale di x e N (x) `e il numero medio di volte in cui
viene superato nellunit`a di tempo un livello assegnato di x, in entrambe le direzioni, cio`e in salita ed in
discesa. Il numero di attraversamenti verso lalto sar`a in media uguale a quelli verso il basso. Si denisce
allora con N
+
(x) il numero di attraversamenti verso lalto:
N
+
(x) =
1
2

x x

xx
e

1
2

xx

2
Il numero di volte in cui viene superato il valore nullo prende il nome di frequenza apparente del fenomeno:
N
+
(0) =
1
2

x x

xx
Questo operatore presenta unanalogia con il calcolo della frequenza per un fenomeno armonico: in-
terpretando infatti
x x
come lampiezza delloscillazione della velocit` a per un moto armonico Ae
jt
di
ampiezza A e pulsazione , e
xx
come lampiezza delloscillazione della relativa posizione, si avrebbe:
N
+
(0) =
1
2
|A|
|A|
Talvolta viene utilizzato anche il periodo di ritorno, R
+
(x), denito come linverso di N
+
(x).
La formula di Rice pu` o essere ottenuta in base a semplici considerazioni. Quelle riportate di seguito non
pretendono di fornire una dimostrazione rigorosa, ma semplicemente di illustrare i concetti che stanno
alla base della formula.
Si consideri un processo x(t) generico. La funzione che descrive il superamento di una soglia a `e denita
come
y (t) = sca (x(t) a)
infatti essa assume valore unitario solo quando x(t) > a, altrimenti `e nulla. La derivata di y assume
quindi il signicato di segnale di conteggio degli attraversamenti del livello considerato, sia in senso
crescente che decrescente:
y (t) = (x(t) a) x(t)
In un intervallo di tempo [T
1
, T
2
] il numero di attraversamenti in entrambi i sensi `e:
N
T1,T2
=
_
T2
T1
(x(t) a) | x| dt
per cui la funzione (x(t) a) | x| rappresenta il rateo di attraversamenti nellunit`a di tempo. Il loro
numero medio, per un processo ergodico, `e

N
=
__
,+
(x(t) a) | x| p (x, x)d xdx =
_
+

| x| p (a, x) d x
Gli attraversamenti solo in direzione positiva, per valori di x in aumento, sono

N
+ =
_
+
0
xp (a, x) d x
10 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
Se il processo x `e ergodico lintercovarianza tra il processo e la sua derivata `e nulla,
2
x x
= 0. Infatti

2
x x
=
_
Mx x dt =
_
M
d
dt
1
2
(x)
2
dt
= lim
T
1
2T
_
1
2
(x)
2
_
T
T
= lim
T
(x(T))
2
(x(T))
2
4T
= 0
poich`e x(T) e x(T) sono limitate per ipotesi, e quindi il limite non pu` o che tendere a zero. Per un
processo Gaussiano ergodico
2
x x
= 0 implica lindipendenza tra il processo e la sua derivata; la densit`a
di probabilit` a composta `e allora semplicemente data dal prodotto delle densit`a di probabilit` a dei due
processi, la x e la sua derivata:
p (x, x) = p (x) p ( x) =
1

2
xx
e

1
2

xx

2
1

2
x x
e

1
2

x x

2
e, eseguendo lintegrazione, si ottiene appunto

N
+ =
1
2

x x

xx
e

1
2

xx

2
Tale formula pu` o essere utilizzata per vari tipi di verica strutturale, inclusi alcuni tipi di calcolo a fatica.
Si vedr`a ora come sia possibile calcolare degli ammissibili statici equivalenti collegati alla vita operativa.
Se si considera un intervallo di tempo t, il livello x verr` a superato N
+
(x) t volte. La probabilit` a di
non superare il livello x in un tempo t, suddiviso in un numero sucientemente elevato di intervalli t,
tali che gli eventi entro i diversi intervalli possano considerarsi mutuamente indipendenti, `e data da:
q (x, t) = (1 N
+
t)
n
dove t = n t:
q (x, t) =
_
1
N
+
t
n
_
n
Passando ora al limite per n che tende allinnito si ottiene la denizione di numero di Nepero e:
lim
n
q (x, t) = lim
n
_
1
N
+
t
n
_
n
def
= e
N+t
La probabilit` a di superare il valore in questione quindi `e:
q (x, t) = 1 q (x, t)
Questa probabilit` a in genere `e dettata dalle norme, oppure pu` o essere scelta dal progettista di comune
accordo con il committente. La formula test`e ricavata pu` o essere utilizzata come verica di progetto:
assegnati i valori di sforzo ed il tempo operativo del velivolo o di sue parti, essa consente di eettuare un
controllo diretto sul valore di q, o, viceversa, assegnato q, di determinare il lasso di tempo che concorre
a denire la vita operativa, o lintervallo ispettivo, del pezzo in questione.
1.2 La densit`a spettrale di potenza
Sino ad ora `e stato considerato il dominio del tempo, ed anche quando ci si `e riferiti a quello delle
frequenze, per la funzione di trasferimento, limpiego dellintegrale di convoluzione ha consentito di
calcolare gli indicatori statistici di interesse.
`
E per` o evidente che luso dellintegrale di convoluzione non
`e n`e semplice n`e agevole. Risulta invece conveniente cercare di operare direttamente nel dominio delle
1.2. LA DENSIT
`
A SPETTRALE DI POTENZA 11
frequenze, dove spesso le operazioni dellanalisi matematica possono trasformarsi in semplici operazioni
algebriche.
Se il sistema considerato `e asintoticamente stabile se ne pu` o analizzare la risposta ad una forzante casuale
attraverso il concetto di autodensit` a spettrale di potenza o semplicemente densit`a spettrale di potenza
(DSP), denita come la trasformata di Fourier dellautocovarianza:

xx
() =
_
+

k
xx
() e
j
d
Ovviamente si riottiene lautocovarianza nel dominio del tempo antitrasformando la DSP:
k
xx
() =
1
2
_
+

xx
() e
j
d
La varianza `e data dallautocovarianza valutata per t = 0:

2
xx
= k
xx
(0) =
1
2
_
+

xx
() d
Esempio 1.2 Si calcoli la DSP relativa allautocovarianza calcolata allesempio precedente
Soluzione:

yy
() =
A
2
w
2
_
+

e
||
e
j
d
=
A
2
w
2
__
0

e
(j)
d +
_
+
0
e
(+j)
d
_
=
A
2
w
2
_
1
j
+
1
+j
_
=
A
2
w

2
+
2
Poich`e la k
xx
`e una funzione simmetrica pu` o essere sviluppata in serie di soli coseni e vengono quindi a
mancare i termini che danno origine alla parte immaginaria dello sviluppo. La DSP `e quindi una funzione
reale e simmetrica in . Inoltre la k
xx
deve tendere a zero per t che tende allinnito e deve essere a sua
volta limitata, altrimenti la sua trasformata avrebbe contenuto armonico illimitato e potenza innita.
Viene per` o utilizzata anche una categoria di ingressi, detti rumori bianchi, dotati di densit`a spettrale di
potenza costante: essi non sono sicamente possibili, ma godono di alcune propriet` a che talora risultano
molto vantaggiose, come si vedr`a pi` u avanti. Nel dominio del tempo la denizione di rumore bianco si
trasforma in:
K
ww
() = W ()
cio`e la sua covarianza `e una delta di Dirac.
Si ricava ora la DSP della risposta:

yy
() =
_
+

k
yy
() e
j
d
=
___
+

h(u) k
xx
(u + v) h(v) e
j
dudvd
Eettuando il seguente cambio di variabili con Jacobiano unitario
u = u
v = v
z = u + v
12 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
si ottiene:

yy
() =
___
+

h(u) k
xx
(z) h(v) e
j(u+z+v)
dzdudv
Scomponendo ora lesponenziale nel prodotto dei tre termini:
e
j(u+z+v)
= e
j(u)
e
jz
e
jv
si possono integrare separatamente le tre funzioni ed ottenere:

yy
() =
_
+

h(u) e
j(u)
du
_
+

k
xx
(z) e
jz
dz
_
+

h(v) e
j(v)
dv
= H ()
xx
H ()
o, poich`e le funzioni integrande sono scalari, in forma pi` u compatta:

yy
() = H ()
2

xx
()
si noti che la funzione di trasferimento tra la DSP dellingresso e quella delluscita `e il quadrato del
modulo della funzione di trasferimento del sistema, e non il modulo del quadrato; questo `e dovuto al
fatto che H () e H () sono una la coniugata dellaltra. Infatti, dal momento che H `e causale, essa
ha parte reale simmetrica e parte immaginaria antisimmetrica in .
Se si considera, con un certo abuso di notazione, la trasformata della derivata temporale di una funzione:
_
+

x(t) e
jt
dt = x() = jx()
si pu` o interpretare j come una funzione di trasferimento tra la derivata e la funzione stessa; la DSP
della derivata `e allora:

x x
= j
2

xx
=
2

xx
e, analogamente, sar`a
x x
=
4

xx
.
Perche la DSP di x sia denita, la DSP di x deve annullarsi almeno come 1/
2
per che tende allinnito;
nel caso di un sistema dinamico la funzione di trasferimento si annulla almeno come 1/
2
a causa dei
termini inerziali che introducono le derivate seconde degli stati.
Cos` la varianza di x,
2
x x
, che compare nella formula di Rice, pu` o essere ricavata antitrasformando
lespressione della relativa DSP:

2
x x
=
1
2
_
+

xx
() d
Per esempio, si consideri il sistema dinamico tipico per i problemi aeroelastici:
[Z (q, , M)] {q ()} = q {H
aG
(, M)}
V
G
()
V

(1.2)
dove
[Z (q, , M)] =
2
[M
s
] +j [C
s
] + [K
s
] q [H
am
(, M)]
Le risposte di interesse potranno essere espresse come
{y} = [C ()] {q} + [D()]
V
G
()
V

e, quindi, facendo uso della 1.2 come:


{y} = {H ()}
V
G
()
V

1.3. ESTENSIONE A SISTEMI A PI


`
U DIMENSIONI 13
dove
{H ()} = q [C ()] [Z (q, , M)]
1
{H
aG
(, M)} + [D()]
Si consideri ora come possibile variabile di interesse il momento ettente in un punto della struttura. In
generale gli spostamenti di un punto della struttura saranno legati agli spostamenti nodali, o modali, da
funzioni di forma opportune:
u = [N] {q}
Il momento ettente dipende dalle derivate seconde nello spazio di tali funzioni, cio`e dalle curvature:
M
F
= k [N

] {q}
Il recupero delle azioni interne avviene quindi direttamente dallingresso, considerando il sistema dinamico
descritto dallequazione 1.2, tramite la relazione:
M
F
= qk [N

] [Z (q, , M)]
1
{H
aG
()}
V
G
V

Ipotizzando di conoscere la densit`a spettrale di potenza della raca


VGVG
(), supposta a media nulla,
quella delluscita `e

MF MF
() = q
_
_
_k [N

] [Z (q, , M)]
1
{H
aG
()}
_
_
_
2
1
V
2

VGVG
()
Mediante loperazione di antitrasformazione si ottengono le varianze che occorrono per applicare la
formula di Rice:

2
MF MF
= k
MF MF
(0) =
1
2
_
+

MF MF
() d

MF

MF
=
1
2
_
+

MF MF
() d
1.3 Estensione a sistemi a pi` u dimensioni
Nel caso in cui la velocit` a di raca var lungo lapertura alare pu` o risultare conveniente utilizzare una
rappresentazione discretizzata di V
G
; dobbiamo in tal caso saper scrivere tutte gli indicatori statistici in
forma multidimensionale. Se {x} `e un vettore di variabili casuali ergodiche, la sua autocovarianza viene
denita, in completa analogia con il caso scalare, come:
[k
xx
()] =
_
M{x(t)} {x(t +)}
T
dt
Sulla diagonale della matrice [k
xx
] si trovano le autocovarianze delle componenti del vettore {x}, al di
fuori si trovano invece le intercovarianze tra le diverse componenti, che sono antisimmetriche, ovvero
k
xixj
() = k
xjxi
(). Lautocorrelazione `e:
[r
xx
()] =
_
M{x(t)} {x(t +)}
T
dt
La matrice delle varianze, o pi` u semplicemente la varianza, si ottiene valutando la matrice delle autoco-
varianze per t = 0; essa risulta simmetrica:
_

2
xx

= [k
xx
(0)]
Per vettori {x} con componenti distribuite gaussianamente la densit`a di probabilit` a `e:
p ({x}) =
1
(2)
n
2
_
det ([
2
xx
])
e

1
2
{x}
T
[
2
xx
]
1
{x}
14 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
`
E anche possibile, in perfetta analogia con il caso monodimensionale, determinare il legame che intercorre
tra autocorrelazione, autocovarianza e media:
[k
xx
()] =
_
M{x(t)
x
} {x(t +)
x
}
T
dt
=
_
M{x(t)} {x(t +)}
T
dt
_
M{x(t)} {
x
}
T
dt

_
M{
x
} {x(t +)}
T
dt +{
x
} {
x
}
T
ergodicit` a
=
_
M{x(t)} {x(t +)}
T
dt
. .
[rxx()]

_
M{x(t)} {
x
}
T
dt
. .
{x}{x}
T

_
M{
x
} {x(t)}
T
dt
. .
{x}{x}
T
+{
x
} {
x
}
T
ottenendo quindi:
[k
xx
()] = [r
xx
()] {
x
} {
x
}
T
In tutti i casi in cui la media sia nulla lautocovarianza `e chiaramente uguale allautocorrelazione.
La matrice di intercorrelazione [r
xy
()] tra due segnali {x} e {y} viene denita come
[r
xy
()] =
_
M{x(t)} {y(t +)}
T
dt
e la matrice di intercovarianza [k
xy
()] come
[k
xx
()] =
_
M{x(t)} {y (t +)}
T
dt
E altres` immediato vericare che
[k
xy
()] = [r
xy
()] {
x
} {
y
}
T
Applicando la denizione di autocovarianza delluscita, [k
yy
()], utilizzando la matrice della risposta
impulsiva nel tempo [h(u)] e applicando la stessa sostituzione di variabili utilizzata nel caso bidimensionale
si arriva alla seguente espressione per lautocovarianza delluscita:
[k
yy
()] =
__
+

[h(u)] [k
xx
(u + v)] [h(v)]
T
dudv
Sempre mediante una sostituzione di variabili si ricava, come gi` a visto, la matrice autodensit`a spettrale
di potenza :
[
yy
()] = [H ()] [
xx
()] [H ()]
T
La matrice delle varianze pu` o essere ricavata antitrasformando la DSP:
_

2
xx

= [k
xx
(0)] =
1
2
_
+

[
xx
()] d
I termini sulla diagonale di [
xx
] sono reali, gli altri sono in generale complessi; i termini ad indici scam-
biati sono complessi coniugati.
1.3. ESTENSIONE A SISTEMI A PI
`
U DIMENSIONI 15
Osserviamo ora che, sempre per fenomeni ergodici, `e possibile anche un approccio diretto nel dominio
del tempo.
Sia assegnato il sistema:
{ x} = [A] {x} + [B] {u}
Si sottoponga lequazione alloperatore di media:
{0} = [A] {
x
} + [B] {
u
} ,
dove si `e fatto uso della constatazione, gi` a vista, che
_
M{ x} dt = lim
T+
_
T
T
d {x}
dt
dt = lim
T
{x(T)} {x(T)}
2T
= {0}
Si sottragga la seconda equazione dalla prima; si ottiene:
{ x} = [A] {x} + [B] {u}
Si moltiplichi ora a destra per [x]
T
, e si applichi nuovamente loperatore media:
_
M{ x} {x}
T
dt = [A]
_
M{x} {x}
T
dt + [B]
_
M{u} {x}
T
dt
= [A]
_

2
xx

+ [B]
__

2
ux
_
Si sommi a questultima equazione la sua trasposta
_
M{x} { x}
T
dt =
_

2
xx

[A]
T
+
__
M{x} {u}
T
dt
_
[B]
T
=
_

2
xx

[A]
T
+
__

2
xu
_
[B]
T
e si osservi che
_
M{ x} {x}
T
dt +
_
M{x} { x}
T
dt =
_
M
d
dt
_
{x} { x}
T
_
dt
= lim
T
_
x(T) x(T)
T
_

_
x(T) x(T)
T
_
2T
= 0
per cui
1
[0] = [A]
_

2
xx

+
_

2
xx

[A]
T
+ [B]
_

2
ux

+
_

2
xu

[B]
T
(1.3)
Per valutare gli ultimi due termini a secondo membro, che prendono il nome di intervarianze dellin-
gresso e del vettore degli stati,
_

2
ux

= [k
ux
(0)] e
_

2
xu

= [k
xu
(0)], rispettivamente, appare per`o subito
evidente che occorrono alcune conoscenze supplementari sulle caratteristiche statistiche della forzante,
in particolare della sua matrice delle varianze e di quella delle intervarianze con il vettore {x}.
Si ricordi che per il sistema dinamico in esame la risposta `e
{x(t)} =
_

[(t )] [B] {u()} d


dove, data lipotesi di asintotica stabilit` a del sistema, le condizioni iniziali non sono state considerate,
in quanto la parte autonoma della soluzione si estingue rapidamente, e la risposta a regime `e dominata
1
Attenzione: questa relazione evidenzia che, mentre nel caso scalare
x x
= 0, nel caso vettoriale la matrice

2
x x

non `e
nulla, ma solo antisimmetrica.
16 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
t

1/2
1
Figura 1.4: Funzione di Dirac nellorigine
dalla parte forzata (si noti che la storia si estende da a +).
L intervarianza tra stato e ingresso
_

2
xu

`e quindi pari a
_

2
xu

=
_
M
_

[()] [B] {u(t )} {u(t)}


T
dt d
=
_

[()] [B]
_
M{u(t )} {u(t)}
T
dt d
=
_

[()] [B] [k
uu
()] d
La formula mostra come, per calcolare
_

2
xu

, sia necessario eseguire unintegrazione. Calcolato tale


integrale `e possibile calcolare
_

2
xx

risolvendo il sistema lineare 1.3. Si noti che la condizione di asintotica


stabilit` a da noi assunta `e anche condizione necessaria e suciente per lesistenza e lunicit` a della soluzione
del sistema 1.3. Note
_

2
xx

e
_

2
xu

si pu` o calcolare la varianza relativa ad ogni uscita {y} = [C] {x} +


[D] {u}:
_

2
yy

= [C]
_

2
xx

[C]
T
+ [C]
_

2
xu

[D]
T
+ [D]
_

2
ux

[C]
T
+ [D]
_

2
uu

[D]
T
Per quanto riguarda i processi ergodici possiamo ottenere un risultato importante considerando come
forzanti dei rumori bianchi, cio`e dei segnali dotati di densit`a spettrale di potenza costante al variare della
frequenza; allora possiamo ritenere che
[
uu
()] = [W]
dove la matrice [W] `e la matrice delle intensit` a del rumore bianco, considerata costante nel tempo a
causa dellergodicit` a del fenomeno in analisi. La matrice di autocovarianza della forzante `e allora data
da:
[k
uu
()] = [W] ()
Dora in poi si indicher`a con w il rumore bianco. Il calcolo dellintervarianza
_

2
xw

associata al rumore
bianco si riduce a quello dellintegrale:
_

2
xw

=
_
t
0
[()] () d [B] [W] =
1
2
[B] [W]
Il termine 1/2, `e dovuto al fatto che la funzione [] in zero `e modulata da uno scalino: essa `e nulla per
t < 0 e pari a [I] per t = 0
+
(vedi lappendice alla ne di questo capitolo). Allora la di Dirac media
il valore della funzione nel punto di discontinuit` a (Figura 1.4).
1.3. ESTENSIONE A SISTEMI A PI
`
U DIMENSIONI 17
Lequazione 1.3, osservando che la matrice [W] `e simmetrica, se non addirittura diagonale, si riduce
allora alla pi` u semplice Equazione di Liapunov:
{0} = [A]
_

2
xx

+
_

2
xx

[A]
T
+ [B] [W] [B]
T
Lequazione cos` ottenuta permette di calcolare la matrice delle varianze del vettore delle variabili di
stato direttamente nel dominio del tempo, senza dover passare nello spazio delle frequenze o eettuare
integrali, una volta nota la matrice [W].
In questo paragrafo si `e cos` ottenuta una soluzione in forma chiusa per un sistema sollecitato da una
forzante ideale come un rumore bianco. Questo non deve essere interpretato come un limite, perche,
come si vedr`a in seguito, `e possibile descrivere ingressi stocastici diversi come uscite di un sistema, detto
ltro di forma (shaping lter), eccitato da un rumore bianco. Si avr`a modo di osservare pi` u avanti
che lequazione appena ricavata nellambito dei fenomeni ergodici ha una validit`a pi` u generale. Sar` a
infatti possibile ricavare unequazione formalmente identica a questa, ma che si riferisce ad una classe di
fenomeni pi` u ampia.
Esempio 1.3 Sia dato un veicolo, idealmente descritto da una massa M, in movimento su un terreno
con asperit` a caratterizzato da un prolo z. La massa sia collegata al terreno mediante una rigidezza K ed
uno smorzatore C. La derivata seconda del prolo del terreno, z

, sia assimilabile ad un rumore bianco


di media nulla e varianza pari a w. Si determinino le propriet`a del sistema in modo da ottimizzare il
comfort del passeggero (si minimizzi la varianza dellaccelerazione della massa).
Soluzione:
La velocit`a di traslazione, V , sia costante; quindi la derivazione rispetto al tempo del prolo del terreno
`e in relazione di proporzionalit`a diretta con la derivazione spaziale: z = V
2
z

. Nel seguito la costante


moltiplicativa verr` a inglobata nella varianza. Lomogeneit` a della derivata seconda spaziale del prolo del
terreno non implica direttamente lergodicit`a nel tempo nel caso in cui la velocit`a V non si mantenga
costante. Tuttavia, anche in tale caso, si pu` o pensare di considerare il fenomeno ergodico a tratti
qualora la variazione di velocit`a sia lenta rispetto alla velocit`a di variazione delle asperit` a del prolo.
Lequazione di equilibrio della massa `e:
M ( x + z) +C x +Kx = 0
dove x rappresenta la distanza dal terreno e quindi la quota assoluta `e data da x +z. La conformazione
del terreno z `e un dato imposto e quindi rappresenta la forzante; lequazione di moto `e:
M x +C x +Kx = M z
Lequazione, scritta agli stati, diventa:
_
x
x
_
=
_
0 1
K/M C/M
_ _
x
x
_
+
_
0
1
_
z
Luscita `e data dalla misura dellaccelerazione totale del baricentro, y = x+ z; analizzando con attenzione
lequazione di equilibrio, si nota che luscita pu` o essere riscritta come
y =
_
K/M C/M

_
x
x
_
La forzante per ipotesi ha densit` a spettrale di potenza costante pari a w; il problema pu` o essere scritto
direttamente in forma di Liapunov:
_
0 1
K/M C/M
_ _

2
xx

2
x x

2
x x

2
x x
_
+
_

2
xx

2
x x

2
x x

2
x x
_ _
0 K/M
1 C/M
_
+
_
0
1
_
w
_
0 1

=
_
0 0
0 0
_
18 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
ovvero:
_

2
x x

2
x x

_
K
2
xx
+C
2
x x
_
/M
_
K
2
x x
+C
2
x x
_
/M
_
+
_

2
x x

_
K
2
xx
+C
2
x x
_
/M

2
x x

_
K
2
x x
+C
2
x x
_
/M
_
+
_
0 0
0 w
_
=
_
0 0
0 0
_
Il problema si riduce a tre equazioni (per la simmetria della matrice incognita):
2
2
x x
= 0
2
_
K
2
x x
+C
2
x x
_
/M +w = 0

2
x x

_
K
2
xx
+C
2
x x
_
/M = 0
da cui si ottiene:

2
x x
= 0 (come gi`a dimostrato nel paragrafo 1.1)

2
x x
=
M
2C
w

2
xx
=
M
2
2KC
w
La varianza delluscita `e:

2
yy
=
_
K/M C/M

_
wM
2
/2KC 0
0 wM/2C
_ _
K/M
C/M
_
=
1
2
_
K
C
+
C
M
_
w
In genere la rigidezza del sistema `e determinata da considerazioni sulla deformazione statica del veicolo
e sulla tenuta di strada, quindi il problema `e costituito da una minimizzazione in cui lunico parametro
di progetto `e lo smorzamento. La condizione di stazionariet`a della varianza delluscita `e:

2
yy
C
=
1
2
_
1
M

K
C
2
_
w = 0
da cui si ottiene C =

KM. Se si considera il sistema di partenza nel dominio delle frequenze, si nota


che la funzione di trasferimento ha la forma
x
s
2
z
=
1
s
2
+s
C
M
+
K
M
Il rapporto tra rigidezza e massa, K/M, fornisce la frequenza propria del sistema. La forma della
risposta dipende dagli autovalori del sistema, i quali a loro volta dipendono dai parametri. Gli autovalori
sono soluzioni dellequazione caratteristica, data dallannullamento del denominatore della funzione di
trasferimento:
s =
C
2M

_
C
2
4M
2

K
M
Perche il sistema sia stabile, lo smorzamento C deve essere positivo, come la massa (positiva per de-
nizione) e la rigidezza (generalmente positiva nei sistemi meccanici se non in condizioni patologiche).
Se il discriminante delle radici `e negativo, la soluzione presenta forma oscillatoria, altrimenti si ha
semplicemente un andamento smorzato. Il valore critico di smorzamento rappresenta la condizione di
minimo smorzamento che fornisce una risposta non oscillante, e lo si ottiene imponendo lannullamento
del discriminante:
C = 2

KM
Si noti come lo smorzamento ottimo determinato in precedenza corrisponda alla met` a dello smorzamento
critico. Questo signica che la risposta del caso ottimo sar` a oscillatoria, ma fortemente smorzata.
1.4. FILTRO DI FORMA 19
1.4 Filtro di forma
Nel caso in cui gli ingressi non siano schematizzabili con dei rumori bianchi, `e ancora possibile utilizzare
lequazione di Liapunov a patto di applicare sugli ingressi un opportuno ltro di forma che generi gli
ingressi (reali) del sistema a partire da rumori bianchi (ttizi). Si tratta cio`e di vedere gli ingressi come
ltrati da un ulteriore sistema lineare di funzione di trasferimento opportuna. Detto {n} il vettore delle
forzanti, di cui sia nota la matrice autodensit`a spettrale di potenza [
nn
], o equivalentemente la [k
nn
],
si associ al sistema dinamico
{ x} = [A] {x} + [B] {n}
{y} = [C] {x} + [D] {n}
un ulteriore sistema-ltro con una forzante data da un vettore di rumori bianchi
{ x
n
} = [A
n
] {x
n
} + [B
n
] {w}
{n} = [C
n
] {x
n
}
che dovr`a essere tale da garantire che la DSP di {n}, uscita del sistema aggiuntivo, sia uguale a quella
della forzante eettiva:
[
nn
] = [H ()] [
ww
] [H ()]
T
Nel caso ad una dimensione si ha, pi` u semplicemente,
nn
= |H|
2
W, che evidenzia chiaramente come
un rumore qualsiasi possa essere ottenuto ltrando un rumore bianco con unapposita dinamica H. La
sintesi di H da
nn
`e sempre possibile, anche se a volte non semplice, in tutti i casi di interesse pratico.
Lequazione della varianza si pu` o allora applicare al complesso ltro + sistema. Il sistema completo
diventa quindi:
_
{ x}
{ x
n
}
_
=
_
[A] [B] [C
n
]
[0] [A
n
]
_ _
{x}
{x
n
}
_
+
_
[0]
[B
n
]
_
{w}
{y} =
_
[C] [D] [C
n
]

_
{x}
{x
n
}
_
Si osservi che il sistema cos` ottenuto `e strettamente proprio, e poich`e la densit`a spettrale di potenza
del rumore ltrato decade almeno come 1/
2
(trattandosi di una forzante sicamente riscontrabile) sar`a
possibile calcolare anche la varianza dellaccelerazione [
x x
].
Esempio 1.4 Si consideri lesempio precedente, in cui per` o la correlazione della derivata seconda del
prolo del terreno sia k
z

z
= Ae
||
.
Soluzione:
Lasperit` a del terreno pu` o essere descritta come luscita di un ltro di forma il cui ingresso sia un rumore
bianco. La correlazione, in funzione del tempo, `e k
z

z
= Ae
V ||
; si esegua una trasformazione di
Fourier, dividendo lintegrale in due parti per evitare linconveniente del modulo del parametro temporale:

z
=
_

Ae
V ||
e
j
d
= A
__
0

e
(V j)
d +
_
+
0
e
(V +j)
d
_
= A
_
1
V j
+
1
V +j
_
=
2AV
(V )
2
+
2
Il modulo della funzione ltro di forma `e dato dalla radice quadrata della densit` a spettrale di potenza cos`
calcolata; avr`a la forma
H =
a
b +s
20 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
Si consideri il quadrato del modulo in frequenza:
H
2
=
a
2
b
2
+
2
=
2V
(V )
2
+
2
dove si `e considerata A come lampiezza del rumore bianco in ingresso. Si ottiene:
a =

2V
b = V
Il ltro di forma, scritto agli stati, diventa:
r = V r +

2V A
z = r
Lequazione del ltro di forma si aggiunge al sistema, che diventa:
_
_
_
x
x
r
_
_
_
=
_
_
0 1 0
K/M C/M 1
0 0 V
_
_
_
_
_
x
x
r
_
_
_
+
_
_
0
0

2V
_
_
A
mentre luscita `e
y =
_
K/M C/M 0

_
_
_
x
x
r
_
_
_
Lequazione di Liapunov diventa:
_
_
0 1 0
K/M C/M 1
0 0 V
_
_
_
_

2
11

2
12

2
13

2
12

2
22

2
23

2
13

2
23

2
33
_
_
+
_
_

2
11

2
12

2
13

2
12

2
22

2
23

2
13

2
23

2
33
_
_
_
_
0 K/M 0
1 C/M 0
0 1 V
_
_
+
_
_
0
0

2V
_
_
A
_
0 0

2V

=
_
_
0 0 0
0 0 0
0 0 0
_
_
da cui:
2
2
12
= 0

2
22

_
K
2
11
+C
2
12
_
/M
2
13
= 0

2
23
V
2
13
= 0
2
_
K
2
12
+C
2
22
_
/M 2
2
23
= 0

_
K
2
13
+C
2
23
_
/M
2
33
V
2
23
= 0
2V
2
33
+ 2V A = 0
ovvero:

2
12
= 0

2
33
= A

2
13
=
A
K/M + (C/M +V ) V

2
23
=
AV
K/M + (C/M +V ) V

2
22
=
M
C
AV
K/M + (C/M +V ) V

2
11
=
M
K
_
M
C
V + 1
_
A
K/M + (C/M +V ) V
1.4. FILTRO DI FORMA 21
La varianza delluscita `e:

2
yy
=
__
K
C
+
C
M
_
V +
K
M
_
A
K/M + (C/M +V ) V
La minimizzazione si ottiene uguagliando a zero la sua derivata rispetto al parametro di smorzamento C:

2
yy
C
=
_
K
2
C
2
+ 2
K
C
V +
_
K
C
M
C
1
_

2
V
2
_
A
K/M + (C/M +V ) V
= 0
quindi:
C =
K +

2K
2
+KM
2
V
2
V
Si noti come si riottenga la soluzione del caso precedente al tendere di allinnito, condizione per la
quale la correlazione della rugosit`a della supercie ritorna ad essere un rumore bianco.
22 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
1.5 Denizione di probabilit`a
Nellintento di giungere ad una descrizione matematica la pi` u rigorosa possibile e, nel contempo, alla
possibilit`a di considerare categorie di forzanti anche dierenti da quelle, pur sempre ristrette, n qui
analizzate, si prola ora la necessit` a di inquadrare le nozioni sinora illustrate in un quadro analitico pi` u
ampio e completo. Occorrer`a esaminare la risposta di un sistema a forzanti non pi` u necessariamente
ergodiche.
Si chiama esperimento casuale la singola osservazione di un fenomeno casuale o aleatorio. Lesito di un
fenomeno casuale `e a priori incognito. Si pu` o identicare linsieme i cui elementi sono tutti i possibili
risultati di un tale esperimento; questo insieme si chiama spazio campione. Lo spazio campione di un
fenomeno casuale come il lancio di una moneta `e dato dallinsieme {testa, croce}; quello del lancio di
un dado `e linsieme {1, 2, 3, 4, 5, 6}. Ogni elemento dello spazio campione si chiama punto campione.
Si distinguono tre tipi di spazi campione. Uno spazio campione nito contiene un numero nito di
punti campione, come [testa, croce] e [1, 2, 3, 4, 5, 6]. Uno spazio campione innito numerabile contiene
un numero innito ma numerabile di punti campione. Uno spazio campione non numerabile contiene
una innit`a non numerabile di punti campione, come ad esempio i numeri reali compresi negli intervalli
[0, +) e [a, b]. Introduciamo ora il concetto di evento. Supponiamo che lesito di un esperimento casuale
consistente nel lancio di un dado sia 4. A tale esito si possono associare uno o pi` u eventi. Si pu` o infatti
dire che: a) il numero `e 4; b) `e un numero pari; c) `e un numero maggiore di due; d) `e un numero
minore di 5; e) `e un numero = 6; f) `e un numero minore di 7; g) `e un numero minore di 1. Si noti
che gli eventi da b) a d) possono essere vericati anche se lesito dellesperimento non `e 4. Un evento
come a) contiene un solo punto campione ed `e chiamato evento elementare; gli altri sono detti eventi
composti. Dalla denizione `e evidente che gli eventi elementari sono mutuamente esclusivi. Un evento si
dice (statisticamente) certo quando contiene tutti i punti dello spazio campione; nellesempio precedente
levento f) `e certo. Un evento si dice impossibile se non contiene nessun punto campione; nellesempio
precedente levento g) `e impossibile. Si denisce probabilit` a P una misura associata agli eventi E che
soddisfa i tre assiomi seguenti, dove indica lo spazio campione:
1. P (E) 0
2. P () = 1
3. P (E
1
E
2
) = P (E
1
) +P (E
2
) se E
1
E
2
= , cio`e se E
1
ed E
2
sono disgiunti.
Il primo assioma aerma che la probabilit` a `e un numero non negativo; il secondo dice che la probabilit` a
ha come valore massimo uno, evento certo, mentre il terzo va sotto il nome di principio della additivit`a
delle probabilit` a totali. Dire E
1
E
2
= signica che i due eventi sono mutuamente esclusivi, cio`e se si
verica E
1
non pu` o vericarsi E
2
e viceversa; nellesempio precedente gli eventi a) e g) sono mutuamente
esclusivi, mentre gli eventi a) e b) non lo sono. La probabilit` a di vericarsi dei due singoli eventi `e
pertanto uguale alla somma delle probabilit` a dei singoli eventi. Si enunciano brevemente alcuni teoremi
di teoria della probabilit` a:
Teorema 1.1 Teorema dellevento complementare
Se P (E) `e la probabilit` a che si verichi levento E, la probabilit` a dellevento complementare E, cio`e
che non si verichi E, `e:
Q(E) = P (E) = 1 P (E)
Teorema 1.2 Teorema dellevento totale
Dati due eventi E
1
ed E
2
la probabilit` a che si verichino o E
1
o E
2
o entrambi `e data da:
P (E
1
E
2
) = P (E
1
) +P (E
2
) P (E
1
E
2
)
dove P (E
1
E
2
) `e la probabilit` a che si verichino entrambi E
1
ed E
2
. Si noti la necessit`a di dierenziare
questo teorema dallassioma 3 in quanto in questo caso si possono vericare anche entrambi, poiche
E
1
E
2
= , cio`e gli eventi non sono mutuamente esclusivi.
1.6. REGOLARIT
`
A STATISTICA 23
Teorema 1.3 Denizione della probabilit`a condizionata
La probabilit` a del vericarsi dellevento E
2
dopo che si `e vericato levento E
1
si indica con P (E
2
| E
1
)
ed `e denita come:
P (E
2
| E
1
) =
P (E
1
E
2
)
P (E
1
)
Teorema 1.4 Denizione di indipendenza
Un evento E
2
si dice indipendente da un altro evento E
1
se:
P (E
1
| E
2
) = P (E
2
)
Teorema 1.5 Teorema dellevento composto
Dati due eventi E
1
ed E
2
, la probabilit` a che si verichino entrambi gli eventi `e data da:
P (E
1
E
2
) = P (E
1
) P (E
2
| E
1
) = P (E
2
) P (E
1
| E
2
)
ovvero:
P (E
1
) =
P (E
2
) P (E
1
| E
2
)
P (E
2
| E
1
)
P (E
2
) =
P (E
1
) P (E
2
| E
1
)
P (E
1
| E
2
)
Tale relazione prende il nome di legge di Bayes. Nel caso in cui gli eventi siano mutuamente indipendenti
si ha evidentemente:
P (E
1
E
2
) = P (E
1
) P (E
2
)
1.6 Regolarit`a statistica
Non `e dicile determinare intuitivamente la probabilit` a P del vericarsi di un evento per un semplice
esperimento casuale come il lancio di una moneta o di un dado. Nellesempio del lancio di una moneta `e
facile stabilire che P (testa) = P (croce) = 1/2. Lassegnazione intuitiva del valore della probabilit` a ad
un evento implica che nella presentazione che si sta svolgendo la probabilit` a sia vista come un concetto
primordiale, quali quelli di punto e di retta in geometria. Se si `e in grado di stabilire la probabilit` a degli
eventi elementari, le regole del calcolo delle probabilit` a permettono di calcolarla per eventi pi` u complessi.
Va rilevato inoltre che, dichiaratamente o no, il concetto di probabilit` a qui considerato `e associato allidea
di rapporto tra i risultati favorevoli di un esperimento casuale rispetto a tutti i possibili risultati, come
si `e gi` a visto nellintroduzione alla frequenza relativa: si cercher`a ora di denire in modo pi` u rigoroso
i concetti intuitivi precedentemente esposti e le ipotesi che stanno alla base della loro formulazione. Si
giunger`a cos` ad una trattazione matematica pi` u completa dei fenomeni dal punto di vista statistico.
Lesperienza mostra poi che gli esperimenti ripetuti di un fenomeno casuale hanno una certa regolarit`a
e gli esiti tendono a dei comportamenti limite individuabili quando il numero di esperimenti divenga
sucientemente grande. Tale tendenza `e chiamata regolarit`a statistica.
`
E importante notare che si parla
di regolarit`a statistica per ogni fenomeno casuale. Ci` o signica che gli esperimenti vanno ripetuti nelle
stesse condizioni. Sia N il numero di esperimenti di un fenomeno casuale, ed N
E
il numero delle volte
in cui si `e vericato un evento E. Si denisce frequenza relativa dellevento E il rapporto:
f
N
(E) =
N
E
N
Una possibile denizione di regolarit`a statistica `e la seguente:
lim
N
P (|f
N
(E) P (E)| ) = 0
dove `e un numero positivo e piccolo a piacere. Lequazione appena scritta va sotto il nome di legge
di Bernoulli dei grandi numeri e giustica il modo pratico di misurare la probabilit` a. Ancora una volta
baster` a misurare logicamente la probabilit` a degli eventi elementari ed utilizzare poi le regole del calcolo
delle probabilit` a per eventi complessi.
24 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
1.7 Variabili casuali
Per molti problemi sici gli esiti di un fenomeno casuale sono rappresentati da valori numerici. Altri
tipi di esiti, anche se non numerici, possono essere ricondotti ad essere tali. Per esempio nel lancio della
moneta si pu` o assegnare 1 allesito testa e 0 allesito croce.
`
E completamente generale dire che si pu` o
rappresentare un fenomeno casuale con un numero casuale che indichiamo con X. Poiche il valore di X si
pu` o ritenere dipendente dallesito di un esperimento casuale, che `e rappresentato da un punto campione
dello spazio campione, X `e una funzione denita sullo spazio campione . In generale una descrizione
quantitativamente dettagliata di X non `e richiesta o addirittura non `e possibile, ed `e suciente una
opportuna descrizione probabilistica. Una variabile casuale `e quindi una funzione denita su uno spazio
campione che permette di associare ad ogni numero reale x una probabilit` a P [ : X () x].
1.8 Funzioni probabilit`a, distribuzione di probabilit`a e densit`a
di probabilit`a
Le variabili casuali possono essere descritte in diversi modi. Nel caso in cui X assuma valori discreti il
modo pi` u intuitivo consiste nel determinare qual `e la probabilit` a che la variabile X assuma determinati
valori:
P
x
(x) = P (X = x) x = a
1
, a
2
, . . .a
n
dove P (X = x) `e equivalente a scrivere P [ : X () = x]. P
x
(x) si chiama funzione distribuzione di
probabilit` a della variabile casuale X e largomento x si chiama variabile di stato. Si pu` o descrivere una
variabile casuale con la probabilit` a che essa assuma valori minori o uguali a quelli della variabile di stato
x denendo cos` la funzione distribuzione di probabilit` a della variabile casuale X che si indica con F
x
(x),
come
F
x
(x) = P (X x)
dove P (X x) equivale a scrivere P [ : X () x]. Si possono vedere alcune propriet` a della funzione
distribuzione di probabilit` a. Essa `e una funzione discreta monot`ona crescente ed inoltre si ha:
F
x
() = 0
F
x
(+) = 1
Queste propriet` a sono immediate. Infatti se lo spazio campione si estende da a + la probabilit` a
che X () sia minore di `e nulla, mentre vi `e la certezza che sia X () +. Quanto detto non si pu` o
applicare ad una variabile casuale continua alla quale `e associato uno spazio campione non numerabile,
e quindi la probabilit` a che X assuma un ben determinato valore `e generalmente zero. In questo caso
F
x
(x) `e una funzione continua ed `e allora conveniente denire la funzione densit` a di probabilit` a p
x
(x):
p
x
(x) =
dF
x
(x)
dx
dove si suppone che F
x
(x) sia derivabile in tutto il suo campo di esistenza. La densit`a di probabilit` a
p
x
(x) descrive la probabilit` a che X () sia compresa tra x e x +dx. Dalla denizione segue che:
F
x
(x) =
_
x

p
x
(s) ds
dove si `e fatto uso della condizione F
x
() = 0. Se il limite superiore dellintegrale va a + si ha:
F
x
(+) =
_
+

p
x
(s) ds = 1
Nello studio dei fenomeni sici una delle funzioni densit`a di probabilit` a pi` u frequentemente utilizzate `e
la densit`a di probabilit` a Gaussiana, che `e gi` a stata incontrata in precedenza.
1.9. FUNZIONI DISTRIBUZIONE E DENSIT
`
A DI PROBABILIT
`
A 25
1.9 Funzioni distribuzione e densit`a di probabilit`a
Spesso interessa conoscere la relazione tra due o pi` u variabili casuali. Se si considera un sistema dinamico
soggetto ad una generica eccitazione casuale, `e ragionevole pensare che leccitazione ad un certo istante
di tempo non sia del tutto indipendente da quella ad un altro istante di tempo. Siano X
1
ed X
2
le
variabili che rappresentano i valori delleccitazione agli istanti t
1
e t
2
rispettivamente. La relazione tra
X
1
ed X
2
`e descritta dalla funzione distribuzione di probabilit` a composta:
F
X1X2
(x
1
, x
2
) = P ((X
1
< x
1
) (X
2
< x
2
))
La F
X1X2
(x
1
, x
2
) soddisfa le seguenti relazioni:
F
X1X2
(, x
2
) = F
X1X2
(x
1
, ) = 0
F
X1X2
(+, +) = 1
F
X1X2
(x
1
, +) = F
X1
(x
1
)
F
X1X2
(+, x
2
) = F
X2
(x
2
)
La funzione densit` a di probabilit` a composta `e denita come la derivata mista della funzione distribuzione
di probabilit` a composta:
p
X1X2
(x
1
, x
2
) =

2
F
X1X2
(x
1
, x
2
)
x
1
x
2
Invertendo la precedente relazione si ha:
F
X1X2
(x
1
, x
2
) =
_
x1

_
x2

p
X1X2
(s
1
, s
2
) ds
2
ds
1
Se x
2
tende a +, ci si riduce alla funzione distribuzione per una singola variabile casuale:
_
+

_
x1

p
X1X2
(x
1
, x
2
) ds
1
ds2 = P (X
1
x
1
) = F
X1
(x
1
)
Se si dierenzia questequazione si ottiene:
p
X1
(x
1
) =
_
+

p
X1X2
(x
1
, s
2
) ds
2
Analogamente:
p
X2
(x
2
) =
_
+

p
X1X2
(s
1
, x
2
) ds
1
Se sia x
1
che x
2
tendono a + si ottiene:
_
+

p
X1X2
(x
1
, x
2
) ds
1
ds2 = 1
La funzione densit`a di probabilit` a composta contiene pi` u informazioni di p
X1
(x
1
) e p
X2
(x
2
) separa-
tamente, poiche queste ultime possono essere ottenute dalla prima ma non viceversa. In Figura 1.5 `e
rappresentata la densit`a di probabilit` a composta gaussiana in due dimensioni.
Il caso bidimensionale pu` o essere immediatamente generalizzato. Si ha:
F
X1X2...Xn
(x
1
, x
2
, . . ., x
n
) = P ((X
1
x
1
) (X
2
x
2
) . . . (X
n
x
n
))
e:
p
X1X2...Xn
(x
1
, x
2
, . . ., x
n
) =

n
F
X1X2...Xn
(x
1
, x
2
, . . ., x
n
)
x
1
x
2
. . .x
n
26 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
Figura 1.5: Densit` a di probabilit` a composta gaussiana in due dimensioni
1.10 Valore atteso
Sia X una variabile casuale; il valore atteso di X `e denito come:

x
= E (X) =
_
+

x p
x
(x) dx
Il valore atteso `e chiamato anche media dinsieme, media statistica o semplicemente media. Facendo un
paragone tra la densit`a di probabilit` a e la densit`a di materia, il calcolo del valore atteso `e lanalogo del
calcolo del baricentro di un corpo.
1.11 Momenti
Unimportante classe di valori attesi `e quella delle varie potenze di una o pi` u variabili casuali. Questi
valori attesi vengono detti momenti. Nel caso di una singola variabile casuale, E (X) `e anche noto come
momento del primo ordine, E
_
X
2
_
si chiama momento del secondo ordine, e cos` via; nel caso di due
o pi` u variabili casuali E (X
m
1
X
n
2
) si chiama momento composto di ordine m + n. Mentre il momento
del primo ordine `e lanalogo del calcolo del baricentro, il momento del secondo ordine `e lanalogo del
calcolo del momento dinerzia ed il momento di due variabili casuali `e lanalogo del calcolo del prodotto
dinerzia. Di solito si indica con
x
il momento primo di X; si chiama allora:
E ((X
x
)
n
) =
_
+

(X
x
)
n
p
x
(x) dx
momento centrale n-esimo di X rispetto al valore atteso. In particolare il momento del secondo ordine
si chiama varianza e si indica con
2
xx
. In generale E ((X
1

x
)
m
(X
2

x
)
n
) si chiamer`a momento
centrale composto (m+n)-esimo di X
1
ed X
2
rispetto ai loro valori attesi. Come si `e gi` a visto, la media
e la varianza sono sucienti per denire completamente la funzione densit`a di probabilit` a gaussiana:
p
VG
=
1

2
VGVG
e

1
2

V
G

VG

VGVG

2
1.12 Processi casuali o stocastici
Per un generico sistema dinamico si pu` o considerare come variabile casuale una qualsiasi X (t). Si
pu` o anche prendere in esame luscita non ad un solo istante di tempo, ma a diversi istanti con una
1.12. PROCESSI CASUALI O STOCASTICI 27
n/N( t )
~
Vg
Figura 1.6: Frequenze relative
famiglia di variabili casuali X (t
1
), X (t
2
), . . . Si pu` o indicare lintera famiglia con {X (t) : t T} o pi` u
semplicemente con X (t), dove t `e libero di assumere ogni valore dellinsieme T. Cos` per un sistema
massa-molla-smorzatore X (t) potrebbe essere lo spostamento, mentre per il movimento casuale di una
trave lo si potrebbe identicare con una famiglia di variabili casuali {X (t, s) : t T, s S} o X (t, s),
dove t e s hanno il signicato di coordinate temporale e spaziale. Queste famiglie di variabili casuali
vanno sotto il nome di processi casuali. Si pu` o dare un denizione formale di processo casuale:
Un processo casuale `e una famiglia parametrizzata di variabili casuali con il parametro (parametri)
appartenente ad un insieme (insiemi) di indici.
Un processo casuale viene anche chiamato processo stocastico o funzione casuale; in generale non si
tratter` a di un processo rispondente alle caratteristiche di ergodicit` a. Avremo pertanto bisogno di un
modo dierente per descriverlo completamente. Si considerino a tal ne diversi (numerosi) voli campione
e le relative registrazioni delle velocit` a di raca intervenute; si pu` o ipotizzare di calcolare la media di
V
G
, discretizzata in un numero nito di livelli, ad ogni istante t su tutte le storie.
In analogia con quanto accennato per le medie di fenomeni statisticamente stazionari, si introduce il
parametro frequenza relativa f
_

t
_
, denito come il rapporto tra il numero di storie in cui il segnale
rientra in un particolare intervallo di valori (evento) allistante

t e il numero totale di storie temporali
considerate. Si tratta di una misura empirica della probabilit` a, che verr` a denita pi` u rigorosamente in
seguito.
f
i
_

t
_
=
n
i

_
V
Gi+1
_

t
_
V
Gi
_

t
_
N
tot
con

i
f
i
_

t
_
= 1
Diagrammando le frequenze relative di diversi livelli della velocit` a di raca, calcolate a pezzi uniformi,
si ottiene un istogramma dierente per ogni istante

t considerato (Figura 1.6).
Si pu` o calcolare la media:
media
_

t
_
=

i
n
i
_

t
_

V
Gi
_

t
_
N
=

i
n
i
N

V
Gi
=

i
f
i

V
Gi
dove n
i
`e il numero di occorrenze del livello V
Gi
, p
i
= n
i
/N `e la frequenza relativa del livello V
Gi
calcolata
attraverso le storie al tempo

t e

V
Gi
il valore medio dellintervallo
_
V
Gi+1
, V
Gi

(Figura 1.7).
Passando al limite per N , cio`e pensando di esaminare un numero innito di storie temporali
parallele, si ottiene:

VG
_

t
_
=
_
+

V
G
(

t) p
_
V
G
,

t
_
dV
G
28 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
Vg
t
Vg
t
Vg
t
Medie
2
1
3
Delta(Vg)
Figura 1.7: Storie temporali
La struttura probabilistica di un processo casuale `e data in ordine crescente di completezza dalla
conoscenza delle seguenti funzioni:
p
x
(x
1
, t
1
)
p
xx
(x
1
, t
1
; x
2
, t
2
)
. . .
dove t
1
, t
2
, . . ., t
n
, . . . T. Esse si chiamano funzioni densit` a di probabilit` a del processo casuale x(t) del
primo ordine, del secondo ordine, e cos` via, e sono funzioni delle variabili di stato x e dei parametri t.
Ognuna di queste descrive la probabilit` a che il processo casuale x(t) assuma un determinato valore per
un determinato valore del parametro t, ad esempio
p
xx
(x
1
, t
1
; x
2
, t
2
) dx
1
dx
2
= P [x
1
X (t
1
) x
1
+dx
1
, x
2
X (t
2
) x
2
+dx
2
]
Per descrivere due o pi` u processi casuali x(t) e y (u) sono inoltre necessarie le funzioni densit`a di
probabilit` a composte
p
xy
(x
1
, t
1
; y
1
, u
1
)
p
xxy
(x
1
, t
1
; x
2
, t
2
; y
1
, u
1
)
p
xyy
(x
1
, t
1
; y
1
, u
1
; y
2
, u
2
)
. . .
Per ricostruire gli indicatori statistici della risposta occorrer` a conoscere, oltre alla media, anche la
covarianza relativa a due istanti dierenti:
r
VGVG
(t
1
, t
2
) =
__
,+
V
G1
V
G2
p (V
G1
, t
1
, V
G2
, t
2
) dV
G1
dV
G2
dove p (V
G1
, t
1
, V
G2
, t
2
) rappresenta la probabilit` a che la velocit` a di raca V
G
sia compresa tra i valori
V
G1
e V
G1
+dV
G1
al tempo t
1
e tra V
G2
e V
G2
+dV
G2
al tempo t
2
. Se si ha a che fare con un vettore di
variabili casuali il valore atteso (E come expected) `e denito come:
E ({x}) = {
x
} =
_
+

{x} p ({x} , t) d {x}


1.13. SISTEMI LINEARI CON FORZANTI STOCASTICHE NON ERGODICHE 29
La matrice di autocorrelazione `e data dal valore atteso del prodotto di due vettori {x} per la densit`a di
probabilit` a doppia:
E
_
{x(t
1
)} {x(t
2
)}
T
_
= [r
xx
(t
1
, t
2
)] =
__
,+
{x
1
} {x
2
}
T
p ({x
1
} , t
1
, {x
2
} , t
2
) d {x
1
} d {x
2
}
Sulla diagonale si trovano le autocorrelazioni di x
i
(t
1
) con x
i
(t
2
) mentre al di fuori si trovano le varie
intrecorrelazioni. Le intercorrelazioni sono antisimmetriche.
Cos` la matrice di autocovarianza: due vettori {x} per la densit`a di probabilit` a doppia:
E
_
({x(t
1
)} {
x
(t
1
)}) {x(t
2
)} {
x
(t
2
)}
T
_
=
__
,+
({x
1
}
x
(t
1
))({x
2
}
x
(t
2
))
T
p ({x
1
} , t
1
, {x
2
} , t
2
) d {x
1
} d {x
2
}
= [k
xx
(t
1
, t
2
)] = [r
xx
(t
1
, t
2
)] {
x
(t
1
)} {
x
(t
2
)}
T
Se t
1
= t
2
= t, la matrice di autocovarianza prende il nome di matrice di varianza: essa `e simmetrica, ed
ha sulla diagonale le varianze
2
xixi
dei processi x
i
.
1.13 Sistemi lineari con forzanti stocastiche non ergodiche
Dopo aver denito le grandezze necessarie per descrivere i fenomeni casuali si vogliono determinare gli
indicatori statistici delle uscite di un sistema lineare tempo invariante noti gli indicatori statistici degli
ingressi.
Sia dato un sistema lineare tempo invariante, come denito nellappendice al termine di questo capitolo.
Per ricavare delle equazioni dierenziali che descrivano direttamente gli indicatori statistici delluscita
noti quelli degli ingressi si applichi innanzitutto loperatore di valore atteso alla soluzione x(t) (si veda
lappendice alla ne del capitolo):
E ({x(t)}) = [(t)] E ({x
0
}) +
_
t
0
[(t )] [B] E ({u()}) d
Quindi, essendo il valore atteso pari alla media, si pu` o scrivere:
{
x
(t)} = [(t)] {
x0
} +
_
t
0
[(t )] [B] {
u
} d
Si riscriva allora il sistema lineare dopo lapplicazione delloperatore:
{
x
(t)} = [A] {
x
(t)} + [B] {
u
(t)}
{
y
(t)} = [C] {
x
(t)} + [D] {
u
(t)}
Integrando il sistema, a partire da {
x
(0)} = {
x0
}, si pu` o calcolare la media istante per istante. Per la
varianza occorre invece la dierenza tra {x} e la media {
x
}:
{x(t)} {
x
(t)} = [(t)] ({x
0
} {
x0
}) +
_
t
0
[(t )] [B] ({u()} {
u
()}) d
Ponendo:
{x(t)} = {x(t)} {
x
(t)}
{u(t)} = {u(t)} {
u
(t)}
la variazione di {x} risulta allora essere:
{x(t)} = [(t)] {x
0
} +
_
t
0
[(t )] [B] {u()} d
30 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
La covarianza `e:
[k
xx
(t
1
, t
2
)] = E
_
{x(t
1
)} {x(t
2
)}
T
_
= E
_
[(t
1
)] {x
0
} {x
0
}
T
[(t
2
)]
T
+
_
t1
0
[(t
1

1
)] [B] {u(
1
)} d
1
{x
0
}
T
[(t
2
)]
T
+ [(t
1
)] {x
0
}
_
t2
0
{u(
2
)}
T
[B]
T
[(t
2

2
)]
T
d
2
+
_
t1
0
_
t2
0
[(t
1

1
)] [B] {u(
1
)} {u(
2
)}
T
[B]
T
[(t
2

2
)]
T
d
1
d
2
_
Si assuma di poter ipotizzare una correlazione nulla tra forzanti e condizioni iniziali; si porti quindi
loperatore valore atteso allinterno degli integrali. Ad esempio:
E
_
[(t
1
)] {x
0
} {x
0
}
T
[(t
2
)]
T
_
= [(t
1
)] E
_
{x
0
} {x
0
}
T
_
[(t
2
)]
T
= [(t
1
)] [k
x0x0
] [(t
2
)]
T
Si ottiene allora:
[k
xx
(t
1
, t
2
)] = [(t
1
)] [k
x0x0
] [(t
2
)]
T
+
_
t1
0
_
t2
0
[(t
1

1
)] [B] [k
uu
(
1
,
2
)] [B]
T
[(t
2

2
)]
T
d
1
d
2
Per t
1
= t
2
= t si ottiene, come `e ormai gi` a noto, la varianza:
_

2
xx
(t)

def
=
_
k
2
xx
(t, t)

= [(t)] [k
x0x0
] [(t)]
T
+
_
t
0
_
t
0
[(t
1
)] [B] [k
uu
(
1
,
2
)] [B]
T
[(t
2
)]
T
d
1
d
2
`
E interessante osservare che, come nel caso di forzanti deterministiche, la soluzione `e costituita da due
parti: una rappresenta il contributo dovuto alle condizioni iniziali, parente della soluzione dellequazione
omogenea associata, che si estingue in modo pi` u o meno rapido se il sistema `e asintoticamente stabile.
Laltra rappresenta il contributo dovuto alla forzante: il sistema, perci`o, dopo un transitorio inseguir` a la
varianza delluscita con un ritardo dovuto alla propria matrice di trasferimento, genitrice di []. Si derivi
ora rispetto al tempo, per vericare che questa sia la soluzione di un sistema dierenziale: si ricordi a
tale proposito un noto teorema (regola di Leibniz).
d
dt
_
b(t)
a(t)
f () d =
_
b(t)
a(t)
d
dt
f () d +f (b (t))
d
dt
b (t) f (a (t))
d
dt
a (t)
Si ottiene quindi
_

2
xx
(t)

=
_

(t)
_
[k
x0x0
] [(t)]
T
+ [(t)] [k
x0x0
]
_

(t)
_
T
+
_
t
0
_
t
0
_

(t
1
)
_
[B] [k
uu
(
1
,
2
)] [B]
T
[(t
2
)]
T
d
1
d
2
+
_
t
0
[(0)] [B] [k
uu
(t,
2
)] [B]
T
[(t
2
)]
T
d
2
+
_
t
0
_
t
0
[(t
1
)] [B] [k
uu
(
1
,
2
)] [B]
T
_

(t
2
)
_
T
d
1
d
2
+
_
t
0
[(t
1
)] [B] [k
uu
(
1
, t)] [B]
T
[(0)]
T
d
1
1.13. SISTEMI LINEARI CON FORZANTI STOCASTICHE NON ERGODICHE 31
Si ricordi che [(0
+
)] = [I]. Dal momento che la matrice [] soddisfa il sistema omogeneo associato al
problema dierenziale lineare:
_

_
= [A] []
si pu` o sostituire questultima relazione al posto delle derivate di [] ed ottenere:
_

2
xx
(t)

= [A]
_

2
xx
(t)

+
_

2
xx
(t)

[A]
T
+ [B]
_
t
0
[k
uu
(t, )] [B]
T
[(t )]
T
d +
_
t
0
[(t )] [B] [k
uu
(, t)] d [B]
T
I due integrali sono luno il trasposto dellaltro: se ne calcoler` a quindi solamente uno. Emerge per`o
un problema : lintervarianza di forzanti e stati
_

2
xu
(t)

= [k
xu
(t, t)] viene descritta a sua volta da
unequazione dierenziale che dovr`a essere integrata da capo ad ogni istante di tempo t, in quan-
to ad ogni istante saranno diverse le relative condizioni iniziali. Per vericarlo si calcoli innanzitutto
lintercovarianza [k
xu
(t
1
, t
2
)]:
[k
xu
(t
1
, t
2
)] = E
_
{x(t
1
)} {u(t
2
)}
T
_
= E
_
[(t
1
)] {x
0
} {u(t
2
)}
T
_
+E
__
t1
0
[(t
1
)] [B] {u()} d {u(t
2
)}
T
_
Per ipotesi non vi `e correlazione tra condizioni iniziali e forzante: allora la matrice di intercovarianza tra
stati e ingressi `e pari a:
[k
xu
(t
1
, t
2
)] =
_
t1
0
[(t
1
)] [B] E
_
{u()} {u(t
2
)}
T
_
. .
[kuu(,t2)]
d
Questo termine coincide con lintegrale determinato in precedenza. Si pu` o quindi scrivere:
_

2
xx
(t)

= [A]
_

2
xx
(t)

+
_

2
xx
(t)

[A]
T
+ [B]
_

2
ux
(t)

+
_

2
xu
(t)

[B]
T
Si noti come lespressione ottenuta per la matrice [k
ux
(t
1
, t
2
)] assomigli alla soluzione di un sistema
deterministico formato da una serie di forzanti riunite sinteticamente in una matrice:
_

k
xu
(t, t
2
)
_
= [A] [k
xu
(t, t
2
)] + [B] [k
uu
(t, t
2
)]
Si ssa cio`e t
2
, poi si integra, con condizioni iniziali [k
ux
(0, t
2
)] = [0]; per ogni t
2
`e necessario per`o
ricominciare lintegrazione dallinizio. Per maggiore chiarezza viene spesso utilizzata la seguente nota-
zione, tesa a sottolineare appunto la dipendenza della condizione iniziale dal particolare istante di tempo
considerato nellequazione per [k
xu
]:
_

k
xu
(t, )
_
= [A] [k
xu
(t, )] + [B] [k
uu
(t, )]
Dal punto di vista operativo risulta pi` u conveniente calcolare lintegrale di intercovarianza piuttosto che
integrare il sistema (con un metodo numerico di integrazione al passo).
Se lingresso `e un rumore bianco, cio`e un segnale la cui matrice delle autocovarianze sia pari a
[k
uu
(t
1
, t
2
)] = [W (t
1
)] (t
2
t
1
)
allora la matrice di intercovarianza tra lo stato del sistema e le forzanti valutata per t
1
= t
2
= t, cio`e
lintervarianza
_

2
xu

, diventa
_
xu
2
(t)

= [k
xu
(t, t)] =
_
t
0
[(t )] [B] [k
uu
(, t)] d =
_
t
0
[(t )] [B] [W (t)] (t) d =
1
2
[B] [W (t)]
32 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
dove il termine
1
2
`e dovuto, come visto in precedenza, al fatto che la funzione [(t)] `e nulla per t < 0 e
pari a [I] per t = 0
+
.
E immediato vericare che la matrice delle autocovarianze delle variabili di uscita verica la seguente
relazione:
[k
yy
(t
1
, t
2
)] = [C] [k
xx
(t
1
, t
2
)] [C]
T
+ [C] [k
xu
(t
1
, t
2
)] [D]
T
+ [D] [k
ux
(t
1
, t
2
)] [C]
T
+ [D] [k
uu
(t
1
, t
2
)] [D]
T
1.14 Processi casuali stazionari (omogenei)
Un processo casuale si dice fortemente omogeneo o omogeneo in senso stretto se la sua completa struttura
probabilistica `e indipendente da un traslazione dellorigine del parametro. La forte omogeneit`a implica
che
p
x
(x
1
, t
1
) = p
x
(x
1
, t
1
a)
p
xx
(x
1
, t
1
; x
2
, t
2
) = p
xx
(x
1
, t
1
a; x
2
, t
2
a)
. . .
a
Consideriamo il caso a = t
1
: allora la funzione densit`a di probabilit` a `e indipendente dal parametro t
e quelle di ordine superiore dipendono dalle dierenze dei valori di t. Quando il parametro t assume
il signicato di tempo, un processo casuale omogeneo `e pi` u comunemente chiamato stazionario. Se le
relazioni appena viste sono vericate si parla di processo casuale fortemente stazionario o stazionario
in senso stretto; se sono vericate solo le prime due relazioni si parla di processo casuale debolmente
stazionario o stazionario in senso ampio.
Si consideri una forzante stazionaria in senso stocastico, cio`e con media costante nel tempo e con au-
tocorrelazione ed autocovarianza non dipendenti in modo generale da t
1
e t
2
ma solamente dalla loro
dierenza t
2
t
1
. Il sistema analizzato sar`a ancora una volta assunto asintoticamente stabile; allora, nel
caso di forzante statisticamente stazionaria, anche la risposta lo sar`a:
{
x
} = {0}
Dal sistema si ottiene:
{
x
} = [A] {
x
} + [B] {
u
} = {0}
quindi:
{
x
} = [A]
1
[B] {
u
}
e per la risposta:
{
y
} = [C] {
x
} + [D] {
u
}
da cui:
{
y
} =
_
[C] [A]
1
[B] + [D]
_
{
u
}
Ricordando la funzione di trasferimento di un sistema lineare:
[H (s)] = [C] (s [I] [A])
1
[B] + [D]
nella funzione di trasferimento della media di un segnale stazionario si riconosce che
[C] [A]
1
[B] + [D] = [H (0)]
1.14. PROCESSI CASUALI STAZIONARI (OMOGENEI) 33
analogamente a quanto visto per il caso di forzanti ergodiche.
Esaminando luscita, ed in particolare la sua matrice di autocovarianza, [k
yy
(t
1
, t
2
)]:
[k
yy
(t
1
, t
2
)] = [C] [k
xx
(t
1
, t
2
)] [C]
T
+ [C] [k
xu
(t
1
, t
2
)] [D]
T
+ [D] [k
ux
(t
1
, t
2
)] [C]
T
+ [D] [k
uu
(t
1
, t
2
)] [D]
T
si osserva che nel caso stazionario
[k
yy
(t
1
, t
2
)] = [k
yy
(t
2
t
1
)]
da cui:
[k
yy
(t
2
t
1
)] = [C]
__
,+
[(t
1

1
)] [B] [k
uu
(
2

1
)] [B]
T
[(t
2

2
)]
T
d
1
d
2
[C]
T
+ [C]
_
+

[(t
1

1
)] [B] [k
uu
(t
2

1
)] d
1
[D]
T
+ [D]
_
+

[k
uu
(
2
t
1
)] [B]
T
[(t
2

2
)]
T
d
2
[C]
T
+ [D] [k
uu
(t
2
t
1
)] [D]
T
Si pu` o descrivere tutta lespressione precedente sotto forma di integrale doppio utilizzando la funzione
di Dirac. Per esempio:
_
+

[(t
1

1
)] [B] [k
uu
(t
2

1
)] d
1
=
__
,+
[(t
1

1
)] [B] [k
uu
(
2

1
)] (t
2

2
)d
1
d
2
cio`e:
[k
uu
(t
2

1
)] =
_
+

[k
uu
(
2

1
)] (t
2

2
) d
2
Lautocovarianza delluscita sar`a esprimibile quindi come:
[k
yy
(t
2
t
1
)] = [C]
__
,+
[(t
1

1
)] [B] [k
uu
(
2

1
)] [B]
T
[(t
2

2
)]
T
d
1
d
2
[C]
T
+ [C]
__
,+
[(t
1

1
)] [B] [k
uu
(
2

1
)] (t
2

2
)d
1
d
2
[D]
T
+ [D]
__
,+
(t
1

1
) [k
uu
(
2

1
)] [B]
T
[(t
2

2
)]
T
d
1
d
2
[C]
T
+ [D]
__
,+
(t
1

1
) [k
uu
(
2

1
)] (t
2

2
)d
1
d
2
[D]
T
Se si denisce
[h(t )] = [C] [(t )] [B] + [D] (t )
allora
[k
yy
(t
2
t
1
)] =
__
,+
[h(t
1

1
)] [k
uu
(
2

1
)] [h(t
2

2
)]
T
d
1
d
2
Si operi ora la seguente sostituzione di variabili con Jacobiano unitario:
t
1

1
= z
1
t
2

2
= z
2
34 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
dove t
1
e t
2
sono considerati costanti. Lintegrale si trasforma allora in:
d
1
= dz
1
d
2
= dz
2
allora:
[k
yy
(t
2
t
1
)] =
__
,+
[h(z
1
)] [k
uu
(z
1
+t
2
t
1
z
2
)] [h(z
2
)]
T
dz
1
dz
2
Si ottiene cos` un importante risultato: le formule ottenute per forzanti ergodiche continuano a valere, a
livello formale, anche per forzanti stazionarie; lunica dierenza consiste nelle diverse modalit` a di calcolo
del valore atteso.
Anche per i segnali stazionari `e possibile usare la DSP; Si consideri ora la risposta del sistema a delle
forzanti rappresentabili con dei rumori bianchi: come `e gi` a stato sottolineato in precedenza, il rumore
bianco non `e un segnale sicamente riscontrabile in natura, poiche, con un contenuto in frequenza uni-
forme, avrebbe una potenza innita.
`
E tuttavia utilizzabile convenientemente allorquando la DSP della
forzante reale abbia un andamento sucientemente uniforme sino a frequenze abbastanza elevate da non
interessare i poli del sistema sollecitato.
Per un rumore bianco stazionario, la [k
uu
] `e pari a:
[k
uu
(t
2
t
1
)] = [W] (t
2
t
1
)
dove [W] `e una matrice costante.
Abbiamo visto in precedenza che la varianza dello stato soddisfa la relazione:
_

2
xx
(t)

= [A]
_

2
xx
(t)

+
_

2
xx
(t)

[A]
T
+ [B]
_

2
ux
(t)

+
_

2
xu
(t)

[B]
T
dove
_

2
xu
(t)

=
_
t
0
[(t )] [B] [k
uu
(, t)] d
Quando la risposta `e stazionaria (se il sistema `e asintoticamente stabile la parte dipendente dalle
condizioni iniziali diverr` a trascurabile dopo il transitorio iniziale) si ha:
_

2
xx
(t)

=
_

2
xx
(0)

= [0]
Allora la soluzione con il rumore bianco quale forzante, analogamente a quanto visto nel paragrafo 1.3,
d`a:
_

2
xu
(t)

=
_
t
0
[(t )] [B] [W] () d =
1
2
[B] [W]
Lequazione della varianza in caso di segnale stazionario diviene quindi:
[0] = [A] [k
xx
(t t)] + [k
xx
(t t)] [A]
T
+
1
2
[B] [W] [B]
T
+
1
2
[B] [W] [B]
T
E stata cio`e nuovamente ottenuta, anche per segnali stazionari, lEquazione di Liapunov
[A]
_

2
xx

+
_

2
xx

[A]
T
+ [B] [W] [B]
T
= [0]
Questo `e un sistema di n(n + 1) /2 equazioni in altrettante incognite, perche la
_

2
xx

`e una matrice
simmetrica. Vale inoltre la seguente relazione (antitrasformata della DSP)
_

2
xx

=
1
2
_
+

[
xx
()] d
1.15. NOTA SUI METODI DI SOLUZIONE 35
1.15 Nota sui metodi di soluzione
Lequazione di Liapunov richiede la soluzione di un sistema lineare di n(n + 1)/2 equazioni. Poich`e la
soluzione di un sistema lineare in N incognite, richiede in genere, un numero di operazioni proporzionale a
N
3
, la soluzione dellequazione di Liapunov richiede un numero di operazioni proporzionale a n
6
. Questo
rende molto onerosa, al crescere delle dimensioni del vettore degli stati, la soluzione diretta dellequazione.
E tuttavia possibile trasformare lequazione motiplicandola a sinistra per una matrice (non singolare)
[X]
1
e a destra per la sua trasposta:
[X]
1
[A] [X] [X]
1
[
xx
] [X]
T
+[X]
1
[
xx
] [X]
T
[X]
T
[A]
T
[X]
T
+[X]
1
[B] [W] [B]
T
[X]
T
= 0
Il sistema diventa quindi
_

A
_
[] + []
_

A
_
T
+
_

B
_
= 0
[] = [X]
1
[
xx
] [X]
T
dove
_

A
_
= [X]
1
[A] [X] e
_

B
_
= [X]
1
[B] [W] [B]
T
[X]
T
Si noti che la trasformazione che porta [A] in
_

A
_
non `e altro che una trasformazione di similarit` a, che
conserva gli autovalori.
Scegliendo opportunamente la matrice [X] si pu` o portare
_

A
_
in una forma che rende possibile la soluzione
diretta del problema trasformato in modo eciente, cio`e con un numero di operazioni molto minore di
n
6
. Esempi notevoli sono lutilizzo della matrice degli autovettori di [A] che rende
_

A
_
diagonale quando
questa ha autovalori distinti o con molteplicit` a geometrica uguale a quella algebrica. Qualora la matrice
non sia diagonalizzabile si pu` o ricorrere a una matrice [X] che porta
_

A
_
nella forma di Schur. In
questultimo caso si ha unecienza inferiore a quella resa possibile dalla diagonalizzazione. Il numero
di operazioni rimane comunque assai inferiore a n
6
e il buon condizionamento del problema `e garantito
anche in presenza di autovalori vicini o coincidenti.
1.16 Nota su problemi di ottimizzazione
Al crescere delle dimensioni del problema la soluzione analitica non `e generalmente praticabile. Esistono
metodi per la soluzione numerica dellequazione di Liapunov, quindi lottimizzazione del problema pu` o
essere svolta per via numerica. I metodi di ottimizzazione maggiormente ecienti richiedono la deter-
minazione delle derivate di sensitivit`a del problema rispetto alle variabili di progetto. Queste, in molti
casi, possono essere determinate per via analitica. Si consideri un generico parametro di progetto, come,
in un esempio precedente, lo smorzamento C. La derivata di sensitivit`a della varianza delluscita `e:

2
yy

p
=
[C]
p
_

2
xx

[C]
T
+ [C]

2
xx

p
[C]
T
+ [C]
_

2
xx

[C]
T
p
nel caso in cui anche la matrice delluscita dipenda dal parametro. Si concentri ora lattenzione sulla
derivata di sensitivit`a della varianza dello stato. Essa si determina considerando la derivata dellequazione
di Liapunov con le stesse matrici dei coecienti:
[A]
p
_

2
xx

+ [A]

2
xx

p
+

2
xx

p
[A]
T
+
_

2
xx

[A]
T
p
+
[B]
p
[W] [B]
T
+ [B] [W]
[B]
T
p
= 0
nel caso in cui anche la matrice degli ingressi dipenda dal parametro. Si noti come la relazione appena
scritta sia in pratica un nuovo problema di Liapunov nelle derivate di sensitivit`a:
[A]

2
xx

p
+

2
xx

p
[A]
T
+
[A]
p
_

2
xx

+
_

2
xx

[A]
T
p
+
[B]
p
[W] [B]
T
+ [B] [W]
[B]
T
p
= 0
36 CAPITOLO 1. RISPOSTA A FORZANTI NON DETERMINISTICHE
La varianza dello stato viene calcolata risolvendo il problema con il valore corrente del parametro; le
derivate delle matrici possono essere calcolate sempre utilizzando la stessa matrice [X] di trasformazione.
Nel caso del problema precedente si ottiene:
[A]
p
=
_
_
0 0 0
0 1/M 0
0 0 0
_
_
[B]
p
=
_
_
0
0
0
_
_
[C]
p
=
_
0 1/M 0

1.17 Appendice: Sistemi lineari tempo invarianti


Dato il sistema lineare tempo invariante
{ x} = [A] {x} + [B] {u}
{y} = [C] {x} + [D] {u}
lequazione di stato pu` o essere risolta motiplicandola per e
[A]t
dove, per denizione,
e
[A]t
= [I] + [A] t + [A]
2
t
2
2!
+ [A]
3
t
3
3!
+
Si ottiene:
e
[A]t
{ x} = e
[A]t
[A] {x} + e
[A]t
[B] {u}
Si pu` o notare che:
e
[A]t
{ x} e
[A]t
[A] {x} =
d
dt
_
e
[A]t
{x}
_
e quindi:
d
dt
_
e
[A]t
{x}
_
= e
[A]t
[B] {u}
che, integrata tra 0 e t con condizione iniziale {x(0)} = {x
0
}, d`a:
{x(t)} = [(t)] {x
0
} +
_
t
0
[(t )] [B] {u()} d
dove si indica la matrice e
[A]t
con [(t)], che prende il nome di matrice di transizione, ed `e soluzione
della:
_

_
= [A] [] con
_

(0
+
)
_
= [I] .
Con una visione pi` u sica si pu` o interpretare [] come la matrice delle risposte impulsive a livello di
stati, cio`e la soluzione di
_

_
= [A] [] + [I] (t) con
_

_
0

_
_
= [0] (1.4)
che, integrata tra 0

e 0
+
d`a [(0
+
)] [(0

)] [I] e quindi [(0


+
)] = [I].
Si osserva che la matrice di transizione gode della seguente propriet` a:
[(t
1
)] = [(t
1
t
2
+t
2
)] = [(t
1
t
2
)] [(t
2
)] ,
1.17. APPENDICE: SISTEMI LINEARI TEMPO INVARIANTI 37
immediatamente vericabile tenendo conto delle propriet` a degli esponenziali. Luscita risulta essere:
{y (t)} = [C]
_
[(t)] {x
0
} +
_
t
0
[(t )] [B] {u()} d
_
+ [D] {u(t)}
Si osserva che:
{u(t)} =
_
t
0
(t ) {u()} d
e quindi
{y (t)} = [C] [(t)] {x
0
} +
_
t
0
([C] [(t )] [B] + [D] (t )) {u()} d
Per {x
0
} = {0} si pu` o scrivere:
{y (t)} =
_
t
0
[h(t )] {u()} d
con
[h(t)] = [C] [(t)] [B] + [D] (t)

Vous aimerez peut-être aussi