Vous êtes sur la page 1sur 29

A.

2 RICHIAMI DI DINAMICA ALEATORIA

Giuliano AUGUSTI e Marcello CIAMPOLI

Università di Roma "La Sapienza"


Dipartimento di Ingegneria Strutturale e Geotecnica
Via Eudossiana 18 - 00184 Roma

A.2.1 AZIONI DINAMICHE

Le azioni dinamiche sulle costruzioni sono caratterizzate da intensità, distribuzione spa-


ziale e variazione nel tempo. Con riferimento a questo parametro, possono essere distinte
in due categorie:
- azioni impulsive (urti, esplosioni, ecc.);
- azioni prolungate (sismi, vento, ecc.)
Il primo caso si verifica se la durata t0 dell’azione è (molto) breve rispetto al periodo
proprio T della struttura:
t 0  T (A.2.1)
L’effetto dinamico dipende allora essenzialmente dall’impulso W, che determina una
variazione della quantità di moto della struttura. Analogamente, l’effetto dinamico di una
forza applicata rapidamente e poi mantenuta costante, equivale a quello di un’azione im-
pulsiva.
Nel secondo caso la struttura subisce delle oscillazioni forzate.
Le azioni dinamiche possono essere rappresentate mediante funzioni deterministiche o
modelli stocastici. Nel Par. A.2.3 sono riportate alcune informazioni sui processi stocastici
usualmente adottati per modellare le azioni.

A.2.1.1. Decomposizione dell’azione in somma di impulsi

Un’azione prolungata F(t), come qualsiasi funzione del tempo, può essere rappresentata
come il susseguirsi di impulsi elementari dW di durata infinitesima dt (Fig. A.2.1):

F  t  dt  dW (A.2.2)
La corrispondente azione impulsiva G(t), applicata all’istante t = , si può descrivere come:

G  t   F t    t    (A.2.3)
dove (t - ) è la funzione impulsiva (detta delta di Dirac), definita da:

t     0 per t   (A.2.4a)


 
 t   dt  1   0 (A.2.4b)
 

Questa decomposizione è particolarmente utile per i sistemi lineari, in cui gli effetti di suc-
cessivi impulsi si possono sommare.

F(t)

dt t

Fig. A.2.1. - Identificazione dell’impulso elementare come componente di una funzione


F(t).

A.2.1.2. Analisi spettrale

Un’azione le cui caratteristiche fondamentali sono costanti nel tempo è detta stazionaria
e può essere rappresentata come sovrapposizione di azioni armoniche (analisi spettrale).

A.2.1.2.1. Sviluppo in serie reale o complessa di Fourier

Una funzione F(t) periodica di periodo TF può essere rappresentata attraverso le sue
componenti armoniche (Fig. A.2.2a), mediante uno sviluppo in serie reale o complessa di
Fourier.
Lo sviluppo in serie reale di Fourier ha l'espressione:
 
F  t   a 0   a n sen  n 1 t    b n cos  n 1 t  (A.2.5)
n 1 n 1
dove:

2
F(t) F(t)

F32(t)

TF t

(a)
Cn

n
n
1
8 16 24 32

(b)

Fig. A.2.2. - Esempio di funzione periodica discontinua F(t): (a) sua approssimazione F32(t)
mediante la somma di 32 componenti armoniche; (b) spettro della funzione F32(t)  F(t).

2
1  (A.2.6a)
TF
e la pulsazione dell’n-ma armonica è
 n  n1 (A.2.6b)
a0 è il valore medio della funzione:

1 TF
a0   Ft dt (A.2.7)
TF 0
ed i coefficienti an, bn sono forniti dalle relazioni:

3
2 TF
an   F  t  sen  n1 t  dt (A.2.8a)
TF 0
2 TF
bn   F  t  cos  n1 t  d (A.2.8b)
TF 0
L'utilità di questa rappresentazione risiede nel fatto che, in virtù della assoluta ed uni-
forme convergenza dello sviluppo in serie (A.2.5), qualsiasi funzione periodica F(t) può
essere espressa con sufficiente accuratezza considerando solo un numero ridotto di termini
dello sviluppo in serie, ovvero mediante un numero ridotto di componenti armoniche.
In maniera del tutto equivalente, lo sviluppo in serie può essere espresso nella forma:

F  t   a 0   C n sen  n 1 t   n  (A.2.9)
n 1

dove C n  a 2n  b 2n e n sono rispettivamente l’ampiezza e l’angolo di fase della n-


esima armonica.
Si definisce spettro della funzione F(t) il diagramma delle ampiezze Cn in funzione del-
le corrispondenti pulsazioni n = n1 (Fig. A.2.2b).
Una rappresentazione equivalente alle (A.2.5) e (A.2.9) è fornita dallo sviluppo in serie
complessa di Fourier:

F  t    c n exp in 1 t  (A.2.10)
n 

dove i   1 è l’unità immaginaria e


TF

1 2 F
cn   F ( t ) exp   in 1 t  dt, n  0,1,... (A.2.11a)
TF T
 F
2

è una costante complessa. Usando il simbolo * per rappresentare il complesso coniugato, si


ha:
*
c n  c n (A.2.11b)
mentre:
c0  a 0 (A.2.11c)

è il valore medio di F(t), e


_ 
a n  2R  c n  (A.2.11d)
 

4
_ 
bn  2 I  c n 
 (A.2.11e)
 
avendo indicato rispettivamente con R(·) ed I(·) la parte reale e la parte immaginaria di un
numero complesso.

A.2.1.2.2. Trasformata di Fourier

La decomposizione in serie di Fourier può essere generalizzata al caso di funzioni F(t)


non periodiche mediante la trasformata di Fourier, che si ottiene dallo sviluppo in serie di
Fourier per TF  .

F(t)

-a 0 a t
(a)

c  

(b)

Fig. A.2.3. - Esempio di (a) funzione non periodica e (b) suo spettro di frequenza.

Con le notazioni:
1   (A.2.12a)

n1  n   n (A.2.12b)

5
 2 
c n   TF c n    c n  n  (A.2.12c)
  
le (A.2.10) e (A.2.11a) diventano

1 
F t    c   n  exp i n t   (A.2.13)
2  n  

TF
2
c   n    F  t  exp   i n t  dt (A.2.14)
TF

2

Al limite, se il periodo TF tende ad infinito, 1 =  diventa la quantità infinitesima


d e n una quantità continua, il cui differenziale è appunto d. Pertanto, l'espressione
dello sviluppo in serie si trasforma in un integrale:
1 
F t    c    exp it d (A.2.15)
2  
essendo l'ampiezza della generica armonica di pulsazione  espressa da:

c      F ( t ) exp   it  dt (A.2.16)

_
Le (A.2.15) e (A.2.16) costituiscono una coppia di trasformate di Fourier. c () è detta
trasformata di Fourier della F(t) e ne esprime le componenti in frequenza: il diagramma
corrispondente è detto spettro di frequenza (Fig. A.2.3b), ed è una funzione continua, a
differenza dell’analogo spettro di una funzione periodica, che si presenta come un isto-
gramma (Fig. A.2.2b). _
F(t) è detta trasformata inversa di Fourier della c ().

A.2.2. ALCUNE PROPRIETÀ DELLA TRASFORMATA DI FOURIER

La trasformata di Fourier di una funzione h(t) è definita dalla relazione [cfr. (A.2.16)]:

H     h t  e  it dt (A.2.17)


se questo integrale esiste per ogni  reale. H() è una funzione complessa del parametro
reale .
Una condizione sufficiente per l'esistenza della funzione H() è che h(t) sia assoluta-
mente integrabile, ovvero che sia:

6

 h t  dt   (A.2.18)


La trasformata inversa è fornita dalla relazione [cfr. (A.2.15)]:


1 
 H   e d
it
h(t)  (A.2.19)
2  
dove h(t) è una funzione continua.
Le due funzioni h(t) ed H() costituiscono una coppia di trasformate di Fourier.
In corrispondenza di un punto di discontinuità, l'integrale (A.2.17) tende al valore:

   
h t  h t
(A.2.20)
2
Per definire la trasformata di Fourier di funzioni periodiche, costanti o impulsive, è
possibile introdurre condizioni meno restrittive.
Nell'applicazione della teoria delle trasformate di Fourier, sono utili i seguenti teoremi e
risultati.

a) teorema di derivazione
Se le funzioni h(t) e H() sono una coppia di trasformate di Fourier, anche le funzioni:
d n h t 
n
  i  n H   (A.2.21)
dt
costituiscono una coppia di trasformate di Fourier.

b) teorema di traslazione
Se le funzioni h(t) e H() sono una coppia di trasformate di Fourier, anche le funzioni:

h t  t 0   H  e  it 0 (A.2.22)

h t  e i 0t  H   0  (A.2.23)

costituiscono una coppia di trasformate di Fourier.

c) teorema di Parseval
Questo teorema stabilisce l'identità tra le distribuzioni dell'energia nei domini del tempo
e delle frequenze attraverso la relazione seguente:
 1  2
E   h 2  t  dt   H  d (A.2.24)
2
Di conseguenza è possibile stabilire una dualità tra il dominio del tempo ed il dominio del-

7
le frequenze, nel senso che quanto più un segnale è corto in un dominio, tanto più è lungo
nel dominio duale.

d) simmetria, variazione di scala, dualità


Se le funzioni h(t) e H() sono una coppia di trasformate di Fourier, anche le funzioni:
H t   2 h   (A.2.25)

1  
h at   H  (A.2.26)
a  a
costituiscono una coppia di trasformate di Fourier (essendo a una costante reale).

e) funzioni armoniche
E' possibile stabilire le seguenti coppie di trasformate di Fourier:

e i 0t  2    0  (A.2.27)


cos 0 t      0      0   (A.2.28)


sin 0 t  i    0      0   (A.2.29)

f) integrale di convoluzione
Se la risposta v(t) di un sistema all'eccitazione P(t) è ottenuta attraverso l'integrale di
convoluzione:
v  t    P    h  t  d   h    P  t   d (A.2.30)
è possibile ricavare la relazione seguente:
V   P  H  (A.2.31)
essendo V(), P() e H() le trasformate di Fourier di v(t), P(t) ed h(t).
Pertanto una convoluzione nel dominio del tempo corrisponde ad un prodotto nel do-
minio delle frequenze. Al contrario, un prodotto nel dominio del tempo corrisponde ad una
convoluzione nel dominio delle frequenze:

g) integrale di correlazione
L'integrale di correlazione è definito dalla relazione

z t    x  h t  d (A.2.32)
La sua trasformata di Fourier è espressa dalla relazione

8
Z   X*   H  (A.2.33)
dove * indica il complesso coniugato di X().

A.2.3. PROCESSI STOCASTICI

A.2.3.1. Definizioni e descrizione di un processo stocastico

Un processo stocastico X(t) può essere definito come una famiglia di funzioni x r(t) di
un parametro t (nei casi di interesse per la dinamica strutturale, il tempo) che rappresenta-
no possibili realizzazioni di uno stesso fenomeno fisico e sono quindi correlabili in senso
probabilistico, ovvero descrivono la variazione rispetto al parametro di una grandezza ale-
atoria. Alternativamente, per ogni valore del parametro, il processo stocastico corrisponde
ad una distribuzione di una variabile aleatoria.
Come per le variabili aleatorie, il modo più naturale per caratterizzare e descrivere un
processo stocastico consiste nell’assegnare le funzioni di distribuzione congiunta di ordine
crescente o le corrispondenti funzioni di densità di probabilità congiunta.
La densità di probabilità del primo ordine
f X  x , t   Pr ob x  X ( t )  x  dx  (A.2.34)
misura la probabilità che il valore di X(t) all’istante t sia compreso tra x ed x + dx, e quindi
definisce la struttura probabilistica della variabile aleatoria X per ogni fissato valore del
parametro t.
Le densità di probabilità di ordine superiore
f X x1 , t 1 ; x 2 , t 2 
………….. (A.2.35)
f X  x 1 , t 1 ;.....; x n , t n 
sono le densità di probabilità congiunte dei valori di X(t) in n (= 2, 3, …) istanti e descri-
vono la correlazione tra i valori del processo nei valori fissati del parametro.
Per caratterizzare un processo stocastico è quindi necessario definire una serie di fun-
zioni del tipo (A.2.34) e (A.2.35) che rappresentano le densità di probabilità congiunta di
ogni ordine. Tali funzioni devono essere: non negative; invarianti per una qualsiasi permu-
tazione degli argomenti; tali che sia possibile derivare le densità di ordine inferiore da
quelle di ordine superiore attraverso operazioni di convoluzione. Devono inoltre soddisfa-
re la condizione di normalizzazione
 
 ...  f X  x 1 , t 1 ;.....; x n , t n  dx 1 ...dx n  1 (A.2.36)
 

Una descrizione più semplice, anche se meno completa, di un processo stocastico è for-
nita dalla successione dei momenti delle densità di probabilità dei diversi ordini.
Si definiscono momenti di ordine n le entità:

9
 nX  t    x n f X  x , t dx (A.2.37)

essendo l’integrale esteso al dominio di definizione di X(t).


Di particolare interesse (anche perché sono in genere le uniche grandezze determinabili
statisticamente) sono i momenti del primo e del secondo ordine, detti rispettivamente valo-
re medio e valore quadratico medio, definiti dalle relazioni:

 X  t   E X  t    x f X  x , t dx (A.2.38)

 
 2X  t   E X ( t ) 2   x 2 f X  x , t dx (A.2.39)

Si definiscono momenti centrali di ordine n le entità:

m nX  t     x  E X  t  n f X  x , t dx (A.2.40)

che rappresentano i momenti di ordine n degli scarti rispetto al valore medio.


Di particolare interesse è il momento centrale di ordine 2 o varianza:

 2X  t     x  E X  t 2 f X  x , t  dx (A.2.41)

la cui radice quadrata fornisce lo scarto quadratico medio o deviazione standard.


Si definisce funzione di auto-correlazione del processo il momento congiunto:
 xx  t 1 , t 2   E X  t 1 X  t 2     x 1 x 2 f X  x 1 , t 1 ; x 2 , t 2 dx 1dx 2 (A.2.42)
Tale funzione soddisfa alle seguenti proprietà:
- è simmetrica;
- è semidefinita positiva;
- soddisfa alla diseguaglianza:
 xx  t 1 , t 2  2   xx  t 1 , t 1   xx  t 2 , t 2 
Se t1 = t2, la (A.2.42) fornisce il valore quadratico medio (A.2.39) del processo al tem-
po t.
In generale, per caratterizzare un processo stocastico sono necessari i momenti di ogni
ordine: solo in alcuni casi (il più significativo è quello dei processi gaussiani; cfr. Par.
A.2.3.7.5) sono sufficienti solo i momenti del primo e del secondo ordine (e quindi le cor-
rispondenti densità di probabilità).
Assegnati due processi stocastici distinti X(t) ed Y(t) (ad esempio, le velocità del vento
in due punti di una struttura), è possibile esprimere, attraverso le funzioni di densità di
probabilità congiunta, la correlazione tra i valori assunti dai processi in valori assegnati del
parametro.
Ciò richiede la definizione delle funzioni di densità di probabilità congiunta, che al
primo ordine sono del tipo:

10
f XY  x , t ; y , s dxds (A.2.43)
e rappresentano la probabilità che X(t) assuma valori nell’intervallo (x, x + dx] al tempo t
e contemporaneamente Y(t) assuma valori nell’intervallo (y, y + dy] al tempo s.
Per due processi stocastici X(t) ed Y(t) distinti, si definisce funzione di cross-
correlazione (o correlazione incrociata) l’espressione:
 xy  t 1 , t 2   E X  t 1 Y  t 2  (A.2.44)
Analogamente alle funzioni di auto- e cross-correlazione, è possibile definire le funzio-
ni di auto- e cross-covarianza, che sono date dalle relazioni:

k xx  t 1 , t 2   m 2 X  t 1 , X  t 2  
 E X  t 1    x  t 1  X  t 2    x  t 2   (A.2.45)
  xx  t 1 , t 2    x  t 1  x  t 2 

k xy  t 1 , t 2   m 2 X  t 1 , Y  t 2  
 
 E X  t 1    x  t 1  Y  t 2    y  t 2    (A.2.46)
  xy  t 1 , t 2    x  t 1  y  t 2 

In generale i processi stocastici possono essere suddivisi in due classi: stazionari ed e-


volutivi. Un processo è stazionario se le sue proprietà rimangono le stesse al variare del pa-
rametro, è evolutivo in caso contrario.

A.2.3.2. Stazionarietà

Un processo stocastico è detto stazionario (in senso stretto) se la sua struttura probabili-
stica è indipendente da una traslazione del parametro (in dinamica, dell’origine dei tempi),
ovvero se:
f X x , t   f X x , t    
…………. (A.2.47)

f X  x 1 , t 1 ;....; x n , t n   f X  x 1 , t 1  ;....; x n , t n   

Come si può notare dalle (A.2.47), la densità di probabilità del primo ordine è indipen-
dente dal tempo, e quelle degli ordini successivi dipendono soltanto dalle differenze tra gli
argomenti ti.
Di conseguenza un processo stocastico stazionario ha valore medio costante:

 x   x f X  x , t dx  Costante (A.2.48)


mentre le funzioni di auto-correlazione ed auto-covarianza, denotate in tal caso con i sim-

11
boli R() e (), dipendono solo dall’intervallo di tempo  tra gli istanti considerati:

 xx  t 1 , t 2     x 1 x 2 f X ( x 1 ; x 2 , t 2  t 1 ) dx 1 dx 2 
 (A.2.49)
 R xx  t 1  t 2   R xx   

k xx  t 1 , t 2    xx  t 1 , t 2    x  t 1  x  t 2  
(A.2.50)
 R xx      x 2  xx  t 1  t 2      

Nel caso dei processi stazionari la funzione di auto-correlazione soddisfa le seguenti


condizioni:
R x 0    2x (A.2.51a)

R x    R x    (A.2.51b)

R x     R x 0  (A.2.51c)
ovvero è massima per t = 0 ed è una funzione pari.
Il processo è detto stazionario in senso debole se la condizione di invarianza riguarda
solo le densità di probabilità del primo e del secondo ordine.

A.2.3.3. Ergodicità (in media ed in autocorrelazione)

La forma più generale di ergodicità riguarda tutte le statistiche del processo. Nel segui-
to si considerano solo l’ergodicità in media ed in auto-correlazione.
Un processo stazionario si dice ergodico in media se la sua media temporale coincide
con quella d’insieme; è quindi possibile scambiare le medie sull’insieme con le medie
temporali di una singola realizzazione del processo. Sia quindi xr(t) una qualunque realiz-
zazione del processo X(t). La proprietà di ergodicità in media implica che:
1 T
ˆ  lim  x r  t dt   X  E X  t  (A.2.52)
T 2 T T
Un processo si dice ergodico in auto-correlazione se è verificata la relazione:
1 T
R     lim  x r  t    x r  t dt  R xx     E X  t   X  t  (A.2.53)
T 2 T T

A.2.3.4. Densità di potenza spettrale (o densità spettrale) di processi stazionari

Una qualsiasi realizzazione xr(t) di un processo stocastico stazionario può essere e-


spressa nel dominio delle frequenze attraverso la sua trasformata di Fourier Xr() (Parr.

12
A.2.1.2.2 e A.2.2). Le due funzioni sono legate dalle relazioni:
1  
x r t    X r  e d
it
X r     x r  t e it dt (A.2.54)
2   

Il valore quadratico medio della xr(t) è espresso dalla:


T

 
E x r  t 2  lim
T 
1 2
 x r  t  dt
T T
2
(A.2.55)

2

Applicando il teorema di Parseval si ottiene che:


T

 
E x r  t  2  lim
1 2
 x r  t  dt 
T  T T
2

 (A.2.56)
2
1  1 1  1
X r    X r   d  lim X r    d
2
 lim  
T  2   T T  2    T

Si definisce densità di potenza spettrale o densità spettrale della xr(t) la funzione:

1 X r  
2
Sxr    lim (A.2.57)
T 2  T

Dalla (A.2.56), invertendo gli operatori di limite ed integrale, si ottiene:

  
E x r  t  2   S x r   d (A.2.58)


La densità di potenza spettrale di un processo stazionario si ottiene mediando


sull’insieme le densità di potenza spettrale di tutte le realizzazioni.

1 n
S x     lim  S x   (A.2.59)
n  n r 1 r

Se il processo è anche ergodico, ogni realizzazione del processo ha la stessa densità di po-
tenza spettrale, che è quindi anche la densità di potenza spettrale del processo.

A.2.3.5. Relazione tra densità di potenza spettrale e funzione di auto-correlazione

Sia:

13
T
1 2
R xx     lim  x r  t  x r  t    dt (A.2.60)
T T T

2

la media nel tempo del prodotto [xr(t)  xr(t+)] e Fx r x r   la sua trasformata di Fourier:

Fx r x r      R xx   e i d (A.2.61)


La (A.2.61) può esprimersi nella forma equivalente


T
1 1 2
F x r x r     lim   x r  t x r  t   e
i
ddt (A.2.62)
2 T  2 T T

2

e, con il cambiamento di variabile


 t (A.2.63)
tale che:
e  i  e it  e  i  t   (A.2.64)
nella forma:
T T
t
1 1 2 2
Fx r x r     lim  x r  t e dt  x r   e
it i
d (A.2.65)
2 T  2 T T T
 t
2 2

Poiché è ammesso cambiare i limiti del secondo integrale e porre:

T T
1 1 2 2
Fx r x r     lim  x r  t e dt  x r   e
it i
d (A.2.66)
2 T 2 T T T

2 2
si ottiene
T 2

2
 x r  t e
it
dt
T
X r  
 2
1
Fx x     lim
2
 lim (A.2.67)
2 r r T  2 T T  2 T

dalla quale risulta che

14
1
Fx x     S x r    (A.2.68)
2 r r

Se il processo, oltre ad essere stazionario, è anche ergodico, la funzione Fxrxr() è la


trasformata di Fourier della funzione di auto-correlazione Rxx(t), e la densità di potenza
spettrale Sxr() è uguale alla densità di potenza spettrale del processo. Di conseguenza, la
funzione di auto-correlazione e la densità di potenza spettrale sono una coppia di trasfor-
mate di Fourier:
1 
S x     R xx   e
i
d (A.2.69)
2  


R xx      S x   e i d (A.2.70)


Le principali caratteristiche e proprietà delle funzioni di auto-correlazione e densità di


potenza spettrale, con riferimento a due processi stocastici X(t) ed Y(t) stazionari ed a me-
dia nulla sono riportate nella Tabella A.2.1.

Tabella A.2.1. - Proprietà delle principali funzioni relative a due processi stocastici X(t) ed
Y(t) a media nulla (E[X(t)] = E[Y(t)] = 0).

Funzione di auto-correlazione - funzione reale definita su tutto l’asse rea-


le
Rxx() = E[x(t)· x(t+)] - Rxx() = Rxx(-)
- Rxx(0) = X2
- -X2  Rxx()  +X2
-  Rxx()   Rxx(0)
- lim R xx     0

Funzione di auto-correlazione normalizzata - funzione reale definita su tutto l’asse rea-
le
 x  t  x  t     R xx    - XX() = XX(-)
 XX     E    - XX(0) = 1
 X X   2X
- - 1  XX()  + 1
-  XX()   XX(0)
- lim  XX     0

Funzione di cross-correlazione - funzione reale definita su tutto l’asse rea-
le
Rxy() = E[x(t)· y(t+)] - Rxy() = Ryx(-)
- - XY  Rxy()  + XY
- lim R xy     0


15
Funzione di cross-correlazione normalizzata - funzione reale definita su tutto l’asse rea-
le
 x  t  y  t     R xy    - XY() = YX(-)
 XY     E    - 1  XY()  + 1
 X Y  XY
- lim  XY     0

Funzione di (auto) densità di potenza spettrale - funzione reale definita su tutto l’asse rea-
(o spettro di potenza) le
- Sx() = Sx(-)
Sx() = F [Rxx()]1 - Sx()  0

-  S x  d  R xx 0 

Funzione di densità di potenza spettrale incrociata - funzione complessa definita su tutto
(o spettro incrociato di potenza) l’asse reale
- Sxy() = SxyC() + i SxyQ(); essendo
Sxy() = F[Rxy()]1 SxyC() il co-spettro, ed SxyQ() lo spet-
tro in quadratura

-  S xy  d  R xy 0 

Funzione di coerenza - funzione reale definita su tutto l’asse rea-
2 le
S xy  
Coh 2XY   
S x    S y   - Coh 2XY   
S C
xy    S Qxy  
2 2

S x    S y  

A.2.3.6. Fattore di picco

E’ possibile stimare in modo approssimato il valore massimo atteso di un processo sto-


castico stazionario, a partire dalle caratteristiche spettrali del processo stesso. (Tale deter-
minazione è particolarmente significativa per l’azione eolica, oltre che per la risposta di un
sistema strutturale.)
Sia X(t) un processo stocastico stazionario a valore medio nullo. Si definisce fattore di
picco il rapporto tra il valore massimo (assoluto) del processo in un intervallo T e la devia-
zione standard:

max  X ( t ) in 0 , T 
 (A.2.71)
X
Si dimostra che la distribuzione di probabilità del valore massimo (assoluto) normaliz-
zato (A.2.71) in un intervallo di tempo [0, T] è la seguente:

1
F denota l’operatore trasformata di Fourier.

16
  1    1 
f          0  T  exp    2    exp    0  T  exp    2   (A.2.72)
  2    2 
dove 0 è la frequenza attesa del processo, definita dalla:

 f S x  f df
2
0
0  (A.2.73)
 2X
La distribuzione (A.2.72) ha come media e deviazione standard i valori:

   2 ln   0 T   (A.2.74)
2 ln   0 T 

 1
M   (A.2.75)
6 2 ln   0 T 

dove  = 0.5772 è detta costante di Eulero-Mascheroni.

A.2.3.7. Esempi di processi stocastici

A.2.3.7.1. Processo costante nel tempo (variabile aleatoria)

Se ogni realizzazione di X(t) è identicamente uguale ad un parametro aleatorio X co-


stante nel tempo, la densità di probabilità di X determina in modo univoco il processo sto-
castico stazionario (ma non ergodico) X(t). Se E[X2] esiste ed è limitato, si ha:
 Xt    X (A.2.76)

 
R xx  t   E X 2   2X (A.2.77)

A.2.3.7.2. Processo periodico

Un processo periodico è un processo stocastico definito dalla serie di Fourier



X  t   c 0   c 1 k cos  k 0 t   c 2 k sin  k 0 t  (A.2.78)
k 1

con coefficienti c0, c1k, c2k reali ed aleatori, a condizione che la serie converga in valore
quadratico medio ad un valore finito, ovvero che:

17
 _ 2 
lim E   X ( t )  x    0 (A.2.79)
k   
  

La (A.2.78) definisce un processo stazionario in senso debole se e solo se:

E c 1k   E c 2 k   0 (A.2.80a)

   
E c 12k  E c 22 k (A.2.80b)

E c 0 c 1k   E c 0 c 2 k   E c 1k c 2 k   0 (A.2.80c)

E c 1i c 1k   E c 2 i c 2 k  ik (A.2.80d)

Le (A.2.80) implicano che:

E X ( t )   E c 0  (A.2.81)

 
R XX     E c 02 
1 
 
 E c 1 k  c 2 k cos  k 0  
2 k 1
2 2
(A.2.82)

Una espressione particolare della (A.2.78) è rappresentata dal processo periodico con
fase aleatoria, definito dalla

X  t   c 0   c 1 k cos k   0 t     c 2 k sin k  0 t    (A.2.83)
k 1

dove  è una variabile aleatoria con distribuzione uniforme tra 0 e 2. Il processo è stazio-
nario ed ergodico con

E X ( t )   E c 0  (A.2.84)

R xx    
1  2
 
 c 1 k  c 2 k cos  k 0  
2 k 1
2
(A.2.85)

A.2.3.7.3. Rumore bianco

Il rumore bianco è un processo stocastico stazionario con densità di potenza spettrale


uniforme su tutto l’asse reale:

S x    S 0    ,   (A.2.86)
e funzione di auto-correlazione

18
R xx     2 S 0     (A.2.87)
dove () è la funzione di Dirac. Pertanto, in un rumore bianco la correlazione tra due i-
stanti diversi è nulla, mentre la varianza è infinita, essendo:

R xx  0   S 0  d (A.2.88)


Si può osservare che questo processo non è fisicamente realizzabile perché l’area sottesa
dalla densità di potenza spettrale è infinita. Tuttavia il rumore bianco può fornire buone
approssimazioni nella analisi della risposta di sistemi e per questo, oltre che per la sua
semplicità, trova molte applicazioni nella pratica.

Sx()
S0


(a)

Rxx()
S0


(b)

Fig. A.2.4. - Densità di potenza spettrale e funzione di autocorrelazione di un rumore bian-


co a banda limitata.

A.2.3.7.4. Rumore bianco a banda limitata

Il rumore bianco a banda limitata è definito dalle seguenti funzioni

S x    S 0    c  (A.2.89)

19
sen   c  
R xx     2S 0 (A.2.90)

L’area al di sotto dello spettro è finita ed il processo diventa un rumore bianco al limite per
c   .

A.2.3.7.5. Processi stocastici Gaussiani

La densità di probabilità di una variabile aleatoria X Gaussiana è fornita dalla:

1   x   2 
f X x   exp      x   (A.2.91)
2  2 2 

nella quale  è il valore medio e  lo scarto quadratico medio o deviazione standard, defi-
niti dalle relazioni:

E X    x f X  x dx   (A.2.92)


  
E  X    2    x   2 f X  x dx   2 (A.2.93)


La distribuzione Gaussiana unitaria o standard (Fig. A.2.5) è quella che corrisponde a 


= 1 e  = 0:

1  x2 
f X x   exp    (A.2.94)
2  2 
Per una variabile gaussiana sussiste l’importante proprietà che qualsiasi funzione lineare
di variabili aleatorie Gaussiane e anche essa Gaussiana.
Due variabili X e Y sono Gaussiane congiunte se la loro funzione densità di probabilità
congiunta risulta (A.2.95):
1
f XY  x , y   
2  x  y 1   2xy

 1  x   2 2  xy  x   x  y   y  y   y 2  
 exp    x
 
 2
 2 1   xy  
 x2 xy  2y



dove i parametri:
E X    x E Y    y

20

E  X   x 2   2x 
E Y y 2   2y
  
E  X   x  Y   y   x  y  xy

definiscono completamente la densità di probabilità congiunta. xy è il coefficiente di cor-


relazione Se xy = 0, X e Y sono due variabili non correlate, e:

f XY  x , y   f X  x f Y  y  (A.2.96)

Un processo è detto gaussiano se i valori del processo in n istanti arbitrari sono variabili
gaussiane, per ogni valore di n. Un processo gaussiano è completamente definito dal valore
medio e dalla funzione di auto-covarianza (o da quella di auto-correlazione). Conseguenza
diretta di questa proprietà è che un processo gaussiano debolmente stazionario è anche sta-
zionario in senso stretto.
L’importanza pratica delle variabili aleatorie gaussiane e dei processi gaussiani discen-
de dal teorema del limite centrale che può essere formulato in modi diversi, ma sostan-
zialmente stabilisce che la distribuzione di una variabile aleatoria somma di n variabili ale-
atorie indipendenti ed egualmente distribuite tende ad essere gaussiana quando il numero
delle variabili tende ad infinito, indipendentemente da quella che è la distribuzione di pro-
babilità delle singole variabili. Il significato fisico di questo teorema è quindi evidente; i-
noltre, molti fenomeni fisici in natura sono influenzati da un numero elevato di variabili
che concorrono in maniera paritetica al loro manifestarsi. Ogni operatore lineare trasforma
un processo gaussiano in un altro processo gaussiano. La risposta di un sistema lineare ad
un eccitazione gaussiana è ancora gaussiana (cfr. Par. A.2.4).

0.4

0.3

0.2

0.1

-3 -2 -1 0 1 2 3

Fig. A.2.5. - Distribuzione gaussiana standard.

A.2.3.7.6. Processi Markoviani

Un processo a parametro discreto X(t), t = 0, 1, 2, … o continuo X(t), t  0 è detto

21
processo di Markov, se, per ogni insieme di n valori del parametro, le densità condizionate
di X(tn) per valori assegnati di X(t1), …, X(tn-1) dipendono solo da X(tn-1) , ovvero se:

f x n , t n x n 1 ,...., x 1 ; t n 1 ,...., t 1   f x n , t n x n 1 , t n 1  (A.2.97)

Ciò significa che, assegnato lo stato attuale del processo, la sua evoluzione futura è in-
dipendente dal passato.
Un processo di Markov è descritto quindi da una funzione di probabilità di transizione
che rappresenta la probabilità che il sistema sia in uno stato i al tempo tn dato che era nello
stato j al tempo tn-1. Un processo di Markov è detto omogeneo se le probabilità di transi-
zione dipendono solo dalle differenze tn – tn-1 e non dai valori di tn e tn-1.

A.2.4. RISPOSTA DINAMICA ALEATORIA (CENNI)

L’evoluzione temporale delle azioni agenti su di una struttura non può essere sempre
descritta mediante funzioni deterministiche, poiché spesso presenta elementi di aleatorietà:
tale considerazione è valida per la maggior parte delle azioni naturali, quali l’azione del
vento e quella sismica, ma anche per molte altre azioni, quali il traffico o i carichi eccezio-
nali (urti, esplosioni, ecc.). Tali azioni dovrebbero essere quindi sempre rappresentate me-
diante processi stocastici (scalari o vettoriali): e stocastici sono di conseguenza anche i
processi di risposta, cioè le storie delle quantità (ad esempio, tensioni, spostamenti, defor-
mazioni) che si manifestano nella struttura e ne caratterizzano la risposta.
Di solito l’aleatorietà delle azioni prevale su quella delle caratteristiche della struttura
(resistenze, geometria, …), che è quindi abituale descrivere mediante un modello determi-
nistico.
Si assuma che il processo di carico sia stazionario (cioè che le sue proprietà non varino
nel tempo): ciò è raramente vero (a rigore, mai) nella realtà fisica (infatti ogni azione dura,
e con intensità variabile, per un tempo limitato, che per una tempesta di vento può essere
dell’ordine di ore e per un sisma dell’ordine di secondi), ma è molto spesso introdotto co-
me ipotesi semplificativa nella pratica tecnica, almeno per azioni la cui durata è molto su-
periore al periodo fondamentale della struttura (azioni prolungate).
Sotto tale ipotesi, le proprietà significative della risposta sono quelle che si manifestano
a regime, e che sono anch’esse stazionarie, se le caratteristiche della struttura non variano
nel tempo.

A.2.4.1. Sistemi lineari ad un grado di libertà soggetti ad una forzante aleatoria

Si consideri un sistema ad un grado di libertà, di caratteristiche costanti nel tempo, defi-


nite in senso deterministico. Tale sistema sia soggetto ad una forzante aleatoria, descritta
da un processo stocastico P(t) che si assume stazionario. L’equazione del moto del sistema
è:
.. .
m v  c v  kv  P  t  (A.2.98)

22
La risposta a regime vr(t) del sistema ad una generica realizzazione pr(t) del processo
P(t) può essere ottenuta nel dominio del tempo attraverso l’integrale di convoluzione:

v r  t   t  p r   h  t   d r  1, 2 ,  ,  (A.2.99)

essendo h() la funzione di risposta ad impulso, e l’integrale esteso a t = - , in virtù della


stazionarietà del processo.
Il valore medio E[v(t)] del processo che rappresenta la risposta a regime del sistema può
essere ottenuto prendendo la media sull’insieme delle vr(t) ed invertendo gli operatori di
media ed integrale, ovvero dalla relazione:
 
E v  t   E t  p r   h  t   d  t  E P    h  t   d (A.2.100)
Il valore medio della risposta è quindi la risposta al valore medio della forzante. Se il
processo di input ha valore medio nullo, ovvero se:
E P  t   0 (A.2.101)
anche la risposta del sistema ha valore medio nullo.
L’auto-correlazione del processo di risposta E[v(t)v(t+)] è espressa dalla relazione
(A.2.102):

E v  t v  t     E t  P 1  h  t  1 d1 t  P  2  h  t     2 d 2 
che, effettuando il cambiamento di variabili
u 1  t  1 u 2  t    2 (A.2.103)
diviene (A.2.104):

E v  t v  t     E t0 P  t  u 1 h  u 1 du 1 t0 P  t    u 2 h  u 2 du 2 
Invertendo i limiti di integrazione di entrambi gli integrali e raggruppando si ottiene la
relazione (A.2.105a):

E v  t v  t     E 0 0 P  t  u 1 P  t    u 2 h  u 1 h  u 2 du 1 du 2 
Invertendo gli operatori di media ed integrale, si ottiene infine la relazione (A.2.105b):
E v  t v  t     0 0 E P  t  u 1 P  t    u 2 h  u 1 h  u 2 du 1 du 2
La media al secondo membro della (A.2.105b) è la funzione di auto-correlazione della
forzante ed è quindi indipendente dal tempo, perché la forzante è stazionaria; pertanto an-
che il termine a primo membro, che è la funzione di auto-correlazione della risposta, è in-
dipendente dal tempo. Di conseguenza, se l’input è stazionario anche l’output è stazionario
e la sua funzione di auto-correlazione è data da
R v     0 0 R p    u 2  u 1  h  u 1  h  u 2 du 1 du 2 (A.2.106)

23
Se il processo di input è Gaussiano, anche il processo di output è Gaussiano: pertanto la
funzione di auto-correlazione (A.2.106) caratterizza completamente il processo di risposta.
La densità di potenza spettrale Sv() del processo di risposta v(t) è la trasformata di
Fourier della funzione di auto-correlazione
1 
S v     R v   e
i
d (A.2.107)
2
Sostituendo la (A.2.106) nella (A.2.107) si ottiene la (A.2.108)

S v   
1   
2

 0 0 R p    u 2  u 1 h  u 1 h  u 2 du 1 du 2 e 
i
d

Scambiando gli ordini di integrazione ed estendendo i limiti degli integrali, si ottiene la


(A.2.109):

S v   
1

lim 0Th  u 1 du 1 0Th  u 2 du 2 TT R p    u 2  u 1 e i d
2  T

Effettuando il cambiamento di variabile
    u 2  u1 (A.2.110)
la (A.2.109) assume la forma (A.2.111):

S v   
1

lim 0T h  u 1 e iu 1 du 1 0T h  u 2 e  iu 2 du 2 TTuu1 uu2 R p  e  i d
2  T  1 2

Poiché la funzione di risposta ad impulso h(ui) è nulla quando ui < 0, il limite inferiore
dei primi due integrali può essere variato da 0 a –T. Poiché inoltre, per sistemi smorzati, la
funzione di risposta ad impulso decresce rapidamente all’aumentare dell’argomento (u1 o
u2), tali argomenti possono essere trascurati nei limiti di integrazione del terzo integrale.
Sulla base delle relazioni tra densità di potenza spettrale e auto-correlazione e tra rispo-
sta d’impulso e risposta in frequenza si verifica pertanto che:

S v    H   i  H i  S p    H   S p  
2
(A.2.112)
Se il processo di input è un rumore bianco a valore medio nullo, caratterizzato dalla
densità di potenza spettrale SP() = S0 (Fig. A.2.6a), e dalla funzione di autocorrelazione
(Fig. A.2.6b)
R p    2  S 0    (A.2.113)

essendo () la funzione di Dirac (A.2.4a), la densità di potenza spettrale (Fig. A.2.6c) del-
la risposta di un sistema debolmente smorzato ( < 1) con pulsazione  è espressa dalla re-
lazione:

24
Sp ()

S0


0

Rp ( ) (a)

2S0 ()

0

(b)

Sv ()
<1

S0
S 0
Area =
k2 S0
2k 2  
4k 2


 0  (c)

Rv ( )
S0
R v (0) 
2k 2
<1
- r
e

2 (d)
d

Fig. A.2.6. - (a) Densità di potenza spettrale e (b) funzione di auto-correlazione di un ru-
more bianco; (c) densità di potenza spettrale e (d) funzione di auto-correlazione della ri-
sposta di un sistema ad un grado di libertà con coefficiente di smorzamento  < 1.

25
1 1
Sv    S0 (A.2.114)
2 
k 2 2 2
     
 1       2   
        
 
La funzione di autocorrelazione della risposta (Fig. A.2.6d) è espressa dalla relazione
(A.2.115):

 S 0   
sign   sen  d   e
 cos  d     
R v ( )      
2 k 2   1  2 

La (A.2.114) presenta un forte picco in corrispondenza della pulsazione propria
dell’oscillatore, ovvero nella zona in cui l’oscillatore, agendo come un filtro, amplifica
l’azione.
La varianza della risposta è fornita dalla (A.2.115) e vale:
 S 0 S0
 2  R v (0)   (A.2.116)
2k 2 2  m 2 3
E’ immediato rilevare dalla (A.2.116) che, anche se la varianza dell’azione è illimitata,
quella della risposta è limitata. Tale risultato giustifica l’impiego in molte applicazioni del
rumore bianco come modello stocastico dell’azione: infatti tale modello fornisce risultati
ragionevoli purché si adotti come densità di potenza spettrale S0 il valore assunto dalla
densità di potenza spettrale dell’azione effettiva in corrispondenza della pulsazione propria
dell’oscillatore.
Se l’azione è un processo stocastico stazionario (almeno in senso debole; cfr. Par.
A.2.3.2), ma applicato solo a partire dall’istante t = 0 al sistema in quiete, la risposta del
sistema non è stazionaria. Se il sistema è smorzato, si può tuttavia ammettere che la rispo-
sta a regime del sistema sia stazionaria (almeno in senso debole).
Se l’azione è un rumore bianco ed il sistema è debolmente smorzato, il valore quadrati-
co medio della risposta è fornito dalla relazione (A.2.117):

 
2 
 S 0  
 
t
 e 
E v( t ) 2
 1    d2  2   sen  d t  2   d sen 2  d t 
2k 2   d2 

che è rappresentata in Fig. A.2.7 per diversi valori di . Si rileva che, maggiore è lo smor-
zamento, più rapido è il raggiungimento dello stato di regime. In particolare, se la durata di
applicazione td dell’azione è elevata in confronto all’intervallo  caratteristico del sistema
t d     2    1 0 (A.2.118)
la risposta dello stesso può essere assunta (debolmente) stazionaria.

26
25

Asintoto per  = 0.025 =0


20
 = 0.025
2

k E v(t ) 2
 15

S 0 Asintoto per  = 0.05


10

 = 0.05 Asintoto per  = 0.10


5
 = 0.10
0
0 2 4 6 8 10

t
Fig. A.2.7. - Valore quadratico medio della risposta non stazionaria, risultante dalla appli-
cazione dell’azione al tempo t = 0.

Se invece  = 0, il valore quadratico medio della risposta cresce indefinitamente al cre-


scere di t, secondo la relazione:


lim E v ( t ) 2    S 0
 2 t  sin 2 t  0 (A.2.119)
0 2 k2

A.2.4.2. Sistemi lineari a n gradi di libertà.

La risposta dinamica di sistemi lineari ad n gradi di libertà con smorzamento proporzio-


nale, può essere ricavata applicando l’analisi modale, ovvero risolvendo n equazioni diffe-
renziali disaccoppiate:
.. . P *i  t 
q i  t   2i  i q i  t    i2 q i t   i  1, 2 ,..., n . (A.2.120)
M *i

dove P *i  t  e M *i sono le azioni e le masse generalizzate o modali.


Qualsiasi parametro di risposta Y(t) linearmente dipendente dalle coordinate normali
può essere trovato impiegando la relazione
n
Y t    Bi q i t  (A.2.121)
i 1

essendo i coefficienti Bi ottenuti da metodi standard di analisi.


Di solito peraltro è possibile troncare la sommatoria ai primi termini.
Se il sistema è soggetto ad un insieme di azioni modellate come processi stocastici, è
necessario considerare ciascuna azione generalizzata come un processo stocastico a se

27
stante.
Ad esempio, per un carico p(z, t) distribuito:

P *i ( t )    i ( z ) p ( z , t ) dz (A.2.122)


essendo i(z) l’espressione al continuo della i-esima forma modale.


Se p(z, t) è un processo stazionario gaussiano, con densità di potenza spettrale S P(z, ,
) e funzione di auto-correlazione RP(z, , ) si hanno le funzioni di cross-spettro e cross-
correlazione delle funzioni aleatorie P *i  t  e P j*  t   
 
S P * P * (  )     i ( z )  j (  ) S P ( z ,  ,  ) dz d (A.2.123)
i j
 
 
R P * P * (  )     i ( z )  j (  ) R P ( z ,  , ) dz d (A.2.124)
i j
 

Nel caso di azioni stazionarie, anche la risposta può essere considerata stazionaria. Di
conseguenza, la funzione di auto-correlazione del parametro di risposta è fornita
dall’espressione:
R Y     E Y  t  Y  t      R Ym Yn    (A.2.125)
m n
dove
R Ym Yn      0 B m B n R p m p n    u 2  u 1 h m  u 1 h n  u 2 du 1du 2

è la funzione di cross-correlazione delle risposte modali Ym(t) e Yn(t).


Per sistemi debolmente smorzati, situazione usuale nel caso dell’ingegneria strutturale,
la risposta Ym(t) prodotta dal modo m può essere considerata, ai fini pratici, stocasticamen-
te indipendente dalla risposta Yn(t) prodotta dal modo n; ciò implica che i termini incrociati
della precedente sommatoria siano nulli e che la funzione di autocorrelazione della risposta
sia esprimibile nella forma approssimata:

R Y      R Ym Ym    (A.2.126)
m

Per la densità e la cross-densità di potenza spettrale, ancora in analogia con i sistemi ad


un grado di libertà, valgono le seguenti relazioni:
S Y     S Ym Yn   (A.2.127)
m n

S Ym Yn    B m B n H m  H n  S p m p n   (A.2.128)

Per sistemi debolmente smorzati ( << 1), si ha che:

S Ym Ym     B 2m H m   S p m p m  
2
(A.2.129)
m

28
BIBLIOGRAFIA ESSENZIALE

G. AUGUSTI, A. BARATTA E F. CASCIATI: «Probabilistic Methods in Structural Engineer-


ing». Chapman and Hall, London, 1984: ISBN 0 412 22230 2.

H. BUCHHOLDT: «Structural dynamics for engineers». Thomas Telford, London, 1997:


ISBN 0 7277 2559 9.

R.W. CLOUGH E J. PENZIEN: «Dynamics of Structures». McGraw-Hill, Inc., 1993: ISBN 0


07 113241 4.

W.B. KRÄTZIG e H.-J. NIEMANN (a cura di): «Dynamics of Civil Engineering Structures».
A.A. Balkema/Rotterdam/Brookfield, 1996: ISBN 90 5410 624 7.

A. PREUMONT: «Random Vibrations and Spectral Analysis». Kluwer Academic Publishers,


AA Dordrecht, The Netherlands, 1994: ISBN 0 7923 3036 6.

29

Vous aimerez peut-être aussi