Vous êtes sur la page 1sur 61

Problèmes classiques de dynamiques

stochastiques : méthodes d’études

par Christian SOIZE


Docteur ès Sciences
Professeur à l’École Nationale Supérieure des Techniques Avancées
Chargé de Conférences à l’École Centrale des Arts et Manufactures
Chef de la Division Aéroélasticité de la Direction des Structures
à l’Office National d’Études et de Recherches Aérospatiales

1. Théorie élémentaire des probabilités


et des processus stochastiques........................................................... A 1 346 - 3
1.1 Fondements de la modélisation stochastique .......................................... — 3
1.2 Variable aléatoire à valeurs dans  n ......................................................... — 4
1.3 Processus et champs stochastiques classiques........................................ — 9
1.4 Processus de diffusion et équations différentielles stochastiques.......... — 16
1.5 Statistiques sur les trajectoires des processus stochastiques................. — 25
1.6 Représentation intégrale et échantillonnage des processus
et des champs .............................................................................................. — 27
1.7 Ergodicité ..................................................................................................... — 28
2. Vibrations aléatoires des systèmes à comportement linéaire .... — 29
2.1 Oscillateur linéaire simple à un degré de liberté ...................................... — 29
2.2 Système linéaire continu invariant en temps............................................ — 35
2.3 Système dynamique linéaire de dimension finie ..................................... — 40
3. Vibrations aléatoires des systèmes à comportement
non linéaire ................................................................................................ — 45
3.1 Position du problème .................................................................................. — 45
3.2 Méthode d’étude de la solution à l’aide des EDSI .................................... — 46
3.3 Méthodes de construction de la solution .................................................. — 46
4. Stabilité des systèmes dynamiques linéaires
à coefficients aléatoires......................................................................... — 56
4.1 Position du problème .................................................................................. — 57
4.2 Stabilité du système sans second membre............................................... — 57
4.3 Stabilité du système avec second membre............................................... — 58
Principales notations d’algèbre linéaire .................................................... — 58
Abréviations utilisées dans le texte ............................................................ — 59
Références bibliographiques ......................................................................... — 59
11 - 1988

e domaine abordé est beaucoup trop vaste et les différents aspects trop variés
L pour qu’ils puissent être traités et développés en détail dans cet article.
Devant limiter l’exposé, nous avons dû effectuer des choix. Il semble que les
difficultés rencontrées par les ingénieurs d’études et de recherches, qui sont
A 1 346

confrontés à des problèmes de dynamique stochastique, que nous appellerons


encore problèmes de vibrations aléatoires, soient dues à deux facteurs
principaux.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 1
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

— Le premier concerne le choix de l’approche mathématique qui permettra


de construire une méthode de résolution effective pour un problème donné. Cette
difficulté provient souvent du fait que les méthodes issues de la théorie des
probabilités sont assez variées et que l’ingénieur, non encore familiarisé avec
cette théorie, peut rencontrer quelques difficultés à se repérer dans l’ensemble
des résultats disponibles.
— Le second facteur est dû au caractère pluridisciplinaire, puisque l’on doit
faire appel simultanément : à l’ensemble de la mécanique, à la théorie des
probabilités et en particulier à celle des processus stochastiques, aux statistiques
mathématiques, à la théorie et au traitement du signal, aux mathématiques
appliquées usuelles mais aussi à l’analyse fonctionnelle, à l’analyse numérique
et enfin très largement à l’informatique.
Dans ces conditions les objectifs que nous nous sommes fixés sont les
suivants :
— exposer les principales méthodes constructives pour les grandes classes de
problèmes de vibrations aléatoires, en indiquant les limites des méthodes, liées
le plus souvent aux contraintes numériques ;
— donner les grandes étapes des raisonnements, afin que les développements
présentés soient autonomes et directement utilisables ;
— aborder les problèmes classiques, c’est-à-dire ceux qui se posent le plus
souvent dans les études et recherches menées, par exemple, dans les secteurs
de l’aérospatiale, de l’aéronautique, des génies nucléaire, mécanique, maritime,
civil, des industries automobiles, pétrolières et ferroviaires, de la géophysique,
etc.
La terminologie classique ne signifie pas du tout que les méthodes appliquées
soient toujours simples. Bien au contraire, une majorité de ces problèmes dits
classiques nécessite la mise en œuvre de méthodes mathématiques et
numériques avancées, ainsi que des moyens informatiques puissants. Du reste,
un certain nombre de ces problèmes ne sont pas encore résolus et font l’objet
d’un effort de recherche très important sur le plan international.
Les limites des méthodes proviennent, le plus souvent, des difficultés liées à
la numérisation. Par exemple, les vibrations aléatoires stationnaires d’un milieu
continu solide, occupant un domaine borné de l’espace, viscoélastique linéaire,
à paramètres déterministes et excité par un champ de forces stochastique,
gaussien, stationnaire en temps, s’étudient sans difficulté sur le plan théorique.
On se ramène à un problème de filtrage linéaire de dimension infinie, traité
classiquement par analyse spectrale. Le problème est alors la numérisation de
la solution mathématique, lié à la construction d’une approximation finie de
l’opérateur de l’élastodynamique. Pour ce problème, le domaine des basses
fréquences (BF) se résout assez facilement, le domaine des moyennes fréquences
(MF) nécessite des méthodes numériques avancées que nous ne pourrons
malheureusement pas exposer ici, et le domaine des hautes fréquences (HF) est
encore loin d’être complètement résolu. On notera donc que, même pour des
problèmes linéaires qui sont simples et résolus sur le plan mathématique, la
construction effective de la solution n’est pas encore possible dans tous les cas.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 2 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

1. Théorie élémentaire 1.1.3 Ensembles négligeables.


Propriétés vraies presque sûrement
des probabilités et des
Relativement à l’espace probabilisé (  , t , P ) , un élément A de t
processus stochastiques est dit P-négligeable si P (A) = 0. Soit  ( a ) une propriété qui fait
intervenir un élément a de  , on dit que  est vraie P-presque
Dans ce paragraphe, on se limitera à des notions sur la théorie
élémentaire des probabilités et des processus stochastiques. sûrement (P-p.s.) si l’ensemble :

A0 = { a ∈  ,  (a ) est fausse }
1.1 Fondements de la modélisation est P-négligeable, donc P (A0) = 0. Si l’ensemble :
stochastique A1 =  \ A0 = { a ∈  ,  ( a ) est vraie }
1.1.1 Principe de probabilité et espace probabilisé donc  = A 0 ∪ A 1 et A 0 ∩ A 1 = ∅ , alors P (A1) = 1.
en modélisation stochastique C’est pour cela que l’on utilise aussi la terminologie vraie en
probabilité 1.
Le principe de probabilité conduit, dans la construction d’une
modélisation stochastique d’une grandeur x à valeurs dans un
ensemble F : 1.1.4 Principe de causalité et variable aléatoire
— à introduire un ensemble  dont chaque élément représente
une combinaison des états des causes dont dépend l’état x de la Il existe une application X de  dans F qui associe à toute
grandeur à modéliser ; combinaison a ∈  des états des causes, une combinaison X (a)
— à munir  d’une tribu t de parties dont les éléments sont des conséquences. Le principe de causalité conduit :
appelés les événements ; — à munir F d’une tribu de parties  F rendant mesurable X, ce
— à munir l’espace probabilisable (  , t ) d’une probabilité P, qui signifie que l’application X doit être telle que (définition d’une
c’est-à-dire d’une mesure positive bornée de masse 1 ( P (  ) = 1 ) . application mesurable) :
Le triplet (  , t , P ) est appelé un espace probabilisé.
∀B ∈ F , X –1 (B ) ∈t (3)

1.1.2 Probabilité conditionnelle et indépendance où X –1 (B)désigne l’ensemble { a ∈  : X ( a ) ∈ B } , que l’on notera


aussi X ∈ B par abus usuel de notations ;
— à munir l’espace probabilisable ( F,  F ) de la probabilité
Parfois, il est utile d’écrire en modélisation stochastique :
PX = X (P ) telle que :
 = A1 ∪ A2
∀B ∈ F , P X ( B ) = P [ X –1 ( B ) ] (4)
où A1 et A2 sont disjoints et de probabilités non nulles, et d’imposer
on a donc PX (F ) = 1. Avec la convention d’écriture précédente,
à a ∈ d’appartenir à A 1 ⊂  . l’égalité (4) s’écrit aussi :
Alors l’espace probabilisé (  , t , P ) doit être remplacé par PX (B) = P (X ∈ B)
( A 1 , t 1 , P 1 ) où t 1 est la famille de parties A ∩ A1 , A décrivant t ,
et où P1 est la probabilité définie sur ( A 1 , t 1 ) par : L’application X est appelée une variable aléatoire (v.a.) définie sur
(  , t , P ) , à valeurs dans ( F,  F ) , et la probabilité PX sur ( F,  F ) ,
P1 (A ∩ A1) = P (A ∩ A1)/P (A1)
la loi de la variable aléatoire X. La v.a. X est une modélisation
La probabilité P1 est notée P (A|A1) et est appelée probabilité stochastique de la grandeur considérée x.
conditionnelle de A si A1 . Elle est définie par :
P (A ∩ A1) = P (A|A1) × P (A1) (1) 1.1.5 Méthodes probabilistes
Deux événements A 1 et A 2 ∈t sont dits indépendants si : et méthodes statistiques
P (A1 ∩ A2) = P (A1) × P (A2) Considérons maintenant un certain système physique qui admet
un modèle représenté par une application g d’un ensemble F, appelé
Donc si P (A2) est non nulle, A1 indépendant de A 2 implique :
espace des entrées, dans un ensemble G, appelé espace des états
P (A1|A 2) = P (A1) et P (A 2|A1) = P (A 2) du système. On suppose que l’entrée du système dépend d’un para-
mètre a ∈  . L’étude de ce système conduit à introduire le schéma
Plus généralement, n événements A1 , ..., An sont indépendants suivant :
dans leur ensemble si :
X g
n n (, t ) ( F , F ) ( G , G ) (5)
P  ∩ Aj  = ∏ P ( Aj ) (2)
j=1 j=1 où X et g sont des applications mesurables.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 3
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

La théorie des probabilités consiste, en supposant donnée la ■ Si la mesure PX (dx) admet une densité par rapport à dx :
probabilité P sur (  , t ) , à calculer des probabilités d’événements,
liés à X ou à g  X , et à démontrer des propriétés utiles, pour le PX (dx) = pX (x ) dx (10)
problème traité, de ces probabilités. La construction de la première la fonction x Œ p X ( x ) définie sur à valeurs dans n + est appelée
partie du schéma (5) et l’étude de la probabilité : densité de probabilité de la loi de la v.a. X. On a :
P X = X ( P ) sur ( F ,  F )
pX ∈ L1 ( n , + )
est un problème de modélisation stochastique de l’entrée du
système considéré. Par contre, si g est une application mesurable car :

 
bien précisée, le calcul de la probabilité :
Pg = g ( P X ) sur ( G ,  G ) PX (  n ) = P X (dx ) = p X (x ) dx = 1 (11)
 X n n

PX étant supposée connue, correspond à l’étude probabiliste de ce Si la fonction de répartition FX est différentiable, alors on a :
système.
∂n
La théorie des statistiques procède en sens inverse de l’approche p X (x ) = ------------------------------ F X (x ) (12)
probabiliste décrite ci-avant. Par exemple, on a le schéma (5), mais ∂x 1 … ∂x n
la probabilité P est inconnue et l’on observe des réalisations
successives et indépendantes d’évènements liés à X ou à g  X . On
cherche alors des informations sur la probabilité P ou des caracté- F X (x ) = Bx
p X (y ) dy (13)
ristiques numériques liées à P, par exemple des moments.
Nota : évidemment, les méthodes d’études des problèmes de vibrations aléatoires, que Si les n v.a. X1 , ..., Xn sont indépendantes dans leur ensemble :
nous présentons, sont des méthodes probabilistes, c’est-à-dire que les modélisations
stochastiques des entrées sont supposées connues et que l’on s’intéresse à la seconde partie
du schéma (5). Il est à noter que, dans de nombreux cas, la construction des modélisations
p X (x ) = p X 1 ( x 1 ) × … × p X n ( x n ) (14)
stochastiques des entrées nécessite l’utilisation des statistiques.

1.2.2 Intégration des v.a. à valeurs dans  n


1.2 Variable aléatoire à valeurs dans  n
Sur l’espace probabilisé (  , t , P ) , on note  la relation d’équiva-
Dans tout ce paragraphe, on considère une v.a. X = (X1, ..., Xn ) lence X ~ Y d’égalité P-p.s. de deux v.a. X et Y à valeurs dans  n ,
définie sur (  , t , P ) à valeurs dans  n , avec n entier  1,  n ●

étant muni de sa tribu borélienne   n . On note dx = dx1 ... dxn la et X la classe d’équivalence des v.a. égales P-p.s. (§ 1.1.3).
mesure de Lebesgue sur  n .
■ Les v.a. X définies sur (  , t , P ) à valeurs dans  n forment un
Si Xc = X R + iX I est une v.a. à valeurs dans  m , m entier  1, avec espace vectoriel noté  0 (  ,  n ) . On note :
X R et X I à valeurs  m , on peut identifier  à  2 et X c à la v.a.
X = {X R, X I } à valeurs dans  n avec n = 2m. Le cas  m se ramène L 0 (  ,  n ) =  0 (  ,  n )/ 
donc au cas  n et, dans la suite, on ne considère que des v.a. à
valeurs dans  n . le quotient de  0 par  .
■ Soit 1  p < + ∞ un entier, on dit que la v.a. X est d’ordre p si :
1.2.1 Lois d’une v.a. à valeurs dans  n
■ La loi de la v.a. X est la mesure de probabilité PX (dx) sur  n telle
E( X p) = 

X (a ) p dP ( a ) = n
x p P X (dx ) < + ∞ (15)
que ∀B ∈   n :
Les deux premières égalités de (15) définissent l’espérance


mathématique, notée E.
P X ( dx ) = P X ( B ) = P ( X ∈ B) (6)
■ L’ensemble  p (  ,  n ) des v.a. X d’ordre p est un espace
B
vectoriel et :
■ La loi marginale P X j de X j est la loi de probabilité P X j ( dx j ) sur 
de la v.a. Xj : L p (  ,  n ) =  p (  ,  n )/ 

∀ Bj ∈  , P Xj ( B j ) = P ( X 1 ∈  , … , Xj ∈ Bj , … , Xn ∈  ) (7) est un espace de Banach (espace vectoriel normé complet) pour la


norme :
Si les n v.a. X1 , ..., Xn sont indépendantes dans leur ensemble, ● ●

on a : X Œ||| X ||| = [ E ( X p ) ] 1/p

P X ( dx ) = P X 1 ( dx 1 ) × … × P Xn ( dx n ) (8) ●

Dans la suite, pour alléger l’écriture, on confond X avec X.


■ La loi PX peut être définie par la donnée de la fonction de réparti-
tion x Œ F X ( x ) sur  n à valeurs dans [0, 1] telle que :
1.2.3 Fonction caractéristique
FX ( x ) = P ( X  x ) = PX ( Bx ) =  y ∈ Bx
P X (dy ) (9) La fonction caractéristique de la v.a. X sur (  , t , P ) à valeurs
dans  n est la fonction u Œ Φ X (u ) définie sur  n à valeurs dans
avec B x = ] – ∞ , x 1 ] × … × ] – ∞ , x n ] ∈  n ,  telle que :

X  x partie de t telle que : { a ∈  : X 1 ( a )  x 1 , … , X n ( a )  x n }.


Φ X ( u ) = E [ exp ( i< u, X > ) ] =  n
exp ( i< u , x > ) P X (d x ) (16)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 4 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

La fonction ΦX étant la TF d’une mesure positive bornée, elle est ■ La matrice de corrélation R X ∈ Mat  ( n, n ) est définie par :
continue sur  n et possède les propriétés suivantes : R X = E (X X T ) (25)
ΦX ( 0 ) = 1 ; ∀u ∈ n , Φ X (u )  1 , Φ X ( – u ) = Φ X (u ) (17) et a pour éléments, j et k appartenant à {1, ..., n} :

Si PX (dx ) = p X (x )d x, alors :
[ R X ] jk = R Xj Xk = E ( X j X k ) =  x j x k P X ( dx ) (26)

Φ X (u ) = (  p X ) (u ) = n
exp ( i< u, x > ) p X ( x ) d x (18)
n

La matrice RX est symétrique positive et sa trace est finie :

Si Φ X ∈ L1 ( n ,
 ) , d’après le théorème d’inversion de la TF dans tr RX = E (< X, X >) = |||X|||2 < + ∞ (27)
L1, on a pour dx-presque tout x dans  n :
Si R Xj Xk = 0 pour j ≠ k , on dit que les v.a. Xj et Xk sont ortho-

p X (x ) = ( 2π ) – n  n
exp ( – i < u , x > ) Φ X (u ) d u (19)
gonales.
■ La matrice de covariance C X ∈ Mat  ( n, n ) est la matrice de cor-
rélation de la v.a. centrée Y = X – mX . On a donc :
Si pX , qui est dans L1, est aussi dans L 2 (  n ,  ) , on a (19) au
T
sens de la TF dans L2. CX = E [ ( X – mX ) ( X – mX )T ] = RX – mX mX (28)

CX est une matrice symétrique positive, sa trace est finie :


1.2.4 Moments d’une v.a. à valeurs dans  n 0 < tr CX = |||X |||2 – ||mX ||2 < + ∞ (29)
et ses éléments s’écrivent pour j et k dans {1, ..., n} :
Soit α = ( α 1 , … , α n ) ∈  n un multi-indice quelconque d’ordre n,
chaque indice αk étant un entier positif ou nul. Le moment d’ordre α [ C X ] jk = C Xj Xk = E [ ( X j – m Xj ) ( X k – m Xk ) ]


de la v.a. X, noté mα est défini par : (30)
= ( x j – m Xj ) ( x k – m Xk ) P X (dx )
mα = E ( X 1 × … × X n ) =
1 n α α
 n
α α
x 1 1 … x n n P X ( dx ) (20)
n

C Xj Xk = R Xj Xk – m Xj m Xk (31)
Si la v.a. X est d’ordre p, on a |mα | < + ∞ pour toute longueur du
■ Pour j = k :
multi-indice :
α = α1 + … + αn  p 2
σX j = C X j X j = E [ ( X j – m X j ) 2 ] = R X j X j – mX j
2
(32)
Dans ce cas, on a :
est la variance de la v.a. Xj ,
∂ α1 ∂ αn
 -----------
∂u 1  
… ------------
∂u n  Φ X (u ) u = 0 = mα i α (21) σ Xj son écart-type,
2
R Xj Xj = E ( X j ) son moment d’ordre deux.
■ Pour j ≠ k, on définit le coefficient de corrélation noté r Xj Xk des
1.2.5 Variable aléatoire du second ordre v.a. Xj et Xk par :
à valeurs dans  n
r Xj Xk = C Xj Xk ( σ Xj σ Xk ) –1 (33)
La v.a. X est dite du second ordre si elle est d’ordre p = 2,
c’est-à-dire si : Il est tel que :
0  r Xj Xk  1 (34)
1
-----
X ∈ L 2 (  ,  n ) et ||| X ||| = [E ( X 2)] 2 < +∞ Si pour j ≠ k, r Xj Xk = 0 , on dit que les v.a. X j et X k sont non
corrélées.
L’application bilinéaire :
Ainsi, si CX est une matrice diagonale, les v.a. (X1 , ..., Xn ) sont
● ● ● ●

X, Y Π X , Y  = E ( < X , Y > ) =
● ●

 
< X (a ) , Y (a ) > d P (a ) (22)
non corrélées dans leur ensemble.
■ Soit X et Y deux v.a. dans L 2 (  ,  n ) . La matrice d’intercorréla-
tion R XY ∈ Mat  ( n, n ) des v.a. X et Y est telle que :
est un produit scalaire sur L 2 (  ,  n ) , la norme associée étant
● ● R XY = E ( X Y T ) , tr R XY = X, Y  (35)
X Œ |||X ||| définie au paragraphe 1.2.2 pour p = 2. Dans toute la
Les v.a. X et Y sont dites orthogonales si tr RXY = 0. La matrice
suite, L 2 (  ,  n ) est toujours muni du produit scalaire (22), ce qui
d’intercovariance C XY ∈ Mat  ( n, n ) des v.a. X et Y est telle que :
lui confère une structure d’espace de Hilbert.
Dans tout ce paragraphe, X ∈ L 2 (  ,  n ) . C XY = E [ ( X – m X ) ( Y – m Y ) T ] = R XY – m X m Y
T
(36)
■ La moyenne de X est l’élément m X ∈ n tel que :
tr C XY = X – m X , Y – m Y  =  X , Y  – < m X , m Y > (37)
m X = E (X ) (23)
Les v.a. X et Y sont dites non corrélées si tr CXY = 0.
dont les composantes sont, pour tout j ∈ {1, ..., n } :

[ m X ] j = m Xj = E ( X j ) =  n
x j P X (dx ) (24)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 5
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

1.2.6 Exemples classiques de lois de probabilité 1.2.7 Transformations des v.a. à valeurs dans  n
1.2.6.1 Loi de Poisson sur  1.2.7.1 Résultat général pour les applications bijectives
non linéaires
La loi de Poisson sur  de paramètre λ ∈ + est la loi de la v.a.
discrète X à valeurs dans  qui s’écrit : Soit Ω n et Ω n′ deux ouverts quelconques de  n .
+∞ Soit x Œ y = f ( x ) = [ f 1 ( x ) , ... , f n (x ) ] une application bijective de
P X (dx ) = ∑ ( k! ) –1 λ k exp ( – λ ) δ k (x ) (38) Ωn dans Ω n′ , mesurable.
k=0
On suppose de plus que l’application y Œ x = f –1 ( y ) est
où δy (x ) est la mesure de Dirac sur  au point y.
continûment dérivable de Ω n′ dans Ωn et que, pour tout y ∈ Ω n′ ,
Sa fonction caractéristique s’écrit pour tout u dans  :
la matrice jacobienne J ( y ) ∈ Mat  ( n, n ) de f –1 (y) qui est telle que :
ΦX (u ) = exp(λ [exp(iu ) – 1])
∂ –1
On en déduit que : [ J ( y ) ] jk = ----------- f j ( y ) (47)
∂y k
2
mX = λ , E (X 2) = λ (λ + 1) , σX =λ est inversible.
Les seules valeurs que peut prendre X avec une probabilité non Soit X = (X1 , ..., Xn ) une v.a. à valeurs dans  n , de loi PX portée
nulle sont les points de  . par Ωn et admettant une densité x Œ p X ( x ) continue sur Ωn . Alors
la probabilité PY de la v.a. Y = f (X ) est portée par Ω n′ et est définie
1.2.6.2 Loi normale ou gaussienne sur  n
par une densité pY (y) par rapport à dy, continue sur Ω n′ , telle que :
■ Soit m X ∈  n et CX une matrice (n, n ) réelle symétrique positive.
Alors la fonction ΦX définie sur  n à valeurs  telle que : pY (y) = pX [f –1 (y)]|det J (y)| (48)
1
Φ X (u ) = exp (i< m X , u > – ----- < C X u , u >) (39) Exemple 1 : soit F ∈ Mat  ( n, n ) telle que = FFT FT F = I et
2 y = f (x ) = Fx. Alors, on a pour cette transformation linéaire
orthogonale :
est la fonction caractéristique d’une v.a. du second ordre X,
à valeurs dans  n , de loi PX (dx ) appelée loi normale ou gaussienne p Y (y ) = p X ( F T y )
dont les deux paramètres sont la moyenne mX et la matrice de cova-
riance CX de la v.a. X. Si CX est définie positive, alors : Exemple 2 : soit X = (X1 , X 2 ) une v.a. à valeurs dans  2 de loi :
PX (dx ) = pX (x ) dx PX (dx ) = pX (x 1 , x 2) dx1dx 2

avec, pour tout x ∈ n : On cherche la loi P Y1 ( dy 1 ) = p Y1 ( y 1 ) dy 1 de la v.a. Y1 = X1 + X2


à valeurs dans  . On se ramène au cas bijectif en introduisant Y2 = X2


et on obtient :

1
----- 1 –1
p X (x ) = ( 2π ) –n/2 ( detC X ) – 2 exp – ----- < C X ( x – m X ) , x – m X > (40)

2
p Y1 ( y 1 ) = pX ( y1 – y2 , y2 ) d y2
■ Posons : 

 
1 Si les v.a. X1 et X 2 sont indépendantes :
f n ( x ) = ( 2π ) –n/2 exp – ----- x 2 (41)
2
p Y1 = p X1 * p X2
Si mX = 0 et CX = I, où I est la matrice unité, on a :
1.2.7.2 Utilisation des fonctions caractéristiques
1
p X ( x ) = f n ( x ) ; Φ X (u ) = exp – ----- u
2  2
 (42)
Soit f : x Πy = [ f 1 ( x ) , ... , f m (x ) ] une application mesurable de
La mesure suivante sur n : n dans  m . Soit X = (X1 , ..., Xn ) une valeur v.a. à valeurs dans  n
νn (dx) = fn (x) dx (43) de fonction caractéristique u Œ ΦX (u ) continue de  n dans  . La

est appelée la mesure normale canonique sur  n . v.a. Y = f (X ) à valeurs dans  m a pour fonction caractéristique
2 v Œ ΦY (v) continue de  m dans  :
■ Si n = 1, la densité (40) s’écrit, puisque C X = σX :

Φ Y (v ) = E [ exp ( i< v, f ( X ) > ) ] =  exp ( i< v , f ( x ) > ) P X (d x ) (49)


 
1
– ----- –1 1 –2
p X (x ) = ( 2π ) 2 σ X exp – ----- σ X ( x – m X ) 2 (44) m
2
Exemple 3 :
et la mesure normale canonique sur  est :
■ Cas des applications affines de  n dans  m
Une telle application s’écrit :
 
1
– ----- 1
ν 1 (dx ) = f 1 (x ) dx, f 1 (x ) = ( 2 π ) 2 exp – ----- x 2 (45)
2 x Πy = f ( x ) = Ax + b (50)
La mesure normale canonique sur  n peut alors s’écrire : avec b ∈ m et A ∈ Mat  ( m , n ) .
νn (dx) = ν1 (dx1) × ... × ν1 (dxn ) (46) Alors (49) donne :

∀v ∈  m , Φ Y (v ) = exp ( i < v , b > ) Φ X ( A T v ) (51)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 6 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

Exemple 4 : D’après l’inégalité de Tchébychev, on a :


■ Transformation affine d’une v.a. gaussienne à valeurs  n P ( X – m X > η )  η –2 E ( X – m X 2)

L’application f est donnée par (50) et X est une v.a. gaussienne sur
 n de moyenne mX et de matrice de covariance CX , sa fonction soit :
caractéristique étant alors donnée par (39). L’utilisation de (51) P ( X – m X  η )  1 – η –2 tr C X (59)
montre que la fonction caractéristique ΦY (v ) de Y = AX + b s’écrit
pour tout v ∈  m : Soit α ∈]0, 1[ tel que 1 – η –2 tr C X  α .

1 Par exemple, si α = 0,95 et P ( X – m X  η )  0,95 , la condition


Φ Y ( v ) = exp (i< m Y , v > – ----- < C Y v , v > ) (52)
2 X – m X  η est réalisée avec une confiance de 95 %.
On trouve alors que tr CX doit vérifier :
mY = A mX + b ∈ m 
 (53)
CY = A CX A T ∈ Mat  ( m, m )  tr C X  η 2 ( 1 – α ) (60)

D’où le résultat : toute transformation affine d’une v.a. gaus- Cette relation (60) montre que pour ε et α fixés :
sienne est une v.a. gaussienne. — plus f sera non linéaire au voisinage de mX , plus η sera petit
et donc plus tr CX devra être petit, c’est-à-dire que la v.a. X devra
être à faible dispersion ;
1.2.8 Calcul du second ordre pour les transformations — plus f sera linéaire au voisinage de mX et plus η pourra être
affines et application aux cas pris grand, donc la v.a. X pourra être à plus forte dispersion.
des transformations faiblement non linéaires Si (60) est vérifiée, on peut remplacer f par f L à ε η près au voisinage
de mX et les grandeurs du second ordre de la v.a. Y L sont données
1.2.8.1 Calcul du second ordre par (54) :
Soit X = (X1 , ..., Xn ) une v.a. du second ordre à valeurs dans  n , m L = f ( mX ) ; C L = f ′ ( mX ) CX f ′ ( mX )T (61)
Y Y
de moyenne mX , de matrices de corrélation et de covariance RX et
CX .
Soit f :  n →  m définie par (50) ; alors la v.a. Y = AX + b est une 1.2.9 Description effective des lois de probabilité
v.a. du second ordre à valeurs dans  m et l’on a :
1.2.9.1 Notations en multi-indices

m Y = E ( Y ) = Am X + b  O n n o t e α = ( α1 , … , αn ) ∈  n , β = ( β1 , … , βn ) ∈  n d e u x
T  (54) multi-indices de longueur |α | = α1 + ... + αn et |β | = β1 + ... + βn .
R Y = E ( YY T ) = AR X A T + Am X b T + bm X A T + bb T 
T  La notation |α | = 0 signifie que α1 = α2 = ... = αn = 0. On pose :
CY = RY – mY mY = AC X AT 

Dans ce cas, les grandeurs du second ordre peuvent être obtenues α ! = α1 ! × … × αn ! 

en ignorant les lois de probabilité. Cela n’est pas vrai pour les trans- avec α j ! factorielle de α j ; 
formations non linéaires. 
δ α , β = δ α1 β1 × … × δ αn βn 

1.2.8.2 Cas des transformations faiblement non linéaires avec δ αj βj = 1, si α j = β j et δ αj βj = 0, si α j ≠ β j ; 

Soit x Œ y = f (x ) = [f1 (x ), ..., fm (x )] une application non linéaire 
0 0 α! = α1 ! × … × αn !  (62)
de  n dans  m , différentiable au point x 0 = ( x 1 , … , x n ) de  n . 

La dérivée de f en x 0 est l’opérateur linéaire de  n dans  m dont ∑ = ∑ ∑…∑ 
la matrice notée f ′ ( x 0 ) ∈ Mat  ( m, n ) est telle que : α =p α1 α2 αn 

les entiers α 1 , … , α n décrivant toutes les valeurs de  

[ f ′ ( x 0 ) ] jk = ----------
∂x k
- f (x ) 
j
x = x0
(55) telles que : 

α = α1 + … + αn = p 
Soit x Œ f L (x ) l’application affine de  n dans  m telle que :
( α ) j désigne le multi-indice ( α 1 , … , α j – 1 , α j – 1 , α j + 1 , … , α n )
fL (x ) = f (x 0 ) + f’ (x 0 )(x – x 0) (56)
Alors ∀ ε > 0 aussi petit que l’on veut, il existe η > 0 tel que pour α1 α
tout x ∈  n tel que :
Si z = ( z 1 , … , z n ) ∈ n , z α = z 1 × … × z nn

x – x0  η
1.2.9.2 Transformée de Laplace de la loi
on ait f (x) – f L (x)  ε x – x0 (57) d’une v.a. à valeurs dans  n
Soit u = (u1 , ..., un ) et v = (v1 , ..., vn ) dans  n .
Pour x 0 fixé, la linéarisation de f par f L dans un voisinage de x 0
est contrôlée par les deux paramètres ε et η que nous supposons Soit z = v + iu ∈  n + i n   n , z j = v j + iu j , z = (z 1 , ..., z n ). Pour
maintenant fixés. Nous cherchons de plus une condition nécessaire tout x = (x 1 , ..., x n ) ∈  n , on pose |x| = |x1| + ... + |xn |. Soit ε > 0, on
pour que l’on puisse remplacer la v.a. Y = f (X ) par son approxima-
tion Y L = f L (X ) au voisinage de la moyenne x 0 = mX de la v.a. X : définit la partie Dε de  n telle que :

Y L = f (mX ) + f ’ (mX )(X – mX ) (58) D ε = { z = v + iu : u ∈  n ; v ∈  n ; max j vj  ε } (63)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 7
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

Soit X = (X1 , ..., Xn ) une v.a. à valeurs dans  n , de loi PX (dx ) sur 1.2.9.4 Relations entre moments et cumulants
 n telle qu’il existe ε > 0 pour que :
On peut utiliser (21) et (71) pour calculer mα en fonction des Kα .


Plus généralement, sous la condition (64), on a (67) et (69) pour
E [ exp ( ε X ) ] = exp ( ε x ) P X (dx ) < + ∞ (64) z ∈ Dε , c’est-à-dire :
n
+∞ +∞
Alors la transformée de Laplace z Œ ψ X (z ) de PX est définie
pour tout z ∈Dε par :

α =0
m α ( α ! ) –1 z α = exp  ∑
α =1
K α ( α ! ) –1 z α  (73)


n ou encore :
ψ X (z ) = E [ exp ( < z, X > ) ] = exp  ∑ z x Pj j X (d x ) (65) +∞ +∞
n j=1 In  ∑
α =0
m α ( α ! ) –1 z α = α =1
∑ K α ( α ! ) –1 z α (74)
■ Sous la condition (64), la fonction z Œ ψ X ( z ) est développable
en série entière au voisinage de tout point 0 + iu ∈  n + i n et la Les identités entre séries entières (73) ou (74) permettent de
fonction caractéristique : calculer mα en fonction des Kα ou Kα en fonction des mα .
u Œ Φ X (u ) = ψ X ( 0 + iu ) (66)
1.2.9.5 Développement des densités de probabilité
est une fonction analytique. De plus, en notant m α le moment sur les polynômes d’Hermite
d’ordre α de la v.a. X, défini par (20), avec mα = 1 pour |α | = 0, on a
dans ce cas : 1.2.9.5.1 Espace d’Hilbert L 2 ( n ,  n )
C’est l’espace des fonctions réelles définies νn-presque partout sur
+∞
 n , de carré intégrable par rapport à la mesure normale canonique
ψX ( z ) = ∑ m α ( α ! ) –1 z α (67) νn (dx) = fn (x)dx, équipé du produit scalaire :
α =0

En particulier, en prenant z = 0 + iu, on obtient : ( ( ϕ1 , ϕ2 ) ) =  n


ϕ1 ( x ) ϕ2 ( x ) fn ( x ) d x (75)
+∞
ΦX ( u ) = ∑ m α ( α ! ) –1 ( iu ) α (68)
1.2.9.5.2 Polynômes d’Hermite normalisés sur 
α =0
Le polynôme d’Hermite normalisé Hm (x ) sur  d’indice m ∈ 
■ Si la condition (64) est satisfaite pour tout ε > 0, alors la fonction est défini par :
z Œ ψ X ( z ) est holomorphe dans  n .
d m
■ La relation (68) permet de décrire ΦX (u ) et donc PX (dx ) à l’aide
H m ( x ) f 1 ( x ) = ( – 1 ) m ---------
dx
f1 ( x ) 
(76) 
des moments mα . Mais la série est généralement lentement
convergente sur le plan numérique. On utilise pour améliorer la avec x ∈  et f 1 définie par (45).
vitesse de convergence la notion de cumulant. Sa fonction génératrice est :

1.2.9.3 Définition des cumulants Hm ( x ) =  


( x + iy ) m f 1 (y ) dy (77)
Soit PX (dx ) la loi de la v.a. X sur n
, vérifiant la condition (64), 1
alors ψX (z ) est définie pour tout z ∈ Dε . Les cumulants Kα de avec i = ( – 1 ) ----2- .
Ces polynômes peuvent être construits par la récurrence :
multi-indices α = (α1 , ..., αn ) ∈ n sont définis pour |α | > 1 et pour
z ∈ Dε par :

+∞ H 0 (x ) = 1 
ψ X ( z ) = exp ∑ K α ( α ! ) –1 z α  (69) d
H m + 1 ( x ) = x H m ( x ) – --------- H m (x )


(78)
α =1 dx 
+∞
soit encore In ψ X ( z ) = ∑ K α ( α ! ) –1 z α (70) On a les propriétés suivantes :
— les fonctions hm sur  à valeurs dans  définies par :
α =1

En particulier, en prenant z = 0 + iu, (69) et (70) donnent : 1


– -----
h m ( x ) = ( m! ) 2 Hm ( x ) (79)
+∞
Φ X (u ) = exp  ∑ K α ( α ! ) –1 ( iu ) α  (71) avec m ∈ forment une base orthonormée de L 2 ( , ν 1 ) ;
α =1 — la dérivée de Hm (x ) par rapport à x s’écrit :
+∞ d
--------- H m ( x ) = m H m – 1 ( x )
In Φ X (u ) = ∑ K α ( α ! ) –1 ( iu ) α (72) dx
(80)
α =1

La relation (71), ou (72), permet de décrire ΦX (u) et donc PX (dx)


à l’aide des cumulants Kα . La série du second membre de (71)
converge généralement plus rapidement que la série (68).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 8 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

— la transformée de Fourier ν1 Hm de Hm par rapport à la — Dans le cas particulier où q est aussi dans L 2 (  n , ν n ) , on peut
mesure ν1 (dx ) s’écrit pour tout u dans  : écrire le développement de q sur la base hilbertienne {hα }α :

(  ν 1 H m ) (u ) = 
exp ( iux ) H m ( x ) f 1 ( x ) dx
(81) q (x) =
+∞

∑ qα hα ( x ) (91)
α =0
1 2

= ( iu ) m exp – ----- u
2  ce qui donne :
+∞
1.2.9.5.3 Polynômes d’Hermite normalisés sur n pX ( x ) = fn ( x ) ∑ qα hα ( x ) (92)
Le polynôme d’Hermite normalisé Hα (x ) sur  n de multi-indice α =0

α ∈  n est défini par : La série du membre du droite de (91) est convergente dans

H α ( x ) = H α1 ( x 1 ) × … × H αn ( x n ) (82)
L 2 (  n , ν n ) et, pour tout multi-indice α ∈  n , le nombre réel qα est
donné par :
où H αj ( x j ) est le polynôme d’Hermite normalisé sur  d’indice
αj ∈ . q α = ( ( q, h α ) ) = 
n
q ( x ) hα ( x ) fn ( x ) d x
(93)
La fonction génératrice de Hα (x ) est :
=  pX ( x ) hα ( x ) d x

H α (x ) =  n
( x + iy ) α f n ( y ) dy (83)
n

Comme hα (x) = 1 pour |α | = 0, la condition (11) implique :

On a les propriétés suivantes : qα = 1 pour |α | = 0 (94)


— les fonctions hα sur  n à valeurs dans  de multi-indice
α ∈ n : Soit (  p ) (u) = ΦX (u), u ∈  n , la fonction caractéristique ; alors
X
en utilisant (16), (84), (87) et (92), on obtient :
h α ( x ) = ( α ! ) –1 H α ( x ) (84)
+∞
forment une base orthonormée de L 2 (  n , ν n ) : 
1
Φ X (u ) = exp – ----- u
2
2
∑ q α ( α ! ) –1 ( i u ) α (95)
α =0
((hα , hβ )) = δα , β (85)
Par identification de séries entières entre (68) et (95), d’une part,
— la dérivée partielle de hα (x ) par rapport à x j s’écrit :
et (71) et (95), d’autre part, on peut établir les relations entre mα et
∂ qα d’une part et Kα et qα d’autre part.
---------- h α ( x ) = αj h( α ) j ( x ) (86)
∂x j — Si q ∉ L 2 (  n , ν n ) , mais que pour tout α ∈ n , les nombres
— la transformée de Fourier  νn Hα de Hα par rapport à la qα donnés par (93) restent finis, alors on peut encore considérer le
mesure νn (dx ) s’écrit pour tout u dans  n : développement (91) et étudier la convergence dans un espace plus
gros que L 2 (  n , ν n ) .
(  νn H α ) ( x ) =  n
exp ( i< u, x > ) H α ( x ) f n ( x ) d x
(87)
1
= ( i u ) α exp – ----- u
2  2
 1.3 Processus et champs stochastiques
classiques
— pour tout j ∈{1, ..., n } et pour tous multi-indices α et β, on
pose : 1.3.1 Notions et définitions élémentaires

Ij
α,β
= n
x j h α ( x ) h β ( x ) f n ( x ) dx (88)
On s’intéresse maintenant à une grandeur x (t ) dépendant d’un
paramètre t ∈T, où T est un ensemble d’indices, prenant ses valeurs
dans un ensemble d’états F, tel que pour tout t fixé dans T, x (t ) soit
Alors on a : aléatoire. On peut alors utiliser les principes du paragraphe 1.1 et,
α,β
Ij = αj δ( α ) j , β + βj δα , ( β ) j (89) pour t fixé, x (t ) est modélisée par une v.a. notée X (t ) : a Œ X ( t , a ) .
Si T est une partie ouverte de  d , avec d un entier supérieur ou
1.2.9.5.4 Développement d’une densité de probabilité égal à 1, on dit que {X (t ), t ∈T } est un processus stochastique (si
Soit PX (dx ) sur  n admettant une densité pX (x ) par rapport à dx . d  2 on dit aussi un champ stochastique).
Donc PX (dx ) admet aussi une densité q (x ) par rapport à νn (dx), Si l’élément aléatoire est une fonction numérique régulière définie
q ∈ L 1 (  n , νn ) et : sur T à valeurs dans un espace vectoriel topologique F (par exemple
 ), une telle modélisation est appelée fonction aléatoire.
n

pX (x) dx = q (x) νn (dx) ; q (x) = pX (x) fn (x)–1 (90) Si T est un ensemble dénombrable ordonné, on dit encore que
{X (t ), t ∈T } est une série chronologique.
Dans la suite, on limite l’exposé au cas F =  n . Comme nous
l’avons indiqué au paragraphe 1.2, le cas F =  m s’étudie en
identifiant  à  2 .

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 9
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

1.3.1.1 Définition d’un processus stochastique 1.3.2.2 Processus stochastique réel constant
Soit T un ensemble d’indices, un processus stochastique défini par intervalles sur  +
sur (  , t , P ) indexé dans T, à valeurs dans  n est une application : a ) Soit T =  + et (tm )m une suite strictement croissante de
nombres réels de T telle que t 0 = 0. Soit (Zm )m une suite de v.a. à
t ΠX ( t ) = [ X 1 ( t ) , ... , X n ( t ) ]
valeurs dans  . Un processus indexé sur T constant par intervalles
de T dans l’espace L0 (  ,  n ) . de durée déterministe, à valeurs dans  , est le processus :
X (t ) = Zm si t ∈[tm , tm + 1[
1.3.1.2 Systèmes de lois marginales
b ) Si de plus les intervalles [tm , tm+1[ ont des durées aléatoires
Soit I l’ensemble des parties non vides et non ordonnées de T.
Pour tout i = {t1 , ..., tm } de I, l’application : Ym , on introduit la suite de v.a. (Ym )m à valeurs dans  + et le
processus X (t ) indexé sur T à valeurs dans  , constant par
a Œ X i (a ) = [ X ( t 1 ,a ), … , X ( t m , a ) ] intervalles de durée aléatoire, est le processus :
est une v.a. sur (  , t , P ) à valeurs dans (  n ) m , de loi : X (t ) = Zm si t ∈[tm , tm + 1[
P Xi = X i ( P ) m

Lorsque i décrit I, l’ensemble des lois de probabilité P Xi constitue


avec t m = ∑ Yj pour m  1 et t0 = 0.
j=1
le système de lois marginales du processus X.
c ) Si l’on prend pour j  1 , Yj = Y (j ), où Y (j ) est un processus
1.3.1.3 Processus isonomes ponctuel de Poisson de taux constant λ, le processus du paragraphe
Deux processus X (t ) et Y (t ) indexés sur T, à valeurs dans  n , 1.3.2.2b est appelé un processus à sauts poissonniens sur  + .
sont dits isonomes s’ils admettent le même système de lois
marginales. 1.3.2.3 Processus ponctuel filtré sur  +
Heuristiquement, c’est un processus qui est une somme d’impul-
1.3.1.4 Processus stationnaire sions aléatoires indépendantes de même loi, qui débutent à des
Soit G un ensemble de transformations de l’ensemble T, tel que instants aléatoires distribués sur  + . Soit donc Z (t ) un processus
G contienne la transformation identique et soit stable par composi- indexé sur  , à valeurs dans  , nul pour t < 0. Soit Y (t ) un processus
tion. On dit que le processus {X (t ), t ∈T } est stationnaire par rapport ponctuel sur  + indépendant de Z (t ) qui s’écrit informellement :
à G si, pour tout g dans G, les processus X (t ) et X [g (t )] sont iso- +∞
nomes. Par exemple, si T =  d et si G est le groupe des translations
t Œ t + τ avec τ dans  d on définit la stationnarité usuelle sur  d . Y (t) = ∑ δ tm
m=1

1.3.1.5 Trajectoire où (t m )m , m ∈ * est un ensemble aléatoire de points  + tel que :


Pour tout a dans  , l’application t Œ X ( t , a ) de T dans n est 0 < t1 < t2 ... < tm < ...
appelée trajectoire du processus X (t ).
Le processus ponctuel filtré sur  + , à valeurs dans  , est le
processus :
1.3.1.6 Séries chronologiques et processus ponctuel
+∞
Si T est un ensemble dénombrable totalement ordonné, le
processus X (t ) est appelé une série chronologique (s.c.). Au lieu de t,
X (t) = ∑ Z m ( t – t m ) avec t > 0
m=1
on note aussi j le paramètre d’indexation et j1 , ..., jm , ... les éléments
de T. où les processus Z m (t ) sont des versions indépendantes du
processus Z (t ).
Si le processus est à valeurs dans  , la s.c. est appelée système
aléatoire de points de T ou encore processus ponctuel sur T. Si de plus le processus Y (t ) est un processus ponctuel de Poisson
de taux λ > 0, le processus X (t ) est appelé processus de Poisson
Si T =  ou  , on dit que la s.c. {X ( j ), j ∈T } est périodique de
filtré.
période m0 si les processus X ( j ) et X ( j + m 0 ) sont isonomes.

1.3.2.4 Processus à accroissements indépendants


1.3.2 Exemples classiques de processus Un processus indexé sur :

1.3.2.1 Processus ponctuel de Poisson T = [t I , t S [ ⊂ 


Soit T un ensemble dénombrable et totalement ordonné et λ une à valeurs dans nest dit à accroissements indépendants si, pour
fonction donnée de T dans  + . Un processus ponctuel de Poisson tout système fini d’instants t I < t1 < t2 < ... < tm < tS , les accroisse-
Y (j ) est un processus indexé sur T à valeurs dans  tel que : ments :
— pour tout j dans T, Y (j ) est une v.a. de Poisson de taux X (t I), X (t1) – X (t I), ..., X (t m ) – X (tm–1)
(moyenne) λ(j ) ;
— pour toute partie finie (j1 , ..., jm } de T, les v.a. Y (j1), ..., Y (jm ) sont des v.a. indépendantes dans leur ensemble.
dont indépendantes dans leur ensemble.
1.3.2.5 Processus gaussien réel vectoriel
Un processus X (t ) indexé sur T ⊂  d , à valeurs dans  n , est
gaussien si toutes les mesures de probabilité P Xi du système de
lois marginales sont des mesures gaussiennes.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 10 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

1.3.2.6 Processus de Poisson de moyenne  (t ) Dans le cas particulier où T = [0, + ∞[ et où Q vérifie la propriété :
Soit X (t ) un processus indexé sur T =  + = [0, + ∞ [ , à valeurs Q ( s, x , t , B ) = Q ( 0, x , t – s , B ) , 0  s < t < + ∞ (100)
dans  . Soit t → λ (t ) une application mesurable croissante définie
sur T à valeurs dans  +, telle que λ (0) = 0. on dit que la famille de probabilités de transition est homogène.
Le processus X (t ) est un processus de Poisson de moyenne λ si : Dans ce cas pour simplifier les notations, on écrit aussi :
a ) le processus X (t ) est à accroissements indépendants ; Q (x, t, B) = P {X (t ) ∈B | X (0) = x } (101)
b ) X (0) = 0 p.s. ;
c ) pour tout t et tout s dans T, tels que 0  s < t , l’accroissement :
1.3.3.3 Processus de Markov
∆Xst = X (t ) – X (s )
Le processus X (t ) est un processus de Markov :
est une v.a. de Poisson de moyenne (paramètre) λ (t ) – λ (s ). — si la loi de la v.a. X (s0 ) est une loi de probabilité quelconque ;
Le processus de Poisson usuel est obtenu en prenant λ (t ) = t . — si le processus a la propriété de Markov (98) ;
— si Q (s, x, t, B ) est une famille de probabilités de transition.

1.3.3 Processus de Markov 1.3.3.4 Exemple. Le processus de Wiener normalisé


à valeurs dans  n
Dans tout ce paragraphe : Soit W (t ) = [W1(t ), ..., Wn (t )] un processus défini sur (  , t , P ) ,
T = [s0 , + ∞ [ avec s0 ∈  et X (t ) = [X1 (t ), ..., Xn (t )] indexé sur T =  + = [0, + ∞ [ , à valeurs dans  n . On dit que W (t )
est un processus défini sur (  , t , P ) , indexé sur T, à valeurs dans est un processus de Wiener normalisé :
 n , qui est muni de sa tribu borélienne   n . — si les processus W1(t ), ..., Wn (t ) sont indépendants dans leur
ensemble ;
Pour tout s et t dans T tels que s 0  s < t < + ∞, tout — si on a W (0) = 0 p.s. ;
x = (x1 , ..., xn ) ∈  n et tout B dans   n , nous notons Q (s, x, t, B ) — si le processus W (t ) est à accroissements indépendants ;
— si pour 0  s < t < + ∞ , l’accroissement ∆Wst = W (t ) – W (s)
la probabilité conditionnelle de l’événement (X (t) ∈ B ) sachant que
est une v.a. à valeurs dans  n , gaussienne, centrée, du second
X (s) = x : ordre et de matrice de covariance :

P {X (t ) ∈ B |X (s ) = x } = Q ( s, x, t, B ) = y∈B
Q ( s, x, t, dy ) (96)
T
C ∆Wst = E ( ∆W st ∆W st ) = ( t – s ) I

avec I matrice unité (n, n).


Si la probabilité Q (s, x, t, dy ) a une densité par rapport à dy, on
la note : À partir de cette définition, on montre facilement les propriétés
Q (s, x, t, dy) = p (s, x, t, y) dy (97) suivantes :
— le processus W (t ) est gaussien, du second ordre, centré, donc :
1.3.3.1 Propriété de Markov mW (t ) = E [W (t )] = 0 et |||W (t )||| < + ∞
Heuristiquement, le processus X (t ) a la propriété de Markov si,
à chaque instant quelconque s ∈ T considéré comme l’instant pour tout t dans T ;
présent, la connaissance que l’on a du processus X (t ) pour t > s — il est non stationnaire et l’on a :
n’augmente pas si l’on ajoute des observations du processus à des
instants quelconques du passé. On dit aussi que le processus est CW (t, s) = E (W (t )W (s)T ) = min(t, s) I (102)
sans post action ou encore sans mémoire. avec t et s dans T ;
Le processus X (t ) a la propriété de Markov si, pour toute partition — c’est un processus de Markov dont la famille de probabilités
ordonnée s 0  u 1 < u 2 < ... < u m < s < t de T, tous x1, ..., x m et x de transition est homogène et s’écrit : pour 0  s < t < + ∞ , x ∈  n :
dans  n , on a :

P {X (t ) ∈B|X (u1) = x1, ..., X (um ) = x m, X (s) = x} Q ( x, t – s , d y ) = p ( x , t – s , y ) d y 



= P {X (t ) ∈B|X (s) = x} = Q (s, x, t, B ) (98) 

1 1

– ----- n – ----- n 1 (103)
p (x, t, y ) = (2π) 2 t 2 exp – ----- t –1 y – x 2

2 
En utilisant les propriétés générales sur les probabilités condition-
nelles, on en déduit que si X (t ) a la propriété de Markov, alors la
probabilité conditionnelle B ŒQ ( s, x, t, B ) vérifie l’équation de — c’est un processus continu en moyenne d’ordre deux, il admet
Chapman-Kolmogorof, pour s 0  s < u < t < + ∞ , B ∈   n : une version ayant presque sûrement ses trajectoires continues et
presque sûrement les trajectoires t ŒW ( t, a ) avec a ∈  ne sont

Q ( s, x, t, B ) =  n
Q ( s, x, u, dy ) Q ( u, y, t, B ) (99)
pas différentiables (§ 1.4.6.1d ).

1.3.4 Processus du second ordre à valeurs dans  n


1.3.3.2 Famille de probabilités de transition
Pour tout s et tout t tels que s 0  s < t < + ∞ et pour tout B ∈   n , Dans ce paragraphe nous étudions la classe des processus du
on dit que B ŒQ ( s, x, t, B ) est une famille de probabilités de second ordre, ceux pour lesquels |||X (t )||| < + ∞ pour tout t . Ces
transition sur  n de paramètres s, t et x si : processus ont un rôle important dans la pratique, car ils
a) la probabilité B ŒQ ( s, x, t, B ) est définie pour tout s, tout t correspondent à une modélisation stochastique des grandeurs qui
et tout x fixés ; ont une énergie finie. Dans tout ce paragraphe, on considère un
b ) l’application x ŒQ ( s, x, t, B ) est mesurable de  n dans [0,1] processus X (t ) = [X1 (t ), ..., Xn (t )] défini sur (  , t , P ) , indexé sur
pour tout s, tout t et tout B fixés ; un ouvert T de  d avec d un entier 1, à valeurs dans  n .
c) Q vérifie l’équation de Chapman-Kolmogorof (99) pour tout s,
tout t, tout x et tout B fixés. On écrira t = t1 b1 + ... + td bd ou t = (t1 , ..., td ), avec (bj )j la base
canonique de  d .

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 11
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

1.3.4.1 Processus du second ordre sont de type positif. Une fonction R : T × T →  est de type positif
si pour toute partition finie {t1 , ..., tm } de T et tout nombre complexe
Le processus est du second ordre si l’application t ŒX ( t ) va de T
z1 , ..., zm on a :
dans L 2 (  ,  n ) , donc :
m m
||| X (t )||| < + ∞ ∀ t ∈ T ∑ ∑ R ( tj , tk ) zj z k  0
j=1 k=1

1.3.4.2 Fonction moyenne Enfin, si la fonction t ŒR X ( t, t ) [ resp. t Œ C X ( t , t ) ] est continue


La fonction moyenne m X : T →  n est telle que : sur T, alors t, t ′ Œ R X ( t , t ′ ) [ resp. t , t ′ Œ C X ( t , t ′ ) ] est continue sur
mX (t ) = E [X (t )] (104) T × T.

Pour j ∈ {1, ..., n } on a : 1.3.4.5 Processus continu en moyenne d’ordre deux


[ m X ( t ) ] j = m Xj ( t ) = E [ X j ( t ) ] (105) Le processus X (t ) du second ordre est dit continu en moyenne
d’ordre deux (m.o.d.) si l’application t ŒX ( t ) est continue de T
Le processus est centré si mX est la fonction nulle. dans L 2 (  ,  n ) .
Une CNS pour qu’un processus du second ordre X (t ) soit continu
1.3.4.3 Fonctions d’autocorrélation et de covariance en m.o.d. est que sa fonction d’autocorrélation RX soit continue sur
T × T, c’est-à-dire que la fonction t ŒR X ( t, t ) soit continue sur T.
La fonction d’autocorrélation R X : T × T → Mat  ( n , n ) et la
Il est à noter qu’un processus X (t ) continu en m.o.d. n’a pas, dans
fonction de covariance C X : T × T → Mat  ( n , n ) sont telles que :
le cas général, presque sûrement ses trajectoires continues,
c’est-à-dire que l’on n’a pas : pour P-presque tout a ∈  , t Œ X ( t , a )
RX (t, t ’) = E (X (t ) X (t ’)T) (106)
est une fonction continue.
CX (t, t ’) = E [(X (t ) – mX (t )) (X (t ’) – mX (t ’))T ] C’est le cas par exemple du processus de Poisson de moyenne :
= RX (t, t ’) – mX (t ) mX (t ’)T (107) λ (t ) = bt avec b ∈  +
Pour tout j et tout k dans {1, ..., n }, on a pour les composantes : pour lequel :
[ R X ( t, t ′ ) ] jk = R Xj Xk ( t , t ′ ) = E [ X j ( t ) X k ( t ′ ) ] (108) t ŒR X ( t, t ) = bt + b 2 t 2

est continue sur  et dont les trajectoires t ŒX ( t, a ) sont toutes


[ C X ( t, t ′ ) ] jk = C Xj Xk ( t , t ′ )
discontinues.
= E [ ( X j ( t ) – m Xj ( t ) ) ( X k ( t ′ ) – m Xk ( t ′ ) ) ] (109)
1.3.4.6 Processus stationnaire en moyenne d’ordre deux
= R Xj Xk ( t , t ′ ) – m Xj ( t ) m Xk ( t ′ )
Pour d  2 au lieu de stationnaire on dit aussi homogène. Si X (t)
■ Pour j fixé, R Xj Xj et C Xj Xj sont respectivement les fonctions est un processus indexé sur  d , du second ordre et stationnaire,
on a ∀t et ∀u dans  d :
d’autocorrélation et de covariance à valeurs dans  du processus
Xj (t ) à valeurs dans  . mX ( t ) = m1 
 (113)
Pour t fixé, le moment d’ordre deux la v.a. Xj (t ) est : R X ( t + u, t ) = R X (u ) = E ( X ( t + u ) X ( t ) T ) 

R Xj Xj ( t, t ) = E ( X j ( t ) 2 ) < + ∞ où m1 est un élément constant de  n et u Œ R X ( u ) une fonction défi-


nie sur  d à valeurs dans Mat  ( n, n ) .
et sa variance : La fonction de covariance s’écrit :
2
σ Xj ( t ) = C Xj Xj ( t, t ) T
C X ( t + u, t ) = C X ( u ) = R X ( u ) – m 1 m 1 (114)
■ Pour j ≠ k, R Xj Xk et C Xj Xk sont les fonctions d’intercorrélation et
Si un processus du second ordre est tel que les relations (113)
d’intercovariance, à valeurs dans  , des processus Xj (t ) et Xk (t ). soient vérifiées, ce processus X (t ) est dit stationnaire en m.o.d. et
réciproquement. Ainsi, la stationnarité implique la stationnarité en
m.o.d., mais la réciproque est fausse dans le cas général. La
1.3.4.4 Propriétés de RX et de CX
réciproque est vraie pour un processus gaussien.
Pour tout t dans T, on a :
1.3.4.7 Mesure spectrale pour les processus
0  tr R X ( t, t ) = ||| X ( t ) ||| 2 < + ∞ (110) du second ordre continu et stationnaire en m.o.d.
Pour tout t et tout t ’ dans T, on a : Pour u = (u1 , ..., ud ) et w = (w1 , ..., wd ) dans  d , on note :

RX (t, t ’) = RX (t ’, t )T ; CX (t, t ’) = CX (t ’, t )T (111) u · w = u1 w1 + ... + ud wd et dw = dw1 ... dwd


Soit X (t ) = [X1 (t ), ..., Xn (t )] un processus indexé sur  d à valeurs
tr R X ( t, t ′ ) =  X ( t ) , X ( t ′ )  = E ( < X ( t ) , X ( t ′ ) > )  dans  n , du second ordre, stationnaire et continu en m.o.d.
 (112)
tr C X ( t , t ′ ) = tr R X ( t , t ′ ) – < m X ( t ) , m X ( t ′ ) > 

Pour tout t fixé, les matrices RX (t, t ) et CX (t, t ) sont symétriques


positives. Les fonctions :
t, t ′ Œ tr R X ( t , t ′ ) et t , t ′ Œ tr C X ( t , t ′ )

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 12 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

1.3.4.7.1 Mesure spectrale matricielle 1.3.4.7.4 Fonction de densité spectrale


Alors il existe une seule collection de mesures bornées complexes Si MX (dw ) admet une densité :
M Xj Xk ( dw ) sur  d telle que, pour tout borélien B de  d , la matrice :
MX (dw ) = SX (w ) dw (121)
MX ( B ) ∈ Mat  ( n, n ) , d ′ éléments [ M X ( B ) ] jk = M X X ( B ) j k alors la fonction w ŒS X (w ) , définie sur  d à valeurs dans
Mat  ( n, n ) , est appelée fonction de densité spectrale du processus
soit hermitienne positive, c’est-à-dire, M X ( B ) = M X ( B )* et X (t ). La relation (115) s’écrit alors pour tout u dans  d :
( M X ( B ) z, z )  0 pour tout z dans  n , et telle que pour tout u dans
d :

R X (u ) =  exp ( iu ⋅ w ) M X ( dw ) (115)
R X (u ) = 
d
exp ( iu ⋅ w ) S X (w ) dw (122)

d
soit en termes de composantes :
La mesure MX (dw ) est appelée la mesure spectrale matricielle,
M Xj Xj ( dw ) la mesure cospectrale positive bornée sur  d du R Xj Xk ( u ) = 
d
exp ( iu ⋅ w ) S Xj Xk (w ) dw (123)
processus X j et M Xj Xk ( dw ) la mesure interspectrale complexe
Pour tout w fixé dans  d , SX (w ) est une matrice hermitienne
bornée sur  d de Xj et Xk . positive :
S X ( w ) = S X ( w )* ; ∀ z ∈  n : ( SX ( w ) z , z )  0 (124)
1.3.4.7.2 Mesure spectrale de puissance
n Les fonctions S Xj Xj :  d →  + et S Xj Xk :  d →  sont intégrables
La mesure B Œ tr M X ( B ) = ∑ MX X ( B ) j j
est une mesure positive et sont appelées, respectivement, fonction de densité cospectrale (ou
j=1 encore densité spectrale de puissance) du processus Xj et fonction
bornée sur  d et est appelée la mesure spectrale de puissance du de densité interspectrale des processus Xj et Xk .
processus X (t ). On a :
Si pour w fixé, S Xj Xj ( w ) et S Xk Xk ( w ) sont non nuls, on définit le
tr R X (u ) = X ( t + u ), X ( t )  =  d
exp ( i u ⋅ w ) ( tr M X ) ( d w ) (116) scalaire positif suivant, appelé cohérence au point w des processus
Xj et Xk :
γ Xj Xk ( w ) = S Xj Xk ( w ) 2 [ S Xj Xj ( w ) S Xk Xk ( w ) ] –1 (125)
tr R X ( 0) = E ( X ( t ) 2) =  d
( tr M X ) ( dw ) = tr M X ( d ) (117)
L’application w Œ γ Xj Xk ( w ) définie presque partout sur  d ou
La dernière relation montre que la puissance totale du processus sur une partie de  d , à valeurs dans  + , est appelée la fonction
vectoriel X (t ) est la somme des puissances de chaque composante de cohérence des processus Xj et Xk .
Xj :


■ Si le processus X (t ) a une fonction moyenne mX non nulle, la
R Xj Xj ( 0 ) = E ( X j ( t ) 2 ) = M Xj Xj ( dw ) = M Xj Xj (  d ) (118) mesure MX (dw) n’a pas de densité SX (w).
d
■ Dans le cas général u ŒR X (u ) est seulement continue et bornée
Ainsi la mesure cospectrale M Xj Xj ( dw ) est la mesure spectrale sur  d .
de puissance du processus Xj .
— Si RX est dans L 1 [  d , Mat  ( n , n ) ], on a pour dw-presque tout
1.3.4.7.3 Moments spectraux w dans  d :
Soit α = (α1 , ..., αd ) un multi-indice de  d , les entiers αj pouvant
être nuls. On appelle moment spectral d’ordre α relatif à la mesure
S X ( w ) = ( 2π ) – d  d
exp ( – i u ⋅ w ) R X (u ) du (126)

M Xj Xk ( dw ) le scalaire :
— Si RX est dans L 2 [  d , Mat  ( n , n ) ] , (122) et (126) doivent être

 Xj Xk , α =  d
α α α
w 1 1 w 2 2 … w d d M Xj Xk ( d w ) (119)
lus aux sens de la TF dans L2 et donc SX est dans L 2 [  d , Mat  ( n , n ) ] .

■ La relation (111) s’écrit :


Si pour |α | = α1 + ... + αd ,  Xj Xk , < + ∞ , alors on a :
α
∀u ∈ d , RX ( – u ) = RX ( u )T
∂ α1 ∂ αd
i α  Xj Xk , α =  
-----------
∂ u1 
… ------------
∂ ud  R X j X k (u ) u = 0 (120) Vu (124), on a :
SX ( – w ) = SX ( w ) , ∀w ∈ d (127)
Le moment spectral d’ordre |α | = 0 existe toujours puisque :

 Xj Xk , 0 = M Xj Xk (  d ) 1.3.4.8 Dérivation en moyenne d’ordre deux


des processus du second ordre
et, pour j = k, les moments spectraux sont toujours réels.
Dans tout ce paragraphe, X (t ) indexé sur T à valeurs dans  n
La relation (120) relie l’existence des moments spectraux à la est un processus du second ordre, de fonction moyenne mX et de
dérivabilité de la fonction d’autocorrélation à l’origine. fonction d’autocorrélation RX .

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 13
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

1.3.4.8.1 Définition 1.3.4.8.4 Cas particulier d’un processus stationnaire


Soit (hm )m une suite de nombres réels non nuls qui tend vers 0. en m.o.d. sur 
Le processus X (t ) admet une dérivée partielle en m.o.d. au point t Si le processus X (t ) est en plus stationnaire en m.o.d., tous les
de T et par rapport à tk , si la suite de v.a. du second ordre : résultats précédents s’appliquent, en notant que mX (t ) = m1 est
indépendant de t et que RX (t, t ’) = RX (t – t ’). Si, de plus, il est indexé
–1
hm [ X ( t + hm bk ) – X ( t ) ] sur  ( d = 1 ) , continu en m.o.d. et tel que :

tend vers une limite dans L 2 (  ,  n ) quand m → + ∞.


Cette limite, lorsqu’elle existe, est notée X ,k ′ ( t ) et est appelée
 
w 2 tr M X ( dw ) < + ∞ (134)

dérivée partielle en m.o.d. du processus X (t ) par rapport à tk au la fonction u ŒR X ( u ) est deux fois continûment dérivable de 
point t de T · Si d = 1, on note simplement X ’ (t ). Le processus X (t ) dans Mat  ( n, n ) et donc X (t ) est dérivable en m.o.d. sur  . Le
′ ( t ) existe pour tout t de T.
est dérivable par rapport à tk sur T si X ,k processus X ’ (t ) indexé sur  à valeurs dans  n est continu et
stationnaire en m.o.d. et :
1.3.4.8.2 Condition nécessaire
m X ′ ( t ) = 0 ; R X ′ ( u ) = E ( X ′ ( t + u ) X ′ ( t ) T ) = – d 2 R X ( u )/du 2
et suffisante de dérivabilité en m.o.d. 
′ ( t ) existe en t, est que la limite suivante
La CNS, pour que X ,k R X ′X ( u ) = E ( X ′ ( t + u ) X ( t ) T ) = dR X ( u )/du 
 (135)
existe : R XX ′ ( u ) = E ( X ( t + u ) X ′ ( t ) T ) = – d R X ( u ) /d u 

lim h –1 h′ –1 tr [ R X ( t + hb k , t + h′b k ) MX ′ ( d w ) = w 2 M X ( d w ) 
h→0
h′→0
(128)
1.3.4.9 Intégration des processus du second ordre
– R X ( t + hb k , t ) – R X ( t, t + h ′ b k ) + R X ( t , t ) ]
Le processus X (t ) est toujours indexé sur un ouvert quelconque T
Si la fonction RX est continûment dérivable sur T × T, alors : de  d et il est supposé être du second ordre. Pour toute partie
compacte K ⊂ T, la v.a. Z K à valeurs dans  n :
∂2
--------------------- R X ( t, t ′ )
∂t k ∂t k′

existe au sens du calcul différentiel ordinaire et est une fonction


ZK =  K
X ( t ) dt (136)

continue sur T × T ; la limite (128) existe, mais la réciproque ne tient est définie comme l’intégrale de Lebesgue vectorielle d’une fonction
pas. On a seulement dans ce cas une condition suffisante.
à valeurs dans L 2 (  ,  n ) , car M = sup t ∈K |||X (t )||| < + ∞. Donc
1.3.4.8.3 Caractéristiques du second ordre Z K ∈ L 2 (  ,  n ) . La notation K → T signifie que l’on considère une
du processus dérivé suite quelconque croissante de compacts Km ⊂ T, de réunion T. Dans
On suppose, pour simplifier, que la fonction d’autocorrélation RX ces conditions la moyenne m K ∈ n de ZK et la matrice d’intercor-
est continûment dérivable sur T × T.
rélation R KK ′ ∈ Mat  ( n, n ) des v.a. du second ordre ZK et ZK ’ sont
Alors, pour tout k ∈{1, ..., d }, le processus X ,k ′ ( t ) indexé sur T
définies et s’écrivent :
à valeurs dans  n est du second ordre, continu en m.o.d. et :
— sa fonction moyenne t Œm X ,′k ( t ) = E [ X ,k
s’écrit :
′ ( t ) ] : T → n
mK = E ( ZK ) = 
K
m X ( t ) dt (137)

m X ,′k ( t ) = --------- m X ( t ) (129)

∂t k
T
R KK ′ = E ( Z K Z K ′ ) = R X ( t, t ′ ) d t d t ′ (138)
′ ( t ) X ,k′ ( t ′ ) T )
— sa fonction d’autocorrélation t,t ′ ŒR X ′ ( t,t ′ )= E (X ,k K K′
,k

de T × T dans Mat  ( n, n ) s’écrit : Alors si la limite suivante existe dans Mat  ( n, n ) :


∂2 lim R KK ′ = R Z
R X ,k′ ( t, t ′ ) = --------------------- R X ( t , t ′ ) (130)
∂ t k ∂ t k′ K→T (139)
K′→T
— les fonctions d’intercorrélation R X ,k′ X , R XX ,′k et R X ,′j X ,′k de T × T
avec R Z ∈ Mat  ( n, n ) ,
dans Mat  ( n, n ) sont telles que :
la v.a. Z K converge dans L 2 (  ,  n ) quand K → T et la limite est
∂ notée :
R X ,k′ X ( t, t ′ ) = E ( X ,′k ( t ) X ( t ′ ) T ) = --------- R X ( t , t ′ ) (131)

∂ tk
Z = X ( t ) dt (140)
∂ T
R XX ,k′ ( t, t ′ ) = E ( X ( t ) X ,′k ( t ′ )T ) = ----------- R X ( t , t ′ ) (132)
∂ t k′ Dans ce cas, le processus du second ordre X (t ) est intégrable
sur T et la v.a. du second ordre Z, à valeurs dans  n , a pour
∂2 moyenne et matrice de corrélation :
R X ,j′ X ,k′ ( t, t ′ ) = E ( X ,′ j ( t ) X ,′k ( t ′ ) T ) = -------------------- R X ( t , t ′ ) (133)
∂ t j ∂ t k′
m Z = E ( Z ) = lim m K (141)
K→T

R Z = E ( Z Z T ) = lim R KK ′ (142)
K→T
K′→T

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 14 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

1.3.5 Compléments sur les champs alors la fonction w Œ S X ( w, s , s ′ ) définie sur  à valeurs dans
Mat  ( n, n ) est appelée fonction de densité spectrale transversale
Jusqu’à présent nous avons traité simultanément le cas des du champ et :
processus d = 1 et le cas des champs d  2 . Parfois les propriétés
ne sont pas les mêmes en fonction de la coordonnée. Par exemple
en physique, on a souvent des champs avec d = 4, la coordonnée
R X ( u, s , s ′ ) =  
exp ( i u ⋅ w ) S X ( w , s , s ′ ) d w (149)
t 1 étant le temps et les coordonnées t 2 , t 3 et t 4 celles d’un point
de l’espace  3 . Or, il arrive qu’un tel champ ne soit pas stationnaire 
(ou homogène) par rapport à t ∈  4 , mais seulement stationnaire S X ( w, s , s ′ ) = S X ( w , s ′ , s ) * 
par rapport à t 1 . Il y a dans un tel cas une dissymétrie de propriétés  (150)
SX ( – w , s , s ′ ) = SX ( w , s , s ′ ) 
par rapport aux coordonnées et l’on souhaite encore introduire la 
représentation spectrale pour la coordonnée stationnaire.
Enfin, pour toute fonction f continue de S dans  n à support
1.3.5.1 Hypothèses et notations compact :
Soit I un ouvert de  , borné ou non, de point générique t . Soit
d  2 et S un ouvert quelconque de  d –1 , de point générique : S S
[ S X ( w, s , s ′ ) f ( s ′ ) , f ( s ) ] d s d s ′  0 (151)

s = (s1 , ..., sd –1) On notera que pour tout s fixé dans S, tr MX (dw, s, s ) est la
mesure positive bornée sur  qui est la mesure spectrale de puis-
^ sance du processus t ΠX ( t, s ).
Soit T = I × S l’ouvert de  d de point générique t = ( t, s ) . Dans
^
tout ce paragraphe, on considère un champ stochastique X ( t ) , noté
encore X (t, s ), défini sur (  , t , P ) , indexé sur T = I × S à valeurs 1.3.6 Transformation intégrale et filtrage linéaire
des processus et des champs du second ordre
^
dans  n , du second ordre, de fonction moyenne m X ( t ) et de à valeurs vectorielles
fonction d’autocorrélation R X ( t,^
t′).
^
Dans tout ce paragraphe d, d ’, n et m sont entiers supérieurs ou
égaux à 1, T ’ et T des ouverts quelconques de  d ′ et  d et :
1.3.5.2 Champ stationnaire en m.o.d. pour la variable t X (t ) = [X1 (t ), ..., Xn (t )]
Le champ du second ordre X (t, s ) est dit stationnaire en m.o.d.
et Y (t ’) = [Y1 (t ’), ..., Ym (t ’)]
par rapport à t
— si I =  ; des processus définis sur (  , t , P ) , indexés respectivement sur T
— si la fonction moyenne est indépendante de t ; et T ’, respectivement à valeurs dans  n et  m . On utilise directe-
— si la fonction d’autocorrélation dépend de t – t ’ c’est-à-dire si : ment les notations et résultats du paragraphe 1.3.4.9 sur l’intégration
des processus du second ordre.
mX (t, s ) = mX (s ) = E [X (t, s )] (143)

RX (t, t ’ , s, s ’) = RX (t – t ’, s, s’) = E (X (t, s) X (t ’, s’)T ) (144) 1.3.6.1 Transformation intégrale linéaire

Dans ce cas, la fonction u, s , s ′ Œ R X ( u , s , s ′ ) : On suppose que X (t ) est du second ordre, de moyenne


m X : T →  n et d’autocorrélation R X : T × T → Mat  ( n , n ) . Soit
 × S × S → Mat  ( n, n ) :
t ′, t Œ h ( t ′ , t ) : T ′ × T → Mat  ( m , n ) telle que pour tout t ’ ∈T ’,
RX (u, s, s’) = E (X (t + u, s) X (t, s’)T ) (145)
t Œ h ( t ′, t ) soit localement intégrable sur T et telle que :
est appelée fonction d’autocorrélation transversale. On a :

|||X (t, s)|||2 = E (||X (t, s)||2) = tr RX (0, s, s ) < + ∞ (146) lim
K→T K
 K′
h ( t ′, t ) R X ( t , u ) h ( t ′ , u ) T d t d u (152)
RX (– u, s, s’) = RX (u, s’, s)T (147) K′→T

pour tout u, tout s, tout s ’. existe dans Mat  ( m, m ) .


Alors le processus Y (t ’) qui résulte de la transformation intégrale
^
Supposons de plus que le champ X ( t ) soit continu en m.o.d. linéaire de noyau fonction h du processus X (t ) :
sur T. Alors, la fonction u, s , s ′ Œ R X ( u , s , s ′ ) est continue de
 × S × S dans Mat  ( n, n ) et il existe une famille de mesures bor- Y (t ′) = T
h ( t ′, t ) X ( t ) d t (153)
nées complexes sur  , à valeurs dans Mat  ( n, n ) , de paramètres
s et s ’, notée MX (dw, s, s’) et appelée mesure spectrale transversale est un processus du second ordre indexé sur T ’ à valeurs dans  m .
du champ, telle que : Sa fonction moyenne m Y : T ′ →  m et sa fonction d’autocorrélation
R Y : T ′ × T ′ → Mat  ( m , m ) sont données par :
R X ( u, s , s ′ ) =  exp ( iu ⋅ w ) M X ( d w , s , s ′ )

(148)

m Y ( t ′ ) = E [ Y ( t ′ ) ] = lim h ( t ′, t ) m X ( t ) d t (154)
pour tout u ∈  et tout s et s ’ dans S. K→T K

Si, pour tout s et s ’ dans S, MX admet une densité par rapport à dw : R Y ( t ′, u ′ ) = E ( Y ( t ′ ) Y ( u ′ ) T )


MX (dw, s, s’) = SX (w, s, s’) dw
= lim
K→T K
 K′
h ( t ′ , t ) RX ( t , u ) h ( u ′ , u )T d t d u (155)

K′→T

En particulier la limite (152) existe :

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 15
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

— si RX est uniformément bornée sur T × T et t Œ h ( t ′ , t ) est et sa mesure spectrale matricielle M Y (dw ) sur  d à valeurs
intégrable sur T pour tout t ’ dans T ’ ; Mat  ( m, m ) s’écrivent :
— si RX est de carré intégrable sur T × T et t Œ h ( t ′ , t ) est aussi
de carré intégrable sur T pour tout t ’ dans T ’.
mY ( t ′ ) =  d
 ^
h ( t ) dt m 1 = h ( 0 ) m 1 (159)
1.3.6.2 Filtrage linéaire de convolution
des processus stationnaires en m.o.d.
Nous considérons maintenant le cas particulier du paragraphe
R Y ( u′ ) = 
d d
h ( t ) R X ( u′ + u – t ) h (u ) T dt du (160)
1.3.6.1 pour lequel :
— on a T = T ′ =  d ; ^
M Y (dw ) = h (w ) M X (dw ) h (w )*
^
(161)
— le processus X (t ) est indexé sur  d , continu et stationnaire
en m.o.d. ; on note : La puissance du processus filtré s’écrit donc :
t Œ m X ( t ) = m 1 :  d →  n sa fonction moyenne constante,
u Œ R X (u ) :  d → Mat  ( n , n ) sa fonction d’autocorrélation qui E ( Y (t ′) 2) = 
d
^ ^
tr { h (w ) M X (dw ) h (w )* } (162)
est donc continue et bornée,
M X (d w ) sa mesure spectrale matricielle à valeurs dans
Mat  ( n, n ) ; 1.3.6.2.2 Cas d’une réponse impulsionnelle
— le noyau t ’, t Œ h (t ’, t ) = h (t ’ – t ) de carré intégrable
où u Œ h (u ) est une fonction de  d dans Mat  ( m, n ) que nous Si h ∈ L 2 [  d , Mat  ( m , n ) ] et si M X (dw) admet une densité
supposerons intégrable ou de carré intégrable sur  d . spectrale uniformément bornée SX (w) sur  d , alors le processus :
La transformation (153) s’écrit alors :
Y (t ’) = (h ∗ X )(t ’)

Y (t ′) =  h ( t ′ – t ) X ( t ) dt = ( h ∗ X ) ( t ′ ) (156)
est défini et a une densité spectrale :
d
SY ∈ L 1 [  d , Mat  ( m , n ) ]
et est appelée filtrage linéaire de convolution du processus X (t ) par
le noyau fonction h . telle que :
SY (w) = h (w) SX (w) h (w)* (163)
La fonction u Œ h (u ) est appelée la réponse impulsionnelle du
filtre. Si le support de la fonction u Πh (u ) est contenu dans (  + ) d ,
on dit que le filtre est causal et dans ce cas (156) s’écrit :
1.4 Processus de diffusion
Y (t ′) =  t 1′

–∞
...
t d′

–∞
h ( t ′ – t ) X ( t ) dt et équations différentielles
(157) stochastiques
 +∞ +∞
= ... h ( t ) X ( t ′ – t ) dt
0 0
Nous donnons dans ce paragraphe des compléments indispen-
^ sables, très importants dans la théorie des processus et relatifs aux
Soit h =  h :  d → Mat  ( m , n ) la TF de h au sens L1 ou L2 : processus de Markov, pour l’étude des systèmes régis par des
équations différentielles non linéaires ou même par des équations
^
h (w ) = (  h ) (w ) = 
d
exp ( – i w ⋅ u ) h (u ) d u (158)
linéaires, mais avec des excitations paramétriques stochastiques.
Dans une première partie (§ 1.4.2), on étudie une classe particu-
lière des processus de Markov introduits au paragraphe 1.3.3 : les
^
La fonction w Œ h (w ) est appelée la fonction de réponse en
processus de diffusion. Comme tous les processus de Markov, la loi
de probabilité d’un processus de diffusion peut être décrite à partir
fréquence du filtre, qu’il ne faut pas confondre avec la fonction de de la seule connaissance de sa famille de probabilités de
transfert du filtre H (p) qui est la transformée de Laplace sur  d de h . transition (§ 1.3.3). Il se trouve que, pour un processus de diffusion,
la probabilité de transition est solution d’une équation déterministe
1.3.6.2.1 Cas d’une réponse impulsionnelle intégrable linéaire aux dérivées partielles, appelée équation de Fokker-Planck
(EFP).
Si :
Dans la deuxième partie (§ 1.4.4), nous traitons les équations
h ∈ L 1 [  d , Mat  ( m , n ) ] différentielles stochastiques (EDS) non linéaires d’Itô. Pour cela, il
alors le processus filtré : est nécessaire de définir déjà l’intégrale stochastique d’Itô (§ 1.4.3).
Y (t ’) = (h ∗ X )(t ’) On construit alors naturellement, à partir de cette intégrale, la
différentielle stochastique (DS) au sens d’Itô, ce qui permet de traiter
est un processus du second ordre, continu et stationnaire en m.o.d. les EDS au sens d’Itô. Un des intérêts fondamentaux est que, dans
Sa fonction moyenne : de nombreux cas, le processus solution d’une EDS non linéaire d’Itô
mY :  d →  m est un processus de diffusion. Il est donc complètement défini par
sa famille de probabilités de transition qui peut être construite
sa fonction d’autocorrélation : explicitement en résolvant une EFP associée à l’EDS non linéaire.
Pratiquement, le cas d’Itô correspond à une situation pour laquelle
R Y :  d → Mat  ( m , m ) l’excitation stochastique est un bruit blanc généralisé. Les bruits
stochastiques physiques sont de puissance finie, ce qui n’est pas le
cas du bruit blanc généralisé.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 16 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

On doit donc modéliser des bruits colorés, même s’ils sont à très 1.4.2.1 Processus de diffusion
large bande. Pour cela nous introduisons dans la troisième partie
Le processus X (t ) est de diffusion si :
(§ 1.4.5) l’intégrale stochastique au sens de Stratonovich et l’EDS
au sens de Stratonovich. Ce calcul stochastique n’est pas calcula- — pour tout ε > 0, pour tout x ∈  n , on a pour s0 < t < t + h :
toire, mais il permet de construire des modèles, au sens d’Itô, de
problèmes à excitation stochastique colorée large bande.
Dans la quatrième partie (§ 1.4.6), nous verrons comment traiter
lim h –1
h.0
 y–x ε
Q ( t, x , t + h , d y ) = 0 (166)

les équations différentielles non linéaires de la physique avec


où h ↓ 0 signifie h → 0 par valeurs supérieures, donc h est positif ;
excitation blanche ou colorée, à l’aide des résultats des deuxième
— il existe une fonction :
et troisième parties. L’ensemble de ces résultats sera très largement
utilisé pour les problèmes de vibrations aléatoires non linéaires. x, t Œ b ( x , t ) = [ b 1 ( x , t ) , … , b n ( x , t ) ] :  n × T →  n

appelée vecteur de dérive ou vecteur de translation, telle que


1.4.1 Processus ayant presque sûrement ∀ ε > 0, ∀ x ∈  n , on ait pour s0 < t < t + h :
ses trajectoires continues

Soit T ⊂  d et X (t ) = [X1 (t ), ..., Xn (t )] un processus défini sur


lim h –1
h .0
 y–x <ε
( y j – x j ) Q ( t, x , t + h , d y ) = b j ( x , t ) (167)

(  , t , P ) indexé sur T à valeurs dans  n . avec j ∈{1, ...,n} ;


Soit A 1 = { a ∈  : t Œ X ( t , a ) ∈ C 0 ( T ,  n ) } ; donc A 1 est la — il existe une fonction :
partie de  telle que, pour tout a ∈ A1 , la trajectoire t Œ X ( t, a )
x, t Œ σ ( x , t ) = [ σ jk ( x , t ) ] jk :  n × T → Mat  ( n , n )
est continue et, pour a ∈ A 0 =  \ A 1 , elle n’est pas continue.
D’après le paragraphe 1.1.3, le processus a P-presque sûrement ses
la matrice σ (x, t ) étant symétrique positive, mais pas forcément
trajectoires continues si A 0 est P-négligeable, c’est-à-dire : P (A0) = 0
définie positive, est appelée matrice de diffusion du processus
ou encore P (A1) = 1.
markovien X (t ) ; la fonction est telle que ∀ ε > 0, ∀ x ∈  n , on ait
On a les résultats suivants, utiles pour vérifier si un processus a pour s0 < t < t + h et pour j et k ∈{1, ..., n} :
P -p.s. ses trajectoires continues.

1.4.1.1 Lemme de Totoki. Généralisation du lemme lim h –1


h .0
 y–x <ε
( y j – x j ) ( y k – x k ) Q ( t, x , t + h , d y ) = σ jk ( x , t ) (168)
de Kolmogorof
Si T est un ouvert quelconque de  d et si, pour tout compact K 1.4.2.2 Condition suffisante
de T, il existe trois constantes réelles positives α, β et cK telles que : pour qu’un processus soit de diffusion
∀t ∈ K, ∀t ′ ∈ K , E ( X (t ) – X (t ′) α)  cK t – t ′ d+β (164) Soit y, x Œ f ( y , x ) une fonction continue de  n ×  n dans  . Pour
tout s0 < t < t + h, on note :
alors il existe une version de X (t ) ayant P-p.s. ses trajectoires C 0.
Une version Y ( t ) de X ( t ) est un processus tel que ∀ t ∈ T ,
Y (t ) = X (t ) P-p.s., c’est-à-dire que Y et X sont stochastiquement
E { f [ X ( t + h ), X ( t ) ] | X ( t ) = x } =  y ∈ n
f (y, x) (169)
équivalents et ils sont isonomes. Q (t, x, t + h, dy)
l’espérance conditionnelle de la v.a. f [X (t + h), X (t )] si X (t ) = x.
1.4.1.2 Lemme de Dudley Alors, une condition suffisante pour que le processus de Markov
Si T est une partie bornée de  d , si X (t ) est un processus gaussien X (t ) soit un processus de diffusion est que pour tout x dans  n ,
et s’il existe δ > 0, c < + ∞ tels que : il existe α > 0 tel que :

lim h –1 E { X ( t + h ) – X ( t ) 2+ α |X ( t ) = x } = 0
E ( X ( t ) – X ( t ′ ) 2 )  c In ( t – t ′ ) – ( 1 + δ ) (165) (170)
h.0
alors il existe une version Y (t ) de X (t ) ayant P-p.s. ses trajectoires
C 0. lim h –1 E { X j ( t + h ) – X j ( t ) |X ( t ) = x } = b j ( x, t ) ,
h.0 (171)
j ∈ { 1, … , n }
1.4.2 Processus de diffusion lim h –1 E { ( X j ( t + h ) – X j ( t ) ) ( X k ( t + h ) – X k ( t ) ) | X ( t ) = x }
h.0 (172)
et équation de Fokker-Planck = σ jk ( x, t )

On reprend toutes les notations du paragraphe 1.3.3. Soit pour j et k ∈{1, ..., n}
X (t ) = [X 1 (t ), ..., X n (t )] un processus de Markov indexé sur
T = [s 0 , + ∞ [, à valeurs dans  n , ayant P-p.s. ses trajectoires 1.4.2.3 Équation de Fokker-Planck
continues et admettant la famille Q (s, x, t, B ) de probabilités de pour les processus de diffusion
transition, avec s 0  s < t < + ∞ , x ∈  n , B dans   n .
On suppose :
— que la probabilité de transition Q (s, x, t, dy) admet une den-
sité p (s, x, t, y) pour tout t ∈]s, +∞[, s 0  s (97) ;
— que le processus de Markov X (t ) est de diffusion, de vecteur
de dérive b et de matrice de diffusion σ, les relations (166), (167) et
(168) ou (170), (171) et (172) étant réalisées uniformément en x ;

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 17
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

— que ∀x ∈  n , ∀y ∈  n , ∀t ∈ ] s , + ∞ [, s 0  s , les fonctions : 1.4.3.4 Intégrale stochastique d’Itô


t Œ ∂ t p ( s, x , t , y ) Soit t fixé dans  +, M un entier positif. On considère la partition
de [0,t] dont les points sont :
y Œ ∂j [ bj ( y , t ) p ( s , x , t , y ) ]
y Œ ∂ j ∂ k [ σ jk ( y , t ) p ( s , x , t , y ) ] t M,q = qt /M avec q ∈{0, 1, ..., M }
et dont la maille constante est ∆t = t /M. On considère la suite de v.a.
avec ∂t et ∂j respectivement les dérivées partielles par rapport à t {Z M }M à valeurs dans  n :
et à yj , existent et sont continues.
Alors, pour tout t ∈]s, + ∞ [, p (s , x, t, y ) vérifie l’équation de
M –1

Fokker-Planck (ou équation de Kolmogorov directe) : ZM = ∑ A ( t M, q ) [ W ( t M, q + 1 ) – W ( t M, q ) ] (177)


q=0
n
∂ t p ( s, x , t , y ) + ∑ ∂j [ bj ( y , t ) p ( s , x , t , y ) ] le processus A (t ) vérifiant les paragraphes 1.4.3.2 et 1.4.3.3. Alors
j=1 la suite de v.a. du second ordre Z M converge dans L 2 (  ,  n )
(173)
n quand M → + ∞, vers une limite Z (t ) notée :
1
– ----- ∑ ∂ j ∂ k [ σ jk ( y , t ) p ( s , x , t , y ) ] = 0


2 t
j, k = 1
Z (t ) = A ( s ) dW ( s ) (178)
avec la condition initiale suivante pour t → s par valeurs 0
supérieures :
est appelée l’intégrale stochastique d’Itô de 0 à t du processus A (s)

lim
t.s
n
p ( s, x , t , y ) g (y ) d y = g ( x ) (174)
par rapport à dW (s). Pour tout t fixé, la v.a. Z (t ) à valeurs dans  n
est du second ordre et l’on a :

  A ( s ) dW (s )  = 0
t
où g est une fonction continue et bornée de  n dans  . La condition E [Z (t )] = E (179)
(174) montre que la mesure : 0


Q (s, x, t, dy) = p (s, x, t, y) dy 2
 
t
tend vers la mesure de Dirac δx (y) au point x de  n quand t ↓ s. |||Z ( t )||| 2 = E ( Z ( t ) 2 ) = E A ( s ) dW ( s )
0
(180)
 |A ( s )| 
t

1.4.3 Intégrale et différentielle stochastiques d’Itô = E 2 ds < + ∞


0

1.4.3.1 Processus de Wiener normalisé


1.4.3.5 Remarques
On considère le processus de Wiener normalisé :
a ) Ce résultat remarquable est lié aux propriétés du processus
W (t ) = [W1 (t ), ..., Wm (t )] de Wiener, au caractère non anticipant de A (t ) et à la construction
de la suite (177).
défini sur (  , t , P ), indexé sur  + = [0, + ∞ [ à valeurs dans  m ,
m entier  1 , qui a été introduit au paragraphe 1.3.3.4. b ) L’hypothèse H2 (§ 1.4.3.3) n’est pas nécessaire. Elle permet
de définir simplement la suite (177).
1.4.3.2 Processus non anticipant c ) On peut encore définir l’intégrale stochastique d’Itô en
remplaçant H1 et H2 (§ 1.4.3.3) par la seule hypothèse H3.
Soit A (t ) = {Aji (t ),j ∈{1, ..., n }, i ∈{1, ..., m }}, n entier  1 , un
■ H3 Hypothèse 3 : le processus A (t ) est non anticipant, a P-p.s. ses
processus défini sur (  , t , P ) , indexé sur  + à valeurs dans trajectoires de carré intégrable sur [0, t] pour tout t fixé :
Mat  ( n, m ) . Le processus A (t ) est dit non anticipant par rapport à
W (t ) si pour tous t, s et s ’ dans  + tels que t  s < s′ , la v.a. A (t )
est indépendante de la famille de v.a. ∆Wss ’ = W (s ’) – W (s). Cela
 0
t
|A ( s )| 2 ds < + ∞ , P -p.s. (181)

implique, puisque E (∆Wss ’) = 0, que :


Dans ce cas on perd les propriétés (179)-(180).
E (A (t ) ∆Wss ’) = E [A (t )] E (∆Wss ’) = 0 (175) d ) Le processus Z (t) est du second ordre. Donc pour tout t fixé,
Z (t ) est une classe d’équivalence d’égalité presque sûre de v.a. On
1.4.3.3 Hypothèses de régularité peut toujours, pour chaque t, choisir un représentant de la classe
pour que le processus t ΠZ ( t ) ait P-p.s. ses trajectoires continues.
Pour toute matrice a ∈ Mat  ( n, m ) , on pose : Nous ferons toujours cette hypothèse de construction dans la suite.

n m 1 1.4.3.6 Différentielle stochastique d’Itô


|a | =  ∑ ∑ a ji  2
j=1 i=1
2 -----
Soit :
B (t ) = [B1(t ), ..., Bn (t )]
On suppose les hypothèses suivantes :
un autre processus défini sur (  , t , P ) , indexé sur  + à valeurs
■ H1 Hypothèse 1 : pour tout t fixé dans  +, le processus A (t ) est dans  n , non anticipant par rapport à W et dont les trajectoires
tel que : sont P-p.s. intégrables sur [0, t ] pour tout t fixé dans  + :

 |A ( s )|  
t
E 2 ds < + ∞ (176) t
0 B ( s ) ds < + ∞ , P -p.s. (182)
0
■ H2 Hypothèse 2 : le processus A (t ) a P-p.s. ses trajectoires
continues (§ 1.4.2.1).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 18 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

Soit A (t ) le processus précédent, non anticipant et vérifiant (181). On considère l’EDS sur  n , avec condition initiale :
Soit :
X (t ) = [X1 (t ), ..., Xn (t )] dX ( t ) = b ( X ( t ), t ) d t + a ( X ( t ) , t ) d W ( t ) , t > 0 
 (189)
le processus indexé sur  + , à valeurs dans  n , tel que X (0) soit X ( 0 ) = X 0 , P -p.s. 
une v.a. à valeurs dans  n indépendante du processus W (t ) et tel
que : la différentielle dX (t ) étant prise au sens (184) d’Itô, avec :

X (t ) = X (0) +  0
t
B ( s ) ds +  0
t
A ( s ) dW ( s ) (183)
B (t ) = b (X (t ), t) et A (t ) = a (X (t ), t)
Il est indispensable pour les applications d’avoir des résultats sur
Alors le processus X (t ), appelé processus d’Itô, est non anticipant l’existence et les propriétés de la solution de (189). Nous donnons
par rapport à W, a P-p.s. ses trajectoires continues et admet une ci-après des résultats que nous utiliserons.
différentielle stochastique au sens d’Itô, notée dX (t ) et qui s’écrit :
1.4.4.1 Cas uniformément lipschitzien
dX (t ) = B (t ) dt + A (t ) dW (t ) (184)
On introduit l’hypothèse suivante.
1.4.3.7 Formule d’Itô ■ P1 Propriété 1 : il existe une constante réelle K > 0 telle que :
Soit X (t ) le processus du paragraphe 1.4.3.6. Soit x, t Πf ( x , t )

une fonction de  n ×  + dans  , admettant des dérivées partielles b ( x, t ) 2 + | a ( x , t ) |2  K ( 1 + x 2) 
continues ∂ t f, ∂ j f, ∂ j ∂ k f pour j et k ∈{1, ..., n }, ou ∂t et ∂j désignent  (190)
b (x, t ) – b (y, t ) 2 + | a ( x , t ) – a ( y , t ) |2  K x – y 2 
respectivement les dérivées partielles par rapport à t et à xj . Alors 
le processus Y (t ) = f (X (t ), t ), indexé sur  + à valeurs dans  ,
admet une différentielle stochastique au sens d’Itô : pour tout t ∈  + , tout x et tout y ∈ n .
n ■ R1 Résultat 1 : sous la condition P1, l’EDSI (189) a une solution
dY ( t ) = ∂ t f ( X ( t ), t ) d t + ∑ [ ∂j f ( X ( t ) , t ) ] d Xj ( t ) unique X (t ) qui est un processus de Markov ayant P-p.s. ses trajec-
toires continues.
j=1
(185)
n m ■ R2 Résultat 2 : si de plus les fonctions t Œ b ( x, t ) et t Œ a ( x , t )
1
+ -----
2 ∑ [ ∂ j ∂ kf ( X ( t ) , t ) ] ∑ Aji ( t ) Aki ( t ) d t sont continues, alors X (t ) est un processus de diffusion de vecteur
j, k = 1 i=1 de dérive b (x, t ) et de matrice de diffusion σ (x, t ). Soit Q (0, y, t, dx)
la probabilité de transition telle que :

1.4.4 Équation différentielle stochastique d’Itô ∀B ∈  n , Q ( 0, y , t , B ) = P ( X ( t ) ∈ B | X (0) = y )


Elle peut être construite en résolvant l’EFP introduite au para-
On reprend les notations du paragraphe 1.4.3
graphe 1.4.2.3. Pour tout t dans  + , la loi de probabilité ρ (t, x) dx
Soit X0 = (X0,1 , ..., X0,n ) une v.a. du second ordre à valeurs dans sur  n de la v.a. X (t ) qui est telle que :
 n , indépendante de la famille de v.a. { W ( t ), t  0 } , de loi de
probabilité :
P X0 ( dy ) = p X0 ( y ) dy ρ ( t, x ) d x = n
Q ( 0, y , t , d x ) p X0 ( y ) d y (191)

où p X0 est sa densité sur  n . satisfait l’EFP sur  n :


∂t ρ – L*ρ = 0 , t>0 (192)
Soit x, t Πb ( x , t ) et x , t Πa ( x , t ) deux fonctions mesurables
d e n × +, à v a l e u r s , r e s p e c t i v e m e n t , d a n s n e t d a n s avec la condition initiale :
Mat  ( n, m ) . Pour tout ( x, t ) ∈ n × + , on définit la matrice ρ ( t, x ) → p X0 ( x ) si t ↓ 0 (193)

σ ( x, t ) ∈ Mat  ( n , n ) telle que :


1.4.4.2 Solution définie jusqu’au temps d’explosion
σ (x, t ) = a (x, t) a (x, t)T (186) L’hypothèse P1 ((§ 1.4.4.1) est très restrictive vis-à-vis de certaines
applications. On introduit un nouvel ensemble d’hypothèses.
Pour alléger les notations, on introduit les deux opérateurs
différentiels L* et L sur  n tels que pour x Œu (x ) :  n →  on ait : ■ P1’ Propriété 1’ : pour tout R > 0 fixé, pour tout x et tout y dans
n  n tels que x  R, y  R , il existe une constante K R > 0 telle
( L*u ) ( x, t ) = – ∑ ∂ j [ b j ( x, t )u (x ) ] que, pour tout t > 0, on ait :
j=1 n (187)
1 
+ -----
2 ∑ ∂ j ∂ k [ σ jk ( x, t ) u ( x ) ] b ( x, t ) 2 + | a ( x , t ) |2  KR ( 1 + x 2) 
j, k = 1  (194)
b (x, t ) – b (y, t ) 2 + | a ( x , t ) – a ( y , t ) | 2  KR x – y 2

n n 
1
( Lu ) ( x, t ) = ∑ bj ( x , t ) ∂j u (x ) + ----2- ∑ σ jk ( x , t ) ∂ j ∂ k u ( x ) (188)
Ces conditions ne sont plus uniformes en x sur  n . En contre-
j=1 j, k = 1
partie, il faut ajouter une seconde hypothèse.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 19
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

■ P 2 ’ P r o p r i é t é 2 ’ : i l e x i s t e u n e f o n c t i o n x, t Œ V 1 ( x , t ) : 1.4.5.1 Intégrale stochastique de Stratonovich


S
 n ×  + →  + , C 2 par rapport à x , C 1 par rapport à t, appelée fonction Soit { Z M } M la suite de v.a. à valeurs dans  n telle que :
de Liapounov, telle que : M –1


S
ZM = a ( X M, q , t ) [ W ( tM , q + 1 ) – W ( tM , q ) ] 
∃λ > 0 : ∀( x , t ) ∈  n ×  + , ∂ t V 1 ( x , t ) + ( LV 1 ) ( x , t )  λ V 1 ( x , t )  M, q

 (195) q=0

inf x > r , t > 0 V 1 ( x , t ) → + ∞ si r → + ∞  1  (201)
X M, q = ----- [ X ( t M , q + 1 ) + X ( t M , q ) ]
2 
■ R3 Résultat 3 : sous les conditions P1’ et P2’, l’EDSI (189) a une 1 
t M , q = ----- ( t M , q + 1 + t M , q ) 
solution unique X (t ) qui est définie P-p.s. pour tout t > 0 et les 2 
résultats R1 et R2 du paragraphe 1.4.4.1 tiennent. On dira dans ce cas
que l’EDSI a une solution régulière. Cette construction introduit, contrairement à la construction (177)
d’Itô, une dépendance de la v.a. :
1.4.4.3 Existence d’une solution
asymptotiquement stationnaire a ( X M, q , t M, q
) avec la v.a. W ( t M , q + 1 ) – W ( t M , q )
On suppose maintenant que les fonctions b et a sont indépen-
pour chaque M et chaque q fixés.
dantes de t, que x Πb ( x ) et x Πa ( x ) sont des fonctions continues S
sur  n et que l’on a les propriétés et le résultat suivants. Alors, pour tout t  0 , la suite de v.a. Z M converge en probabilité
quand M → + ∞, vers une limite notée :
■ P1’’ Propriété 1’’ : les conditions P1’ et P2’ (§ 1.4.4.2) sont vérifiées,
c’est-à-dire d’après le résultat R3 (§ 1.4.4.2), l’EDSI (189) a une
solution régulière X (t ) sur  + . Z S (t ) =  0
t
a ( X ( s ), s )  dW (s) (202)
■ P2’’ Propriété 2’’ : il existe une autre fonction x Œ V 2 ( x ) définie
sur  n à valeurs dans  + , qui est C 2 et telle que : et appelée l’intégrale stochastique de Stratonovich de 0 à t du
processus a (X (s),s) par rapport à dW (s).
sup ||x || > R (LV2)(x ) = – CR , C R → + ∞ si R → + ∞ (196)
1.4.5.2 Différentielle stochastique de Stratonovich
■ R4 Résultat 4 : sous les hypothèses P1’’ et P2’’, l’EDSI avec
condition initiale : La différentielle stochastique au sens de Stratonovich du
processus Z S (t ), associée à l’intégrale stochastique de (202) s’écrit :

dX ( t ) = b [ X ( t ) ] dt + a [ X ( t ) ] dW ( t )  dZ S ( t ) = a ( X ( t ), t )  dW (t ) (203)
X ( 0 ) = X 0 , P-p.s.  (197)
 Sur le plan des notations, on distingue la différentielle d’Itô de
 celle de Stratonovich en insérant le symbole  devant dW.
a une solution régulière X (t ) qui tend, en probabilité, pour t → + ∞,
vers un processus stationnaire XS (t ) à valeurs dans  n et l’on a : 1.4.5.3 Relations entre la formulation d’Itô
et celle de Stratonovich
ρ S ( x ) = lim ρ ( t, x ) (198) Les résultats suivants permettent de ramener la construction de
t → +∞
Stratonovich à celle d’Itô, ce qui permet d’utiliser tous les résultats
où ρS (x) dx est la loi de probabilité sur  n de la v.a. XS (t ) pour t des paragraphes 1.4.3 et 1.4.4.
fixé, qui vérifie l’équation de Fokker-Planck stationnaire (EFPS) c c
Soit B c ( t ) = [ B 1 ( t ), … , B n ( t ) ] le processus sur  + à valeurs
– L*ρS = 0 soit : dans  n tel que pour tout j ∈{1, .., n} :
n n
1 n m
∑ ∂j [ bj ( x ) ρS ( x ) ] – ----2- ∑ ∂ j ∂ k ( σ jk ( x ) ρ S ( x ) ) = 0 (199) c 1
B j ( t ) = ----- ∑ ∑ Aki ( t ) ∂k aji ( X ( t ), t ) (204)
j=1 j, k = 1 2
k=1 i=1
avec la condition de normalisation : avec ∂k aji (x, t ) la dérivée partielle de a ji (x, t ) par rapport à x k .


Alors on a pour tout t > 0 :
ρ S ( x ) dx = 1 (200)
n
 0
t
a ( X ( s ), s )  dW (s) =  0
t
a (X (s), s) dW (s) + 0
t
B c ( s ) d s (205)

1.4.5 Intégrale et différentielle de Stratonovich


a ( X ( t ), t )  dW ( t ) = a (X ( t ), t ) dW (t ) + B c ( t ) (206)
On reprend les notations et les hypothèses du paragraphe 1.4.3.5,
en l’occurrence H3. On considère le processus d’Itô X (t ) à valeurs 1.4.5.4 EDS de Stratonovich et EDS d’Itô
 n défini par (183), dont la différentielle stochastique (au sens d’Itô) Soit x, t Œ b ( x , t ) :  n ×  + →  n mesurable et considérons
est donnée par (184). Soit x, t Œ a ( x , t ) une fonction définie sur l’équation différentielle stochastique de Stratonovich (EDSS) :
 n ×  + à valeurs dans Mat  ( n, m ) , C1 par rapport à x et C 0 par dX ( t ) = b ( X ( t ), t ) d t + a ( X ( t ) , t )  dW (t ) (207)
rapport à t.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 20 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

On peut ramener l’EDSS (207) à une EDSI en utilisant (206) et (204). ■ Soit Λ Zb = R Zb ( u )du la distribution sur  dans Mat  ( m, m )
Il faut prendre alors A (t ) = a (X (t ), t ), ce qui conduit à introduire la définie par la fonction intégrable R Zb . Soient Λ Z la distribution et
fonction x, t Œ b c ( x , t ) :  n ×  + →  n telle que pour j ∈{1, ..., n } : S Z la fonction, telles que : ∞

n m
1 
∑ ∑ aki ( x , t ) ∂k aji ( x , t )
c
b j ( x, t ) = ----- (208) ΛZ = δ0 I 
2 ∞ 
k=1 i=1
S Z (w ) = ( 2π ) –1 I, ∀w

∈ 
Alors l’EDSS (207) donne l’EDSI suivante : 
(214)
dX (t ) = [b (X (t ), t ) + b c (X (t ), t )] dt + a (X (t ), t ) dW (t ) (209) avec δ0 distribution de Dirac sur  à l’origine.
L’étude du processus X (t ) vérifiant (207) peut donc être faite en Alors, pour b → + ∞ , Λ Zb tend vers Λ Z ∞ et la fonction S Zb tend
étudiant l’EDSI (209) pour laquelle on a tous les résultats du simplement vers S Z ∞ (mais pas uniformément en w ). Le proces-
paragraphe 1.4.4 ; il suffit de remplacer b par b + b c. sus Z ∞ obtenu comme limite du processus Z b pour b → + ∞ est
appelé le bruit blanc gaussien normalisé. La relation (211) montre
que :
1.4.6 Modélisation des EDS de la physique
|||Z ∞ ( t )||| = + ∞ , ∀ t ∈
L’étude des problèmes issus de la physique, dans lesquels inter-
Donc Z∞ (t ) n’est pas un processus classique du second ordre. Le
viennent des modélisations stochastiques, conduit généralement à
cadre mathématique dans lequel il doit être défini et étudié est
des EDS qui ne sont pas des EDSI. Or, nous avons vu aux paragraphes
celui des processus stochastiques généralisés, c’est-à-dire le cadre
1.4.3 et 1.4.4 que l’on disposait pour les EDSI de résultats qui donnent
de la théorie des distributions. Le bruit blanc a donc une largeur de
des méthodes constructives. Dans ce paragraphe, nous indiquons
bande infinie et un temps de corrélation nul.
quelques méthodes qui permettent de ramener une EDS de la
physique à une EDSI. Nous commençons par donner des ■ Soit W (t) le processus de Wiener normalisé défini sur (  , t , P ) ,
compléments nécessaires. indexé sur  + , à valeurs dans  m . il n’est pas dérivable en m.o.d.
En effet, pour t et h > 0, la v.a. h –1 [W (t + h) – W (t)] est gaussienne,
1.4.6.1 Bruit blanc gaussien normalisé du second ordre, centrée, de matrice de covariance Ch = h –1 I. Donc
tr Ch = mh –1 → +∞ si h → 0. Par contre, la dérivée DW de W (t ) par
Soit Z b (t ) = [Z b,1 (t ), ..., Zb, m (t )] le processus défini sur (  , t , P ) , rapport à t, au sens des processus généralisés, est un processus
indexé sur  à valeurs dans  m , du second ordre, stationnaire et généralisé sur  + . Notant encore DW le prolongement de ce proces-
continu en m.o.d., centré, gaussien, dont la fonction sus généralisé sur tout  , ce dernier est isonome au processus
d’autocorrélation : généralisé Z∞ et on écrit :
R Z b (u ) = E ( Z b ( t + u ) Z b ( t ) T ) DW = Z∞ (215)

et la densité de la mesure spectrale matricielle s’écrivent : Ainsi la dérivée au sens des processus généralisés du processus
de Wiener normalisé est le bruit blanc gaussien normalisé [72].

R Zb (u ) = π –1 b exp ( –2π –1 b u ) I  ■ Soit :
 (210)
S Zb ( w ) = [ 2π ( 1 + π 2 w 2 ( 4b 2 ) –1 ) ] –1 I  + + +
 Z b ( t ) = [ Z b, 1 ( t ) , ..., Z b , m ( t ) ]
avec b réel positif, le processus solution de l’EDSI linéaire sur  m :
I matrice unité (m, m ).
Les propriétés de ce processus sont les suivantes. + + 
dZ b ( t ) = – 2bπ –1 Z b ( t ) dt + 2bπ –1 dW ( t ) , avec t > 0 
■ Les composantes Z b, 1 (t ), ..., Zb, m (t ) sont des processus +  (216)
Z b ( 0 ) = 0  m , P -p.s. 
indépendants dans leur ensemble car Zb (t ) est gaussien, centré et 
R Zb (u ) est une matrice diagonale. La puissance totale du processus Pour tout réel b > 0, la solution unique de (216) s’écrit :
Zb (t ) s’écrit :

|||Z b ( t )||| 2 = tr R Zb ( 0 ) = mπ –1 b (211)


+
Z b ( t ) = 2b π –1 0
t
exp [ 2b π –1 ( s – t ) ] dW ( s ) , avec t > 0 (217)

+
■ Pour tout j ∈{1, ..., m}, la demi-largeur de bande équivalente bj et Le processus Z b ( t ) indexé sur  + à valeurs  m , non stationnaire,
le temps de corrélation τ j du processus Z b, j (t ), à valeurs dans  , est un processus de Markov, gaussien, centré, du second ordre,
sont tels que : appelé processus de Ornstein-Uhlenbeck, et il tend asymptotique-
ment en m.o.d., pour t → + ∞, vers le processus Zb (t ) stationnaire
b j = ( [ S Zb ( 0 ) ] jj ) –1 
+∞

0
[ S Zb ( w ) ] jj dw = b (212)
sur  :
+
lim |||Z b ( t ) – Z b ( t ) ||| = 0 (218)
t → +∞

τ j = ( [ R Zb ( 0 ) ] jj ) –1 
–∞
0
[ R Zb ( u ) ] jj du = π ( 2b ) –1 (213) 1.4.6.2 Processus physiquement réalisable

Ces relations montrent que tous les processus Z b, j (t ) ont la On introduit les notations suivantes pour alléger l’écriture.
même valeur b de demi-largeur de bande équivalente et la même ^
valeur π (2b) –1 de temps de corrélation. 1.4.6.2.1 Espaces H +(q, m) et H + (q, m)
Soit :
H + ( q, m ) = L 2 [  + , Mat  ( q , m ) ]

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 21
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

l’ensemble des fonctions t Œh ( t ) de  dans Mat  ( q , m ) , dont le tels que :


support est  + (donc h (t ) = 0 si t < 0) et qui sont de carré intégrable.
On note : 
Y + ( t ) = BU + ( t ) , t  0 
^+ 
H ( q, m ) =  H + ( q , m ) dU + ( t ) = AU + ( t ) dt + Q dW ( t ) , t > 0  (222)
^ 
l e s o u s - e s p a c e d e L 2 [ , Mat  ( q , m ) ] d e s TFh =  h d e s U + ( 0 ) = u 0 , P -p.s. 
h ∈H +(q, m ). 

avec W (t ) processus de Wiener normalisé sur  + à valeurs dans  m .


1.4.6.2.2 Espace GP (q)
En utilisant les résultats du paragraphe 1.4.4, on voit que le
Soit q un entier  1 . On note GP(q ) l’ensemble des processus : processus Y + est un observable sur un processus de diffusion U +
Y (t ) = [Y1(t ), ..., Yq (t )] et il s’écrit pour tout t  0 :

définis sur (  , t , P ) , indexés sur  , à valeurs dans  q , gaussiens,


du second ordre, centrés, stationnaires et continus en m.o.d., dont Y + ( t ) = G ( t ) u0 + 0
t
G ( t – s ) Q dW ( s ) (223)
les mesures spectrales matricielles MY (dw ) admettent des densités
spectrales : avec G ∈H +(q, d ) la fonction telle que :
SY ( w ) ∈ Mat  ( q, q ) G (t) = B exp+ (tA) (224)

1.4.6.2.3 Définition où exp + (t A ) = exp ( t A ) si t  0 et exp + (t A ) = 0 si t < 0,


Un processus Y (t ) de GP(q ) est dit physiquement réalisable s’il exp ( tA ) ∈ Mat  ( d, d ) é t a n t l ’ e x p o n e n t i e l l e d e l a m a t r i c e

existe un entier m  1 et une fonction h


^ ^
∈ H + ( q, m ) tels que : tA ∈ Mat  ( d, d ) .
Soit h ∈ H + (q, m) la fonction telle que :
^ ^
S Y ( w ) = ( 2π ) –1 h (w ) h ( w )* , ∀w ∈ (219) h (t) = G (t ) Q = B exp+ (tA) Q (225)
Cela signifie qu’un processus Y de GP(q ) qui est physiquement ^ ^
réalisable résulte d’un filtrage linéaire causal et stable d’un bruit Soit h =  h ∈ H + ( q, m ) sa TF. Elle s’écrit pour w ∈ :
blanc normalisé gaussien Z ∞ . La relation traduisant ce filtrage doit,
en toute rigueur, être écrite en distribution. Nous la noterons infor- ^
h ( w ) = B ( iw I – A ) –1 Q (226)
mellement, d’une façon analogue aux transformations (156)-(157) :
Soit :
Y (t ′) = (h ∗ Z ) (t ′) = 
–∞
t′
h ( t ′ – t ) Z∞ ( t ) d t (220)
Pol(z) = det(z I – A)
le polynôme caractéristique sur  . Ce polynôme est à coefficients
et l’utilisation (informelle) de (163) et (214) donne (219). réels, son degré est d et toutes les racines de Pol(z ) = 0 ont une
^
partie réelle strictement négative. Alors h définie par (226) s’écrit
1.4.6.2.4 Théorème de caractérisation aussi :
Si SY (w ) est de rang maximal pour presque tout w dans  , alors ^
une CNS pour qu’un processus Y (t ) de GP(q ) soit physiquement h (w ) = Pol ( iw ) – 1 R ( iw ) (227)
réalisable est que : où R (z) est un polynôme sur  , à coefficients dans Mat  ( q, m ) ,

 +∞
de degré r < d.
( 1 + w 2 ) –1 In [ det S Y ( w ) ] dw > – ∞ (221) Soit :
–∞ Y (t ) = [Y1 (t ), ..., Yq (t )]

1.4.6.3 Réalisation markovienne de dimension finie le processus indexé sur  à valeurs dans  q tel que l’on ait au
sens des processus généralisés :
1.4.6.3.1 Définition d’une réalisation markovienne Y (t ) = (h ∗ Z∞ )(t ) (228)
Soit q un entier  1 et :
Donc Y (t ) est dans GP (q ) et est physiquement réalisable. Sa
+ + densité spectrale est donnée par (219)-(226) ou (227) :
Y + ( t ) = [ Y 1 ( t ), ..., Y q ( t ) ]
SY (w) = (2π)–1 B (iw I – A)–1 QQT [(iw I – A)–1]* BT
un processus défini sur (  , t , P ) , indexé sur  + , à valeurs dans
 q , gaussien, du second ordre, centré, continu en m.o.d. = (2π)–1 |Pol(iw)| –2 R (iw) R (iw)* (229)
On dit que Y + (t ) admet une réalisation markovienne de dimension Sous les hypothèses précédentes, on a le résultat suivant :
m  1 finie s’il existe un entier d  1 et : le processus non stationnaire Y + (t ) sur  + tend asymptotique-
— une matrice A ∈ Mat  ( d, d ) asymptotiquement stable, ment en m.o.d. pour t → + ∞ vers le processus stationnaire Y (t ) sur
c’est-à-dire que toutes les valeurs propres de A ont une partie réelle  :
strictement négative ; lim |||Y + ( t ) – Y ( t )||| = 0 (230)
— une matrice B ∈ Mat  ( q, d ) et une matrice Q ∈ Mat  ( d, m ) ; t → +∞

— un vecteur u0 ∈  d ;
1.4.6.3.2 Définition d’une réalisation markovienne
+ +
— un processus U +( t ) = [ U 1 ( t ), ..., U d ( t ) ] défini sur (  , t , P ), d’un processus stationnaire
indexé sur  + , à valeurs dans  d , On dira qu’un processus Y (t ) de GP(q ), physiquement réalisable,
admet une réalisation markovienne de dimension m finie, s’il existe
un entier d  1 et un processus Y + (t ) solution de (222) tels que l’on
ait (230).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 22 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

^+
1.4.6.3.3 Espace ( q, m ) 1.4.6.4 Réalisation markovienne approchée
^+ Soit Y (t ) un processus de GP(q ) physiquement réalisable. Il
Soient q, m, r et d, avec r < d, des entiers  1 . On note ( q, m ) existe donc un entier m  1 et h ∈H + (q, m) tels que Y = h ∗ Z ∞ , sa
^ densité spectrale matricielle s’écrivant :
l’espace des fonctions w Œh (w ) :  → Mat  ( q , m ) telles que :
^ ^
^ S Y (w ) = ( 2π ) –1 h (w ) h (w )* (237)
h (w ) = Pol ( iw ) –1 R ( iw ) (231)
où Pol(z ) est un polynôme sur  , à coefficients réels, de degré d, ^ ^
tel que toutes les racines de Pol(z ) = 0 aient une partie réelle stricte- avec h =  h ∈ H + ( q, m ) .
ment négative et où R (z ) est un polynôme sur  , à coefficients dans Généralement, SY (w) n’est pas de type rationnel.
Mat  ( q, m ) , de degré r.
Soit h une fonction quelconque de + ( q, m ) et Y (t ) le processus
^+ ^+ de GP(q ) physiquement réalisable tel que Y = h ∗ Z ∞ . On dit que Y (t )
L’ensemble ( q, m ) est un sous-espace de H ( q, m ) qui est
^+ approche Y (t ) à ε près au sens de l’énergie si pour tout t ∈ :
dense dans H ( q, m ) , ce qui signifie que toute fonction
^ ^ |||Y ( t ) – Y ( t )||| 2 ε (238)
h de H + ( q , m ) peut être approchée d’aussi près que l’on veut dans
On a :
^ ^
H + ( q, m ) par une suite de fonctions de + ( q, m ) [72]. Y – Y = (h –h) ∗ z∞
et donc :


1.4.6.3.4 Caractérisation de l’existence
Soit Y (t ) dans GP (q ), physiquement réalisable. Alors une CNS, |||Y ( t ) – Y ( t )||| 2 = tr S Y–Y (w ) dw
pour que le processus Y (t ) stationnaire admette une réalisation 
markovienne de dimension m finie, est qu’il existe une fonction Le critère s’écrit alors :
^ ^+
∈ ( q, m ) , pour un entier d quelconque, telle que :

h
^ ^ ^ ^
^ ^ ( 2π ) –1 tr [ ( h (w ) – h ( w ) ) ( h ( w ) – h (w ) )* ] dw  ε (239)
S Y (w ) = ( 2π ) –1 h ( w ) h ( w )* 
(232)
= ( 2π ) –1 Pol ( iw ) –2 R ( iw ) R ( iw )* ^+ ^
Mais comme ( q, m ) est dense dans H + ( q, m ) (§ 1.4.6.3.3),
Cela signifie que SY (w ) doit être du type rationnel. ^
on peut trouver h (w ) pour que (239) soit vérifiée et donc :
1.4.6.3.5 Exemple de construction
Y (t ) ~ Y (t )
Supposons que l’on ait (232) avec m = 1. On peut toujours
supposer r = d – 1 ; il suffit de prendre Rj = 0 pour j ∈{r +1, ..., d – 1} à ε près au sens de la m.o.d. (238) où Y (t ) admet une réalisation
si r < d –1. Soit : markovienne de dimension finie.
d
Pol ( iw ) = ∑ aj ( iw ) j , aj ∈ , a d = 1 (233) 1.4.6.5 Modélisation d’une EDS avec bruit blanc gaussien
j=0 On considère l’EDS sur  n avec pour condition initiale :
d –1
DX t = b (Xt , t ) + a (Xt , t ) Y∞ (t ) , t > 0 (240)
R ( iw ) = ∑ ( iw ) j R j , R j ∈ Mat  ( q, 1 ) (234)
j=0 X (0) = X0 , P-p.s. (241)
les réels a 0 , a1 , ..., a d –1 étant tels que les racines de Pol(z ) = 0 aient et où :
une partie réelle strictement négative. Une construction possible,
— le processus Y∞ (t ) est un bruit blanc gaussien généralisé,
mais non unique, des matrices B, A et Q de la réalisation
indexé sur  , à valeurs dans  m , tel que :
markovienne (222) s’écrit, pour ce cas m = 1 :
Y∞ (t ) = LZ ∞ (t )
B = [ R 0 R 1 ...... R d –1 ] ∈ Mat  ( q , d ) (235)
avec Z∞ (t ) bruit blanc gaussien normalisé à valeurs dans  m ,
 L ∈ Mat  ( m, m ) matrice inversible ;
0 1 0 0 . . 0  la densité spectrale matricielle de Y∞ s’écrit donc :

0 0 1 0 . . 0 
. . 0 1 . . 0  S Y ( w ) = ( 2π ) –1 LL T
 ∞
A = . . . . . . . ∈ Mat  ( d, d ) 
 — la v.a. X0 à valeurs dans  n est du second ordre et indépen-
. . . . . . .  dante de Y∞ ;
0 0 . . . 0 1  — les fonctions b (x, t ) et a (x, t ) sont celles définies au paragra-

– a 0 – a 1 – a 2 . . . – a d –1  phe 1.4.4 ;
 (236) — D désigne la dérivée au sens des processus généralisés par
 rapport à t ;
0  — l’EDS (240) doit être lue comme une égalité de processus

0  généralisés.
. 
 Compte tenu de (215), l’EDS (240) s’écrit encore :
Q = . ∈ Mat  ( d , 1 ) 
 DXt = b (Xt , t ) + a (Xt , t ) L DWt (242)
. 
0 

1 

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 23
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

où W (t ) est le processus de Wiener normalisé sur  + à valeurs dans En utilisant les résultats du paragraphe 1.4.5.4, l’EDS (246) donne
 m . On montre qu’il y a cohérence entre la DS d’Itô et la dérivée l’EDSI suivante :
au sens des processus généralisés, c’est-à-dire que le processus X (t ) 
solution de (242)-(241) est solution de l’EDSI suivante : dX ( t ) = [ b ( X ( t ), t ) + b c ( X ( t ), t ) ] dt + a ( X ( t ), t ) dW ( t ), 
 
t > 0 
(247)

dX ( t ) = b ( X ( t ), t ) d t + a ( X ( t ) , t ) d W ( t ) , t >0  
  (243) X ( 0 ) = X 0 , P-p.s.
X ( 0 ) = X 0 , P -p.s. 

avec b c ( x, t ) ∈ n telle que pour j ∈{1, ..., n } :
avec a ( x, t ) = a ( x , t ) L 
 n m
1
∑ ∑ aki ( x , t ) ∂kaji ( x , t )
c
b ( x, t ) = ----- (248)
1.4.6.6 Modélisation d’une EDS j 2
avec bruit gaussien large bande k=1 i=1

On considère l’EDS sur  n avec condition initiale : On notera la différence entre le cas (240), pour lequel le bruit donné
est blanc, et le cas (244), pour lequel le bruit est du second ordre

X b′ ( t ) = b ( X b ( t ), t ) + a ( X b ( t ) , t ) Y b ( t ) , t > 0  large bande. Dans le second cas on obtient un terme complémentaire
 (244) de dérive si a (x, t ) dépend de x. Le problème (247) est la modéli-
X b ( 0 ) = X 0 , P -p.s.  sation EDSI de l’EDS (244) pour un processus large bande, la solution

X (t ) construite en résolvant (247) étant une approximation du
où : processus Xb (t ) solution de (244) pour b w 0 .
— le processus Yb (t ) est un processus du second ordre gaus-
sien indexé sur  à valeurs dans  m qui s’écrit Yb (t ) = L Zb (t ) où 1.4.6.7 Modélisation d’une EDS d’évolution
L ∈ Mat  ( m, m ) est une matrice inversible et où Zb (t ) est le avec bruit admettant une réalisation markovienne
processus défini et étudié au paragraphe 1.4.6.1 ;
— la v.a. X0 à valeurs dans  n est du second ordre et indépen- Soit x, y , t Œ f ( x , y , t ) une application mesurable de  n ×  q ×  +
dante de Zb ; dans  n . On considère l’EDS avec condition initiale :
— les fonctions b (x, t ) et a (x, t ) sont celles définies au
paragraphe 1.4.4 ; 
— la notation X b′ ( t ) désigne la dérivée en m.o.d. du processus X ′ ( t ) = f [ X ( t ), Y + ( t ) , t ] , t > 0 
 (249)
Xb (t ) à valeurs dans  n et l’EDS (244) doit être lue comme une X ( 0 ) = X 0 , P -p.s.
égalité de processus du second ordre. 

Soit w0 une fréquence caractéristique du système physique régi
où Y + ( t ) est un processus indexé sur  + à valeurs dans  q ,
par l’EDS (244), liée à une constante de temps d’intégration du
gaussien, du second ordre, centré, continu en m.o.d.,
système. Le bruit Yb (t ) est dit large bande vis-à-vis du système
étudié si b w 0 . Dans ce cas, la modélisation va consister à X ’(t ) est la dérivée en m.o.d. du processus X (t ) indexé sur  +
écrire (244) pour b → + ∞. Compte tenu de (216), on introduit le à valeurs dans  n .
problème suivant associé à (244) : Alors, si Y + (t ) admet une réalisation markovienne de dimension m
finie, telle que (222), et si X 0 est une v.a. du second ordre
+ + + +  indépendante du processus W (t), le problème (249) est équivalent
dX b ( t ) = [ b ( X b ( t ), t ) + a ( X b ( t ) , t ) L Z b ( t ) ] d t , t > 0  à l’EDSI suivante sur  n ×  d :

+ +
d Z b ( t ) = – 2bπ –1 Z b ( t ) dt + 2bπ –1 dW ( t ) , t > 0  (245)
 
+ +  dX ( t ) = f ( X ( t ), BU + ( t ) , t ) d t ,t>0 
X b ( 0 ) = X 0 , Z b ( 0 ) = 0 , P -p.s.  
d U + ( t ) = AU + ( t ) d t + Q d W ( t ) ,t > 0  (250)
Alors, pour b → + ∞, le processus : 
X ( 0 ) = X0 , U +(0) = u0 , P-p.s. 
+ 
{ X b ( t ), t  0 }
qui s’écrit sous la forme d’une EDSI standard du type (189).
converge en loi vers le processus :
{ X ( t ), t  0 } 1.4.6.8 Modélisation d’une EDS avec bruit gaussien coloré
pour recherche d’une solution stationnaire
à valeurs dans  n , solution de l’EDS de Stratonovich avec condition Soit x, y Œ f ( x , y ) une application mesurable de  n ×  q dans
initiale :  n , indépendante de t. On considère l’EDS suivante :

dX ( t ) = b ( X ( t ), t ) dt + a ( X ( t ), t )  dW (t ) , t > 0  
  (246) X ′ ( t ) = f [ X ( t ), Y ( t ) ] , t > 0 
X ( 0 ) = X 0 , P -p.s.   (251)
X ( 0 ) = 0  n , P -p.s. 
avec a ( x , t ) = a ( x , t ) L 

où Y (t ) est un processus indexé sur  à valeurs dans  q , appar-
tenant à l’espace GP(q ) et physiquement réalisable (§ 1.4.6.2). La
dérivée X ’(t ) du processus X (t ) à valeurs dans  n est prise en m.o.d.
On cherche la construction d’un modèle EDSI de (251) pour étudier
le comportement asymptotique du processus X (t ) pour t → +∞.
Pour ce type de problème, le processus Y (t ) étant stationnaire, on
cherche à étudier l’existence d’une solution de (251) asymptotique-
ment stationnaire pour t → +∞ et à la construire si elle existe.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 24 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

1.4.6.8.1 Premier cas. Le bruit admet une réalisation 1.5.1.2 Définitions des nombres de points de passage
markovienne de dimension finie et de points de franchissement
Si le processus admet une réalisation markovienne de dimension Notons :
m finie (§ 1.4.6.3.2), on associe à (251) l’EDSI suivante sur  n ×  d : t Œf ( t ) = X ( t, a ), a ∈
 une trajectoire du processus X (t ). Donc f est une fonction continue
dX + ( t ) = f [ X + ( t ), BU + ( t ) ] d t , t > 0  de T dans  . Soit I = [b, c ] un intervalle fermé borné de T et u un

d U + ( t ) = AU + ( t ) d t + Q d W ( t ) , t > 0  (252) réel appelé niveau.
 Le nombre de points de passage Nu (a, I) de la trajectoire t Œf ( t )
X + ( 0 ) = 0 , U + ( 0 ) = u0 , P -p.s. 
 par le niveau u sur I est le nombre de points t dans I tels que :
f (t ) = u
Compte tenu de (230), le comportement asymptotique pour
Le nombre de points de franchissement Cu (a, I) est le nombre
t → +∞ du processus X (t ) solution de (251) peut être obtenu en
de points t dans I tels que, dans tout voisinage de t, il existe deux
étudiant le comportement asymptotique pour t → +∞ du processus
réels t ’ < t < t ’’ tels que l’on ait :
X + (t ) solution de l’EDSI (252). On peut, entre autres, pour ce type
d’étude, utiliser les résultats du paragraphe 1.4.4.3. (f (t ’) – u ) (f (t ’’) – u) < 0
Comme f est continue, on a :
1.4.6.8.2 Second cas. Le bruit n’admet pas une réalisation
markovienne de dimension finie C u ( a, I )  N u ( a , I )

Alors, d’après le paragraphe 1.4.6.4, le processus Y (t ) admet Le nombre de points de franchissement en croissant Uu (a, I )
forcément une réalisation markovienne approchée de dimension [respectivement en décroissant Du (a, I )] de la trajectoire t Œf ( t )
finie et l’on se ramène au cas du paragraphe 1.4.6.8.1. par le niveau u sur I est le nombre de points t dans I, tels qu’il
existe ε > 0, tel que :

1.5 Statistiques sur les trajectoires f ( t ′ )  u si t – ε < t ′  t 


pour U u ( a , I )
des processus stochastiques f ( t ′′ )  u si t  t ′′ < t + ε 

Dans ce paragraphe, nous donnons des résultats qui permettent et respectivement :


de résoudre des problèmes du type suivant. Soit X (t ) un processus
défini sur (  , t , P ) , indexé sur un intervalle T de  à valeurs dans f ( t ′ )  u si t – ε < t ′  t 
 . On cherche la fonction de répartition :  pour D u ( a , I )
f ( t ′′ )  u si t  t ′′ < t + ε 
F Xmax ( u ) = P ( X max  u )

avec u ∈ et I ⊂ T de la v.a. : 1.5.1.3 Nombres moyens de points de passage


et de points de franchissement
X max = supt ∈ I X (t )
On note Nu (I ), Cu (I ), Uu (I ) et Du (I ) respectivement les v.a.
Pour les applications, il est utile de savoir étudier ce type de a Œ Nu (a, I), Cu (a, I), Uu (a, I), Du (a, I), définies sur (  , t , P ) . Alors,
statistiques qui portent sur les trajectoires, ainsi que d’autres les moyennes de ces v.a. sont données par les formules de S.O. Rice
statistiques telles que le nombre de franchissements du processus suivantes :
X ( t ) par un niveau donné sur I ou encore les intensités des
 
+∞
extremums locaux, etc. Les résultats que nous donnons ci-après
restent valables, pour la plupart, avec des hypothèses un peu plus E [ Nu ( I ) ] = E [ Cu ( I ) ] = dt y p XX ′ ( u, y, t ) dy (253)
I –∞
générales que celles données, mais cela permet de simplifier
l’exposé.
E [ Uu ( I ) ] =  
I
dt
+∞

0
y p XX ′ ( u, y, t ) dy (254)

1.5.1 Nombre de points de passage


et de franchissement E [ Du ( I ) ] = –   I
dt
0

–∞
y p XX ′ ( u , y , t ) d y (255)
1.5.1.1 Hypothèses
Soit T un ouvert quelconque de  et X (t ) un processus défini sur 1.5.1.4 Cas particulier d’un processus gaussien stationnaire
(  , t , P ) , indexé sur T, à valeurs dans  , du second ordre, centré, Supposons que T =  et que X (t ) soit gaussien stationnaire.
dont la fonction de covariance : Soit :
t, t ′ Œ C X ( t , t ′ ) = E [ X ( t ) X ( t ′ ) ]
 X, p = 
w p M X ( dw )
admet une dérivée :
∂ 2CX (t, t ’)/ ∂ t ∂ t ’ le moment spectral d’ordre p. D’après les hypothèses du paragraphe
1.5.1.1, on a :
continue sur T × T. Alors, d’après le paragraphe 1.3.4.8, X (t ) est
dérivable sur T en m.o.d. et le processus dérivé X ’(t ) est continu 

2
en m.o.d. sur T. On suppose de plus que, pour tout t fixé dans T, σ X =  X , 0 = ||| X ( t ) ||| 2 < + 
la loi conjointe des v.a. X (t ) et X ’(t ) admet une densité pXX ’ (x, y, t )  ∀t ∈ (256)
∞ 
2
par rapport à dx dy. Ces hypothèses impliquent que le processus σ X ′ =  X, 2 = |||X ′ ( t )||| 2 < +

X (t ) a P-presque sûrement ses trajectoires continues.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 25
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

Pour tout t fixé, la v.a. { X ( t ), X ’( t ) } à valeurs dans  2 est alors, d’après un résultat de Volkonsky et Rozanov, le processus
ponctuel de franchissement en croissant par le niveau u est
gaussienne et comme E ( X ( t ) 2 ) est indépendant de t , on a
asymptotiquement poissonien. L’utilisation de (257) avec (260)
E [X (t ) X ’(t )] = 0, ce qui montre que les deux v.a. X (t ) et X ’(t ) sont
permet d’obtenir la fonction de répartition de X max . On peut alors
indépendantes. Donc on a pXX ’ (x, y, t ) = pX (x ) × pX ’ (y ) pour tout t,
calculer la moyenne et l’écart-type de X max . On obtient les approxi-
avec pX et pX ’ deux densités gaussiennes centrées de variances mations suivantes :
2 2
σ X et σ X ′ données par (256), et les relations (253), (254) et (255)

s’écrivent : 
E ( X max )  g σX

1 1 
1  -----
g = [ 2 ln ( ν I ) ] 2 + G [ 2 ln ( ν I ) ]
– -----
2  (261)
E [ U u ( I ) ] = E [ D u ( I ) ] = ----- E [ C u ( I ) ]  
2
2 –1  –1 
–1
E [ C u ( I ) ] = E [ N u ( I ) ] = π –1 I σ X ′ σ X exp ( – u 2 ( 2 σ X ) )  (257) ν = ( 2 π ) –1 σ X ′ σ X 
 
I = c–b 
 avec |I| = c – b et G ≈ 0,577 la constante d’Euler. L’écart-type s’écrit :
1 1
– ----- – -----
1.5.2 Maximum absolu sur un intervalle σ Xmax = π6 2 [2 ln ( ν I ) ] 2σ
X (262)

1.5.2.1 Processus ponctuel de franchissement


asymptotiquement poissonien 1.5.3 Maximums et minimums locaux
Soit X (t ) le processus du paragraphe 1.5.1.1, I un intervalle
quelconque de T et n (u, I ) = E [Uu (I )] donné par (254). On dit que 1.5.3.1 Hypothèses
le processus ponctuel de franchissement en croissant par le niveau Soit T un intervalle ouvert de  et X (t ) un processus défini sur
u ∈  est asymptotiquement poissonien si, ∀m et ∀ les intervalles (  , t , P ) , indexé sur T à valeurs dans  , du second ordre, centré,
disjoints I1 , ..., Im de T, la probabilité d’avoir k j franchissements en dont la fonction de covariance CX sur T × T admet une dérivée :
croissant par le niveau u dans Ij pour j ∈ {1, ..., m } est égale, si
∂ 4CX / ∂t 2 ∂t ’2
u → +∞, à la probabilité pour qu’un processus ponctuel de Poisson
sur T, de taux (moyenne ou intensité) IŒn ( u, I ) , ait k j points dans continue sur T × T. Alors X (t ) est deux fois dérivable en m.o.d. sur
T et les processus X ’(t ) et X’’(t ) sont continus en m.o.d. sur T. On
Ij pour j ∈ {1, ..., m }. Pour u → +∞ on a alors : suppose de plus que, pour tout t fixé dans T, la loi conjointe des
v.a. X (t ), X ’(t ) et X’’(t ) admet une densité pXX ’X ’’ (x, y, z, t ) par
P ( k dépassements de u dans I ) rapport à dx dy dz.
(258)
 ( k ! ) –1 n ( u , I ) k exp [ – n ( u , I ) ] Ces hypothèses impliquent que le processus X ’(t ) a P-presque
sûrement ses trajectoires continues. Soit I = [b, c] un intervalle
Soit I = [b, c] ⊂ T et X max la v.a. à valeurs dans  telle que : fermé borné de T et :
Xmax = supt ∈ I X (t ) (259) °
I = ]b, c [ = int ( I )
Alors, si le processus ponctuel de franchissement en croissant par
le niveau u du processus X (t ) est asymptotiquement poissonien Enfin, on note :
quand u → + ∞, alors la fonction de répartition de la v.a. X max s’écrit :
t Œ f ( t ) = X ( t , a ) et t Œ f ′ ( t ) = X ′ ( t , a ) , a ∈
F Xmax ( u ) = P ( X max  u )  exp [ – n ( u , I ) ] (260)
les trajectoires de X (t ) et X ’(t ). La fonction f ’, dérivée de f, est
continue.
En effet :
P (Xmax < u ) = P ({X (b ) < u } ∩ {0 dépassement de u dans I}) 1.5.3.2 Nombre moyen de maximums et de minimums locaux
et pour u → + ∞ : Le nombre de maximums locaux (respectivement de minimums
P (X (b ) < u ) → 1 locaux) de la trajectoire t Œf ( t ) dont l’abscisse est située dans I et
dont l’ordonnée est située dans un borélien B de  est noté
P (0 dépassement) = exp [– n (u, I)] MAXB (a, I) [respectivement MINB (a, I)], et l’on a :
d’après (258).
° ° 
MAX B ( a, I ) = D 0 [ f ′, I ∩ f –1 ( B ) ] 
1.5.2.2 Cas du processus gaussien stationnaire  (263)
° °
MIN B ( a, I ) = U 0 [ f ′, I ∩ f –1 ( B ) ] 
Soit X (t ) un processus gaussien, centré, sur  , à valeurs dans 
 , du second ordre, stationnaire, les moments spectraux
 X, 0 ,  X, 2 et  X , 4 étant finis. On suppose, en outre, que la Sous les hypothèses du paragraphe 1.5.3.1, a Œ MAX B ( a, I ) ,
a ŒMIN B ( a, I ) sont des v.a. à valeurs dans  qui ont pour
fonction de covariance : moyennes :
v ΠCX ( v ) = E [ X ( t + v ) X ( t ) ]

vérifie :
E [ MAX B ( I ) ] = –   
I
dt
B
dx
0

–∞
z p XX ′ X ′′ ( x , 0, z , t ) d z (264)

C X ( v ) =  X, 0 – ( 2! ) –1 v 2  X, 2 + ( 4! ) –1 v 4  X, 4 + σ ( v 4 ) si v → 0
∃α ∈ ]0, 1[ : CX ( v ) = ( v –α ) si v → + ∞
E [ MIN B ( I ) ] =   
I
dt
B
dx
+∞

0
z p XX ′X ′′ ( x, 0, z, t ) dz (265)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 26 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

1.5.3.3 Cas des processus stationnaires 1.6 Représentation intégrale


Supposons de plus que T =  et que X (t ) soit stationnaire. Alors, et échantillonnage des processus
la fonction de répartition de l’intensité des maximums locaux s’écrit : et des champs
F MAX ( u ) = E [ MAX u ( I ) ] [ E ( MAX <+∞ ( I ) ) ] –1 (266)

soit, d’après la relation (264) : Le théorème qui suit de représentation intégrale des processus
est fondamental. Il permet par exemple d’obtenir la représentation

 
u 0
de Karhunen-Loeve des processus non stationnaires et la représen-
F MAX ( u ) = dx z p XX ′X ′′ ( x, 0, z ) dz tation intégrale des processus stationnaires. Ces deux représenta-
–∞ –∞ tions sont directement utilisées pour construire des simulations
(267)
numériques des trajectoires comme nous le verrons. Il permet aussi
 
+∞ –1
0
d’obtenir le théorème fondamental de Shannon sur l’échantillon-
dx z p XX ′X ′′ ( x, 0, z ) dz nage des processus stationnaires.
–∞ –∞
Dans tout ce paragraphe, on considère un processus X (t ) défini
La densité correspondante est : sur (  , t , P ) , indexé sur une partie ouverte T de  d , d entier  1 ,
p MAX (u ) = dF MAX (u )/du à valeurs dans  n , n  1 , du second ordre et centré (pratique-
ment, s’il n’est pas centré, on le centre).
De même, la fonction de répartition de l’intensité des maximums
locaux, à valeurs positives inférieures ou égales à u, est nulle pour
u < 0 et s’écrit pour u  0 : 1.6.1 Représentation intégrale

 
u 0
F MAX + ( u ) = dx z p XX ′X ′′ ( x, 0, z ) dz On note Ω une partie quelconque de  d , munie de sa tribu  Ω .
0 –∞
(268)

 
–1 1.6.1.1 Mesure spectrale stochastique
+∞ 0
dx z p XX ′X ′′ ( x, 0, z ) dz C’est une application B Œ Φ ( B ) = [ Φ 1 ( B ), ..., Φ n ( B ) ] de  Ω dans
0 –∞

La densité correspondante non nulle pour u > 0 est notée l’espace L 2 (  ,  n ) des v.a. du second ordre à valeurs dans  n , telle
p MAX + (u ) . D’une manière analogue, on définit F MIN (u ), p MIN (u ), que : Φ (∅) = 0, pour toute suite B1 , B2 , ..., d’éléments disjoints de

F MIN + (u ) et p MIN + (u ). On peut aussi construire ces mêmes  Ω , on a Φ ( ∪ m Bm ) = ∑ Φ ( Bm ) , et :


m
grandeurs pour MAX – et MIN –.
E ( Φ ( B ) Φ ( B′ )* ) = 0 Mat ( n, n )
■ Cas particulier d’un processus gaussien stationnaire (274)
∀ B et B ′ : B ∩ B ′ = ∅
Par hypothèse, le moment spectral d’ordre 4 :  X, 4 est fini et l’on
a: c’est-à-dire que les v.a. Φj (B ) et Φk (B’) sont orthogonales pour tout
 X, 2  X, 4 ≠ 0 j et tout k pourvu que B ∩ B ’ = ∅.

L’application des résultats précédents donne pour ce cas : 1.6.1.2 Mesure structurelle
–1
associée à la mesure spectrale stochastique
E [ MAX <+∞ ( I ) ] = E [ MIN <+∞ ( I ) ] = π –1 I σ X ′′ σ X ′ (269)
C’est la mesure B ŒM ( B ) sur  Ω à valeurs dans Mat  ( n, n ) ,
1
telle que :
+ 1
-----
2 ∀B et B ’ , E (Φ (B ) Φ (B ’)*) = M (B ∩ B ’) (275)
E [ MAX <+∞ ( I ) ] = ----- (1 + ( 1 – ε 2) E [ MAX <+ ∞ ( I ) ] (270)
2 avec M (∅) = 0 où la matrice M (B ) est hermitienne positive pour
tout B dans  Ω . On en déduit que :
1  tr M (B) = ||| Φ (B ) ||| 2 < + ∞
4 –2 –2
-----
2 
ε = ( 1 – σ X ′ σ X σ X ′′ ) 
 (271) et donc B Œtr M ( B ) est une mesure positive bornée.
2 2
σ X =  X, 0 ; σ X ′ =  X , 2 ; σ X ′′ =  X , 4
2 

 1.6.1.3 Définition d’une représentation intégrale
Le processus X (t ) admet une représentation intégrale à l’aide de
Le réel ε prend ses valeurs dans ]0,1[ et mesure la largeur de
bande du processus stationnaire X (t ). Si ε → 0, le processus est dit la mesure spectrale stochastique Φ si, pour tout t ∈T, il existe une
à bande étroite et si ε → 1 le processus est dit à bande large. Enfin application w ŒG ( t, w ) de Ω dans Mat  ( n, n ) telle que P-presque
on a : sûrement pour tout t ∈T :


1
2 – ----
- 2 –1
p MAX ( u ) = ( 2π σ X ) 2 exp [ – u 2 ( 2 ε 2 σ X ) ] X (t ) = G ( t, w ) Φ ( dw ) (276)
(272) w∈Ω

+ (1 –
1
-----
ε 2) 2
–1
σ X u exp [ – u 2 ( 2 σ X ) ]
2 –1
 –∞
1
exp (– ----- t 2 ) d t
2

1
-----
avec = u ( 1 – ε 2 ) 2 ( ε σ X ) –1

1
-----
p MAX + (u ) = 1  + (u ) 2(1 + ( 1 – ε 2 ) 2 ) –1 p MAX ( u ) (273)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 27
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

1.6.1.4 Théorème de représentation intégrale chacune ayant une multiplicité finie et étant un point isolé, sauf
peut être la valeur 0, et l’on a :

Si le processus X (t ) admet la représentation (276), alors sa +∞

∑ ∞
2
fonction d’autocorrélation R X : T × T → Mat  ( n , n ) s’écrit : λm < +
m=1

R X ( t, t ′ ) =  w∈Ω
G ( t, w ) M ( dw ) G ( t ′ , w ) * (277) — il existe des vecteurs propres associés ϕ 1 , ϕ 2 , ϕ 3 , ..., tels que :
Q ϕm = λm ϕm
Réciproquement, s’il existe une partie Ω de  d , une mesure
et ils forment une base hilbertienne de L 2 ( T,  n ) . On a donc :
M sur  Ω à valeurs dans Mat  ( n, n ) telle que M (B ) soit une
((ϕm , ϕk )) = δkm (282)
matrice hermitienne positive et B Πtr M ( B ) soit une mesure
positive bornée, et si, pour tout t ∈T, il existe une application Sous l’hypothèse (280), le processus X (t ) admet le développe-
w ŒG ( t, w ) de Ω dans Mat  ( n, n ) , telle que la fonction RX ment suivant dit de Karhunen-Loeve :
s’écrive sous la forme (277), alors on a (276) avec M la mesure +∞
structurelle associée à Ω.

1 2
X (t ) = λ m ξm ϕm ( t ) (283)
m=1

1.6.2 Applications du théorème avec ξ1 , ξ2 , ..., une suite de v.a. définies sur (  , t , P ) à valeurs
de représentation intégrale dans  , du second ordre, orthonormées dans L 2 (  ,  ) :
1.6.2.1 Mesure spectrale instantanée  ξ m , ξ k  = E ( ξ m ξ k ) = δ km
d’un processus non stationnaire
Prenons Ω =  d et supposons que le théorème de représentation et qui sont telles que :
1/2
(§ 1.6.1.4) tienne avec : λ m ξ m = ( ( X, ϕ m ) )
G (t, w ) = Q (t, w ) exp(i w · t )
Alors, (277) s’écrit : 1.6.2.3 Représentation intégrale des processus stationnaires
Prenons :
R X ( t, t ′ ) = w ∈ d
exp [ iw ⋅ ( t – t ′ ) ] Q ( t, w ) M ( dw ) Q ( t ′, w )* (278) T = Ω = d
et supposons de plus que X (t ) soit stationnaire et continu en m.o.d.
et MX (t, dw ) = Q (t, w ) M (dw ) Q (t, w )* sur  d , de mesure spectrale matricielle MX (dw). Alors, il admet la
représentation intégrale (276) qui s’écrit :
est la mesure spectrale instantanée.
En particulier, si Q (t, w ) = Q (t ), ∈ Mat  ( n, n ) est indépendante
de w, alors on a : X (t ) =  w ∈ d
exp ( i w ⋅ t ) Φ ( dw ) (284)
X (t ) = Q (t ) Y (t )
où Y (t ) est un processus indexé sur  d , à valeurs dans  n , du où Φ est la mesure spectrale stochastique telle que :
second ordre, centré, stationnaire et continu en m.o.d., de mesure E (Φ (B ) Φ (B ’)*) = MX (B ∩ B ’) (285)
spectrale matricielle :
MY (dw ) = M (dw ) pour tout borélien B et B ’ de  d .

1.6.2.2 Développement de Karhunen-Loeve 1.6.2.4 Théorème de Shannon

Soit L 2 ( T, n )
l’espace d’Hilbert des fonctions f : T → n de carré
intégrable, muni du produit scalaire : Supposons de plus que la mesure spectrale matricielle MX du
processus X (t ) du paragraphe 1.6.2.3 admette une densité
( ( f, g ) ) = 
T
<f ( t ), g ( t )> dt (279) w Œ S X (w ) :  d → Mat  ( n , n ) qui soit à support compact :
K = [– wL1 , wL1 ] × ... × [– wLd , wLd ], avec wLj > 0
Supposons que la fonction d’autocorrélation
R X : T × T → Mat  ( n, n ) vérifie : Alors on a :

∑ ∑
 T×T
|R X ( t, t ′ )| 2 d t d t ′ = K < + ∞ (280)
X ( t 1 , ..., t d ) =
k1 ∈ 
...
kd ∈ 
X ( k 1 u L1 , ...,k d u Ld )
(286)
sin [ w L1 ( t 1 – k 1 u L1 ) ] sin [ w Ld ( t d – k d u Ld ) ]
× ---------------------------------------------------------- × ... × -------------------------------------------------------------
Alors, l’opérateur intégral Q de noyau RX (t, t ’), tel que pour tout w L1 ( t 1 – k 1 u L1 ) w Ld ( t d – k d u Ld )
f et tout g dans L 2 ( T,  n ) :
–1 –1


avec u Lj = πw Lj pour j ∈{1, ..., d }, le scalaire u Lj = w Lj π –1
( ( Qf, g ) ) = < R X ( t, t ′ ) f ( t ′ ), g ( t ) > dt dt ′ (281) étant la fréquence d’échantillonnage ou fréquence de Nyquist
T×T
pour la coordonnée tj .
est un opérateur linéaire de L 2 ( T,  n ) , symétrique positif compact,
et il est d’Hilbert-Schmidt. Par conséquent :
Ce théorème indique comment il faut échantillonner chaque
— le spectre des valeurs propres de Q est dénombrable (discret) coordonnée tj d’un processus stationnaire pour obtenir sa repré-
et forme une suite monotone décroissante de nombres réels sentation discrète. On notera que l’hypothèse de support compact
positifs : de SX est fondamentale.
λ 1  λ 2  λ 3  ... → 0

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 28 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

1.7 Ergodicité Le processus X (t ) est dit ergodique en m.o.d. pour sa fonction


d’autocorrélation RX si pour tout u ∈  d , tout p et tout q ∈ {1, ..., n},
Les propriétés d’ergodicité ne concernent que les processus on a :
stationnaires. Elles expriment une certaine équivalence entre les lim V pq, u ( T ) = 0 (293)
T → +∞
moyennes par rapport au paramètre d’indexation t et les moyennes
statistiques, c’est-à-dire par rapport à une mesure de probabilité. En explicitant le second membre de (292), on obtient :
Elles sont surtout utiles en théorie de l’estimation et en statistiques
des processus stationnaires. Nous limitons dans ce qui suit l’exposé
à l’ergodicité en m.o.d. des paramètres du second ordre des 
V pq, u ( T ) = T –2
T T
C pq, u ( v – v ′ ) dv dv ′
processus et des champs stationnaires du second ordre. (294)
 
T1 Td
Soit X (t ) = [X1 (t ), ..., Xn (t )] un processus défini sur (  , t , P ) , = T –1 ...
–1 –1
( 1 – T 1 v 1 ) × ... × ( 1 – T d v d )C pq, u ( v ) dv
–T1 –Td
indexé sur  d , avec d un entier  1 , à valeurs dans  n , du second
ordre, stationnaire et continu en m.o.d., centré. Soit
t Œ m X ( t ) = m 1 = ( m 1,1 , ..., m 1, n ) ∈  n la fonction moyenne qui 
C pq, u ( v ) =  pq, u ( v ) – R pq ( u ) 2 
est nulle : m1 = 0, et u ŒR X ( u ) ∈ Mat  ( n, n ) la fonction d’auto-  (295)
 pq, u ( v ) = E [ X p ( t + u + v ) X p ( t + u ) X q ( t + v ) X q ( t ) ] 
corrélation égale à la fonction de covariance CX puisque m1 = 0. 
On note Rpq (u ) = [RX (u )]pq pour p et q ∈ {1,...,n }. Soit T1 , ..., Td , La relation (294) montre qu’une condition suffisante pour que l’on
d réels positifs et T = T1 × ... × Td . La notation T → + ∞ signifiera ait (293) est que v ŒC pq, u ( v ) soit une fonction intégrable sur  d .

que {T1 → + ∞, ...,Td → + ∞} et la notation T


désignera l’intégrale
d-uple sur le pavé : 1.7.3 Cas d’un processus gaussien

 
T1 Td Si X (t ) est un processus gaussien, il est complètement défini par
]0, T 1 [ × ... × ]0, T d [ : ... sa fonction moyenne mX et sa fonction d’autocorrélation RX . Ainsi,
0 0
s’il est ergodique en m.o.d. pour mX et RX , il sera ergodique pour
tous ses paramètres. Il en est ainsi si RX est une fonction intégrable
et aussi de carré intégrable sur  d .
1.7.1 Ergodicité par rapport à la moyenne

Pour tout p ∈{1,...,n }, on définit la v.a. mp,T à valeurs dans  : 1.7.4 Remarques sur l’ergodicité et l’estimation

m p, T = T –1 T
X p ( t ) dt (287) Supposons, par exemple, que l’on prenne comme estimateur de
la fonction moyenne la v.a. définie par (287) et comme estimateur
de la fonction d’autocorrélation la v.a. définie par (291), le processus
et l’on pose : X (t ) étant stationnaire. Ces deux estimateurs sont sans biais, car :
2
V p ( T ) = |||m p, T – m 1, p ||| 2 = E ( m p, T ) (288)
E (mp,T ) = m1, p et E [Rpq,T (u )] = Rpq (u )
Le processus X (t ) est dit ergodique en m.o.d. pour sa fonction Compte tenu de (288) et (292), on voit que la CNS pour que ces
moyenne (qui est nulle) si et seulement si pour tout p ∈ {1, ..., n } : estimateurs soient consistants est que le processus soit ergodique
pour sa fonction moyenne et sa fonction d’autocorrélation.
lim V p ( T ) = 0 (289)
T → +∞

Comme m1, p = 0, on a :
2. Vibrations aléatoires
V p ( T ) = T –2 
T T
R pp ( t – t ′ )dt dt ′
des systèmes
(290)
  à comportement linéaire
T1 Td
–1 –1
= T –1 ... (1 – T1 u 1 ) × ... × ( 1 – Td u d )R pp ( u ) du
–T1 –Td

Une condition suffisante pour que l’on ait (289) est que la fonction : 2.1 Oscillateur linéaire simple
à un degré de liberté
u ΠR pp ( u )
Pour l’étude des vibrations linéaires des systèmes ayant un
soit intégrable sur  d .
nombre fini ou infini de degrés de liberté, l’oscillateur linéaire simple
joue un rôle fondamental.
1.7.2 Ergodicité par rapport à la fonction
d’autocorrélation
2.1.1 Aspects déterministes
Pour tout p et tout q ∈ {1, ..., n}, on définit, pour tout u ∈ d , la 2.1.1.1 Équation et paramètres
v.a. Rpq,T (u ) :


Les vibrations linéaires du système à un degré de liberté (DDL),
appelé oscillateur linéaire simple, sont régies par l’équation
R pq, T ( u ) = T –1 X p ( t + u ) X q ( t ) dt (291)
T

et l’on pose :
Vpq, u (T ) = |||Rpq,T (u ) – Rpq (u )||| 2 (292)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 29
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

différentielle linéaire du second ordre non homogène à coefficients Comme ξ > 0, A est asymptotiquement stable, c’est-à-dire que les
constants avec conditions initiales : valeurs propres de A ont leurs parties réelles strictement négatives.
On a alors :
 y’(t ) = Ay (t ) + x (t )Q , t > 0 (303)
Mz′′ ( t ) + cz ′ ( t ) + kz ( t ) = x ( t ) , t > 0 
 (296) y (0) = y0 (304)
z ( 0 ) = z0 , z ′ ( 0 ) = z1 

2.1.1.4 Résolvante
avec M, c et k des réels strictement positifs,
Soit t Œ G ( t ) :  → Mat  ( 2, 2 ) la matrice résolvante de (303) qui
z (t ) et x (t ), à valeurs dans  , respectivement la réponse et est définie par :
l’excitation,
z 0 et z1 ∈  les conditions initiales. 
G ′ ( t ) = AG ( t ) , t > 0 
Par exemple, si z (t ) est un déplacement de translation, x (t ) une  (305)
G ( 0 ) = I , G ( t ) = 0 si t < 0 
force, M, c et k sont respectivement la masse, le coefficient d’amortis- 
sement visqueux et la constante de raideur. On introduit les
grandeurs : où I est la matrice unité (2, 2). Pour t  0 , on a :
1
-----
wp = ( k M )2 ; ξ = c ( 2Mw p ) –1 ; η = 2ξ (297) G ( t ) = exp ( tA ) 

  tr A ( s ) ds  = exp ( – η w t )
avec wp la fréquence propre (angulaire) de vibration de l’oscilla-
t
 (306)
det G ( t ) = exp p

teur conservatif homogène associé, 0 
ξ le taux de dissipation critique,
Les éléments Gjk (t ) = [G (t )]jk de la matrice G (t ) sont donc nuls
η le facteur de perte par dissipation.
pour t < 0 et s’écrivent pour t > 0 :
Dans tout ce qui suit, on suppose que ξ est strictement positif.
L’équation (296) s’écrit alors : –1 
0 < ξ < 1 : G 12 ( t ) = w D sin ( w D t ) exp ( – ξ w p t ) 
2
M [ z′′ ( t ) + η w p z′ ( t ) + w p z ( t ) ] = x ( t ) , t > 0 (298) G 11 ( t ) = [ cos ( w D t ) 
1 
+ ξ ( 1 – ξ 2 ) 2 sin ( w D t ) ] exp ( – ξ w p t ) 
– -----

2.1.1.2 Énergie mécanique. Puissance introduite 


et puissance dissipée ξ = 1: G 12 ( t ) = t exp ( – w p t ) 
G 11 ( t ) = ( 1 + w p t ) exp ( – w p t ) 
L’énergie mécanique totale à l’instant t s’écrit : 
ξ>1:
–1
G 12 ( t ) = w S sinh ( w S t ) exp ( – ξ w p t ) 
e tot (t ) = ec (t ) + ep (t )  (307)
1 G 11 ( t ) = [ cosh ( w S t ) 
avec ec (t ) = ----- Mz ′ ( t ) 2 énergie cinétique, 1 
2 – ----- 
1 + ξ ( ξ 2 – 1 ) 2 sinh ( w S t ) ] exp ( – ξ w p t ) 
ep (t ) = ----- k z ( t ) 2 énergie potentielle à l’instant t. 1 1 
2 ----- ----- 
avec w D = w p ( 1 – ξ 2 ) 2 et w S = w p ( ξ 2 – 1 ) 2 
On a :

1 2 ξ>0: G 21 ( t ) = G ′11 ( t ) 
e tot ( t ) = ----- M ( z ′ ( t ) 2 + w p z ( t ) 2 ) (299) 
2 G 22 ( t ) = G12′ (t) 
La puissance introduite Π in (t ) et la puissance dissipée Πd (t ) à
l’instant t s’écrivent : ′ ( t ), j
où G 1j ∈ { 1, 2 } est la dérivée sur ]0,+ ∞[ de G1j (t ) par rapport
à t.

Π in ( t ) = z ′ ( t ) x ( t )  2.1.1.5 Réponse libre
 (300)
Πd ( t ) = η wp M z ′ ( t ) 2  La réponse libre de l’oscillateur est obtenue lorsque l’excitation x
 est identiquement nulle. La solution de l’équation homogène
associée à (303) avec la condition initiale (304) s’écrit :
À chaque instant t, on a :
y ( t ) = G ( t ) y0 , t  0 (308)
e′tot ( t ) = Π in ( t ) – Π d ( t ) (301)
Les relations (307) montrent que t Œ y ( t ) est à décroissance
2.1.1.3 Forme canonique exponentielle pour t → + ∞ (car ξ > 0).
Elle correspond à l’écriture de (296) dans le plan de phase. On Donc, pour tout y 0 ∈  2 , on a :
introduit donc les notations :
lim G ( t ) y 0 = 0 (309)
y (t ) = {z (t ), z ’(t )} , y0 = {z 0 , z1 } , Q = {0, M –1 } t → +∞

à valeurs dans  2 , et A ∈ Mat  ( 2, 2 ) la matrice : 2.1.1.6 Réponse avec excitation

0 1 Soit :
0 1
A = = 2
(302) t Πh ( t ) = G ( t ) Q = { h1 ( t ) , h2 ( t ) }
– M –1 k – M –1 c – wp – η wp
la fonction définie sur  , de support  + , à valeurs dans  2 :

h 1 ( t ) = M –1 G 12 ( t ) 
 (310)
h 2 ( t ) = M –1 G 22 ( t ) 

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 30 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

Pour toute fonction localement intégrable sur  + , la solution 1


– -----
Si 0 < η < 2 , c’est-à-dire 0 < ξ < 2 2 , on a les relations suivantes :
de (303) et (304) s’écrit pour tout t ∈  + :

y (t ) = u (t ) + v (t )



^
h 1 (w ) 2 dw = π ( M 2 η w p )
3 –1



u ( t ) = G ( t )y 0 
 ^
(316)
 (311)
v (t ) =  0
t
h ( t – s ) x ( s ) ds




w 2 h 1 (w ) 2 dw = π ( M 2 η w p ) –1


où u (t ) est la partie transitoire de la réponse tendant exponentielle- ^


et la fonction w Œ h 1 (w ) présente un maximum absolu en ± wm
ment vers 0 pour t → + ∞, et v (t ) la partie forcée de la réponse.
avec :
1
2.1.1.7 Filtre linéaire de convolution associé -----
wm = wp ( 1 – 2 ξ 2 ) 2
C’est le filtre :
h * = {h1*, h 2*} On définit alors la largeur de bande passante BH telle que :
de réponse impulsionnelle t Œ h ( t ) :  →  2 définie par (310).
Comme le support de h est  + , ce filtre est causal et, comme
h ∈ L 1 ( ,  2 ) , il est stable. Sa fonction de transfert :
^
2B H h 1 ( w m ) 2 =  
^
h 1 (w ) 2 dw

p ŒH ( p ) = { H 1 ( p ), H 2 ( p ) } ce qui donne :

η2
 ∼ ----2- π η wp si η  1
1 1
de  dans  2 s’écrit :
2 
B H = ----- π η w p 1 – --------
4
(317)

H (p) = 0
+∞
exp ( – pt ) h ( t ) d t = ( p I – A ) –1 Q (312)
2.1.2 Solution du second ordre du problème
Comme ξ > 0, les pôles de H (p ) ont leurs parties réelles stricte- d’évolution avec condition initiale
ment négatives et le domaine d’holomorphie D H de H est le et excitation aléatoire
demi-plan Re p  – a 0 , avec a 0 > 0, qui contient l’axe imaginaire. On
obtient les relations suivantes : 2.1.2.1 Données
La fonction x (t ) est modélisée par un processus stochastique X (t )
 défini sur (  , t , P ) , indexé sur  , à valeurs dans  , du second
H 1 ( p ) = M –1 ( p 2 + p η w p + w p )
2 –1 
 (313) ordre, continu en m.o.d. Soit :
H 2 ( p ) = pH 1 ( p ) 
 t Œm X ( t ) = E [ X ( t ) ] :  → 

Sa fonction de réponse en fréquence : sa fonction moyenne,


^ ^ ^ et t, t ′ŒR X ( t, t ′ ) = E [ X ( t ) X ( t ′ ) ] :  ×  → 
w Œ h ( w ) = { h 1 (w ) , h 2 (w ) } :  →  2
sa fonction d’autocorrélation.
s’écrit : La condition initiale y0 = { z0 , z1 } est modélisée par une v.a. :
^
h (w ) =  
exp ( – i wt ) h ( t ) d t Y 0 = { Z0 , Z1 }
(314) définie sur (  , t , P ) à valeurs dans  2 , du second ordre, de

+∞
moyenne :
= exp ( – i wt ) h ( t ) d t = H ( 0 + i w )
0 m Y0 = { m Z0 = E ( Z 0 ) , m Z1 = E ( Z 1 ) }
soit : et de corrélation :
^ 2 –1 
T
R Y0 = E ( Y 0 Y 0 ) ∈ Mat  ( 2, 2 )
h 1 (w ) = M – 1 ( – w 2 + i w η w p + wp) 
 (315) La v.a. Y0 est dépendante du processus X (t ). Pour tout t fixé
^ ^ 
h 2 (w ) = i wh 1 (w ) dans  , on note :

L’ admittance de l’oscillateur est la fonction w Œ h 2 (w ) et


^ R Y0 X ( t ) = E [ Y 0 X ( t ) ] = { E [ Z 0 X ( t ) ] , E [ Z 1 X ( t ) ] } ∈ 2
l’impédance est la fonction :
la corrélation de Y0 avec X (t ).
^
w Œ Z ( w ) = h2 (w ) – 1 Si la condition initiale est déterministe :

Y ( 0 ) = y 0 P-p.s., avec y 0 ∈ 2
alors les résultats qui suivent tiennent avec :
T
m Y0 = y 0 , R Y0 = y 0 y 0 et R Y0 X ( t ) = y 0 m X ( t )

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 31
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

2.1.2.2 Solution du second ordre 2.1.2.4 Taux de passage dans le cas gaussien
Sous les données du paragraphe 2.1.2.1 : Soit :
y (t ) = { z (t ), z ’(t )} Y ( t ) = { Z ( t ), Z ′ ( t ) }

est un processus : le processus centré associé à Y (t ) :


Y (t ) = { Z (t ), Z ’(t )}
Y ( t ) = Y ( t ) – mY ( t )
défini sur (  , t , P ) , indexé sur  + , à valeurs dans  2 qui s’écrit,
compte tenu de (311), pour tout t fixé dans  + :
Alors sa fonction moyenne est nulle et sa fonction de covariance
s’écrit :
Y (t ) = U (t ) + V (t ) 
 C Y ( t, t ′ ) = C Y ( t, t ′ ) = E ( Y ( t ) Y ( t ′ ) T )
U ( t ) = G ( t ) Y0 
 (318)


t  On considère les deux cas suivants :
V (t ) = h ( t – s ) X ( s ) ds  — la condition initiale est déterministe et le processus X est
0  gaussien ;
— la condition initiale est aléatoire et, quelle que soit la partition
Les résultats du paragraphe 1.3.6 montrent que le processus
finie {t1 , ..., tn } de  , le vecteur aléatoire {Z 0 , Z1 , X (t1), ..., X (tn )} est
{ Y ( t ), t ∈  + } est du second ordre.
gaussien.
2.1.2.3 Caractéristiques du second ordre Dans les deux cas, les résultats du paragraphe 1 montrent que le
processus Y ( t ) est gaussien. Il est donc complètement défini par
La fonction moyenne t Œ m Y ( t ) :  + →  2 s’écrit pour tout t
fixé dans  + : la fonction C Y . Pour tout t fixé dans  +, la loi conjointe des v.a.
Z ( t ) et Z ′ ( t ) admet une densité gaussienne centrée sur  2 :
m Y ( t ) = { m Z ( t ), m Z ′ ( t ) } = G ( t ) m Y0 +  0
t
h ( t – s )m X (s ) ds (319)
pZ Z′ ( y 1 , y 2 ,t )
La fonction d’autocorrélation :
qui s’écrit en posant y = { y 1 , y 2 } ∈ 2 [voir relation (40)] :
t, t ′ Œ R Y ( t , t ′ ) :  + ×  + → Mat  ( 2, 2 ) pZ Z ′ ( y 1 , y 2 ,t )
1 (325)
s’écrit pour tout t et tout t ’ fixés sur  + : = ( 2π ) –1 [ det C Y ( t, t ) ]
– -----
2 exp (– 1
----- < C Y ( t , t ) –1 y , y >)
2

 où CY (t,t ) est donné explicitement par (321)-(320). Les hypothèses
R Y ( t, t ′ ) = R U ( t, t ′ ) + R V ( t, t ′ ) + R UV ( t, t ′ ) + R UV ( t ′, t )T  du paragraphe 1.5.1.1 sont vérifiées et les nombres moyens de
 points de passage et de points de franchissement du processus
R U ( t, t ′ ) = G ( t )R Y0 G ( t ′ ) T 
 Z ( t ) par un niveau u ∈  sur l’intervalle I = [ b, c ] ⊂  + peuvent

t t′  (320)
R V ( t, t ′ ) = h ( t – s )R X ( s, s ′ ) h ( t ′ – s′ ) T ds ds′  être calculés par (253), (254) (255). On peut calculer aussi les
0 0  mêmes grandeurs pour le processus non centré Z (t ).


t′ 
R UV ( t, t ′ ) = G ( t ) R Y0 X ( s ) h ( t ′ – s ) T ds 
 2.1.2.5 Processus énergie dans le cas gaussien
0 
Sous les hypothèses gaussiennes (§ 2.1.2.4), le processus
On en déduit l’expression de la fonction de covariance { tot ( t ), t ∈  + } n’est pas gaussien. On peut, dans ce cas, calculer
C Y :  + ×  + → Mat  ( 2, 2 ) du processus Y (t ) : explicitement la loi de ce processus [121]. Si l’on ne s’intéresse
CY (t, t ’) = RY (t, t ’) – mY (t )mY (t ’)T (321) qu’à la loi marginale d’ordre 1, c’est-à-dire la loi de la v.a. tot ( t )
pour t fixé, ou même à la loi conjointe de la v.a. { tot ( t ), ′tot ( t ) }
2 2
Les variances σ Z ( t ) et σ Z ′ ( t ) des v.a. Z (t ) et Z ’(t ), pour t fixé, pour le calcul de taux de passage du processus tot ( t ) , on peut les
et leur covariance C ZZ ’ (t ) peuvent être calculées par : obtenir facilement par la méthode du paragraphe 1.2.7.2.
2
σ Z ( t ) = [ C Y ( t, t ) ] 11
2 2.1.3 Cas d’une excitation stationnaire
σ Z ′ ( t ) = [ C Y ( t, t ) ] 22 (322)
C ZZ ′ ( t ) = [ C Y ( t, t ) ] 12 2.1.3.1 Données
On reprend toutes les données du paragraphe 2.1.2.1, mais on
Pour t fixé dans  + , l’énergie e tot (t ) est une v.a. tot ( t ) qui s’écrit : suppose de plus que le processus du second ordre X (t ) est centré
et stationnaire en m.o.d. et que sa mesure spectrale de puissance :
1 2
tot ( t ) = ----- M ( Z ′ ( t ) 2 + w p Z ( t ) 2 ) (323) MX (dw ) = SX (w ) dw
2
dont la moyenne est donnée par : admet une densité. Sa fonction moyenne est donc nulle, la fonction :

E[
1 2 t Œ R Y0 X ( t ) = r Y0 X ∈ 2
tot ( t ) ] = ----- M ( [ R Y ( t, t ) ] 22 + w p [ R Y ( t, t ) ] 11 )
2
(324)
est indépendante de t, et sa fonction d’autocorrélation ne dépend
que de t – t ’ : RX (t, t ’) = RX (t – t ’).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 32 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

Le processus Y (t ), défini par (318), est toujours non stationnaire les densités spectrales et interspectrales de puissance des processus
sur  + et tous les résultats du paragraphe 2.1.2 tiennent. ZS (t ) et Z S′ ( t ) . Compte tenu de (330) et de (315), on a :

2.1.3.2 Filtrage du processus d’entrée S Z S (w ) S ZS Z S′ (w )


S Y S (w ) =
Soit Y S ( t ) = { Z S ( t ), Z S′ ( t ) } le processus indexé sur  à valeurs S Z S′ ZS (w ) S Z S′ (w )

dans 2, transformé du processus X (t ) par le filtre linéaire causal ^ (331)


h 1 (w ) 2 – iw ^
h 1 (w ) 2
stable de réponse impulsionnelle t Œh ( t ) définie au paragraphe
= S X (w ) ×
2.1.1.7 [voir (156)-(157)] :
^ ^
i w h 1 (w ) 2 w 2 h 1 (w ) 2
YS ( t ) = ( h ∗ X ) ( t ) = –∞
t
h (t – s ) X (s) ds (326) Soit :
2
Comme h ∈ L 1 ( ,  2 ) , les résultats du paragraphe 1.3.6.2.1 σ ZS = E [ ZS ( t )2 ]
s’appliquent et le processus YS (t ) est du second ordre, continu et 2
σ Z S′ = E [ Z S′ ( t ) 2 ]
stationnaire en m.o.d. Donc, Z S′ ( t ) est la dérivée en m.o.d. du
processus ZS (t ). C ZS Z S′ = C Z S′ ZS = E [ Z S ( t ) Z S′ ( t ) ]

2.1.3.3 Convergence asymptotique de Y (t ) vers YS (t ) les variances et covariances, indépendantes de t, des v.a. centrées
ZS (t ) et Z S′ ( t ) pour t fixé. On a :
Sous les hypothèses précédentes, le processus non stationnaire
Y (t ) défini par (318) tend asymptotiquement, pour t → + ∞ et en

2
m.o.d., vers le processus stationnaire en m.o.d. YS (t ), c’est-à-dire σ ZS C ZS Z S′
que l’on a : R YS ( 0 ) = = S YS (w ) dw (332)
2 
C Z S′ σ Z S′
lim E  Y ( t ) – Y S ( t ) 2 =0 (327) ZS
t → +∞
ce qui permet d’écrire compte tenu de (331) :
Ce résultat est fondamental. Il montre que, d’une part, la solution


du second ordre Y (t ) du problème d’évolution de (303)-(304), avec

ξ > 0, avec une excitation X (t ) stationnaire en m.o.d. et avec une 2
σ ZS = S ZS (w ) dw 
condition initiale aléatoire du second ordre, est un processus du  

 
second ordre non stationnaire en m.o.d. qui tend asymptotique-
2 
ment en m.o.d. vers un processus stationnaire en m.o.d. YS (t ). σ Z S′ = S Z S′ (w ) dw = w 2 S ZS (w ) dw  (333)
D’autre part, si l’on ne s’intéresse qu’à la solution stationnaire en   
m.o.d. YS (t ), cette dernière peut être construite directement par le
filtrage linéaire (326) de X (t ), sans passer par la construction du C ZS Z S′ = C Z S′ ZS =  
S ZS Z S′ (w ) dw = 0



processus non stationnaire Y (t ). 

2.1.3.4 Caractéristiques du second ordre La dernière relation montre que les v.a. ZS (t ) et Z S′ ( t ) sont
de la réponse stationnaire orthogonales.
^
Elles sont données par les relations (159), (160) et (161). La fonction On l’obtient en remarquant que la fonction w Œw h 1 (w ) 2 est
moyenne : impaire sur  .
m YS ( t ) = { m ZS ( t ), m Z S′ ( t ) } :  →  2 La fonction d’intercorrélation :

est nulle ; sa fonction d’autocorrélation est notée : u ŒR YS X ( u ) :  →  2

R YS ( u ) = E ( Y S ( t + u )Y S ( t ) T ) :  → Mat  ( 2, 2 ) des processus YS (t ) et X (t ) s’écrit :

et sa mesure spectrale :
R YS X ( u ) =  +∞
h ( s ) R X ( u – s ) ds = ( h ∗ R X ) ( u ) (334)
M YS ( dw ) = S YS (w ) d w 0

et la densité interspectrale w Œ S YS X ( w ) :  →  2 telle que :


admet une densité S YS (w ) ∈ Mat  ( 2, 2 ) , telle que :
m ZS ( t ) = 0 , m Z S′ ( t ) = 0 (328) R YS X ( u ) =  
exp ( iw ⋅ u ) S YS X (w ) dw

 
+∞ +∞
s’écrit :
R YS ( u ) = h ( t ′ ) h ( t ′′ ) T R X ( u + t ′′ – t ′ ) dt ′′ dt ′ (329) ^
0 0 S Y S X (w ) = h (w ) S X (w )
^ ^
S YS (w ) = h (w ) h ( w )*S X (w ) (330) Vu (315), on a :

^ 
Soit : S Z S X (w ) = h 1 (w ) S X (w ) 
S ZS , S Z S′ , S ZS Z S′ et S Z S′ ZS ^  (335)
S Z S′ X (w ) = iwh 1 (w ) S X (w ) 

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 33
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

^
Les fonctions de cohérence γ ZS Z S′ (w ), γ ZS X (w ) et γ Z S′ X (w ) avec h 2 (w ) l’admittance définie par (315).
définies par (125) s’écrivent alors :
2.1.3.6 Cas d’une excitation gaussienne
γ ZS Z S′ (w ) = γ Z S′ X (w ) = γ ZS X (w ) = 1 , ∀ w ∈
Supposons que X (t ) soit un processus gaussien. Alors le
Pour tout t fixé, la covariance C ZS X des v.a. ZS (t ) et X (t ) et la processus :
B ( t ) = [ Z S ( t ), Z S′ ( t ), X ( t ) ]
covariance C Z S′ X des v.a. Z S′ ( t ) et X (t ) sont indépendantes de t
et s’écrivent : indexé sur  , à valeurs dans  3 , est gaussien, du second ordre,
centré, continu en m.o.d. et stationnaire, la transformation :

C ZS X = E [ Z S ( t ) X ( t ) ] = 
S ZS X (w ) dw



X ŒB = ( h 1 ∗ X , h 2 ∗ X , X )



(336) étant linéaire.

C ZS′ X = E [ Z S′ ( t ) X ( t ) ] = S Z S′ X (w ) dw  Pour tout t fixé, la v.a. B (t ) est donc gaussienne centrée. Elle est
  complètement définie par sa matrice de covariance :

Les processus : CB = E ( B ( t ) B ( t )T ) ∈ Mat  ( 3,3 )


1 2  qui s’écrit, compte tenu de (332) et (333) :
tot ( t) = ----- M ( Z S′ ( t ) 2 + w p Z S ( t ) 2 )
2


Π in ( t ) = Z S′ ( t ) X ( t )  (337) 2
 σ ZS 0 C ZS X
Π d ( t ) = η w p MZ S′ ( t )2 
 CB = 0
2
σ Z S′ C Z S′ X (342)
indexés sur  , sont du second ordre et stationnaires en m.o.d. 2
C ZS X C Z S′ X σX
Pour tout t fixé, les moyennes sont indépendantes de t et l’on a :
Les éléments de cette matrice sont obtenus en utilisant les
1 2 2 2 
E[ tot ( t) ] = ----- M ( σ Z S′ + w p σ ZS )  résultats du paragraphe 2.1.3.4. On notera que les v.a. ZS (t ) et
2  Z S′ ( t ) étant centrées, orthogonales et gaussiennes sont indépen-
E [ Π in ( t ) ] = C Z S′ X  (338) dantes, mais les processus ZS (t ) et Z S′ ( t ) ne sont pas indépendants.

E [ Π d ( t ) ] = η w p M σ Z S′
2 
 2.1.3.6.1 Statistiques sur les trajectoires du processus
ZS (t )
En appliquant (135), on obtient E [ tot ′ ( t ) ] = 0 . On déduit
de (301) : On peut utiliser directement les résultats du paragraphe 1.5, en
E [Π in (t )] = E [Πd (t )] (339) remplaçant dans les formules σ X , σ X ’ e t σ X ’’ p a r
σ ZS , σ Z S′ et σ Z S′′ où σ Z S′′ est tel que :

2.1.3.5 Cas d’une excitation large bande


et d’un oscillateur faiblement amorti
2
σ Z S′′ =  ZS ,4 = 

w 4 S Z S (w ) d w =  
^
w 4 h 1 (w ) 2 S X (w ) d w (343)
1
– -----
Le taux de dissipation vérifie 0 < ξ < 2 2 et la bande passante Le nombre moyen de passages du processus Z S (t ) sur un
BH du filtre est définie par (317). La fréquence caractéristique de ce intervalle borné I de  , par le niveau u, est donné par (257). La loi,
la moyenne et l’écart-type de la v.a. Zmax = supt ∈ I ZS (t ) sont donnés
système est :
par (260), (261) et (262). Les statistiques des maximums et des
1
----- minimums locaux sont données par (269), (270), (271), (272) et (273).
wm = wp ( 1 – 2 ξ 2 ) 2
■ Remarque : sous les hypothèses particulières du paragraphe
On suppose que la densité spectrale de X (t ) s’écrit : 2.1.3.5, on a (340) et on peut vérifier que l’on a :
S X (w ) = S 0 * [ – b , b ] (w ) 2
2
σ Z S′′  4
w p σ ZS
avec S0 > 0 et b > 0 tel que b  w m + B H 2 .
La fréquence apparente :
Alors le processus X (t ) est dit large bande vis-à-vis de ce filtre.
En utilisant les relations (316), on obtient les approximations –1
ν = ( 2π ) –1 σ Z S′ σ ZS
suivantes déduites de (331), (333), (338) et (339) :
qui intervient dans les relations (257), (261) et (262) s’écrit :

2
σ ZS  π ( M 2 η w p ) S0
3 –1

ν  ( 2 π ) –1 w p

2
σ Z S′  2
wp
2
σ ZS = π(M 2ηw ) –1 S 
p 0  La largeur de bande ε du processus ZS (t ), définie par (271), s’écrit
 (340) dans ce cas ε ≈ 0. Ainsi pour ξ  1 et une excitation large bande,
E[ tot ( t ) ]  2 2
Mw p σ ZS = π ( M η w p ) –1 S 0 
 la réponse Zs (t ) est un processus à bande étroite de fréquence angu-
E [ Π d ( t ) ] = E [ Π in ( t ) ] = C Z S′ X  π S 0 M –1  laire apparente wp . Il y a filtrage du processus X (t ) par l’oscillateur
 faiblement amorti, la bande passante du filtre étant dans ce cas

étroite et centrée en wp .
De plus (335), (336) et (315) permettent d’établir la relation :


+∞
^
E [ Π in ( t ) ]  2 S0 Re h 2 ( w ) d w (341)
0

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 34 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

2.1.3.6.2 Loi de probabilité de l’énergie Soit dσ la mesure positive des aires d-dimensionnelles sur  ,
exprimée sur l’espace de paramétrage  . Notant  la mesure
Pour tout t fixé, la v.a. à valeurs dans  2 : { tot ( t ) , tot
′ ( t )} de  (longueur pour d = 1, aire pour d = 2), on a :
résulte de la transformation non linéaire définie par (337) de la v.a.
gaussienne centrée B (t ). On peut alors calculer la densité de
probabilité :  = 
d σ (s ) (346)
′ ( t ) ( e1 , e2 )
p tot ( t ), tot
Soit s Πz ( t , s ) = [ z 1 ( t , s ) , ..., z n ( t , s ) ]
2
par rapport à d e 1 d e 2 sur  , de la loi conjointe des v.a. non le champ défini sur  à valeurs dans  n , n  1 , décrivant à
l’instant t l’état du système autour de sa configuration de référence,
gaussiennes tot ( t ) et ′tot ( t ) , en utilisant les résultats du
paragraphe 1.2.7. On peut ensuite calculer des statistiques sur les définie par  . Le champ de vitesse :

trajectoires du processus stationnaire { tot ( t ), t ∈  } à l’aide des s Œ ∂ t z ( t , s ) = [ ∂ t z 1 ( t , s ) , ..., ∂ t z n ( t , s ) ]


relations (253), (254), (255), (260), (264), (265), (266), (267) et (268).
défini sur  à valeurs dans  n est supposé exister pour tout t. On
■ Remarque : si l’on ne s’intéresse qu’à la loi de la v.a. tot ( t ) pour t note :
fixé, avec les hypothèses du paragraphe 2.1.3.5, c’est-à-dire que s Œ y ( t , s ) = { z ( t , s ) , ∂t z ( t , s ) } ∈ n × n   2n (347)
l’on a :
σ Z S′ ≈ wp σZ le champ décrivant l’état du système à l’instant t, dans l’espace des
S
phases.
alors, en utilisant les résultats du paragraphe 1.2.7.1, avec le change-
ment de variable : 2.2.1.2 Masse
z = σ ZS r cos θ ; z ′ = σ Z S′ r sin θ
Soit 0 < c 1  ρ (s )  c 2 < + ∞ la distribution de masse (linéique
si d = 1, surfacique si d = 2). La masse totale M du système s’écrit :
où z et z ’ sont respectivement associés à ZS (t ) et Z S′ ( t ) , et sachant
que la loi de la v.a. { Z S ( t ), Z S′ ( t ) } sur  2 s’écrit : M = ρ
( s ) d σ (s ) (348)
p ZS ( t ), ZS′ ( t ) ( z, z ′ ) dz dz ′

 
1 –2 –2 (344)
= ( 2π σ ZS σ Z S′ ) –1 exp – ----- ( z 2 σ ZS + z ′ 2 σ Z S′ ) d z d z ′ 2.2.1.3 Conditions initiales
2
Pour simplifier l’exposé, nous supposerons dans la suite que les
on obtient la loi de probabilité sur  + de la v.a. tot ( t ) qui s’écrit : conditions initiales y (0, s ) sont nulles pour le problème d’évolution.
À l’aide du principe de superposition, on peut étendre les résultats
2 2 –1 2 2 –1
p tot ( t ) ( e1 ) de 1 = ( Mw p σ ZS ) exp ( – e 1 ( Mw p σ ZS ) ) d e 1 (345) qui suivent au cas de conditions initiales non nulles.

2.2.1.4 Conditions aux limites et excitations


Les conditions aux limites relatives à z sont données sur une partie
2.2 Système linéaire continu
invariant en temps Γ1 de  de mesure-d σ nulle et sont du type :

zj (t, s ) = 0, ∀t, ∀s ∈ Γ1
Dans ce paragraphe, on considère des systèmes dynamiques à Γ1 est un ensemble de points si d = 1, un ensemble de points et
comportement linéaire ayant un nombre infini de DDL, invariants de courbes si d = 2. Les excitations sont représentées à l’instant t
dans le temps. Les développements qui suivent constituent une par le champ :
généralisation directe en dimension infinie des résultats établis au
s Πx ( t , s ) = [ x 1 ( t , s ) , ..., x n ( t , s ) ]
paragraphe 2.1 pour l’oscillateur linéaire simple.
défini sur Γ 2 =  \ Γ 1 , à valeurs dans  n , qui est une densité de
forces par rapport à d σ . Comme Γ1 est de mesure-d σ nulle, nous
2.2.1 Aspects déterministes identifierons dans toute la suite les intégrales sur Γ2 par rapport à
d σ à des intégrales sur  par rapport à d σ.
2.2.1.1 Paramétrage
On considère un système continu 1-D ou 2-D occupant un 2.2.1.5 Énergie cinétique et puissance introduite
domaine borné de l’espace euclidien  3 . Soit  le domaine du
système qui est une variété paramétrique de dimension d ∈ {1,2} À l’instant t, elles sont notées respectivement ec (t ) et Πin(t ) et
de  3 . Si d = 1, le milieu est 1-D ou curviligne (poutres droites ou s’écrivent :
courbes, etc.), si d = 2, le milieu est 2-D ou surfacique (plaques,
coques, etc.). Pour simplifier l’exposé, nous ne considérons pas ici
le cas d = 3 pour lequel  serait alors un ouvert borné de  3 ,
1
e c ( t ) = -----
2


( s ) < ∂ t z ( t, s ), ∂ t z ( t , s ) > d σ (s )



(349)
c’est-à-dire un milieu 3-D ou volumique. Les résultats qui suivent 
s’étendent sans difficulté, mais il faut distinguer pour ce cas les
excitations surfaciques sur le bord ∂  des excitations volumiques Π in ( t ) = 
< ∂t z ( t , s ) , x ( t , s ) > d σ ( s )



dans  , ce qui complique le formalisme. Soit  l’ouvert borné de
 d représentant l’espace de paramétrage de  . On note :
 la fermeture de  ;
t ∈  le temps ;
s = (s1 , ..., sd ) et r = (r1 , ..., rd ) deux points de  .

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 35
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

2.2.1.6 Réponse impulsionnelle généralisée obtenue par filtrage temporel de l’excitation :


dans l’espace des phases
t, s Œx ( t, s ) :  ×  →  n
C’est la fonction t, s, r Œ h ( t ; s , r ) = { h 1 ( t ; s , r ) , h 2 ( t ; s , r ) },
définie sur T =  ×  d ×  d à valeurs dans Mat  ( n, n ) × Mat  ( n, n )
s’écrit pour t ∈  et s ∈  :
+
identifié à Mat  ( 2n, n ) , de support T S =  + ×  ×  , intégrable, de
carré intégrable par rapport à dt ⊗ dσ ⊗ dσ sur T et telle que, pour
y S ( t, s ) =  
t

–∞ 
h ( t – τ ; s, r ) x ( τ , r ) d σ ( r ) d τ
(352)
 
tout s et r, on ait : +∞

h 1 ( 0 ; s, r ) = 0, h 2 ( t ; s, r ) = ∂ t h 1 ( t ; s, r ), |h 2 ( t ; s, r )|  f ( t ) = h ( τ ; s, r ) x ( t – τ , r ) d σ ( r ) d τ
0 

où f est une fonction réelle positive dt -intégrable sur  . La dérivée Toutes les remarques du paragraphe 2.2.1.7 tiennent.
distribution ∂t h1 est donc représentée par une fonction.
2.2.1.10 Approche modale pour le cas faiblement amorti
2.2.1.7 Réponse en fréquence généralisée
Nous montrons dans ce paragraphe comment l’approche modale
^ ^ ^ permet de construire la réponse impulsionnelle et la réponse en
C’est la fonction w, s, r Œ h ( w ; s , r ) = { h 1 ( w ; s, r ), h 2 ( w ; s , r ) } fréquence généralisées.
d é fi n i e s u r T , à v a l e u r s d a n s Mat  ( 2n, n ) , d e s u p p o r t
2.2.1.10.1 Étude préliminaire sur un cas particulier
T S =  ×  ×  , telle que :
Considérons les vibrations de flexion d’une poutre droite homo-
^
h ( w ; s, r ) = 
exp ( – i wt ) h ( t ; s , r ) d t
gène de longueur L, articulée sur ses bords (extrémités) :
1
-----
(350) 2 2
ρ ∂ t z ( t, s ) – η ( ρ D ) 2 ∂ s ∂ t z ( t, s ) + D ∂ s z ( t, s )
4


+∞ (353)
= exp ( – i wt ) h ( t ; s , r ) d t = x ( t, s ), s ∈ ]0,L[
0
avec les conditions aux limites :
^
La fonction h est de carré intégrable par rapport à dw ⊗ dσ ⊗ dσ 2 2
sur T et l’on a : z ( t, 0 ) = z ( t, L ) = ∂ s z ( t, 0 ) = ∂ s z ( t, L ) = 0 (354)
^ ^
h 2 ( w ; s, r ) = iw h 1 ( w ; s, r ) et les conditions initiales :
^
Sous les hypothèses données, w Œ h 2 ( w ; s , r ) n’est générale- z (0, s ) = ∂t (0, s ) = 0 (355)
ment pas dw-intégrable sur  pour tout s et tout r. où D > 0 est le module de rigidité en flexion,
η>0 la constante d’amortissement visqueux,
2.2.1.8 Problème d’évolution avec condition initiale
ρ>0 la masse linéique,
La réponse t, s Œ y ( t , s ) :  + ×  →  2 n du système, de réponse
impulsionnelle généralisée h définie au paragraphe 2.2.1.6, avec M = ρL la masse totale,
condition initiale nulle : z ( t, s ) ∈  le déplacement transversal (donc n = 1).
y (0, s ) = 0 Ici, le domaine  coïncide avec  = ]0,L[ (donc d = 1).
et excitation : Le problème spectral associé à (353)-(354) s’écrit :
t, s Œx ( t, s ) :  + ×  →  n

s’écrit pour t  0 et s ∈ :
4
– w 2 ρϕ ( s ) + D ∂ s ϕ ( s ) = 0, s ∈ ]0, L [ 
 (356)

 
2 2
t ϕ ( 0 ) = ϕ ( L ) = ∂s ϕ ( 0 ) = ∂s ϕ ( L ) = 0
y ( t, s ) = h ( t – τ ; s, r ) x ( τ , r ) d σ ( r ) d τ 
0 
(351)
t Les fréquences propres (angulaires) wj sont dénombrables et
= h ( τ ; s, r ) x ( t – τ , r ) d σ ( r ) d τ toutes réelles positives. Elles s’écrivent :
0 
1
-----
w j = ( jπ L ) 2 ( D ρ ) 2 , j ∈ *
Remarques : en prenant pour x une fonction bornée sur
 + ×  , on voit, compte tenu des hypothèses (§ 2.2.1.6), que y Les modes propres de vibration associés, convenablement
est bornée, donc que la transformation intégrale est stable. normalisés, s’écrivent :
D’autre part, elle est causale. Enfin, l’introduction de toutes les 1
hypothèses (§ 2.2.1.6) est nécessaire pour que la dérivée -----
ϕ j ( s ) = 2 2 sin ( j πs L )
∂t z (t, s ) de z (t, s ) par rapport à t soit une fonction et soit donnée
2
par la seconde composante de (351), la première donnant Ils forment une base hilbertienne de L d µ (  ,  ) avec dµ = M –1 ρ ds :
z (t, s ).


L
j ( s ) ϕ k ( s ) M –1 ρ ds = δ jk (357)
2.2.1.9 Filtre de convolution temporel associé 0
La réponse : La projection du problème (353)-(354) sur la base { ϕ j , j ∈ *}
conduit à écrire :
t, s Œy S ( t, s ) = { z S ( t, s ), ∂ t z S ( t , s ) } :  ×  → n × n  2n +∞
z ( t, s ) = ∑ zj ( t ) ϕ j ( s ) (358)
j=1

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 36 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

les coordonnées modales z j ( t ) ∈ vérifiant pour chaque j 2.2.1.10.2 Généralisation


On considère un système dynamique dont le paramétrage est
l’équation différentielle sur  (298) de l’oscillateur linéaire simple : décrit (§ 2.2.1.1 et § 2.2.1.2), faiblement amorti, régi par une équation
2 aux dérivées partielles linéaires, du second ordre en temps, à
j ( t ) + η j w j z j′ ( t ) + w j z j ( t ) ] = x j ( t )
M [ z ′′ (359) coefficients indépendants de t. Les conditions initiales et aux limites,
et les excitations sont décrites dans les paragraphes 2.2.1.3 et 2.2.1.4.
avec ηj facteur de perte par dissipation du mode j qui s’écrit dans
Le problème spectral, issu de la formulation variationnelle du
ce cas :
système conservatif associé, donne, par hypothèse, un spectre
ηj = η dénombrable de fréquences propres de vibration
xj (t ) force généralisée du mode j qui s’écrit : { w j ∈  + , j ∈ * } ; l’ordre de multiplicité des fréquences propres

 L étant fini et tel que les modes propres de vibration associés


xj ( t ) = x ( t, r ) ϕ j ( r ) dr (360) s Œ ϕ j (s ) :  →  n , qui vérifient les conditions aux limites,
0
2
constituent une base hilbertienne de L d µ ( ,  n ) avec :
Supposons que le système soit faiblement amorti, c’est-à-dire
1
----- dµ (s ) = M –1ρ (s ) dσ (s )
que la constante d’amortissement η vérifie 0 < η < 2 2 . Donc on a :
On a pour tout j et tout k dans * :
1


-----
0 < ηj < 2 2, ∀j ∈ N* (361)
< ϕ j ( s ), ϕ k ( s ) > M –1 ρ ( s ) d σ ( s ) = δ jk (367)
Compte tenu de (307) et de (310), on pose naturellement : 

Ces hypothèses correspondent à la situation classique des


 0, si t < 0  problèmes usuels envisagés ici et qui relèvent de la théorie spectrale
h 1, j ( t ) =  –1  (362)
 M –1 w D , j sin ( w D , j t ) exp ( – ξ j w j t ) , si t  0  des opérateurs linéaires symétriques compacts positifs sur les
espaces d’Hilbert réels.
1
2 ----- On introduit les hypothèses suivantes :
avec ξ j = η j 2, w D, j = w j ( 1 – ξ j ) 2
1) les conditions aux limites sur Γ1 sont telles qu’il n’y a pas de
et (315) donne : fréquence propre nulle ;
2) l’opérateur d’amortissement se diagonalise sur la base {ϕ j },
^ 2 –1 les facteurs modaux de perte par dissipation ηj de chaque mode j
h1, j (w ) = M – 1 ( – w 2 + i w η j w j + w j ) (363) vérifiant (361) ;
3) les suites { w j , j ∈ * } et { η j , j ∈  * } sont telles que :
On en déduit l’expression de la composante h1 (t ; s, r ) de la
réponse impulsionnelle généralisée h et l’expression de la +∞

^
composante h 1 ( w ; s, r ) de la réponse en fréquence généralisée h :
^ ∑ ( η j w j ) –1 < + ∞
j=1

+∞ Comme au paragraphe 2.2.1.10.1, on cherche z (t, s) sous la


h 1 ( t ; s, r ) = ∑ h1, j ( t ) ϕ j ( s ) ϕ j ( r ) (364) forme (358), les coordonnées modales z j ( t ) ∈  vérifiant, pour
j=1 chaque j, l’équation (359) avec x j ( t ) ∈  , la force généralisée du
mode j, qui s’écrit :
+∞


^ ^
h 1 ( w ; s, r ) = ∑ h1, j ( w ) ϕ j ( s ) ϕ j ( r ) (365)
xj ( t ) = < x ( t, r ), ϕ j ( r ) > d σ ( r ) (368)
j=1

soit h 2, j ( t ) = h 1,
′ j (t )
On introduit (362) et (363). Vu l’hypothèse 3, on a :


^ ^ +∞ +∞
alors h 2, j (w ) = iwh 1, j (w )
^
∑ w 2 h 1, j (w ) 2 dw = ∑ π ( M 2 η j w j ) –1 < + ∞
où h 2, j ∈L2 ( ,  ) à support  + et h 2, j ∈ L 2 ( ,  ) . 
j=1 j=1

On pose : ^
On en déduit l’expression de h1 (t ; s, r ) et h 1 ( w ; s , r ) :
^ ^
h 2 ( w ; s, r ) = iwh 1 ( w ; s, r ) +∞

En utilisant (316), (320), (363) et (365), on obtient :


h1 ( t ; s , r ) = ∑ h1, j ( t ) ϕ j ( s ) ϕ j ( r ) T (369)
j=1

 +∞

 
+∞ ^ ^
∑ h1, j (w ) ϕ j ( s ) ϕ j ( r ) T
L L
^  h1 ( w ; s , r ) = (370)
 0 0
hk ( w ; s , r ) 2 dw ds dr = c ∑ j 4 k – 10 <+ ∞  (366) j=1
j=1 
k ∈ { 1, 2 }  et les fonctions

^ ^ ^ ^
^ h = { h 1 , h 2 = ∂ t h 1 } et h = { h 1 , h 2 = i w h 1 }
où c est une constante réelle positive, ce qui montre que h est
dans L 2 (  ×  ×  ;  2 ). vérifient toutes les hypothèses des paragraphes 2.2.1.6 et 2.2.1.7.
On en déduit ensuite que h 1 est dans L2 ( 
×  ×  ;  ) . Ainsi que
h 2 = ∂t h 1 . Ainsi, toutes les hypothèses des paragraphes 2.2.1.6 et
2.2.1.7 sont vérifiées.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 37
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

Enfin l’énergie mécanique totale e tot (t ), la puissance introduite Sous les hypothèses du paragraphe 2.2.1.6, le champ Y (t, s ) est
Π in (t ) et la puissance dissipée Πd (t ) s’écrivent à chaque instant t : du second ordre :

 |||Y (t, s )|||2 = E (||Y (t, s )||2) < + ∞, ∀t, ∀s (373)


+∞

e tot ( t ) = ∑ e tot, j ( t ) 

continu en m.o.d. On en déduit que ∂ t Z (t, s ) est la dérivée en m.o.d.
par rapport à t du champ Z (t, s ) (§ 1.3.4.8).
j=1

1 2 
e tot, j ( t ) = ----- M ( z j′ ( t ) 2 + w j z j ( t ) 2 )  2.2.2.3 Caractéristique du second ordre
2 
+∞  La fonction moyenne du champ Y (t, s ) et donc celle des champs
 Z (t, s ) et ∂ t Z (t, s ) sont nulles. Soit :
Π in ( t ) = ∑ Π in, j ( t ) 
j=1  (371)
 t, t ′ , s , s ′ Œ R ik ( t , t ′ , s , s ′ ) :  + ×  + ×  ×  → Mat  ( n , n )
Π in, j ( t ) = z j′ ( t ) x j ( t ) 

 les fonctions d’autocorrélation et d’intercorrélation transversales des
+∞
 champs :
Πd ( t ) = ∑ Πd, j ( t ) 

Y1 (t, s) = Z (t, s ) et Y2 (t, s) = ∂ t Z (t, s)
j=1
 telles que pour i et k ∈ {1, 2} :

Π d, j ( t ) = η j w j Mz j′ ( t ) 2 
 Rik (t, t ’, s, s ’) = E (Yi (t, s ) Yk (t ’, s ’)T ) (374)

et la relation (301) tient. De même, on note :

t, t ′ , s , s ′ Œ R iX ( t , t ′, s , s ′ ) :  + ×  + ×  ×  → Mat  ( n , n ) :
(375)
2.2.2 Solution du second ordre du problème R iX ( t, t ′ , s , s ′ ) = E ( Y i ( t , s ) X ( t ′ , s ′ ) T ) , i ∈ { 1, 2 }
d’évolution avec une excitation aléatoire
stationnaire en temps Alors pour i et k ∈ {1, 2}, on a :
R ik ( t, t ′ , s , s ′ )
Le cas d’une excitation non stationnaire en temps conduit à un

  
problème dont la solution est donnée directement en appliquant la t t′
transformation intégrale linéaire du paragraphe 1.3.6.1. Nous = hi ( τ ; s , r ) RX ( t – t ′ + τ ′ – τ , r , r ′ ) (376)
considérons dans ce paragraphe le cas stationnaire en temps. 0 0  
× hk ( τ ′ ; s ′ , r ′ )T d σ ( r ) d σ ( r ′ ) d τ d τ ′
2.2.2.1 Données
L’excitation x (t, s ) est modélisée par un champ stochastique
(§ 1.3.5) X (t, s ) = (X1 (t, s ), ..., Xn (t, s )] défini sur (  , t , P ) , indexé
R iX ( t, t ′ , s , s ′ ) =  
0
t


h i ( τ ; s , r ) R X ( t – t ′ – τ , r , s ′ ) d σ ( r ) d τ (377)

Pour tout t fixé, les v.a. ( t ) et Π in ( t ) définies par (349) ont pour
sur  ×  à valeurs dans  n , du second ordre, centré, continu en c
moyennes :
m.o.d. et stationnaire en m.o.d. par rapport à t. Sa fonction moyenne

ρ 
est donc nulle. Sa fonction d’autocorrélation transversale :
(s ) tr R 22 ( t , t , s , s ) d σ ( s ) 
1
E[ ( t ) ] = -----
u, s, s ′ Œ R X ( u , s , s ′ ) = E ( X ( t + u , s ) X ( t , s ′ ) T )
c
 2 
 (378)

de  ×  ×  dans Mat  ( n, n ) est continue. Elle est donc bornée E [ Π in ( t ) ] =




tr R 21 ( t , t , s , s ) d σ ( s )



sur  ×  ×  , puisque :
2.2.2.4 Taux de passage dans le cas gaussien
|R X ( u, s, s ′ )| 2  tr R X ( 0, s , s ) tr R X ( 0, s ′ , s ′ )
Si le champ X (t, s) est gaussien alors, pour tout s fixé et pour
Sa mesure spectrale transversale vérifiant (148), admet une tout j ∈ {1, ..., n }, le processus t Œ Z j ( t , s ) indexé sur  + à valeurs
densité spectrale transversale S X ( w, s, s ′ ) ∈ Mat  ( n, n ) qui vérifie dans  est gaussien, centré, non stationnaire. Pour tout t fixé, la
(150)-(151). v.a. {Zj (t, s), ∂t Zj (t, s )} est gaussienne centrée et est complètement
définie par sa matrice de covariance :
2.2.2.2 Solution du second ordre du problème d’évolution
avec conditions initiales nulles [ R 11 ( t , t , s , s ) ] jj [ R 12 ( t , t , s , s ) ] jj
C j ( t, s ) = ∈ Mat  ( 2, 2 ) (379)
La réponse du système est définie dans l’espace des phases par [ R 21 ( t , t , s , s ) ] jj [ R 22 ( t , t , s , s ) ] jj
le champ stochastique :
Y (t, s ) = {Z (t, s ), ∂t Z (t, s )} On peut alors calculer explicitement les moyennes des taux de
passage des trajectoires du processus t ŒZ j ( t, s ) pour s fixé, en
utilisant les résultats du paragraphe 1.5.
sur (  , t , P ) , indexé sur  + ×  , à valeurs dans  n ×  n , donné
par (351) :


2.2.2.5 Cas d’une représentation modale
t
Y ( t, s ) = h (τ ; s, r ) X (t – τ, r ) dσ (r) dτ (372) Alors h1 est donnée par (369) et h2 par la même relation en
0  remplaçant h 1, j (t ) par :
h 2, j ( t ) = h 1,
′ j (t )

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 38 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

Pour tout j et m dans *, u ∈  , s ′ ∈  , on pose : Sous les hypothèses des paragraphes 2.2.1.6 et 2.2.2.1, le champ
YS (t, s ) est du second ordre, continu en m.o.d., stationnaire en
J jm ( u ) = 
 
< R X ( u, r , r ′ ) ϕ m ( r ′ ) (380)
m.o.d. pour t, et ∂t ZS (t, s ) est la dérivée en m.o.d. par rapport à t
de ZS (t, s )(§ 1.3.4.8).
, ϕ j (r ) > dσ (r ) dσ (r ′) ∈
2.2.3.2 Convergence asymptotique de Y (t, s ) vers YS (t, s )

ψ j ( u, s ′ ) = 
RX ( u , r , s ′ )T ϕ j ( r ) d σ ( r ) ∈ n (381)
Le champ Y (t, s ) défini par (372), non stationnaire en t, tend
asymptotiquement pour t → + ∞ en m.o.d. vers le champ Ys (t, s)
stationnaire en m.o.d. par rapport à t, c’est-à-dire que pour tout s
Alors (376) et (377) s’écrivent, pour i et k ∈ {1, 2} : on a :
lim E ( Y ( t, s ) – Y S ( t , s ) 2 ) = 0

t t′ +∞ (387)
t → +∞
R ik ( t, t ′ , s , s ′ ) =
0 0
∑ hi , j ( τ ) hk , m ( τ ′ )
j, m = 1 (382)
2.2.3.3 Caractéristiques du second ordre
J jm ( t – t ′ + τ ′ – τ ′ ) ϕ j ( s ) ϕ m ( s ′ ) T d τ d τ ′ de la réponse stationnaire
Le champ YS (t, s ) est centré, nous posons pour i et k ∈ {1, 2} et

 ∈
t +∞ u :
R iX ( t, t ′ , s , s ′ ) = ∑ hi , j ( τ ) ϕj (s) ψ (t – t ′ – τ,
j s ′ )T dτ (383)
0
j=1
S
R ik ( u, s , s ′ ) = E ( Y S , i ( t + u , s ) Y S , k ( t , s ′ ) T ) ∈ Mat  ( n , n ) (388)
Pour t fixé, les moyennes des v.a. tot ( t ) , Πin (t ) et Πd (t ), définies
par (371), s’écrivent dans ce cas :
S
R iX ( u, s , s ′ ) = E ( Y S , i ( t + u , s ) X ( t , s ′ ) T ) ∈ Mat  ( n , n ) (389)

+∞  Pour tout u ∈  , s et s ’ dans  , on a :


∑ E[ ( t ) ] 
  
E[ tot ( t ) ] = tot, j +∞ +∞
S
j=1  R ik ( u, s , s ′ ) = hi ( τ ; s , r ) RX ( u + τ ′ – τ , r , r ′ )
+∞  0 0   (390)

E [ Π in ( t ) ] = ∑ E [ Π in, j ( t ) ]  (384) hk ( τ ′ ; s ′ , r ′ )T d σ ( r ) d σ ( r ′ ) d τ d τ ′
j=1 

 
+∞ +∞
 S
E [ Π d ( t ) ] = ∑ E [ Π d, j ( t ) ]  R iX ( u, s , s ′ ) = h i ( τ ; s , r ) R X ( u – τ , r , s ′ ) d σ ( r ) d τ (391)
 0 
j=1 
Soit S ik (w, s, s ’) et S iX ( w, s , s ′ ) ∈ Mat  ( n , n ) les densités
avec pour tout j ∈ * : cospectrales et interspectrales transversales telles que pour i et
k ∈ {1, 2} :

 
 
t t
1  exp ( i w ⋅ u ) S ik ( w , s , s ′ ) d w 
S
E[ tot, j ( t ) ] = ----
-M J jj ( τ ′ – τ ) [ h 2, j ( τ ) h 2, j ( τ ′ ) R ik ( u, s , s ′ ) =
2 0 0   
  (392)
+ w j h 1, j ( τ ) h 1, j ( τ ′ ) ]d τ d τ ′ 
 
2
S
 R iX (u, s, s′) = exp ( i w ⋅ u ) S iX ( w , s , s ′ ) d w 
 (385)

t  

E [ Π in, j ( t ) ] = h 2, j ( τ ) J jj ( – τ ) d τ 
0  Alors pour tout w ∈  , i et k dans {1, 2}, on a :


t t 
E [ Π d, j ( t ) ] = η j w j M
0 0
J jj ( τ ′ – τ ) h 2, j ( τ ) h 2, j ( τ ′ ) d τ d τ ′ 

S ik ( w, s, s′ ) = ^
 
h i ( w ; s, r )S X ( w, r, r ′ )
(393)
^
h k ( w ; s ′, r ′ )*d σ ( r ) d σ ( r ′ )

2.2.3 Solution stationnaire en temps


S iX ( w, s , s ′ ) = ^

hi ( w ; s , r ) SX ( w , r , s ′ ) d σ ( r ) (394)
Les données sur le champ X (t, s ) sont celles du paragraphe
2.2.2.1. On cherche à construire la solution du second ordre
stationnaire en temps. Les développements sont similaires à ceux 2.2.3.4 Cas particulier d’une excitation homogène
effectués au paragraphe 2.1.3 pour l’oscillateur simple. Le champ X (t, s) est indexé sur  ×  d , à valeurs dans  n , du
second ordre, centré, continu en m.o.d. et homogène (§ 1.3.4.6).
2.2.3.1 Filtrage temporel du champ d’entrée Soit :
Soit : K = ( K 1 , ..., K d ) ∈ d
YS (t, s ) = {YS, 1 (t, s ) = ZS (t, s ), YS, 2 (t, s ) = ∂t ZS (t, s )}
Par hypothèse, la mesure spectrale matricielle MX admet une
densité SX (w, K ) par rapport à dw dK, dK = dK1 ... dKd et s’écrit
le champ stochastique défini sur (  , t , P ), indexé sur  ×  , à d’après (122) :
valeurs dans  n ×  n , transformé du champ X (t, s ) par la trans-
formation définie par (352) : R X ( u, s – s ′ ) = E ( X ( t + u , s ) X ( t , s ′ ) T )

Y S ( t, s ) =  
+∞
h (τ ; s, r ) X (t – τ, r ) dσ ( r ) dτ (386)
=  exp [ i w ⋅ u + i K ⋅ ( s – s ′ ) ] S X ( w , K ) d w d K (395)
0   × d

avec K · s = K1 s1 + ... + Kd sd .

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 39
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

Dans ces conditions, (393) et (394) peuvent s’écrire pour i et k Les moyennes des v.a. tot ( t ) , Π in (t ) et Πd (t ) sont indépendantes
dans {1, 2} :
de t et sont données par (384) avec pour tout j dans * :

S ik ( w, s , s ′ ) =  d
^
^ ^
^
h i ( w ; s , K ) S X ( w , K ) h k ( w ; s ′ , K ) * d K (396)
E[
1
 2 ^ ^


tot, j ( t ) ] = ----
2
-M ( w 2 + w j ) J jj (w ) h 1, j ( w ) 2 d w 


S iX ( w, s , s ′ ) =  d
^
^
exp ( – i K ⋅ s ′ ) h i ( w ; s , K ) S X ( w , K ) d K (397) E [ Π in, j ( t ) ] =  ^ ^
i w h 1, j (w ) J jj (w ) d w




(406)
avec pour i ∈ {1, 2} :

+∞
^ ^ 
= 2Re i wh 1, j (w ) J jj (w ) d w 

  
^ +∞ 0
^ 
h i ( w, s , K ) =
0 
exp [ – i ( w ⋅ t – K ⋅ r ) ]
hi ( t ; s , r ) d σ ( r ) d t
(398)
E [ Π d, j ( t ) ] = η j w j M  
^ ^
w 2 J jj (w ) h 1, j (w ) 2 d w


2.2.3.5 Statistiques sur les trajectoires pour le cas gaussien ■ Remarques


● Les intégrales de (406) peuvent être calculées facilement dans
Si X (t, s ) est gaussien, alors le processus t Œ Z s , j ( t , s ) pour s certains cas en utilisant (316). Si, pour j fixé, la variation de
fixé et j ∈{1, ..., n } est gaussien, du second ordre, centré, stationnaire ^
w ŒJ jj (w ) est lente sur la bande passante du filtre défini par
en m.o.d. On peut alors utiliser tous les résultats du paragraphe 1.5
en suivant la démarche du paragraphe 2.1.3.6, ce processus étant ^
h 1, j (§ 2.1.1.7), alors on a :
complètement défini par la fonction w Œ S 11 ( w , s , s ) que l’on
calcule par (393) ou éventuellement par (396).
^ 
E[ tot, j ( t ) ] = π ( M η j w j ) –1 J jj ( w j ) 
2.2.3.6 Cas d’une représentation modale ^  (407)
E [ Π in, j ( t ) ] = E ( Π d, j ( t ) ) = πM J jj ( w j ) 
– 1
On reprend les notations du paragraphe 2.2.2.5. Alors, (390)-(391) 
s’écrivent pour u ∈ , i et k ∈ { 1, 2 } :
● Si l’excitation est une force concentrée appliquée au point s0 ,

 
+∞ +∞ +∞ d’intensité X0 (t ), X0 (t ) étant un processus indexé sur  , à valeurs

S
R ik ( u, s , s ′ ) = h i , j ( τ ) h k , m ( τ ′ ) J jm ( u + τ ′ – τ )
0 0 (399) dans  n , du second ordre, centré, continu et stationnaire en m.o.d.,
j, m = 1
ϕ j ( s ) ϕ m ( s ′ )T d τ d τ ′ de densité spectrale matricielle S 0 (w ) ∈ Mat  ( n, n ) , alors J^jm ( w )


+∞ +∞ s’écrit :

S
R iX ( u, s , s ′ ) = h i , j ( τ ) ϕ j ( s ) ψ j ( u – τ , s ′ ) T d τ (400) ^
0
j=1
J jm (w ) = < S 0 (w ) ϕ m ( s 0 ), ϕ j ( s 0 ) > (408)

avec Jjm et ψj
donnés par (380) et (381).
On pose pour j et m dans * :
2.3 Système dynamique linéaire
^
J jm (w ) =  
< S X ( w, r, r ′ ) (401)
de dimension finie
ϕ m ( r ′ ), ϕ j ( r ) > d σ ( r ) d σ ( r ′ ) ∈
Les systèmes dynamiques linéaires de dimension finie, c’est-à-dire
^
ψ j ( w, s ′ ) = 
SX ( w , r , s ′ )T ϕj ( r ) dσ (r ) ∈ n (402)
ayant un nombre fini de DDL, jouent un rôle important dans la
pratique. Ils interviennent dans les domaines suivants.
■ Lorsque le système physique est un système discret. C’est le cas
Compte tenu de (150), on a : par exemple d’un système mécanique constitué d’un ensemble fini
de corps considérés comme rigides, liés les uns aux autres par des
^ ^ ^ ^ articulations.
J mj (w ) = J jm ( w ) ; J jm ( – w ) = J jm (w ) (403)
■ Lorsque le système physique est continu, mais que la construction
On obtient alors pour tout w ∈  , i et k ∈ {1, 2} : de la solution ne peut pas être obtenue exactement. Dans ce cas, on
+∞ ne peut que construire une approximation de la solution en discréti-
^ ^ ^
S ik ( w, s, s′ ) = ∑ h i, j ( w ) h k, m (w ) J jm (w ) ϕ j ( s ) ϕ m ( s′ ) T (404) sant le système initial par une méthode appropriée, le nombre de
DDL du système discrétisé étant alors fini. Par exemple, les résultats
j, m = 1
présentés au paragraphe 2.2 sont applicables à des problèmes
+∞ d’élastodynamiques linéaires de milieux continus solides ou fluides
^
S iX ( w, s , s ′ ) = ∑ h i , j (w ) ϕ j ( s ) ^
ψ j ( w , s ′ )T (405) occupant un domaine borné. Ces résultats ne sont utilisables que si
l’on peut construire explicitement la réponse impulsionnelle ou la
j=1
réponse en fréquence généralisée. Malheureusement, pour la
quasi-totalité des systèmes mécaniques réels, de par la géométrie,

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 40 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

les conditions aux limites et la non-homogénéité des matériaux, il 2.3.1.1 Fonction de réponse en fréquence
n’est pas possible de construire exactement et directement ces
On associe à (409) le filtre linéaire de convolution, causal et stable,
fonctions. Il est nécessaire d’avoir recours à des approximations
de réponse impulsionnelle :
numériques. Pour des problèmes de milieux continus bornés, solides
ou fluides, pour lesquels il y a une formulation variationnelle, on t Œh ( t ) :  → Mat  ( n , n )
utilise le plus souvent la méthode des éléments finis localisés, bien
que dans certains cas il soit possible d’utiliser des formulations par de support  + , intégrable sur  , et dont la fonction de réponse en
équations intégrales. Pour les milieux continus homogènes non bor- fréquence :
nés, les formulations par équations intégrales sont souvent très ^
efficaces. Certains problèmes, dits couplés, par exemple un milieu w Œh (w ) :  → Mat  ( n , n )
élastique solide (la structure) borné, couplé avec des fluides acous-
tiques internes (donc bornés) et un fluide acoustique externe non telle que :


borné, peuvent être résolus en utilisant simultanément les éléments
finis localisés et les équations intégrales. ∀w ∈ ,^
h (w ) = exp ( – iw t ) h ( t ) dt
Il y a toutefois des difficultés liées au domaine fréquentiel. Pour 
(410)

+∞
les problèmes TBF et BF (très basses et basses fréquences), les
systèmes discrétisés ont généralement un nombre de DDL qui ne = exp ( – i w t ) h ( t ) d t
0
pose pas de difficulté numérique réelle. Pour les problèmes MF
(moyennes fréquences), il est nécessaire d’avoir recours à des
s’écrit
^
h (w ) = ( – w 2 M + i wC + K ) –1 (411)
méthodes mathématiques et numériques spécifiques, les systèmes
discrétisés ayant un grand nombre de DDL [122] et [131]. Par contre ^
La fonction h est continue et bornée sur  . Elle est même
ce type d’approche n’est généralement plus praticable à l’heure intégrable et de carré intégrable sur  . L’impédance :
actuelle pour le domaine HF (hautes fréquences) pour lequel il
faudrait un très grand nombre de DDL, ce qui pose des problèmes Z (w ) = – w 2M + iwC + K
de mise en œuvre et de coût des modèles numériques. On utilise
alors, lorsque cela est possible, des méthodes asymptotiques ou des est donc une matrice complexe symétrique (mais non hermitienne),
méthodes énergétiques statistiques, ces dernières étant basées sur inversible pour tout w dans  .
les développements du paragraphe 2.2.
2.3.1.2 Base modale
Si le système discrétisé est régi dans le domaine temps par une
équation différentielle linéaire du second ordre sur  n à coefficients Le problème spectral associé à (409) s’écrit :
matriciels constants, on a un oscillateur vectoriel de dimension finie.
Dans le domaine fréquentiel, l’impédance (inverse de la fonction de w 2 Mϕ = Kϕ
réponse en fréquence) est un polynôme du second degré en w à Soit :
coefficients matriciels constants. Nous étudierons cette situation
0 < w 1  w 2  ...  w n (412)
dans un premier paragraphe ; c’est une généralisation des résultats
du paragraphe 2.1. Dans certains cas, le système discrétisé a une
impédance qui n’est pas un polynôme en w , c’est-à-dire que
les fréquences propres de vibration et ϕ1 , ..., ϕn ∈ n les modes
propres de vibration associés, tels que :
l’impédance est par exemple un polynôme du second degré en w,
mais à coefficients matriciels fonctions de w. Dans le domaine 2
w j Mϕ j = Kϕ j
temporel, un tel système est régi par une équation intégro-
différentielle. Cette situation est fréquente et correspond, par Les modes propres {ϕ j } forment une base de l’espace vectoriel
exemple, à une structure ayant des matériaux viscoélastiques ou à euclidien  n et sont tels que :
une structure couplée avec un fluide acoustique externe non borné,
etc. Il est possible, pour de tels systèmes, de construire une théorie

complète. Toutefois, comme elle résulte d’une mise en forme < M ϕ j , ϕ k > = m j δ jk 
appropriée des développements que nous avons donnés précédem- 2  (413)
ment, nous limiterons l’exposé, dans un second paragraphe, au cas < K ϕ j , ϕ k > = m j w j δ jk 
de la construction de la réponse aléatoire stationnaire. 

où les mj sont des constantes positives, liées à la normalisation


choisie des modes propres, et sont appelées masses généralisées.
2.3.1 Oscillateur linéaire de dimension n
L’oscillateur linéaire de dimension n  1 est régi par l’équation 2.3.1.3 Représentation sur la base modale
différentielle suivante sur  n : Dans le cas général, la matrice d’amortissement C n’est pas
Mz ’’(t ) + Cz ’(t ) + Kz (t ) = x (t ) (409) diagonalisée sur la base des modes propres.

avec M, C et K ∈ Mat  ( n, n ) trois matrices réelles symétriques 2.3.1.3.1 Cas général


définies positives,
Soit  , Ω et les matrices de Mat  ( n, n ) telles que :
x ( t ) = [ x 1 ( t ), ..., x n ( t ) ] ∈  n et z ( t ) = [ z 1 ( t ) , ..., z n ( t ) ] ∈ n
les vecteurs excitation et d’état à l’instant t . 
 jk = m j δ jk 
On peut mener sans difficulté la construction de la forme 
canonique de la résolvante, de la réponse impulsionnelle, de la Ω jk = w j δ jk  (414)
fonction de transfert et de la réponse en fréquence, comme au 
jk =< Cϕ k, ϕj > 
paragraphe 2.1.1, étudier la solution du second ordre du problème 
d’évolution avec conditions initiales et excitation aléatoires, et sa
convergence vers une solution stationnaire dans le cas d’une La matrices  et Ω sont diagonales, mais n’est pas diagonale.
excitation stationnaire, suivant le schéma développé aux para- On introduit la réponse en fréquence :
graphes 2.1.2 et 2.1.3. Nous limitons l’exposé à l’étude de la solution
stationnaire du problème non homogène par l’analyse spectrale. w ŒT (w ) :  → Mat  ( n , n )

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 41
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

sur la base des modes propres : Le gain est important puisqu’il suffit de ne calculer que les
N premiers vecteurs et valeurs propres et, pour chaque w, la
T (w ) = ( – w 2  + i w +  Ω 2 ) –1 (415) construction de TN (w ) nécessite l’inversion d’une matrice complexe
^ qui n’est que de dimension N. On notera de plus que l’hypothèse
Alors h (w ) s’écrit : de diagonalisation de C n’est pas nécessaire. Ainsi,
n l’approximation (422) n’est utilisable que pour les problèmes de
^
h (w ) = ∑ [ T (w ) ] jk ϕ j ( ϕ k ) T (416) réponse TBF et BF, l’excitation étant un bruit de bande BF. La
représentation (422) est toutefois insuffisante dans de nombreux
j, k = 1
cas, la contribution statique de la réponse étant mal représentée.
En effet, pour w = 0, on a :
2.3.1.3.2 Cas particulier
N
Soit P (u ) = a0 + a1 u + ... + amu m un polynôme à coefficients ^
∑kj
–1 2
hN ( 0 ) = ϕ j ( ϕ j )T , kj = mj w j
réels aj , de degré m  n – 1 , tel que pour tout j ∈ {1, ..., n }, on ait j=1
2
P ( w j ) > 0 . Alors, si la matrice d’amortissement C s’écrit : ce qui revient à représenter la matrice de souplesse K –1 sur les
N premiers vecteurs propres et cela n’est pas toujours correct.
C = MP (M –1 K ) (417) Pour pallier cette difficulté, nous proposons la construction
on a pour tout j et k ∈ {1, ..., n } : suivante. Supposons que l’excitation soit un bruit de bande
(processus stationnaire) BF de bande :
2
jk = < C ϕ k , ϕ j > = m j P ( w j ) δ jk (418) B = [– w lim , w lim]
c’est-à-dire que ∈ Mat  ( n, n ) est une matrice diagonale. Lorsque Soit N tel que w N > w lim . La relation (416) permet d’écrire
m=1: l’identité :
C = a 0 M + a1 K ^ ^ ^
h (w ) = h N (w ) + h S (w )
est appelé amortissement de Rayleigh. ^ ^ ^
h S ( w ) = h (w ) – h N (w )
Si l’on a (417), alors (416) s’écrit :
n
^ ∈ B, ^
h N (w )
h (w ) = ∑ [ T (w ) ] jj ϕ j ( ϕ j ) T (419) Pour w donne la contribution dynamique de la
j=1 ^
réponse et h S (w ) la contribution statique corrigée de la souplesse
Soit ξj le taux de dissipation critique du mode j, ηj = 2ξj le facteur ^
de perte par dissipation. Alors on a : des modes dynamiques déjà prise en compte dans h N (w ) .
Pour tout w ∈ B, on écrit :
∀j ∈ { 1, ... n } , η j = w
–1
j P
2
(w j ) > 0 (420)
N
^ ^ ^ ^
∑ ( mj w j )
2 –1 T
En prenant m = n – 1, la résolution du système linéaire en h S (w )  h S ( 0 ) = h ( 0 ) – h N ( 0 ) = K – 1 – ϕ j (ϕ j )
(a 0 , a 1 , ..., a n– 1) : j=1
n–1 ^
∈ { 1, ..., n } et l’approximation (422) BF de h (w ) est remplacée par l’approxi-

2k
wj ak = ηj wj , j (421)
mation suivante :
k=0
N
permet de déterminer P (u ) pour que les n facteurs de perte ηj ^
prennent des valeurs imposées. h N (w ) = A + ∑ [ T N (w ) ] jk ϕ j ( ϕ k ) T
j, k = 1
(424)
2.3.1.3.3 Représentation approchée N


2 –1 T
pour les problèmes TBF et BF A = K –1 – ( mj w j ) ϕ j (ϕ j )
La représentation (416) n’offre que peu d’intérêt dans le cas j=1
général si les n modes sont conservés, car la construction de T (w )
en chaque w nécessite : 2.3.1.4 Réponse aléatoire stationnaire
— l’inversion d’une matrice non diagonale complexe de même L’ e x c i t a t i o n x ( t ) e s t m o d é l i s é e p a r u n p r o c e s s u s
dimension que celle de (411) ; X (t ) = [X1 (t ), ..., Xn (t )], défini sur (  , t , P ) , indexé sur  , à valeurs
— la détermination au préalable des n vecteurs propres ϕ j. dans  n , du second ordre, centré, stationnaire et continu en m.o.d.
On n’utilise donc généralement cette représentation que s’il est Sa mesure spectrale matricielle M X (dw ) admet une densité
possible de ne conserver que les N premiers vecteurs propres, avec S X (w ) ∈ Mat  ( n, n ) par rapport à dw.
N  n . On construit alors l’approximation suivante Soit Z (t ) = [Z1 (t ), ..., Zn (t )] le processus défini sur (  , t , P ) ,
^ indexé sur  , à valeurs dans  n , tel que :
h N (w ) ∈ Mat  ( n, n ) de ^
h (w ) :


t
N Z ( t ) = (h ∗ X ) (t ) = h (t – u) X (u) du (425)
^
h N (w ) = ∑ [ T N (w ) ] jk ϕ j ( ϕ k ) T (422) –∞
j, k = 1 Comme h est intégrable sur  , on peut appliquer les résultats
du paragraphe 1.3.6.2.1. Le processus Z (t ) est du second ordre, cen-
T N (w ) = ( – w 2  N + i w N +
2 –1
N Ω N ) ∈ Mat  ( N , N ) (423) tré, continu et stationnaire en m.o.d. Sa fonction d’autocorrélation
avec, pour j et k ∈ {1, ..., N }, [  N ] jk =  jk , [ Ω N ] jk = Ω jk et
[ N ] jk = jk .

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 42 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

est donnée par (159), avec d = 1, et sa mesure spectrale matricielle S


et S Z (w ) la contribution quasi statique. Si l’approximation (422)
par (161). Comme MX admet une densité, M Z admet la densité
S Z (w ) ∈ Mat  ( n, n ) qui s’écrit pour tout w dans  : S
est utilisée, alors S Z (w ) est nulle ; si (424) est utilisée, on a :
^ ^
S Z (w ) = h (w ) S X (w ) h (w )* (426) S 
S Z (w ) = AS X (w ) A T + D (w ) + D (w ) T 
^
avec h (w ) donnée par (411). N 

^ D (w ) = ∑ [ T N ( w ) ] jk A ^
ψ k (w ) ( ϕ j ) T ∈ Mat  ( n, n )  (433)
Comme w Œ w 2 h (w ) est bornée sur  et que SX est intégrable, j, k = 1 

puisque X (t ) est du second ordre, w Œ w 4 S Z (w ) est intégrable. ^
ψ k (w ) = S X (w ) T ϕ k ∈ n 
D’après le paragraphe 1.3.4.8.4, on en déduit que le processus Z (t ) 
est deux fois dérivable en m.o.d. Les processus dérivés Z ’(t ) et Z ’’(t )
sont du second ordre, centrés, stationnaires et continus en m.o.d.
Les densités spectrales et interspectrales matricielles des processus 2.3.2 Dynamique linéaire aléatoire stationnaire
Z (t ), Z ’(t ) et Z ’’(t ) se déduisent de (135) et s’écrivent pour tout des systèmes complexes
w∈ :
2.3.2.1 Définition de la réponse en fréquence et hypothèses

SZ ′ ( w ) = w 2 SZ ( w )  On considère un système discrétisé, à comportement linéaire,

S Z ′′ (w ) = w 4 SZ ( w )  ayant n DDL, régi dans le domaine fréquentiel par l’équation sur  n :

S Z Z ′ (w ) = – i w SZ ( w )  (427)
 z (w ) = ^
Z ( w )^ x (w ) , w ∈ (434)
S Z Z ′′ (w ) = – w 2 S Z (w ) = – S Z ′ (w ) 
 où l’impédance Z (w ) ∈ Mat  ( n, n ) s’écrit pour tout w ∈ :
S Z ′ Z ′′ (w ) = – i w 3 S Z (w ) 
 Z (w ) = – w 2M 0 (w ) + iwC 0 (w ) + K 0 (w ) (435)
avec les hypothèses suivantes.
2.3.1.5 Statistiques sur les trajectoires dans le cas gaussien
■ H1 Hypothèse 1 : les fonctions w Œ M 0 (w ) , w Œ C 0 (w ) et
Si X ( t ) est un processus gaussien, alors ∀ j ∈ {1, ..., n }, le
processus t ŒZ j ( t ) est gaussien. On peut alors appliquer w Œ K 0 ( w ) sont définies partout sur  et sont à valeurs dans les
directement (257), (261)-(262), (269), (270), (271), (272) et (273), avec : matrices réelles (n × n ) symétriques. Pour Q (w ) ∈ {M0 (w ), C0 (w ),
K0 (w )}, il existe une constante réelle positive kQ telle que, ∀ V ∈ n ,
2
σ Zj =

 [ S Z (w ) ] jj dw 


on a :
inf w ∈  < Q (w ) V , V >  k Q V 2
2
σ Z ′j =

 [ S Z ′ (w ) ] jj dw 


(428)
Cela implique que, ∀ w ∈  , M0 (w ), C0 (w ) et K0 (w ) sont des
 matrices définies positives et que l’impédance Z (w ) est une matrice
2
σ Z j′′ =  
[ S Z ′′ ( w ) ] jj dw 

complexe (n × n ) symétrique (mais non hermitienne), inversible
pour tout w dans  . Ainsi, la réponse en fréquence :

^
h (w ) = Z (w ) – 1
2.3.1.6 Calcul approché de SZ (w ) pour les cas TBF et BF
Une situation TBF ou BF est telle que la puissance du processus est définie pour tout w dans  et est à valeurs dans les matrices
X (t ) est concentrée sur une bande BF : complexes (n × n) symétriques :
B = [– w lim , w lim] ^
h (w ) = [ – w 2 M 0 (w ) + i wC 0 (w ) + K 0 (w ) ] –1 (436)
avec w lim  w n , c’est-à-dire que :
^
■ H2 Hypothèse 2 : le filtre linéaire de réponse en fréquence h a une
 \B
tr S X (w ) dw  B
tr S X (w ) d w (429)
réponse impulsionnelle réelle (système physique), ce qui implique :
M0 (– w ) = M0 (w ) , K 0 (– w ) = K0 (w ) et C0 (– w ) = – C0 (w )
On peut alors utiliser l’approximation :
^ (w ) appartient à
■ H3 Hypothèse 3 : la réponse en fréquence w Œh
^ ^
S Z ( w )  h N (w ) S X (w ) h N (w ) * , w ∈ (430) ^ ^
l’espace H + ( n, n ) (§ 1.4.6.2.1), c’est-à-dire que h est la transformée
^
avec h N (w ) donnée par (422) ou (424). D’où les relations : de Fourier d’une réponse impulsionnelle h ∈ L 2 [ , Mat  ( n , n ) ] de
S Z (w ) 
D
SZ (w) +
S
SZ (w ) (431) support + . L e fi l t r e c o n s i d é r é e s t d o n c c a u s a l e t
D
^
h ∈ L 2 [ , Mat  ( n , n ) ] .
où SZ (w ) est la contribution dynamique qui s’écrit :
■ H4 Hypothèse 4 : on suppose de plus que la fonction

N  w Œ w 2^
h (w ) est bornée de  dans Mat  ( n, n ) .
^ 

D
SZ (w ) = [ T N (w ) ] jk [ T N (w ) ] im J km (w ) ϕ j ( ϕ j ) T 
j, k, i, m = 1  (432)

^
J km (w ) = < S X (w ) ϕ m , ϕ k > 

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 43
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

Exemple 2.3.2.4 Calcul de la densité spectrale matricielle SZ (w )


Considérons une structure à comportement visco-élastique linéaire, On peut distinguer deux situations différentes.
occupant un domaine borné de l’espace physique  3, couplée avec un
fluide externe parfait compressible linéaire, le fluide occupant un
domaine non borné de l’espace. En éliminant les inconnues-fluide, les 2.3.2.4.1 Cas d’existence d’une représentation approchée
vibrations de la structure couplée avec le fluide sont régies, pour le de la réponse en fréquence
système discrétisé, par l’équation (434), avec : C’est la situation décrite au paragraphe 2.3.2.2. On peut alors
calculer une approximation de SZ (w ) par la méthode développée
Z (w ) = – w 2 MS + iwCS (w ) + KS (w ) – w 2 BH (w ) au paragraphe 2.3.1.6 en prenant pour TN (w ) l’expression (437)
avec (438). Cette approche est adaptée à des problèmes TBF ou BF,
où MS , CS (w ) et KS (w ) sont les matrices de masse, d’amortissement mais elle n’est pas toujours applicable. Dans ce dernier cas la
et de raideur de la structure dans le vide (construite, par exemple, par méthode du paragraphe 2.3.2.4.2 peut être une solution.
la méthode des éléments finis localisés), BH (w ) la matrice de l’approxi-
mation de l’opérateur hydrodynamique de couplage (construite, par
exemple, par une méthode d’équation intégrale) qui peut s’écrire : 2.3.2.4.2 Cas de non existence
C’est la situation typique des problèmes MF. Lorsque le nombre
– w 2 BH (w ) = – w 2 MH (w ) + iw CH (w ) n de DDL est élevé et que le calcul de SZ doit être effectué pour un
où MH (w ) et CH (w ) sont deux matrices réelles symétriques positives, grand nombre de valeurs de w, ce qui est le cas le plus usuel, le
appelées masse ajoutée et dissipation par rayonnement à l’infini. ^
calcul direct de SZ par (426), avec h (w ) donnée par (436), conduit
On a donc (435) avec : à un coût numérique élevé qui peut même être rédhibitoire, puisque
M0 (w ) = MS + MH (w ) , C0 (w ) = CS (w ) + CH (w ) , K 0 (w ) = KS (w) sous cette forme, on doit inverser pour chaque w la matrice
complexe Z (w ) définie par (435), puis effectuer un double produit
et, pour ce problème, les hypothèses H1 à H4 sont vérifiées [132]. matriciel. Il est donc intéressant de transformer (426) pour diminuer
le volume des calculs numériques (on parle ici de systèmes discré-
2.3.2.2 Représentation approchée tisés ayant de l’ordre de 100 000 DDL, le nombre de valeurs de w
pour les problèmes TBF et BF étant de plusieurs centaines, voire de plusieurs milliers).
Si l’excitation est un bruit de bande BF : ■ Méthode
B = [– w lim , w lim] Soit :
et que l’on puisse écrire pour tout w dans B : B = [ wI , wS ] , et B = [ – wS – wI ] avec 0  wI  wS
M0 (w ) = M + M1 (w ) et K 0 (w ) = K + K1 (w )
On veut calculer SZ (w ) pour des valeurs discrètes de w dans
où M1 (w ) et K1 (w ) sont des perturbations de M et K, M et M1 (w ), B ∪ B . Supposons que, pour tout w dans B ∪ B , on ait la repré-
K et K1 (w ) ayant les mêmes propriétés que M0 (w ) et K0 (w ), on sentation suivante de la matrice spectrale SX (w ) :
peut considérer le problème spectral :
m
– w 2 Mϕ + Kϕ = 0
S X (w ) = ∑ S jk (w ) ψ j ( ψ k ) T (439)
comme au paragraphe 2.3.1.2. j, k = 1

S’il existe N  n , tel que wN > w lim (situation BF), il est intéressant avec m  n , ψ j ∈ n :
d’effectuer la projection de (434) sur les N premiers vecteurs propres
ϕ j et l’on procède comme au paragraphe 2.3.1.3.3. La matrice S jj (w ) = S jj ( – w ) ∈ +
T N (w ) ∈ Mat  ( N, N ) , définie par (423) doit être remplacée par : S jk ( – w ) = S jk (w ) ∈
TN ( w ) = [ – w2  N (w ) + i w N (w ) + N (w ) ] – 1 (437) S kj (w ) = S jk (w )

avec pour tout j et k dans {1, ..., N } : et supposons que m et ψ j sont indépendants de w.
Alors la matrice spectrale SZ (w ) s’écrit :
[  N (w ) ] jk = < M 0 (w ) ϕ k , ϕ j > 
 
[ N (w ) ] jk = < C 0 (w ) ϕ k , ϕ j >  (438)
m

 S Z (w ) = ∑ S kj (w ) V j (w ) V k (w )*, ∀ w ∈B 
[ N (w ) ] jk = < K 0 (w ) ϕ k , ϕ j >  j, k = 1  (440)
 
S Z ( w ′ ) = S Z (w ) , ∀ w′ ∈B , w = – w′ ∈B 
où  N (w ), N (w ) et N (w ) sont des matrices réelles symétriques 
(N × N ) définies positives, non diagonales.
avec pour tout j ∈ {1, ..., m } et tout w ∈ B, V j (w ) le vecteur de  n
solution du système linéaire complexe :
2.3.2.3 Réponse aléatoire stationnaire
L’excitation aléatoire du système discrétisé est le processus X (t ) Z (w ) V j (w ) = ψ j (441)
défini au paragraphe 2.3.1.4. La réponse aléatoire Z (t ) est un Si m  n , le gain numérique est important. Si m = n, le gain est
processus du second ordre stationnaire en m.o.d., défini par (425), nul, puisque (439) correspond au choix pour ψ j des vecteurs b j de
et sa densité spectrale matricielle SZ (w ) est donnée par (426). Dans la base canonique de  n , Sjk (w ) = [SX (w )]jk et l’on obtient le calcul
le cas présent, h n’est pas supposé intégrable, mais est de carré direct de (426).
intégrable. Le résultat est donc justifié en utilisant le paragraphe
1.3.6.2.2. Compte tenu de H4, les relations (427) tiennent, ainsi que
les résultats du paragraphe 2.3.1.5 pour les statistiques sur les
trajectoires.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 44 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

■ Obtention de la représentation de l’excitation m


ce qui permet d’approcher SY sur B ∪ B par S Y au sens de (448).
● Si le nombre N de DDL excités est très inférieur à n, N  n
En substituant (447) dans (443), on obtient la forme (439) avec
(c’est le cas où l’excitation est spatialement localisée sur une partie
des frontières du système, la situation extrême étant un seul DDL Sjk (w ) donné par (446) et ψ j par :
excité), on a : N

∑ ∈ { 1, ..., m }
N
ψj = [ U j ]q b i ( q ) , j (449)
X (t) = ∑ Yj ( t ) b i ( j ) (442)
q=1
j=1

avec Y (t ) = [Y1 (t ), ..., YN (t )] le processus excitation du système


discrétisé, indexé sur  , à valeurs dans  N , du second ordre, centré, Remarques
stationnaire et continu en m.o.d., de densité spectrale matricielle : — Sur le plan algorithmique, on ne cherche que les valeurs
propres dominantes de CY et la dernière inégalité (448) permet
S Y (w ) ∈ Mat  ( N, N ) de choisir m pour ε fixé.
— Plus les composantes Yj (t ) sont corrélées, plus m sera
la composante Yj (t ) étant appliquée suivant le DDL i (j ) ∈ {1, ..., n } petit. À l’inverse, si CY est une matrice diagonale dont tous les
et b k ∈  n étant le k ième vecteur de la base canonique de  n . termes sont égaux, on a obligatoirement m = N.
Partant de (442), la densité spectrale matricielle SX (w ) s’écrit :
— On améliore l’approximation si la largeur de la bande B
N n’est pas trop grande. On peut toujours écrire :
SX ( w ) = ∑ [ S Y (w ) ] jk b i ( j ) ( b i ( k ) ) T (443) B = Uq Bq
j, k = 1
où Bq sont des bandes étroites, et construire la décomposition
On a la représentation (439) avec m = N , ψ j = b i ( j ) et sur chaque Bq .
Sjk (w ) = [SY (w )]jk .
● Si l’excitation est un champ appliqué sur la plus grande partie
des frontières, après discrétisation, on obtient (443) avec N < n, mais
on n’a pas N  n . Dans certains cas, il est possible de construire une
m
3. Vibrations aléatoires des
approximation S X (w ) de (443), de la forme (439) avec m  N < n .
Soit C Y la matrice réelle (N × N ) telle que :
systèmes à comportement
non linéaire
CY = B∪B
S Y (w ) dw = 2  B
Re S Y (w ) dw (444)
3.1 Position du problème
Elle est symétrique positive. Soit λ 1  λ 2  ...  λ N  0 les
valeurs propres de CY ordonnées par valeurs décroissantes. Les Dans ce paragraphe 3, nous considérons la classe des systèmes
vecteurs propres normalisés associés U 1, ..., U N forment une base dynamiques non linéaires discrets, régie par l’équation différentielle
orthonormée de  N : stochastique non linéaire sur  d , avec d entier  1 :
< U j, U k > = δjk M [Q (t )] Q’’ (t ) + g [Q (t ), Q’ (t ), Y (t ), t ] = 0, t > 0 (450)
On a : avec les conditions initiales aléatoires :
N


Q (0) = Q 0 , Q’ (0) = Q 1 , P-p.s. (451)
tr C Y = λj
j=1 où le paramètre temps t ∈  :
et la matrice SY (w ) s’écrit : Q (t ) = [Q1 (t ), ..., Qd (t )] à valeurs dans  d sont les coordonnées
généralisées du système dynamique ;
N Q’ (t ) et Q’’ (t ) à valeurs dans  d sont les vitesses et accélérations
S Y (w ) = ∑ S jk (w ) U j ( U k ) T , ∀w ∈B∪B (445) généralisées ;
j, k = 1 l’application

q, q , y , t Πg ( q , q , y , t ) = g 1 ( q , q , y , t ) , ..., g d ( q , q , y , t ) est non
● ● ●

Sjk (w ) = < SY (w ) U k, U j > (446)


Pour tout j ∈ {1, ..., N }, on a : linéaire de  d ×  d ×  s ×  + dans  d , avec s entier  1 :

∈  d , q = ( q 1 , ..., q d ) ∈  d , y = ( y 1 , ..., y s ) ∈  s ;

● ● ●

q = ( q 1 , ..., q d )
S jj (w ) dw = < C Y U j, Uj > = λj
∈  d , q = ( q 1 , ..., q d ) ∈  d , y = ( y 1 , ..., y s ) ∈  s ;
● ● ●
B∪B ( q 1 , ..., q d )
Soit 1  m  N et
m
SY (w ) ∈ Mat  ( N , N ) telle que :
pour tout q ∈  d , M ( q ) ∈ Mat  ( d , d ) est une matrice réelle
m inversible :

m
S Y (w ) = S jk (w ) U j ( U k ) T (447) Y (t ) = [Y1 (t ), ..., Ys (t )] est le processus excitation à valeurs  s ;
j, k = 1 Q0 = (Q0, 1 , ..., Q0, d ) et Q1 = (Q1, 1 , ..., Q1, d ) sont des v.a. à valeurs
Alors pour ε > 0 fixé, il existe m  N tel que : d .


■ Le premier problème à résoudre concerne l’étude de l’existence,
m 2 m
SY – S Y B = tr [ S Y (w ) – S Y (w ) ] dw de l’unicité et de la structure de la solution de (450)-(451). Entre
B∪B autres, l’étude du comportement asymptotique pour t → + ∞ de la
m (448) solution fournit des informations précieuses, d’une part, sur
= tr C Y – ∑ λj < ε l’existence ou la non-existence d’une solution asymptotique station-
j=1 naire et, d’autre part, sur la stabilité stochastique du système. Les
problèmes de stabilité stochastique sont donc abordés dans ce

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 45
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

paragraphe 3, mais nous y reviendrons explicitement au paragraphe 1.4.6.3). On utilise alors le paragraphe 1.4.6.7 et l’on
paragraphe 4. Les outils mathématiques, pour mener des études de obtient l’EDSI (250) associée.
ce type, sont principalement les résultats sur les équations
différentielles stochastiques d’Itô (EDSI), que nous avons présentés ■ Troisième cas : le problème (452) ne relève pas du premier cas ;
au paragraphe 1.4. Il y a aussi des méthodes d’analyse fonction- x, y → f (x, y) est une application mesurable de  n ×  q dans  n ,
nelle, mais nous ne pourrons pas les aborder ici. indépendante de t, avec s = q un entier  1 . La condition initiale
X (0) est nulle P-p.s. ; Y (t ) est un processus indexé sur  à valeurs
■ Le second problème, qui n’est pas le moindre, concerne la dans  q , gaussien, stationnaire du second ordre (coloré), physique-
construction effective de la solution, par exemple, la construction du ment réalisable (notion qui a été introduite au paragraphe 1.4.6.2) et
système de lois marginales du processus Q (t ) ou des moments de admet une réalisation markovienne exacte ou approchée de dimen-
la v.a. Q (t ) pour t fixé ou, encore, la loi conjointe de la v.a. sion m finie. On cherche à construire une EDSI associée pour étudier
{Q (t ), Q ’(t )} pour t fixé, en vue d’appliquer les résultats du le comportement asymptotique du processus X (t ) pour t → + ∞. On
paragraphe 1.5 sur les statistiques des trajectoires, etc. utilise alors les résultats du paragraphe 1.4.6.8 et l’on obtient
l’EDSI (252) associée.

3.2 Méthode d’étude de la solution 3.2.2 Étude de la solution à partir de l’EDSI associée
à l’aide des EDSI
Si l’on a pu obtenir une EDSI avec donnée initiale aléatoire, du
type (189), associée au problème (450)-(451), l’étude de la solution
La première étape consiste à mettre (450)-(451) sous la forme peut être menée à l’aide des résultats du paragraphe 1.4.4, les
d’une EDSI et la seconde à utiliser les résultats sur les EDSI. hypothèses du début de ce paragraphe étant supposées vérifiées.
■ Premier cas : le vecteur de dérive et/ou la matrice de diffusion
3.2.1 Transformation du problème initial définie par (186) dépendent explicitement de t. On dispose alors des
en une EDSI paragraphes 1.4.4.1 et 1.4.4.2 pour étudier l’existence et l’unicité de
la solution et dans quelles conditions cette solution est un proces-
3.2.1.1 Équation dans le plan des phases sus de diffusion. Dans ce dernier cas, la probabilité de transition est
solution de l’équation de Fokker-Planck (EFP) d’évolution (173), avec
Soit n = 2d ; on introduit le processus : la condition initiale (174), et la densité de probabilité ρ (t, x) de la v.a.
X (t ) = {Q (t ), Q ’(t )} X (t) sur  n , pour t fixé, est solution de l’EFP d’évolution (192) avec
la condition initiale (193).
à valeurs dans ×
d d
  n (le plan de phase) et X 0 = {Q 0 , Q1} la
condition initiale associée. ■ Second cas : le vecteur de dérive et la matrice de diffusion sont
indépendants de t. Les résultats du paragraphe 1.4.4.3 donnent les
Comme M ( q ) –1 existe pour tout q dans  d , le problème conditions d’existence et d’unicité, les conditions pour que la
(450)-(451) peut s’écrire : solution X (t ) soit un processus de diffusion et pour que X (t ) tende
asymptotiquement, pour t → + ∞, vers un processus de diffusion
X ′ ( t ) = f ( X ( t ), Y ( t ) , t ) , t > 0 stationnaire X s (t). Dans ce dernier cas, la densité de probabilité
X ( 0 ) = X 0 , P -p.s.  (452)
ρs (x) sur  n de la v.a. X s (t ), pour t fixé, est solution de l’EFP

stationnaire (199) avec la condition de normalisation (200).
∈ d × d

avec x = { q, q }
∈ d × d
● ●
f ( x , y , t ) = { q , – M (q ) – 1 g ( q , q , y , t ) }
3.3 Méthodes de construction
3.2.1.2 Construction de l’EDSI associée de la solution
On utilise tous les résultats du paragraphe 1.4.6 sur la modélisa-
tion des EDS de la physique. Dans la quasi-totalité des cas, la solution de (450)-(451) ne peut
■ Premier cas : le problème (452) peut s’écrire sous la forme : pas être obtenue exactement. On ne peut construire que des approxi-
mations numériques. Le plus souvent, les méthodes actuelles
X ′ ( t ) = b ( X ( t ), t ) + a ( X ( t ) , t ) Y ( t ) , t > 0 existantes sont même insuffisantes et aucune approximation ne peut
 (453) être obtenue. Ces problèmes sont non résolus. Dans ce paragraphe,
X ( 0 ) = X 0 , P -p.s.  nous avons limité l’exposé à quatre types de méthodes.

où Y (t ) est un processus à valeurs dans  m (donc s = m et il va être ■ Méthode de l’équation de Fokker-Planck : lorsque l’étude de la
précisé) et la v.a. X0 , les fonctions b et a ont les propriétés définies solution à partir de l’EDSI associée montre que le processus
au début du paragraphe 1.4.4. On dispose alors des résultats solution est de diffusion 3.2.2, le problème peut se ramener à la
suivants : construction de la solution d’une EFP, dont on peut envisager une
résolution directe. Dans le cas général, l’EFP d’évolution (EFPE) n’a
— si Y (t ) est un bruit blanc gaussien Y∞ (t ), on utilise le paragra- pas de solution exacte connue. Pour l’EFP stationnaire (EFPS), nous
phe 1.4.6.5 et l’on obtient l’EDSI (256) associée ; donnerons au paragraphe 3.3.1.1 le résultat le plus général à l’heure
— si Y (t ) est un bruit gaussien large bande Yb (t), on se reporte actuelle, pour lequel on connaît une solution exacte. Mis à part ce
au paragraphe 1.4.6.6 ; on obtient dans un premier temps l’EDS de cas, on ne peut construire qu’une approximation numérique de
Stratonovich (246) que l’on transforme, dans un second temps, à l’EFPE ou de l’EFPS. Mais, comme l’EFP est une équation aux déri-
l’aide du paragraphe 1.4.5.4, pour obtenir l’EDSI (247) associée. vées partielles sur  n et bien qu’elle soit linéaire, on ne peut envi-
■ Deuxième cas : le problème (452) ne relève pas du premier cas ; sager une telle méthode que si la dimension n est très faible et de
x, y, t → f (x, y, t) est une application mesurable de  n ×  q ×  + l’ordre de quelques unités. Cette approche est donc très vite limitée.
dans  n , avec s = q un entier  1, et Y (t ) est un processus noté Nous donnerons un exemple de mise en œuvre d’une telle méthode
Y +(t) indexé sur  + à valeurs dans  q , gaussien, admettant une pour l’EFPS au paragraphe 3.3.1.2.
réalisation markovienne de dimension m finie (notion définie au

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 46 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

■ Méthode des moments : on peut construire, à partir de l’EFP, un Le système dynamique non linéaire est excité par un bruit blanc
système d’équations différentielles pour les moments. Ce système gaussien normalisé Z ∞ (t ) (§ 1.4.6.1) et est régi par l’équation diffé-
peut aussi être construit directement à partir de la formule d’Itô. Il y rentielle stochastique généralisée non linéaire sur  d ×  d   n :
a toutefois des difficultés, car le système obtenu n’est pas fermé. Il
faut procéder à une fermeture algébrique et il n’y a pas, à l’heure Q ′ = ∂ p H ( Q, P ) 
actuelle, une méthode générale pour l’effectuer. D’où des problè-  t >0 (455)
P ′ = – ∂q H ( Q , P ) + F ( Q , P , Z∞ ) 
mes de hiérarchie de troncature. Nous montrerons au
paragraphe 3.3.2 comment construire ce système d’équations pour
avec la condition initiale aléatoire :
les moments, à partir de la formule d’Itô.
Q (0) = Q 0 , P (0) = P0 p.s. (456)
■ Méthode de linéarisation stochastique équivalente : c’est une
méthode d’approximation externe dont nous présenterons le et les hypothèses suivantes.
principe au paragraphe 3.3.3. Contrairement aux méthodes
précédentes, pour lesquelles, en théorie, on peut approcher d’aussi ■ H1 Hypothèse 1 : la fonction H est l’hamiltonien du système
près que l’on veut la solution (approximations internes), avec la conservatif (F ≡ 0) associé et est telle que :
linéarisation stochastique cela n’est pas possible. En effet, la — la fonction q, p Œ H (q, p) est C 2 sur  d ×  d , à valeurs dans
méthode consiste :  + = [0, + ∞ [ , indépendante de t ;
— à déterminer une EDS linéaire dont la distance (en un certain — pour tout p et tout q dans  d , la matrice hessienne
[ ∂ p H ] ∈ Mat  ( d, d ) est définie positive ;
2
sens) est minimale avec l’EDS non linéaire initiale ;
2
— puis à résoudre l’EDS linéaire en utilisant les résultats du — l’application p, q Œ [ ∂ p H ] est bornée sur  d ×  d ;
paragraphe 1.3.6 lorsque l’excitation est un processus gaussien, — on a :
seul cas qui sera envisagé ici. inf H ( q, p ) → + ∞ si R → + ∞ (457)
q 2 + p 2 >R2
Or, il n’est pas possible de rendre cette distance aussi petite que
l’on veut. Cette méthode est donc surtout très utile pour construire ■ H2 Hypothèse 2 : la condition initiale {Q 0 , P0} est une v.a. du
une première approximation qui sera utilisée ensuite comme pré- second ordre à valeurs dans  d ×  d , est indépendante de Z ∞ et sa
conditionneur pour une méthode plus fine dans le but d’accélérer loi de probabilité admet une densité ρ Q0 , P0 ( q , p ) sur  d ×  d par
les convergences des approximations. rapport à dq dp.
■ Méthode de simulation numérique : sauf cas exceptionnels, cette ■ H3 Hypothèse 3 : la force non conservative F = ( F 1 , ..., F d ),
méthode, purement numérique, est toujours applicable. C’est exprimée avec les variables canoniques, s’écrit :
même, à l’heure actuelle, la seule méthode constructive pour les
problèmes de grande dimension et il n’est pas nécessaire d’avoir F (Q, P, Z ∞ ) = – f (H ) GQ ’ + g (H ) SZ ∞ (458)
une forme EDSI. Elle s’applique directement pour les EDS non avec Q ’ = ∂p H [première équation (455)] ;
linéaires avec excitations non stationnaires ou stationnaires colo-
rées. Toutefois, elle conduit à des coûts numériques élevés et, S et G des matrices réelles (d × d ) constantes telles que :
contrairement aux apparences, elle est délicate de mise en œuvre.
Nous présentons quelques-unes des ces méthodes au G = SST et |S | > 0
paragraphe 3.3.4. Donc G est une matrice positive, mais pas forcément définie
positive. Les fonctions f et g sont continues sur  + à valeurs dans
 + * = ]0, + ∞ [ et g est différentiable. De plus, il existe r 0 > 0 et des
3.3.1 Méthode de l’équation de Fokker-Planck constantes :
µ > 0, C 0 > 0, C 1 > 0, C 2 > 0
3.3.1.1 Solution exacte stationnaire
pour une classe de systèmes dynamiques – ∞ < α 2  1, α 1 > α 2 – 1, α 0 < α 1 – α 2 + 1
Nous donnons dans ce paragraphe la solution exacte d’une EFPS
pour une sous-classe de systèmes dynamiques décrits par (450). telles que :
Ce résultat établi dans [130] contient toutes les solutions exactes
connues à l’heure actuelle. 
∀ r  r0 , f ( r )  C1 r α 1 
α2 
α0
(459)
3.3.1.1.1 Équations canoniques ∀ r  r 0 , C 0 exp ( – µ r )  g ( r )  C 2 r
2


On considère une sous-classe de systèmes dynamiques non
linéaires (450) de dimension d  1 , décrits par des équations
canoniques. Soit : 3.3.1.1.2 Construction de l’EDSI
On utilise le paragraphe 3.2.1 et (215). En posant
P ( t ) = [ P 1 ( t ), ..., P d ( t ) ] à valeurs d X (t ) = {Q (t ), P (t )}, X 0 = {Q 0 , P 0} et x = {q, p }, on obtient l’EDSI :
les moments généralisés canoniquement conjugués de Q (t ). La
variable P est aussi appelée l’impulsion généralisée et les variables 
dX ( t ) = b [ X ( t ) ] + a [ X ( t ) ] dW ( t ), t >0 
P et Q sont les variables canoniques. On note :  (460)
X ( 0 ) = X 0 p.s. 
p = ( p 1 , ..., p d ) ∈ d 

la variable associée au processus P (t ). Soit p, q Œ h (p, q ) une avec b ( x ) = { ∂ p H, – ∂ q H – f ( H ) G ∂ p H } ∈ d × d  n


fonction réelle définie sur  d ×  d . Pour z ∈ {p, q }, nous notons et :
2
∂z h et ∂ z h respectivement le vecteur de  d et la matrice réelle de a (x ) = { 0 d × d , g ( H )S } ∈ Mat  ( d, d ) × Mat  ( d, d )  Mat  ( n , d )
dimension (d × d ) tels que :

∂h 2 ∂2 h
[ ∂ z h ] j = --------- , [ ∂ z h ] jk = -------------------- (454)
∂z j ∂z j ∂z k

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 47
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

3.3.1.1.3 Solution régulière et EFPE 3.3.1.1.5 Exemple 1


Sous les hypothèses H1 à H3 (§ 3.3.1.1.1), l’EDSI (460) a une unique Soit M (q ) une matrice réelle symétrique (d × d ) définie positive
solution régulière (§ 1.4.4.2). Pour tout t > 0, la loi de probabilité de pour tout q dans  d , telle que q Œ M (q )–1 soit C 2 et bornée sur
la v.a. :
X (t ) = {Q (t ), P (t )}  d . Soit U (q ) le potentiel qui est une fonction C 2 sur  d . Par
1 1
a une densité ρ (t, q, p ), par rapport à dq dp, qui satisfait l’EFPE (192), e x e m p l e , U ( q ) = ----- < Kq, q > + ----- α < Kq , q > 3 , α > 0 , e s t u n
2 6
sur  d ×  d   n , et qui s’écrit : potentiel si K est une matrice réelle (d × d ) symétrique définie
positive. Alors la fonction :
∂t ρ + [ρ, H ] – divp J (ρ) = 0, t>0 (461)
1
avec la condition initiale : H ( q, p ) = ----- < M (q ) –1 p , p > + U (q )
2
ρ ( t, q , p ) → ρ Q0 , P0 ( q , p ) pour t . 0 (462)
est la fonction hamiltonienne associée au système dynamique non
linéaire sur  d :
où nous avons posé :
[ρ, H ] = < ∂q ρ, ∂p H > – < ∂p ρ, ∂q H > d
-------- [ M [ Q ( t ) ] Q ′ ( t ) ] + f ( H ) GQ ′ ( t ) + ∂ q U [ Q ( t ) ] = g ( H ) SZ ∞
dt
d
∂ L’impulsion généralisée est P (t ) = M [Q (t )] Q ’(t ). La densité de
div p J = ∑ ---------- J j , J (ρ) ∈ d probabilité ρs (q, p) est donnée par (465) et la densité de probabilité
∂p j
j=1
ρ Q , Q ′ ( q , q ) par (466), avec h ( q, q ) = M (q ) q et [ ∂ q h ] = M (q ) .
● ● ●
1 ●

J ( ρ ) = ρ [ f ( H ) + g ( H ) g′ ( H ) ]G∂ p H + ----- g ( H ) 2 G∂ p ρ
2
3.3.1.1.6 Exemple 2
3.3.1.1.4 Solution asymptotique stationnaire L’exemple 1 (§ 3.3.1.1.5) peut être généralisé en considérant une
et solution exacte de l’EFPS forme plus générale de l’énergie cinétique des systèmes
La solution asymptotique stationnaire de (460) n’existe pas sous dynamiques :
les hypothèses précédentes, il est nécessaire d’ajouter une hypo-
● 1 ● ● ●
thèse sur S. T ( q, q ) = ----- < M (q ) q , q > + < B (q ) , q > + C ( q )
2
Ainsi, sous les hypothèses H1 à H3 (§ 3.3.1.1.1) et si la matrice S
est inversible (alors G est définie positive), l’unique solution régulière ● ●

X (t ) de (460) tend en probabilité pour t → +∞ vers un processus telle que T ( q, q )  0 pour tout q et q dans  d , M (q) défini comme
stationnaire : dans l’exemple 1, B (q ) ∈  d et C (q ) ∈  .
XS (t ) = {QS (t ), PS (t )}
Dans ce cas, l’impulsion généralisée est donnée par p = ∂ q T , ●

à valeurs dans  d ×  d (§ 1.4.4.3). Pour tout t, la densité de proba- c’est-à-dire par :


bilité ρS (q, p) de la v.a. XS (t ) satisfait l’EFPS (199) sur  d ×  d , qui
p = M (q ) q + B (q )

s’écrit compte tenu de (461) :


[ρS , H ] – divp J (ρS ) = 0 (463) et la fonction de Hamilton qui est définie par :
● ●

avec la condition de normalisation (200) : H = < p, q > –  ( q , q )


● ●

 ( q , q ) = T ( q , q ) – U (q )
ρ S ( q, p ) d q d p = 1 (464)
d d s’écrit :

Le problème (463)-(464) a une solution unique qui s’écrit : 1


H ( q, p ) = ----- < M (q ) –1 [ p – B (q ) ] , p – B (q ) >
2

 
H (q, p) + 2 < M ( q ) – 1 [ p – B ( q ) ] , B (q ) > + C ( q ) + U ( q )
ρ S ( q, p ) = C N g [ H ( q , p ) ] –2 exp – 2
0

[ g ( r ) ] –2 f ( r ) d r (465)
Avec une telle partie conservative non linéaire très générale, on
où CN est la constante réelle positive définie par (464). a la solution exacte.
Les hypothèses H1 (§ 3.3.1.1.1) montrent que l’équation
∂ p H ( q, p ) = q peut être résolue localement en q pour q donné
● ●
3.3.1.2 Résolution numérique d’une EFPS
de faible dimension
dans  d . Soit p = h ( q, q ) ∈  d la solution. Si nous supposons que

● ●
On considère le problème (450)-(451), pour lequel l’EDSI associée
h peut être construite pour tout q dans  d et que q Œh ( q, q ) de

est du type (197), la construction de l’EDSI résultant du paragraphe


 d dans  d est continûment différentiable, alors la densité de 3.2.1. On suppose que toutes les hypothèses du paragraphe 1.4.4.3
p r o b a b i l i t é ρ Q , Q ′ ( q , q ) , p a r r a p p o r t à dq dq , d e l a v. a .
● ●

sont satisfaites. Donc l’EDSI a une unique solution régulière qui tend,
{Q (t ), Q’(t )} s’écrit (§ 1.2.7.1) : pour t → +∞, vers un processus XS (t ) stationnaire. On cherche à
construire numériquement une approximation de la densité de
probabilité ρS (x ) de la v.a. XS (t ) pour t fixé, cette densité étant
● ● ●
ρ Q, Q ′ ( q , q ) = ρ S [ q , h ( q , q ) ] det [ ∂ q h ( q , q ) ] ●
(466)
solution de l’EFPS (199), avec la condition de normalisation (200).
∂h j 
où [ ∂ q h ] jk = ---------- est la matrice jacobienne.
● La construction de l’approximation ρ S (x ) est basée sur la méthode
∂q ●
de Galerkin, les fonctions de base étant les polynômes d’Hermite
k
normalisés sur  n , que nous avons introduits au paragraphe 1.2.9.5.
Dans ce qui suit, on reprend toutes les notations et les résultats de
ce paragraphe.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 48 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

La principale difficulté de cette approche est la vitesse de Pour accélérer la vitesse de convergence, nous proposons la
convergence. Nous expliquons pourquoi et nous proposons une méthode suivante.
méthode d’accélération de la convergence, la méthode étant
globalement utilisable pour des problèmes de faible dimension ■ Les matrices A et B (avec B asymptotiquement stable) sont
( n  10 ). calculées pour minimiser la distance de la solution XS (t ) station-
L
naire du problème non linéaire (197), avec la solution X S ( t ) sta-
3.3.1.2.1 Accélération de la vitesse de convergence tionnaire du problème linéaire (467). Par exemple, on peut choisir
Considérons dans un premier temps le problème stochastique pour la distance :
linéaire suivant sur  n :
dist ( XS , X S ) = E  XS ( t ) – X S ( t ) 
L L 2


dX L (t ) = BX L ( t ) + AdW ( t ), t > 0  et utiliser la méthode de linéarisation stochastique équivalente
 (467)
X L ( 0 ) = X0 p.s.  (§ 3.3.3). Une fois déterminées A et B, on calcule CL , puis U
 vérifiant (469).
■ Les matrices A et B étant connues, le problème non linéaire (197)
où A ∈ Mat  ( n, m ) , B ∈ Mat  ( n , n ) , la matrice B étant telle que les est réécrit :
parties réelles de toutes les valeurs propres de B sont strictement
négatives (donc B est asymptotiquement stable) et W (t ) est le 
dX ( t ) = [ BX ( t ) + b NL ( X ( t ) ) ]dt + [ A + a NL ( X ( t ) ) ]dW ( t ) 
processus de Wiener normalisé à valeurs dans  m . Le problème  (472)
(467) a donc une solution unique X L (t ) qui est un processus à valeurs X ( 0 ) = X 0 p.s. 

 n , du second ordre, centré, gaussien, de diffusion et il tend en
probabilité, pour t → +∞, vers un processus stationnaire X S ( t ). Pour
L
avec b NL (x ) = b (x ) – Bx ; a NL (x ) = a (x ) – A (473)

tout t fixé dans ,
L
XS ( t ) est une v.a. à valeurs dans n , du second ■ Soit X ( t ) le processus à valeurs dans  n tel que :

L 
ordre, centrée, gaussienne et sa densité de probabilité ρS ( x ) sur X (t ) = U X (t ) (474)

 n s’écrit : Par substitution de (474) dans (472), on obtient :

     
 
1 1
L – ----- n – ----- 1 –1

ρ S ( x ) = ( 2π ) 2 ( det C L ) 2 exp – ----- < C L x , x > (468) dX ( t ) = b [ X ( t ) ] dt + a [ X ( t ) ] dW ( t )
2    (475)
X ( 0 ) = X0 

L L
avec C L = E ( X S ( t ) X S ( t ) T ) ∈ Mat  ( n, n ) la matrice de covariance   
L avec b (x ) = Bx + b NL ( x ) ∈ n (476)
de la v.a. ( t ) , qui se calcule facilement. En général, C L est très
Xs
différente de la matrice unité I et l’on sait qu’un développement du   
L
a (x ) = A + a NL ( x ) ∈ Mat  ( n, m ) (477)
type (92) de ρS
( x ), donnée par (468), nécessite la prise en compte   
d’un grand nombre de termes dans la série, la vitesse de où B, A et X 0 ont été définis précédemment,
convergence étant lente. Comme CL est définie positive, on peut 
b NL ( x ) = U –1 b NL ( Ux ) ∈ n ,
construire la factorisation suivante :

CL = U U T , U ∈ Mat  ( n, n ) (469) a NL ( x ) = U –1 a NL ( x ) ∈ Mat  ( n, m ) .

Soit X L ( t ) le processus indexé sur  + à valeurs dans  n , tel que : 
■ La solution asymptotique stationnaire XS ( t ) de (475) existe.
 (470)  
X L (t ) = U X L (t ) Pour tout t fixé, la densité de probabilité ρS ( x ) de la v.a. XS ( t )
Alors le problème (467) s’écrit : satisfait l’EFPS :


n
  1
n
 
  
dX L ( t ) = B X L ( t ) + AdW ( t ), t >0  ∑ ∂j [ bj ( x ) ρS ( x ) ] – ----2- ∑ ∂ j ∂ k [ σ jk ( x ) ρS ( x ) ] = 0 (478)
   (471) j=1 j, k = 1
X (0) = X 0 
 avec
  
avec B = U –1 BU, A = U –1 A et X 0 = U –1 X 0 .   
σ ( x ) = σ L + σ NL ( x ) (479)
L
La solution asymptotique stationnaire X S ( t ) du problème (471)   (480)
est un processus centré gaussien de diffusion. Pour tout t fixé, la σ L = A AT
 L
matrice de covariance C L de la v.a. X S ( t ) est égale à la matrice      
σ NL ( x ) = A a NL ( x ) T + a NL ( x ) A T + a NL ( x ) a NL ( x ) T (481)
unité I. Dans ce cas, le développement sur les polynômes d’Hermite
L L
de la densité ρ S ( x ) de la v.a. X S ( t ) ne nécessite qu’un seul terme et la condition de normalisation :


pour avoir une convergence exacte et la vitesse de convergence est
infinie. Ces résultats montrent que le développement de la densité 
ρ S ( x ) dx = 1 (482)
de probabilité ρS sur les polynômes d’Hermite normalisés, pour le n
problème non linéaire (197), sera généralement lentement
La densité de probabilité ρS (x) s’écrit :
convergent.

ρ S ( x ) = ρ S ( U x ) det U
– 1 –1 .

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 49
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

■ Une approximation numérique de (478)-(482) est construite par la L


 Les coefficients  βα se calculent exactement avec (89).
méthode de Galerkin, basée sur le développement de ρ S sur les
polynômes d’Hermite normalisés (§ 3.3.1.2.2). Mais il est clair que la
vitesse de convergence de la série du développement est bien 3.3.1.2.4 Calcul des coefficients de diffusion
meilleure car l’EDSI non linéaire (475) apparaît comme une pertur- En utilisant (479), (486), (86), les notations (88) et (85), on peut
bation du problème linéaire (471), et que pour ce dernier la vitesse écrire :
de convergence est infinie.

L NL 
3.3.1.2.2 Approximation d’ordre r de l’EFPS  βα =  βα +  βα 
Soit r un entier positif et R le nombre de multi-indices α tel que n 1 1 
1 -----  (α ) 2 δ ----
- 

L L α, (β)
  βα = ----- ( βk ) 2 σ k

la longueur |α | ∈ {0, 1, ..., r }. L’approximation ρ S, r d’ordre r de 2 jk j ( α )j , ( β )k – I 


j, k = 1  (490)
 
ρ S s’écrit (92) :
 
n 1
1 ----- NL

NL
r  βα = ----- ( βk ) 2 h ( β ) k ( x ) ∂ j [ σ jk ( x ) h α ( x ) f n ( x ) ] d x 
 2 n 
ρ S, r ( x ) = ∑ qα hα ( x ) fn ( x ) (483) j, k = 1 

α =0
L
En substituant (483) dans (478), en prenant le produit scalaire Le calcul des coefficients  βα peut être effectué exactement en
de L 2 (  n , d x ) avec h β pour un multi-indice β de longueur utilisant la relation (89).
|β | ∈ {0, 1, ..., r }, et en intégrant par parties, on en déduit que le
vecteur q ∈  R de coordonnées qα est solution de l’équation linéaire 3.3.2 Méthode des moments
homogène :
q = 0 (484) 3.3.2.1 Construction du système différentiel
régissant les moments
avec =  +  ∈ Mat  ( R, R ) , où  et  sont deux matrices Considérons le problème (450)-(451) pour lequel l’EDSI associée
réelles (R × R ) d’éléments : est (189) et a une solution unique X (t ), pour tout t dans  + .
Soit α ∈  n un multi-indice de longueur |α | (voir les notations
 au paragraphe 1.2.9.1). On suppose que, pour tous les α ∈  n
n

 βα = – ∑ b j ( x ) h α ( x ) [ ∂ j h β ( x ) ] f n ( x ) dx (485) considérés et tout t, le moment d’ordre α de la v.a. X (t ), défini
n
j=1 par (20) :
m α ( t ) = E ( X ( t ) α ) = E ( X 1 ( t ) α1 × ... × X n ( t ) αn )

n (491)
1 
 βα = -----
2 ∑ n
[ ∂ k h β ( x ) ] ∂ j [ σ jk ( x ) h α ( x ) f n ( x ) ] dx (486)
existe.
j, k = 1
Posant :
La condition (482) implique (94). On introduit donc la décomposi- α α
tion par blocs de (484) : f ( x ) = x α = x 11 × ... × x nn

1 on a mα (t ) = E {f [X (t )]}
11 12
= 0, 11 ∈ , 22 ∈ Mat  ( R – 1, R – 1 )
21 22 q En appliquant la formule d’Itô (185) à f [X (t )], avec
 A (t ) = a (X (t ), t ) et B (t ) = b (X (t ), t ) et, comme f est indépendante
de t, on obtient (on omet les arguments pour alléger l’écriture) :
avec q ∈  R – 1 le vecteur de composantes qα , α : |α | ∈ {1, ..., r }.
 n n m
1
Finalement, on obtient : df = ∑ ( ∂j f ) dXj + ----2- ∑ ( ∂j ∂k f ) ∑ aji aki dt
r j=1 j, k = 1 i=1

ρ S, r ( x ) =
 1+
α =1
∑ 
qα hα ( x ) fn ( x ) (487)
En substituant l’expression dX j = b j dt +
m

∑ aji dWi et en utilisant


avec q la solution du système linéaire sur  R – 1 : i=1
 (186), on obtient :
22 q = – 21 (488) n m n
  1
df = ∑ ( ∂j f ) bj dt + ∑ Ai dWi + ----2- ∑ ( ∂ j ∂ k f ) σ jk dt
3.3.1.2.3 Calcul des coefficients de dérive j=1 i=1 j, k = 1

En utilisant (476) et (485), on écrit : n




où les A i = ∑ ( ∂j f ) aji sont des processus non anticipants. En
L
 βα =  βα +  βα
NL  j=1
 prenant l’espérance des deux membres, en tenant compte de (179),
n  en substituant l’expression de f et en divisant par dt, on obtient
1
-----  α ( β ) 
 βα = – ∑ ( β j ) B jk I k
L , j
2  l’équation différentielle en t :
j, k = 1  (489)
 n

 ∑ E { bj ( X ( t ), t ) ( ∂j X ( t ) α ) }
n 1  m α′ ( t ) =
NL
b j ( x ) h α ( x ) h ( β ) j ( x ) f n ( x ) d x 
-----
 βα = – ∑ ( β j )
NL 2
j=1 n (492)
 n
 1
j=1
 + -----
2 ∑ E { σ jk ( X ( t ) , t ) ( ∂ j ∂ k X ( t ) α ) }
j, k = 1
où nous avons utilisé les notations (62) et (88).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 50 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

avec : 3.3.3.2 Classe de processus


m α′ ( t ) = dm α ( t )/dt Cette classe est constituée des processus :
∂ j X ( t ) α = α j ( X 1 ( t ) α 1 × ... × X j ( t ) αj – 1 × ... × X n ( t ) αn ) Q (t ) = [Q1 (t ), ..., Qn (t )]

si j = k : définis sur (  , t , P ) , indexés sur  , à valeurs dans  n , du second


ordre, centrés, stationnaires et continus en m.o.d., deux fois
∂ j ∂ j X ( t ) α = α j ( α j – 1 ) ( X 1 ( t ) α 1 × ... × X j ( t ) αj – 2 × ... × X n ( t ) αn ) dérivables en m.o.d. On note Q ’(t ) et Q’’(t ) les dérivées première
et seconde.
si j ≠ k :
3.3.3.3 Principe de la méthode
∂j ∂ k X ( t ) α = α j α k (X 1 (t ) α 1 × ... × X j (t ) αj – 1
On ne s’intéresse qu’à la construction d’une approximation de la
× ... × X k (t ) αk – 1 × ... × X n (t ) αn ) solution stationnaire Q (t ) de (497). La méthode consiste à
déterminer deux matrices réelles C et K de Mat  ( n, n ) , telles que
avec la condition initiale : la distance de (497) à l’équation linéaire :
α
mα ( 0 ) = E ( X 0 ) (493) MQ’’(t ) + CQ ’(t ) + KQ (t ) = Y (t ) (499)

Nota : on notera que ce système, pour les moments, ne peut être explicité que si les soit minimale pour une certaine distance. On notera que la solution
fonctions x Œ b ( x, t ) et x Œ a ( x , t ) sont polynomiales en x. stationnaire de (499) est forcément centrée, puisque Y (t ) est centré.
C’est pour cela que l’hypothèse (498) sur g a été introduite.
3.3.2.2 Exemple On introduit également l’opérateur différentiel DNL tel que :
L’exemple simple suivant met en évidence les problèmes de DNL (Q (t ), t ) = MQ’’(t ) + g [Q (t ), Q ’(t )] – Y (t ) (500)
hiérarchie de troncature liés à la méthode. Soit l’EDSI sur  :
ainsi que le système équivalent :
d X (t ) = – ( X ( t ) + ε X ( t ) 3 ) d t + d W (t ) (494)
DL (Q (t ), t, C, K ) = MQ ’’(t ) + CQ ’(t ) + KQ (t ) – Y (t ) (501)
Donc, n = 1, a (x, t ) = 1, b (x, t ) = – (x + ε x 3).
avec C et K dans Mat  ( n, n ) .
Pour α ∈  , mα (t ) = E (X (t )α ), on obtient :
1 3.3.3.4 Distance des deux systèmes
m α′ ( t ) = – α m α ( t ) – εα m α + 2 ( t ) + ----- α ( α – 1 ) m α – 2 ( t ) (495)
2 Les matrices C et K vont être cherchées dans un sous-ensemble
Considérons, par exemple, le système pour les deux premiers  de Mat  ( n, n ) , pour que (499) admette une solution dans la
moments. Il s’écrit en prenant dans (495) α = 1 puis α = 2 : classe . Donc, pour tout Q dans , on pose :
e (Q (t ), C, K ) = DL (Q (t ), t, C, K ) – DNL (Q (t ), t ) (502)

m′1 ( t ) = – m 1 ( t ) – ε m 3 ( t ) 
 (496) et pour tout t dans  , e est une v.a. du second ordre à valeurs
m′2 ( t ) = 1 – 2m 2 ( t ) – 2 ε m 4 ( t )  dans  n . On choisit donc comme distance des deux systèmes :

|||e (C, K )|||2 = E (||e (Q (t ), C, K )||2) (503)
On note que le système (496) n’est pas fermé, puisque m3 et m4
interviennent. Si l’on ajoute les équations (492) pour m3 et m4 , il avec e (Q (t ), C, K ) = CQ ’(t ) + KQ (t ) – g [Q (t ), Q ’(t )] (504)
apparaît des moments d’ordre supérieur à 4 et ainsi de suite. Il faut
donc effectuer une fermeture algébrique, en y accordant une grande 3.3.3.5 Système linéarisé équivalent
attention. Par exemple, la suppression de m3 et m4 dans (496) est C’est le système régi par :
la plus mauvaise des fermetures, puisque cela revient à faire ε = 0
et donc à considérer (494) linéaire. ^ ^
MQ ′′ ( t ) + CQ ′ ( t ) + KQ ( t ) = Y ( t ) (505)
^ ^
où C et K sont dans  et minimisent |||e (C, K )|||2 :
3.3.3 Méthode de linéarisation stochastique
^^
3.3.3.1 Données du problème min C, K , ∈  ||| e ( C , K ) ||| 2 = ||| e ( C , K ) ||| 2 (506)
On limite l’exposé à la sous-classe suivante du problème for- sachant que Q est la solution stationnaire dans la classe de (505).
mulé au paragraphe 3.1. Le système dynamique non linéaire est
On introduit les matrices réelles (n × n ) :
régi par l’équation différentielle stochastique sur  n :
MQ ’’(t ) + g [Q (t ), Q ’(t )] = Y (t ) (497) 
R Q ′Q ′ = E ( Q ′ ( t ) Q ′ ( t ) T ) ; R QQ = E ( Q ( t ) Q ( t ) T ) 
avec M une matrice réelle (n × n ) symétrique définie positive. 
R QQ ′ = E ( Q ( t ) Q ′ ( t )T ) ; RQ ′ Q = E ( Q ′ ( t ) Q ( t )T ) (507)
L’application non linéaire q, q Œ g ( q , q ) est définie sur  n ×  n
● ●


à valeurs dans  n et vérifie : R gQ ′ = E ( g ( Q ( t ), Q ′ ( t ) ) Q ′ ( t ) T ) ; R gQ = E ( g ( Q ( t ) , Q ′ ( t ) ) Q ( t ) T )

g (– q, – q ) = – g (q, q ) ; g ( 0, 0 ) = 0
● ●
(498)
Comme Q ∈ est stationnaire en m.o.d., dRQQ /dt = 0, ce qui
L’excitation Y (t ) est un processus défini sur (  , t , P ), indexé implique :
sur  , à valeurs dans  n , du second ordre, centré, stationnaire et RQQ’ = – RQ’Q (508)
continu en m.o.d. On suppose que le problème (497) avec données
initiales admet une solution unique qui tend asymptotiquement, Compte tenu de la propriété :
pour t → +∞, vers un processus Q (t ) appartenant à la classe de T
processus, définie ci-après. R Q ′Q = R QQ ′

on en déduit que RQQ’ et RQ’Q sont deux matrices antisymétriques.


Les matrices RQQ et RQ’Q’ sont réelles symétriques positives.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 51
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

3.3.3.6 Construction dans Mat  (n, n ) Une méthode de résolution possible, basée sur une technique
itérative, est la suivante, dans le cas où le processus Y (t ) est gaussien
^ ^ et quand g s’écrit (ce qui est toujours possible) :
On cherche C et K dans Mat  ( n, n ) . Alors il n’est pas garanti
que la solution de (505) soit dans . Il faudra vérifier à chaque ● ^ ^ ● ●

étape que la solution stationnaire Q de (505) existe et est dans la g ( q, q ) = C 0 q + K 0 q + f ( q , q )


classe , sinon, il faut imposer des contraintes (§ 3.3.3.7, 3.3.3.8 et ^ ^
avec C 0 et K 0 deux matrices (n × n) réelles symétriques définies
3.3.3.9).
positives.
Si les matrices RQQ et RQ’Q’ sont définies positives, alors la CNS
— On construit la solution Q (1) de telle que :
^^
de minimum (506) est donnée par la solution unique C, K du ^ ^
système matriciel suivant en {C, K } : MQ (′′1 ) + C 0 Q (′1 ) + K 0 Q ( 1 ) = Y ( t )

 en utilisant les résultats du paragraphe 2.3. Comme l’équation est


C R Q ′ Q ′ + K R QQ ′ = R gQ ′  linéaire, le processus { Q (′1 ) ( t ), Q ( 1 ) ( t ) } est gaussien. On peut donc
C R Q ′ Q + K R QQ = R gQ  (509) calculer R g ( 1 ) Q (′1 ) et R g ( 1 ) Q ( 1 ) ainsi que les quatre autres matrices
 de (507).

— On résout le système de Riccatti (511), ou on utilise (513),
3.3.3.7 Construction dans Mat S  (n, n ) ^ ^
suivant la stratégie retenue, ce qui permet de déterminer C 1 et K 1 .
^ ^ On suppose que ces matrices symétriques sont définies positives,
On cherche C et K dans les matrices symétriques réelles sinon la solution ne peut pas être construite par la présente méthode
MatS  ( n, n ) . Par rapport au paragraphe 3.3.3.6, cette contrainte est itérative.
introduite en posant : — On résout le nouveau problème :
C = A + AT , K = B + BT (510) ^ ^
MQ (′′2 ) + C 1 Q (′2 ) + K 1 Q ( 2 ) = Y ( t )
Alors la CNS de minimum (506) est donnée par la solution unique
^ ^
^^ — On itère le procédé jusqu’à convergence de la suite C j , K j .
C, K du système matriciel suivant en {C , K }, du type Riccatti :

T  3.3.4 Méthode de simulation numérique


C R Q ′ Q ′ + R Q ′ Q ′ C + K R QQ ′ + R Q′Q K = R gQ ′ + R gQ ′ 
T  (511)
C R Q ′ Q + R QQ′ C + K R QQ + R QQ K = R gQ + R gQ  3.3.4.1 Principe de la simulation numérique

Considérons le problème de vibrations non linéaires (452) dans
^^ le plan des phases. La condition initiale X0 est une v.a., définie sur
La solution unique C, K de (511) est obligatoirement dans les
(  , t , P ) , à valeurs dans  n , et le processus excitation Y (t ), défini
matrices symétriques réelles, mais elles ne sont pas forcément défi-
nies positives. Aussi les commentaires du paragraphe 3.3.3.6 tien- sur (  , t , P ) , est indexé sur  + à valeurs dans  m . Supposons que
nent. l’ensemble des données soit tel que le problème (452) ait une
solution unique X (t ) qui soit un processus indexé sur  + à valeurs
3.3.3.8 Construction dans Mat D  (n, n )  n , ayant P-presque sûrement ses trajectoires différentiables. Dans
^^ ces conditions, si {X0 (a), t Œ Y (t, a)}, a ∈  est une réalisation de
Si l’on cherche la solution C, K dans les matrices diagonales
{X0 , t Œ Y (t )}, on déduit de (452) que t Œ X (t, a) vérifie :
réelles MatD  ( n, n ) , la relation (504) s’écrit pour tout k ∈ {1, ..., n } :

e k ( Q ( t ), C , K ) = C kk Q k′ ( t ) + K kk Q k ( t ) – g k [ Q ( t ) , Q ′ ( t ) ] (512) X ′ ( t, a ) = f ( X ( t , a ) , Y ( t , a ) , t ) , t >0 
 (514)
^^ X ( 0, a ) = X 0 ( a ) 
et la solution cherchée C, K dans MatD  ( n, n ) , qui se déduit 
de (509), est donnée explicitement par : où X ’ (t, a) = dX (t, a)/dt est la dérivée ordinaire de la fonction
différentiable t Œ X (t, a). Pour chaque a fixé dans  , le problème
^  déterministe non linéaire (514) peut être résolu numériquement avec
C kk = ( R gQ ′ ) kk [ ( R Q′Q ′ ) kk ] –1 
^  (513) les méthodes classiques de l’analyse numérique. Si l’on procède à
K kk = ( R gQ ) kk [ ( R QQ ) kk ] –1  K tirages indépendants :

{ X 0 ( a k ), t Œ Y ( t , a k ) } , k ∈ { 1, ..., K } de { X 0 , t ŒY ( t )}
pour tout k ∈ {1, ..., n }. Dans ce cas, la CNS pour que Q soit dans
^ ^ et que l’on résout pour chaque k le problème déterministe (514), on
est que l’on ait pour tout k dans {1, ..., n } : C kk > 0 et K kk > 0 . obtient K réalisations t Œ X (t, ak ) du processus X (t ), qui est la
solution de (452). En utilisant les méthodes statistiques usuelles pour
3.3.3.9 Construction de la solution stationnaire approchée les processus, on peut estimer les caractéristiques probabilistes du
processus X (t ), telles que : un sous-ensemble fini du système de
Il y a deux difficultés pour effectuer la construction : lois marginales, sa fonction d’autocorrélation, etc., et, si X (t ) tend
— la première concerne le calcul effectif de RgQ’ et RgQ définis vers XS (t ), stationnaire, pour t → +∞, on peut estimer la densité
par (507) ; comme g est non linéaire, les techniques de calcul du spectrale matricielle de XS (t ), etc. Par exemple, une estimation de
second ordre ne sont pas suffisantes et il est nécessaire d’avoir la fonction moyenne :
une information sur la loi de la v.a. vectorielle {Q (t ), Q ’(t )} ;
^^ t Œ mX ( t ) , t ∈T = [ 0, t 1 ]
— la seconde concerne la solution C, K qui dépend de la
solution Q (t ) et Q’(t ).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 52 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

K
^
s’écrit m K ( t ) = K –1 ∑ X ( t, ak ) , t ∈ T, K 1 3.3.4.2.4 Simulation de K v.a. indépendantes de même loi
k=1 On procède comme au paragraphe 3.3.4.2.2. Une réalisation
Ainsi la méthode de résolution par simulation numérique néces- [Q1 (a ), ..., QK (a )] d’une v.a. (Q 1 , ..., QK ), où les Qk sont des v.a.
site de savoir construire des trajectoires du processus excitation indépendantes et où chaque v.a. Qk a pour fonction de répartition
Y (t ), ce que l’on appelle encore simuler numériquement le proces- FQ , est donnée par :
sus Y (t ). –1
Q k (a ) = F Q [ U ( a k ) ] (516)
Le présent paragraphe est consacré à la présentation des
principales méthodes de simulation numérique des processus et des où U (a1), ..., U (aK ) sont K tirages indépendants de la v.a. U.
champs stochastiques à valeurs réelles et vectorielles, stationnaires
ou homogènes, non stationnaires ou non homogènes.
3.3.4.2.5 Simulation du second ordre de K v.a.
du second ordre orthonormées
3.3.4.2 Compléments sur la simulation
des variables aléatoires Soit ξ1 , ..., ξK , K v.a. définies sur (  , t , P ) , à valeurs dans  , du
second ordre, centrées et orthogonales :
Pour la mise en œuvre des méthodes de simulation numérique
des processus, il est nécessaire de savoir simuler des réalisations E ( ξ k ) = 0,  ξk , ξ k ′  = E ( ξ k ξ k ′ ) = δ kk ′ (517)
de variables aléatoires ayant certaines propriétés.
Une simulation [ξ1 (a), ..., ξK (a)] de (ξ1 , ..., ξK ) vérifiant (517) est
3.3.4.2.1 Variable aléatoire uniforme obtenue en prenant :
La simulation numérique de réalisation d’une v.a. de loi 1
-----
 
1
quelconque sera effectuée à partir d’une même v.a. U définie sur ξ k ( a ) = 2 × 3 2 × U ( a k ) – ----- (518)
(  , t , P ) , à valeurs dans  , de loi uniforme sur [0, 1] : 2

P U ( du ) = p U (u ) du, p U (u ) = * [ 0, 1 ] (u ) où U (a1), ..., U (ak ) sont K tirages indépendants de U.

Sa moyenne et son écart-type s’écrivent : 3.3.4.3 Simulation numérique des processus


et des champs à valeurs vectorielles,
1 basée sur une représentation de Karhunen-Loeve
1 1 – -----
E ( U ) = ----- , σ U = ----- × 3 2
2 2
3.3.4.3.1 Données
La raison de ce choix est simple, les langages informatiques à Soit X (t ) = [X1 (t ), ..., Xn (t )] un processus défini sur (  , t , P ) ,
vocation scientifique disposent généralement d’une macro-instruc- indexé sur un ouvert quelconque de  d (si d = 1, c’est un processus,
tion qui permet de générer des nombres aléatoires, relatifs à des si d  2 , c’est un champ), à valeurs dans  n , du second ordre,
tirages indépendants de la même v.a. uniforme U. centré, dont la fonction d’autocorrélation vérifie (280). Alors X (t )
admet le développement (283) et la suite de processus X K (t ), K > 1,
3.3.4.2.2 Simulation de K v.a. indépendantes et uniformes telle que :
K
Pour construire un vecteur aléatoire (U1 , ..., UK ), où chaque v.a.
∑ λk
1/2
Uk est à valeurs dans  et suit une loi uniforme sur [0, 1] et où toutes X K (t ) = ξk ϕk ( t ) (519)
les v.a. sont indépendantes dans leur ensemble, on prend K versions k=1
indépendantes de la même v.a. U. Une réalisation [U1 (a ), ..., UK (a )] converge vers le processus X (t ) dans L 2 (  ,  n ) . Pour K fini, on
sera obtenue en prenant pour k ∈ {1, ..., K }, Uk (a ) = U (ak ), où utilise l’approximation (519) pour simuler une approximation de
U (a1), ..., U (aK ) sont K tirages indépendants de la v.a. U. X (t ).

3.3.4.2.3 Simulation d’une v.a. de loi quelconque 3.3.4.3.2 Méthode de simulation


Soit Q une v.a. définie sur (  , t , P ) à valeurs dans  , dont la loi Une trajectoire t Œ X K ( t , a ) , a ∈  s’écrit :
de probabilité sur  est définie par sa fonction de répartition FQ (q ).
La fonction FQ qui est monotone croissante de  dans ]0, 1[ est K

∑ λk
1/2
supposée bijective de  dans ]0, 1[. Si ce n’est pas le cas, on peut X K (t , a) = ξ k (a ) ϕ k ( t ) (520)
–1
toujours s’y ramener à l’aide d’une partition adaptée. Soit donc F Q k=1
l’application réciproque de ]0, 1[ dans  . En utilisant le
paragraphe 1.2.7.1, on obtient : où [ξ1 (a), ..., ξK (a)] est une réalisation de la v.a. (ξ1 , ..., ξK ).
–1
Q = F Q (U ) 3.3.4.3.3 Exemple d’une simulation du second ordre
Pour effectuer une telle simulation, il suffit que les ξk vérifient (517).
où U est la v.a. du paragraphe 3.3.4.2.1. Une réalisation Q (a ) de la On utilise (518).
v.a. Q est obtenue par la relation :
–1
Q (a ) = F Q [ U ( a ) ] (515) 3.3.4.3.4 Exemple d’une simulation en loi
Supposons que X K (t ) soit gaussien. Alors il est suffisant que les
où U (a ) est une réalisation de U. ξk vérifient (517) et soient gaussiennes. Comme elles sont centrées,
l’orthogonalité implique dans ce cas l’indépendance.
On utilise (516) :
–1
ξ k (a ) = F ξ [ U ( a k ) ]

avec F ξ (q ) = –∞
q
( 2π )
1
– -----
2 1

exp – ----- y 2 d y
2 

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 53
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

3.3.4.4 Simulation des processus à valeurs vectorielles Soit w1L , ..., wdL , d nombres réels positifs. On pose :
admettant une représentation markovienne
de dimension finie 
Ω = ] – w 1 L , w 1 L [ × ... × ] – w dL , w dL [ 
3.3.4.4.1 Données  (522)
Ω = [ – w 1 L , w 1 L ] × ... × [ – w dL , w dL ] 
+ + 
Soit Y + ( t ) = [ Y 1 ( t ), ..., Y q ( t ) ] , q entier  1, le processus défini
On introduit les hypothèses complémentaires suivantes : la
sur (  , t , P ) , indexé sur  + , à valeurs dans  q , gaussien, centré,
du second ordre, admettant la représentation markovienne (222) de fonction w ŒS X (w ) :  d → Mat  ( n , n ) , w = ( w 1 , ..., w d ) ∈  d a
dimension m  1 . On cherche à simuler une trajectoire t Œ Y +(t, a ) pour support Ω et est dans C 2 ( Ω , Mat  ( n , n ) ) . La relation (122)
pour t ∈ [0, s1], s1 > 0, a ∈  . Pour m assez grand, il est tout à fait s’écrit :


déconseillé d’utiliser sur le plan numérique la forme algébrique
connue (223) de la solution. La méthode la plus efficace consiste à ∀u ∈ d , R X (u ) = exp ( iu ⋅ w ) S X (w ) dw (523)
résoudre l’équation différentielle (222) avec un schéma d’intégration Ω
numérique, par exemple le schéma implicite inconditionnellement
stable suivant. Soit ∆t le pas de temps tel que : Sous ces hypothèses, le processus X (t ) est ergodique pour sa
fonction moyenne (qui est nulle) et sa fonction d’autocorrélation
s1 = J ∆t , t j = j ∆t pour j ∈ {1, ..., J } et t 0 = 0 (§ 1.7). Comme il est gaussien, il est ergodique pour tous ses
paramètres.
On écrit :
1 3.3.4.5.2 Notations et partitions des domaines
U + ( t j + 1 ) – U + ( t j ) = ----- ∆ t A [ U + ( t j + 1 ) + U + ( t j ) ] + Q ∆ W j , j + 1
2 Soit N1 = 2M1 , ..., Nd = 2Md , d entiers positifs pairs. On considère

où ∆Wj, j + 1 = W (tj + 1) – W (t j ), j ∈ {0, 1, ..., J –1} sont des v.a. à la partition de Ω définie pour j ∈ {1, ..., d } par :
–1
valeurs m ,
indépendantes dans leur ensemble, gaussiennes, cen- ∆ j = 2w jL N j ;
trées, de matrice de covariance C ∆Wj, j + 1 = ∆ t I , d’après le
 
1
paragraphe 1.3.3.4. w j , kj = – w jL + k j + ----- ∆ j , k j ∈ { 0, 1, ..., N j – 1 } (524)
2

3.3.4.4.2 Méthode de simulation Soit w = (w1 , ..., wd ) Œ f (w ) = f (w1 , ..., wd ) une fonction définie
sur  d . On utilise les notations en multi-indices :
La simulation numérique d’une trajectoire de l’approximation
+ N = N 1 × ... × Nd ; ∆ = ∆ 1 × ... × ∆ d ; k = (k 1 , ..., k d ) (525)
Y ∆t ( t ) de Y + ( t ) sur [0, s 1 ] est obtenue en résolvant, pour
j ∈ {0, 1, ..., J – 1], le problème déterministe suivant : N1 – 1 Nd – 1

∑ f ( wk ) = ∑ ... ∑ f ( w 1, k1 , ..., w d , kd ) (526)


 k k1 = 0 kd = 0
+ 
Y ∆t ( t j + 1 , a ) = B U + ( t j + 1 , a ) 
 3.3.4.5.3 Décomposition de la densité spectrale matricielle


1 1
 2  2 
I – ----- ∆ t A U + ( t j + 1 , a ) = I + ----- ∆ t A U + ( t j , a )  (521)

D’après (124), pour tout w ∈ Ω , S X ( w ) est une matrice hermi-
+ Q ∆ Wj , j + 1 ( a )  tienne positive (mais pas forcément définie positive). Alors pour tout

 w dans Ω , il existe une matrice H (w ) ∈ Mat  ( n, n ) telle que :
U + ( t0 , a ) = u0 
SX (w) = H (w) H (w)* (527)
La simulation des K = m × J v.a. {(∆Wj, j + 1)i , j ∈ {0, ..., J – 1}, Dans le cas particulier où, pour w fixé, SX (w ) est définie positive,
i ∈ {1, ..., m}} qui sont indépendantes dans leur ensemble, on peut construire la décomposition (527) par une factorisation de
gaussiennes, centrées, toutes de même variance ∆t, est effectuée, Chowlesky de SX (w ), et H (w ) est alors une matrice triangulaire
par exemple, suivant le paragraphe 3.3.4.2.4. inférieure. Mais il existe d’autres constructions pour lesquelles H (w)
n’est pas triangulaire, par exemple si l’on utilise le changement de
3.3.4.5 Simulation des processus stationnaires et des champs base constituée des vecteurs propres de SX (w). Si SX (w) n’est pas
homogènes gaussiens à valeurs vectorielles, définie positive, on peut toujours construire la décomposition (527).
basée sur la représentation intégrale
3.3.4.5.4 Construction d’une suite d’approximations
3.3.4.5.1 Données
du processus
On utilise les notations du paragraphe 1.3.4. Soit :
Pour simuler le processus X (t ), on construit une suite de
X (t ) = [X1 (t ), ..., Xn (t )] processus {X N (t )}N qui va converger vers X (t ) et, pour N fixé, on
simulera numériquement X N (t ). L’approximation :
un processus défini sur (  , t , P ) , indexé sur  d , t = (t1 , ..., td ), à
N N
valeurs dans  n , gaussien, du second ordre, centré, continu en X N ( t ) = [ X 1 ( t ), ..., X n ( t ) ]
m.o.d., stationnaire (pour d  2 , on dit aussi homogène). Soit :
du processus X (t ) est obtenue à partir de la représentation intégrale
u ŒR X ( u ) , u = ( u 1 , ..., u d ) ∈ d (284) et s’écrit pour tout p ∈ {1, ..., n}
n
sa fonction d’autocorrélation sur  d à valeurs dans Mat  ( n, n ) , 1  
Re  ∑ ∑ H pq ( w k ) exp ( it ⋅ w k + 2iπU qk )  (528)
N -----
X p ( t ) = (2∆) 2
définie par (113). On suppose que sa mesure spectrale matricielle q = 1 k 
admet une densité spectrale matricielle SX (w ). Elle vérifie (122),
(124) et (127). avec U qk = U qk1 ... kd , n × N v.a. définies sur (  , t , P ) , indépen-
dantes dans leur ensemble et uniformes sur [0, 1].

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 54 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

3.3.4.5.5 Propriétés et convergence Le pas d’échantillonnage δj de tj s’écrit :


de la suite d’approximations –1
δ j = f e, j
Sous les hypothèses du paragraphe 3.3.4.5.1, pour tout N fixé dans
 d , le processus X N (t ) sur (  , t , P ) , indexé sur  d , à valeurs dans soit en utilisant (524) :
 n , défini par (528) est : 1 –1
— un processus du second ordre et pour tout t ∈  d : 2 
δ j = 2π ( ν j w jL ) –1 = 2π ----- ν j N j ∆ j  (533)

|||X N ( t )||| 2 = ∆ ∑ tr S X ( w k ) < + ∞ (529) = 2π ( N j ∆ j ) –1 , j ∈ { 1, ..., d }
k
 1
— il est centré, stationnaire en m.o.d. et sa fonction d’auto- N j = ----- ν j N j ; ν j = 2p j , p j  1 , j ∈ { 1, ..., d } (534)
2
corrélation s’écrit pour tout u ∈  d :
Les points d’échantillonnage pour les variables w sont donnés
R N (u ) = E ( X N ( t + u ) X N ( t ) T ) par (524), et pour les variables tj pour j ∈ {1, ..., d } par :

= Re ∆ ∑ S X ( w k ) exp ( iu ⋅ w k ) (530) 
t j, mj = m j δ j , m j ∈ { 0, 1, ..., N j – 1 } (535)
k

— il est continu en m.o.d. et sa mesure spectrale matricielle On pose :


M N (dw ) à valeurs dans Mat  ( n, n ) s’écrit :

K ( N ) = { 0, 1, ..., N 1 – 1 } × ... × { 0, 1, ..., N d – 1 } 
M N ( dw ) = ∆ ∑ δ wk (w ) S X ( w k ) (531) (p)

k A k1 ... kd = 0 si ( k 1 , ..., k d ) ∉ K ( N ) 
n

δ wk (w ) = δ w1, k ( w 1 ) × ... × δ wd , kd ( w d ) et où δ wj , kj ( w j ) (p)  (536)
où est la A k1 ... kd = ∑ H pq ( w 1, k1 , ..., w d , kd ) exp ( 2i π U qk 1 ... kd ) 

1

mesure de Dirac au point wj, kj sur  pour la coordonnée wj ; q=1



si ( k 1 , ..., k d ) ∈ K ( N ) 
— les trajectoires t j ŒX N ( t, a ) , a ∈  , du processus X N (t ) 
sont des fonctions périodiques de période :
Alors la relation (528) s’écrit :


1 –1
2 
T j ( N ) = 2π ----- ∆ j , j ∈ { 1, ..., d } (532)
 
j ∈ { 1, ..., d } , mj ∈ { 0, 1, ..., N j – 1} 
— quand N1 → +∞, ..., Nd → +∞, noté N → +∞, et pour tout 1 
N ----
- 
X p ( m 1 δ 1 , ..., m d δ d ) = ( 2 ∆ 1 × ... × ∆ d ) 2 
u ∈ d , la fonction u Œ R N (u ) converge vers la fonction  (537)
 –1 
d
–2 ^N
u Œ R X (u ) en N inf avec N inf = inf {N1 , ..., Nd } ; × Re  X p ( m 1 δ 1 , ..., m d δ d ) exp – 2i π ∑ m j ( ν j – ( 2 N j ) ) 
–1
— quand N → +∞ et pour tout pavé Ω (w, δw ) = [w1 , w1 + ∆w1[  
j=1

× ... × [wd , wd + ∆wd [ de Ω, avec ∆wj > 0, ∀ j ∈ {1, ..., d }, 
–2
MN [Ω (w, ∆w )] converge vers MX [Ω (w, ∆w )] en ; N inf ^N
où X p peut être calculé par transformée de Fourier rapide (TFR) :
— le processus X N (t ) converge en loi vers le processus gaus-
sien X (t ) ; N1 – 1 Nd – 1
^N (p)
— chaque trajectoire t j ŒX N ( t, a ) , a ∈  , étant périodique de X p ( m 1 δ 1 , ..., m d δ d ) = ∑ ... ∑ Ak 1 ... k d

période Tj (N ), on ne peut construire les moyennes temporelles k1 = 0 kd = 0 (538)


d
relatives à tj que sur des intervalles de longueur inférieure ou égale
à Tj (N ). On montre alors que le processus X N (t ) est
exp ∑ j=1
–1
2i π k j m j N j 
asymptotiquement ergodique pour N → +∞. b ) Cas particulier. Formule rapide repliée : on introduit l’hypothèse
complémentaire suivante relative à la symétrie du processus :
3.3.4.5.6 Méthode de simulation
Pour N fixé, une trajectoire t Œ X N ( t , a ) , a ∈  , du processus 
∀j ∈ { 1, ..., d } , ∀ p , ∀ q ∈ { 1, ..., n } , 
X N (t ) est donnée par (528), en tirant une réalisation des n × N v.a.  (539)
uniformes Uqk sur [0, 1], indépendantes, suivant le paragraphe H pq ( w 1 , ..., – w j , ..., w d ) = H pq ( w 1 , ..., w j , ..., w d ) 
3.3.4.2.2. 

Dans le cas des processus d = 1, à valeurs  (n = 1), cette


3.3.4.5.7 Formules rapides de simulation 1
par transformée de Fourier rapide -----
hypothèse est toujours vérifiée puisque H (w ) = S X (w ) 2 et
■ Cas général : la fréquence la plus élevée dans SX pour la SX (– w ) = SX (w ).
coordonnée j est : On prend alors pour j ∈ {1, ..., d } :
f max, j = wjL (2π)–1

N j = 2M j , ∆ j = w jL M j ; w j , kj = k j ∆ j , k j ∈ { 1, ..., M j }
–1

D’après le théorème de Shannon (§ 1.6.2.4), il faut échantillonner  
–1
la variable tj à la fréquence fe, j = 2fmax, j . Plus généralement, on T j = 2 π ∆ j , δ j = 2π ( ν j w jL ) –1 = 2π ( M j ∆ j ) –1 
introduit les paramètres νj = 2pj , p j entier  1 , et la variable tj est  (540)
 
échantillonnée à : M j = ν j M j , ν j = 2p j , p j  1 
fe, j = νj wjL (2π)–1  
t j , mj = m j δ j , m j ∈ { 0, 1, ..., M j – 1 } 

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 55
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

On pose K (M ) = {1, ..., M1} × ... × {1, ..., Md } et : Cette décomposition peut toujours être construite (§ 3.3.4.5.3).
On introduit la matrice  ( t, w ) ∈ Mat  ( n , n ) telle que :
(p) 
A k1 ... kd = 0 si ( k 1 , ..., k d ) ∉ K ( M )   ( t, w ) = Q ( t , w ) H (w ) (546)

(p)
n

A k1 ... kd = ∑ H pq ( w 1, k1 , ..., w d , kd ) exp ( 2i π U qk1 ... kd )  (541) 3.3.4.6.3 Construction d’une suite d’approximations

q=1 
si ( k 1 , ..., k d ) ∈ K ( M ) 
On introduit les notations (524), (525) et (526). La suite d’approxi-
 mations X N (t ) est basée sur la représentation intégrale (276) de
 X (t ). On obtient, d’une façon similaire à (528) et pour p ∈ {1, ..., n} :
Alors on a pour j ∈ {1, ..., d } et m j ∈ { 0, 1, ..., M j – 1 } :
n
1  
X p ( t ) = ( 2 ∆ ) 2 Re  ∑ ∑  pq ( t, w k ) exp ( i t ⋅ w k + 2i π U qk )  (547)
N -----

 q = 1 k 
N
X p ( m 1 δ 1 , ..., m d δ d ) 
 où Uqk sont n × N v.a. uniformes sur [0, 1], indépendantes.
1
----- ^N 
= 2 d ( 2 ∆ 1 × ... × ∆ d ) 2 × Re [ X p ( m 1 δ 1 , ..., m d δ d ) ] 
 3.3.4.6.4 Propriétés et convergence
^N  (542)
X p ( m 1 δ 1 , ..., m d δ d )  de la suite d’approximations
 Pour tout N fixé dans  d , le processus X N (t ), indexé sur T à
   valeurs  n , est :
M1 – 1 Md – 1 

d


(p)  –1
= ∑ ... ∑ A k1 ... kd exp ∑ 2i π k j m j M j  — un processus du second ordre et pour tout t ∈ T :

k1 = 0 kd = 0 j=1 
|||X N ( t )||| 2 = ∆ ∑ tr S X ( t, w k ) < + ∞
k
3.3.4.6 Simulation des processus non stationnaires
et des champs non homogènes gaussiens à valeurs — il est centré et sa fonction d’autocorrélation s’écrit :
vectorielles admettant une représentation intégrale
R N ( t, t ′ ) = Re ∆ ∑ Q ( t , w k ) S ( w k ) Q ( t ′ , w k ) *
3.3.4.6.1 Données k (548)
Soit T = T 1 × ... × T d un ouvert de  d , d entier  1 , avec T j , exp ( i w k ⋅ ( t – t ′ ) )
j ∈ {1, ..., d } des intervalles ouverts quelconques de  . Soit :
— pour tout t et t ’ dans T, R N (t, t ’) converge vers R X (t, t ’) en
–2
X (t ) = [X1 (t ), ..., Xn (t )] N inf , avec N inf = inf {N1 , ..., Nd } ;
un processus défini sur (  , t , P ) , indexé sur T, à valeurs  n , — la suite de processus {X N (t )}N converge en loi vers le proces-
gaussien, du second ordre, centré, non stationnaire (on dit aussi non sus gaussien X (t ) pour N → +∞.
homogène si d  2 ), continu en m.o.d. Soit :
3.3.4.6.5 Méthode de simulation numérique
t, t ′ Œ R X ( t , t ′ ) : T × T → Mat  ( n , n )
Pour N fixé, une trajectoire t ŒX N ( t, a ) , a ∈  , t ∈ T, du processus
sa fonction d’autocorrélation qui est donc continue. On suppose que
X (t ) admet la représentation intégrale (276), RX étant donnée X N (t ), est donnée par (547), en tirant une réalisation des n × N v.a.
uniformes Uqk suivant le paragraphe 3.3.4.2.2. Après échantillon-
par (278), et que sa mesure structurelle matricielle M (dw ) admet une
nage en temps, effectué comme au paragraphe 3.3.4.5.7, on obtient
densité S (w ) ∈ Mat  ( n, n ) . D’après le paragraphe 1.6.1.4b, S (w ) des formules numériques du type (537). Malheureusement,
est une matrice hermitienne positive. On suppose que la fonction dans (536), H pq (w k ) est remplacé par  pq (m 1 δ 1 , ..., m d δ d ;
w Œ S (w ) est à support compact Ω , où Ω est défini par (522). w 1, k1 , ..., w d , kd ) et l’algorithme de la TFR ne peut plus être utilisé.
Alors (278) s’écrit pour t et t ’ dans T :

R X ( t, t ′ ) =  Q ( t , w ) S (w ) Q ( t ′ , w ) * (543)
w∈Ω
exp [ i w ⋅ ( t – t ′ ) ] d w 4. Stabilité des systèmes
On note SX (t, w ) la densité spectrale matricielle instantanée : dynamiques linéaires
SX (t, w ) = Q (t, w ) S (w ) Q (t, w )* (544) à coefficients aléatoires
On suppose en outre que la fonction t, w ΠQ (t, w ) est continue
de T × Ω dans Mat  ( n, n ) et que, pour tout t et tout t ’ dans T, la On limite l’exposé au cas des systèmes dynamiques à comporte-
fonction w Œ Q (t, w )S (w)Q (t ’, w )* est deux fois continûment déri- ment linéaire avec second membre et coefficients aléatoires, qui
peuvent se ramener à une équation différentielle stochastique d’Itô
vable de Ω dans Mat  ( n, n ) . (EDSI) linéaire. La construction de l’EDSI associée est effectuée
suivant la méthode exposée au paragraphe 3.2.1, en utilisant les
3.3.4.6.2 Décomposition de la densité spectrale structurelle résultats du paragraphe 1.4.6 sur la modélisation des EDS de la
physique.
Pour tout w ∈ Ω , S (w ) étant hermitienne positive, il existe
H (w ) ∈ Mat  ( n, n ) telle que :
S (w ) = H (w ) H (w )* (545)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 56 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

4.1 Position du problème 4.2.1.1 Méthode d’étude


On établit dans un premier temps le système différentiel linéaire
4.1.1 Systèmes dynamiques considérés qui régit les moments d’ordre deux. Il est obtenu en appliquant la
méthode des moments développée au paragraphe 3.3.2, méthode
Le but de ce paragraphe 4 est de donner quelques résultats sur basée sur la formule d’Itô (185), et appliquée à (551). On obtient un
la stabilité pour t → +∞ des solutions de l’EDSI linéaire suivante : système différentiel du premier ordre en t, linéaire, les inconnues
m étant tous les moments mα(t ) de multi-indices α ∈  n ayant pour
longueur |α | = 2. Ce système est fermé. Dans un second temps,
dX ( t ) = ( BX ( t ) + b ) dt + ∑ ( A i X ( t ) + a i ) dWi ( t ), t > 0 (549) l’étude de ce système différentiel linéaire homogène avec la
i=1
α
condition initiale m α ( 0 ) = x 0 permet de déterminer le domaine de
X ( 0 ) = x 0 p.s., x 0 ∈ n (550)
stabilité pour que l’on ait (553) avec p = 2. On étudie pour cela le
où : signe des parties réelles des valeurs propres de la matrice du
— les entiers n et m sont tels que m  n 2 ; système. Nous laissons le soin au lecteur d’adapter (492) au cas (551)
— le processus W (t ) = [W1 (t ), ..., Wm (t )] est le processus de pour obtenir le système en question. Nous donnons ci-après un
Wiener normalisé, défini sur (  , t , P ) , indexé sur  + , à valeurs  m , exemple.
introduit au paragraphe 1.3.3.4 ;
— la solution X (t ) = [X1 (t ), ..., Xn (t )] est un processus à valeurs 4.2.1.2 Exemple
dans  n ;
Considérons l’oscillateur linéaire homogène à 1 DDL dont la
— les matrices B, A1, A2, ..., A m sont constantes, réelles, (n × n) ;
raideur est aléatoire :
— les vecteurs b, a1, ..., a m de  n sont constants.
Le problème (549)-(550) est bien une EDSI du type (189), mais Q ’’(t ) + 2 ξwQ ’(t ) + [w 2 + ε Zb (t )] Q (t ) = 0 (555)
linéaire. La stabilité du système non homogène (549) est régie par
où ξ > 0, w > 0 et où Z b ( t ) est un bruit gaussien large bande
la stabilité du système homogène associé (b = a1 = ... = a m = 0). normalisé à valeurs  (§ 1.4.6.1). On pose X (t ) = {Q (t ), Q’ (t )} à
Nous commencerons donc par l’étude du système homogène valeurs dans  2 et :
associé.
0 1 0 0
B = A =
4.1.2 Stabilité en moyenne d’ordre p – w 2 – 2ξw –ε 0
et stabilité presque sûre Alors (555) s’écrit :
4.1.2.1 Stabilité asymptotique pour les moments d’ordre p X ’(t ) = BX (t ) + AX (t ) Zb (t )
Le système homogène associé à (549)-(550) s’écrit : En utilisant le paragraphe 1.4.6.6, la bonne modélisation de cette
m EDS est l’EDS de Stratonovich (246) :
dX ( t ) = BX ( t ) dt + ∑ A i X ( t ) dWi ( t ), t > 0 (551) dX ( t ) = BX ( t ) dt + AX ( t )  dW (t )
i=1

X (0) = x0 (552) qui donne l’EDSI (247) :

Il est dit asymptotiquement stable en moyenne d’ordre p, p  1 , dX (t ) = BX (t ) + AX (t ) dW (t ) (556)


si : car le terme complémentaire (248) est nul dans ce cas. Soit :
lim E ( X ( t ) p ) = 0 (553)
t → +∞ m20 (t ) = E [X1 (t )2], m11 (t ) = E [X1 (t ) X2 (t )], m02 (t ) = E [X2 (t )2]
Si E (||X (t )||) p tend vers 0 exponentiellement, on dit que le système Alors en appliquant (492) à (556), on obtient le système suivant :
est asymptotiquement exponentiellement stable en moyenne
d’ordre p. Pour p = 2, on dit asymptotiquement (exponentiellement) m 20 ( t ) 0 2 0 m 20 ( t )
stable en m.o.d. d
-------- m 11 ( t ) = – w2 – 2ξw 1 m 11 ( t ) (557)
dt
4.1.2.2 Stabilité presque sûre m 02 ( t ) ε2 – 2w 2 – 4ξw m 02 ( t )
Le système homogène (551)-(552) est dit presque sûrement
asymptotiquement stable si, presque sûrement (§ 1.1.3), les On forme le polynôme caractéristique de la matrice de (557) pour
trajectoires du processus X (t ) sont asymptotiquement stables, étudier le signe des parties réelles de ses valeurs propres. On en
c’est-à-dire : déduit puisque :
lim X ( t ) = 0 p.s. (554) E (||X (t )||2) = m20 (t ) + m02 (t )
t → +∞
que le système sans second membre est asymptotiquement stable
en m.o.d. si :
4ξw 3 > ε 2 (558)
4.2 Stabilité du système
sans second membre
4.2.2 Stabilité presque sûre
On considère le système homogène (551)-(552) associé à
(549)-(550). Nous supposons que ||x0|| ≠ 0. Soit Y (t ) le processus à valeurs
dans  et Z (t ) = [Z1 (t ), ..., Zn (t )] le processus à valeurs dans  n ,
tels que :
4.2.1 Stabilité en moyenne d’ordre deux 
Y ( t ) = ln X ( t ) 
La méthode qui suit s’applique pour la stabilité en moyenne  (559)
d’ordre p. Le plus souvent, on se limite à l’étude de la stabilité en Z ( t ) = X (t ) X (t ) –1


m.o.d.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 57
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

Donc ||Z (t )|| = 1. En utilisant la formule d’Itô (185), on calcule Alors toute solution de (549)-(550) s’écrit :
sans difficulté la différentielle stochastique d’Itô (DSI) du processus

m

 ∑ a i dWi ( t ′ ) 
Y (t ), sachant que X (t ) admet la DSI (551). On obtient : t
X ( t ) = G ( t ) x0 + G ( t – t ′ ) b dt ′ + (566)
m 0
∑<
i=1
dY ( t ) = V [ Z ( t ) ] dt + Ai Z ( t ), Z ( t ) > d W i ( t ) (560)
i=1 et l’on sait que G (t – t ’) = G (t ) G (t ’)–1. On vérifie alors que si le
où z ŒV ( z ) :  n →  n est définie par : système homogène est asymptotiquement stable en moyenne
d’ordre p (resp. stable presque sûrement), il en est de même du
m

 ----12- A z 
système avec second membre, c’est-à-dire que :
V ( z ) = < Bz, z > + ∑ i 2 – < Ai z , z >2 (561)
i=1 lim E ( X ( t ) p) = C < +∞
t → +∞
Soit X ( t ; x 0 ) la solution du problème sans second membre
( resp. lim X ( t ) = C < + ∞ p.s. )
(551)-(552), où nous indiquons explicitement la dépendance de la t → +∞
condition initiale. Soit z 0 = x 0||x 0|| –1. On posera :
Z (t ; z0) = X (t ; x0) ||X (t ; x0)|| –1 Principales notations d’algèbre linéaire
On utilise le théorème suivant (Hasminskii). Soit n vecteurs
1 n j j j –1 ■ Soit n un entier positif, l’espace euclidien  n , rapporté à sa
x 0 , ..., x 0 de  n linéairement indépendants. Soit z 0 = x 0 x 0 .
base canonique, est muni du produit scalaire euclidien usuel :
Alors si pour tous les j ∈ {1, ..., n} :
n

λ
j
= lim t –1
t → +∞
 t

0
V [Z (t ′ ; z
j
0 )] dt ′ < 0 p.s. (562)
< x, y > = ∑ xj yj
j=1

le système (551)-(552) est presque sûrement (p.s.) asymptotique- et de la norme associée :


ment stable. Si il existe z0 quelconque de  n , de norme 1, tel que :
1


-----
t x = < x, x > 2 avec x = ( x1 , … , xn )
λ = lim t –1 V [ Z ( t ′ ; z 0 ) ] d t ′ < 0 p.s. (563)
t → +∞ 0 ■ Soit  n le complexifié de  n , muni du produit scalaire
alors le système homogène est presque sûrement instable, hermitien :
c’est-à-dire que l’on a : n

P ( lim X ( t ; x0 ) = + ∞ ) = 1 (564) ( x, y ) = ∑ xj y j = < x, y >


t → +∞ j=1

Une méthode possible, pour vérifier le critère (562) pour tous les j, et de la norme :
est la simulation numérique, dont le principe est donné au para- 1
-----
graphe 3.3.4.1. x = ( x, x ) 2
■ Si l’on peut montrer que, pour chaque j ∈ {1, ..., n} fixé, on a une
propriété d’ergodicité pour le critère (562), alors il suffit de construire où y = (y 1, …, y n ) ∈ n est le conjugué de
numériquement une seule trajectoire :
y = ( y1 , … , yn ) ∈ n .
t ŒX ( t ; x 0 ; a ) , a
j
∈
■ Soit  =  ou  , et n , m deux entiers positifs, nous
j identifierons l’espace vectoriel L (  n ,  m ) des applications
pour chaque j, solution de (551) avec la condition initiale X ( 0 ) = x0 . linéaires continues de  n dans  m , à l’espace des matrices
j Mat  ( m, n ) de dimension (m × n ), dont les éléments sont dans
On en déduit la trajectoire t ŒZ ( t ; z0 ; a ) , puis on calcule λj (a).  , et l’espace  n à Mat  ( n , 1 ) .
On pourra trouver dans [2] [93]des conditions portant sur les
matrices B, A1, ..., Am, pour que cette propriété soit vérifiée. ■ Soit Q ∈ Mat  ( n, m ), on note :
QT la matrice transposée de Q ;
■ Si cette propriété d’ergodicité n’est pas vérifiée, alors il faut
construire numériquement K trajectoires : Q la matrice conjuguée ;
Q* = Q T la matrice adjointe.
j
t ŒZ ( t ; z 0 ; a k ) , a k ∈ , k ∈ { 1, ..., K } , K  1
On utilisera la norme matricielle suivante :
afin de disposer d’un échantillon λ j (a 1), ..., λ j (a k ) suffisamment
grand pour pouvoir estimer la probabilité de l’événement {λ j < 0}. n m 1

∑ ∑ 
-----
Une telle approche est assez lourde sur le plan numérique si n est |Q | = Q ji 2 2
grand.
j=1 i=1

■ Soit * [ – b, b ] fonction qui vaut 1 sur l’intervalle et 0 en dehors.


4.3 Stabilité du système
avec second membre (0)

Nous considérons maintenant le système avec second membre


(549)-(550). Soit G (t ) le processus résolvant à valeurs dans
Mat  ( n, n ) , solution de l’EDSI suivante :

m 

dG ( t ) = BG ( t ) dt + ∑ A i G ( t ) dWi ( t ), t >0  (565)
i=1 
G ( 0 ) = I p.s. 

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 58 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

Abréviations utilisées dans le texte


BF basses fréquences
CNS condition nécessaire et suffisante
DDL degré de liberté
DS différentielle stochastique (au sens d’Itô)
EDS équation différentielle stochastique
EDSI équation différentielle stochastique d’Itô
EDSS équation différentielle stochastique de Stratonovich
EFP équation de Fokker-Planck
EFPE équation de Fokker-Planck d’évolution
EFPS équation de Fokker-Planck stationnaire
HF hautes fréquences
MF moyennes fréquences
Pol polynôme
TBF très basses fréquences
TF transformée de Fourier
m.o.d. moyenne d’ordre deux
p.s. presque sûrement
s.c. série chronologique
v.a. variable aléatoire

Références bibliographiques

[1] ARIATRATNAM (S.T.). – Stability of stochastic [14] BESSON (J.L.). – Sur le processus ponctuel [26] CIARLET (P.). – Numerical analysis of the finite
dynamical systems. Lecture Notes in Mathe- des passages par un niveau d’une fonction element method. Presses de l’Université de
matics, 294, Springer Verlag, Berlin (1972). aléatoire à trajectoires absolument continues. Montréal (1976).
[2] ARNOLD (L.), OEJELKLAUS (E.) et Thèse d’État Math., Université Lyon 1 (1984). [27] CLOUGH (R.W.) et PENZIEN (J.). – Dynamic of
PARDOUX (E.). – Almost sure and moment [15] BOLOTIN (V.V.). – Statistical methods in structures. McGraw-Hill, New York (1975).
stability for linear Ito equations in lyapunov structural mechanics. Holden Day, Inc., San [28] COLLATZ (L.). – The numerical treatment of
exponents. L. Arnold and V. Wihstertz Ed., Francisco (1969). differential equations. Springer Verlag, New
Lecture Notes in Mathematics, 1186, Springer [16] BOUC (R.). – Forced vibration of mechanical York (1966).
Verlag, Berlin (1986). systems with hysteresis. Proc. 4e Conf. sur les [29] CRAMER (H.) et LEADBETTER (M.R.). –
[3] ARNOLD (L.). – Stochastic differential oscillations non linéaires, Prague (1967). Stationary and related stochastic processes.
equations : theory and applications. J. Wiley [17] BOURET (R.C.), FRISCH (U.) et POUQUET (A.). John Wiley and Sons, New York (1967).
and Sons, New York (1973). – Brownian motion of harmonic oscillator [30] CRANDALL (S.H.). – Random vibration. Vol. I,
[4] ARNOLD (V.). – Méthodes mathématiques de with stochastic frequency. Physica (NL), 65, Techn. Press Camb., Mass. (1958).
la mécanique classique. Éd. Mir., Moscou p. 303-20 (1973).
[31] CRANDALL (S.H.). – Random vibration. Vol. II,
(1976). [18] BRISSAUD (A.) et FRISCH (U.). – Solving MIT, Cambridge (1963).
[5] ARQUES (P.Y.). – Décisions en traitement du linear stochastic differential equations. J.
[32] CRANDALL (S.H.). – Perturbation techniques
signal. Masson, Paris (1982). Math. Phys., 15, no 4, USA (1974).
for random vibration of nonlinear system. J.
[6] BADRIKIAN (A.). – Séminaire sur les fonctions [19] BUCY (R.S.) et JOSEPH (P.D.). – Filtering for Acoust. Soc. Amer., 35, no 11 (1963).
aléatoires linéaires et les mesures stochastic processes with applications to
[33] CRANDALL (S.H.) et MARK (D.W.). – Random
cylindriques. Lecture Notes in Mathematics, guidance. Inters. Tracks in pure and applied
vibration in mechanical systems. Academic
128, Springer Verlag, Berlin (1971). Math. Wiley, New York (1968).
Press, New York (1973).
[7] BATHE (K.J.) et WILSON (E.L.). – Numerical [20] CARTAN (H.). – Calcul différentiel. Nouvelle
[34] DOOB (J.L.). – Stochastic processes. John
m e t h o d s i n fi n i t e e l e m e n t a n a l y s i s . édition, Hermann, Paris (1977).
Wiley and Sons, New York (1967).
Prentice-Hall Inc., Englewood Cliffs (1976). [21] CAUGHEY (T.K.). – Non linear theory of
[35] DUNFORD (N.) et SCHWARTZ (J.T.). – Linear
[8] BELLANGER (M.). – Traitement numérique du random vibrations. Advances in applied
operators. Interscience, New York (1967).
signal. Masson, Paris (1981). mechanics ( ), 11, p. 209-53 (1971).
[36] DYNKIN (E.B.). – Markov processes, I, II.
[9] BELLMAN (R.) et RICHARDSON (J.M.). – [22] CAUGHEY (T.K.). – On the response of
Springer Verlag, Berlin (1965).
Closure and preservation of moment non-linear oscillators to stochastic excitation.
properties. J. Math. Anal. Appl., 23, p. 639-44, Probabilistic Engineering Mechanics, 1, no 1, [37] FERNIQUE (X.). – Régularité des trajectoires
USA (1968). p. 2-4, USA (1986). des fonctions aléatoires gaussiennes. Lecture
Notes in Math., 480, Springer Verlag, Berlin
[10] BENDAT (J.S.) et PIERSOL (A.G.). – Random [23] CAUGHEY (T.K.) et MA (F.). – The steady state
(1975).
data : Analysis and measurement procedures. response of a class of dynamical system to
Wiley Interscience, New York (1971). stochastic excitation. Journal of Applied [38] FORTET (R.). – Éléments de la théorie des
Mechanics, 49, p. 620-32, USA, sept. 1982. probabilités. Tome I, CNRS, Paris (1965).
[11] BENDAT (J.S.) et PIERSOL (A.G.). – Enginee-
ring applications of correlation and spectral [24] CHABAS (F.), DESANTI (A.) et SOIZE (C.). – [39] FOURGEAUD (C.) et FUCHS (A.). – Statistique.
analysis. John Wiley, New York (1980). Modélisation probabiliste du flou structural en Dunod, Paris (1967).
[12] BENSOUSSAN (A.), LIONS (J.L.) et dynamique linéaire des systèmes mécaniques [40] FRANKS (L.E.). – Signal theory. Prentice Hall,
PAPANICOLAOU (G.). – Asymptotic analysis complexes. II – Analyse numérique et applica- Englewood Cliffs (1969).
for periodic structures. North Holland, tions. Rech. Aérosp. ONERA (F), no 5 (1986). [41] FRIEDMAN (A.). – Stochastic differential
Amsterdam (1978). [25] CHEN (K.K.) et SOONG (T.T.). – Covariance equations and applications. Vol 1 et 2,
[13] BERNARD (P.) et al. – Un algorithme de properties of waves propagating in a random Academic Press, New York (1975).
simulation stochastique par markovianisation medium. J. Acoust. Soc. Amer., 49, p. 1639-42 [42] GASTINEL (M.). – Analyse numérique linéaire.
approchée. Application à la mécanique (1971). Hermann, Paris (1976).
aléatoire. J. de Mech. Théo. et Appl. ( ) (1984). [43] GELFAND (I.M.) et VILENKIN (N.Y.). – Les
distributions. Tome IV, Dunod, Paris (1967).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 59
PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES ______________________________________________________________

[44] GERMAIN (P.). – Mécanique des milieux [69] KREE (P.). – Diffusion equation for multivalued systems, part 2, A. Bensoussan and J.L. Lions
continus. Masson, Paris (1973). stochastic differential equations. J. of Eds, Lecture Notes in Control and Information
[45] GIRSANOV (I.V.). – On transforming a certain Functional Analysis, 49, no 1, USA (1982). Sciences, 63, p. 92-103, Springer Verlag, New
class of stochastic processes by absolutly [70] KREE (P.) et SOIZE (C.). – Markovianization of York (1984).
continuous substitution of measures. Theor. random oscillators with colored input. Rend. [95] PELED (A.) et LIU (B.). – Digital signal
Prob. Appl., 5, USA (1960). Sem. Math. Univer. Politech., Editrice Levretto processing : theory design and implementa-
[46] GUIKHMAN (L.) et SKOROKHOD (A.V.). – The Bella, Torino (1982). tion. John Wiley, New York (1976).
theory of stochastic processes. Springer [71] KREE (P.) et SOIZE (C.). – Mécanique aléatoire. [96] PICINBONO (B.). – Éléments de la théorie du
Verlag, Berlin (1979). Dunod, Paris (1983). signal. Dunod, Paris (1977).
[47] HARRIS (C.J.). – Simulation of multivariate [72] KREE (P.) et SOIZE (C.). – Mathematics of [97] POIRION (F.) et ANGELINI (J.J.). – Vibrations
nonlinear stochastic system. Int. J. for Num. random phenomena. Reidel Publ., Dordrecht aléatoires avec contraintes, modélisation et
Meth. in Eng., 14, p. 37-50, GB (1979). (1986). résolution numérique dans le cas d’une
[48] HASMINSKII (R.Z.). – A limit theorem for the [73] KUNIN (I.A.). – Elastic media with microstruc- gouverne. La Recherche Aérospatiale (F), no 6,
solutions of differential equations with ture. Vol. I et II, Springer Verlag, New York p. 385-94 (1985).
random right-hand sides. Theory of (1983). [98] PRIESTLEY (M.B.). – Power spectral analysis
p r o b a b i l i t y a n d a p p l i c a t i o n s . 1 1, n o 3 , [74] KUSHNER (H.J.). – Stochastic stability and of nonstationary random process. J. of Sound
p. 390-405, GB (1966). control. Academic Press, New York (1967). and Vibration, 6, p. 86-97 (1967).
[49] HASMINSKII (R.Z.). – Stochastic stability of [75] LANDAU (L.D.) et LIFCHITZ (E.). – Fluid [99] RABINER (L.R.) et GOLD (B.). – Theory and
differential equations. Sijthoff and Noordhoff mechanics. Pergamon Press (1963). application of digital signal processing.
(1980). Prentice-Hall, Englewood Cliffs (1975).
[76] LEADBETTER (M.R.). – Extremes and related
[50] HILLE (E.) et PHILLIPS (R.S.). – Functional properties of random sequences and [100] RALSTON (A.). – A first course in numerical
analysis and semi-groups. Amer. Math. Soc., processes. Springer Verlag, New York (1983). analysis. McGraw-Hill, New York (1965).
Providence Rhole Island (1957). [101] RAVIART (P.A.) et FAURE (R.). – Cours
[77] LIFERMAN (J.). – Théorie et application de la
[51] HORMANDER (L.). – Hypoellipctic second transformée de Fourier rapide. Masson, Paris d’analyse numérique. École Polytechnique,
order differential equations. Acta Math., 119, (1977). Paris (1976).
p. 147-71, CH (1967). [102] RICE (S.O.). – Mathematical analysis of
[78] LIN (Y.K.). – Probabilistic theory of structural
[52] HURTY (W.C.) et RUBINSTEIN (M.F.). – dynamics. McGraw-Hill, New York (1968). random noise. Bell System Techn. J., 24,
Dynamics of structures. Prentice-Hall Inc., p. 46-156, USA (1945).
[79] LIN (Y.K.). – Some observations of the
Englewood Cliffs (1964). [103] ROBERTS (J.B.). – The energy envelope of a
stochastic averaging method. Probabilistic
[53] IKEDA (N.) et WATANABE (S.). – Stochastic Engineering Mechanics, 1, no 1, p. 23-27, USA, randomly excited non linear oscillator. J.
differential equations and diffusion processes. mars 1986. Sound and Vibration, 60, no 2, p. 177-85, GB
North Holland, Amsterdam (1981). (1978).
[80] LIU (S.C.). – Solutions of Fokker-Planck
[54] ISAACSON (E.) et KELLER (H.B.). – Analysis of equation with applications in non linear [104] ROBERTS (J.B.). – Transient response of non
numerical methods. John Wiley and Sons, random vibrations. Bell System Tech. J., 48, linear systems to random excitation. J. Sound
New York (1966). p. 2031-51, USA (1969). and Vibration, 74, p. 11-29, GB (1981).
[55] ITO (K.). – On stochastic differential equations. [81] LYON (R.H.). – Statistical energy analysis of [105] ROBERTS (J.B.). – Response of an oscillator
14, Memoir. Amer. Math. Soc. (1961). dynamical systems : theory and applications. with non linear damping and a softening
[56] ITO (K.) et McKEAN (H.P.). – Diffusion The MIT Press, Cambridge (1975). spring to non white random excitation. Proba-
processes and their sample paths. Springer bilistic Engineering Mechanics, 1, no 1, USA,
[82] MAX (J.). – Méthodes et techniques de traite-
Verlag, Berlin (1965). mars 1986.
ment du signal et applications aux mesures
[57] IWAN (W.D.). – A generalization of the physiques. Masson, Paris (1981). [106] ROSEAU (M.). – Équations différentielles.
concept of equivalent linearization. Int. J. Non Masson, Paris (1976).
[83] McKEAN (H.P.). – Stochastic integrals.
Linear Mechanics, 5, p. 279-87, USA (1973). Academic Press, New York (1969). [107] ROUBINE (E.). – Introduction à la théorie de la
[58] IWAN (W.D.) et SPANOS (P.T.). – Response communication. Masson, Paris (1970).
[84] MEYER (P.A.). – Martingales and stochastic
envelope statistics for nonlinear oscillators integrals I. Lecture Notes in Math., 284, [108] ROZANOV (Y.A.). – Stationary random
with random excitation. J. of Applied Springer Verlag, Berlin (1972). processes. Holden Day, San Francisco (1967).
Mechanics, 45, USA (1978). [109] RUBINSTEIN (M.F.). – Structural systems.
[85] METIVIER (M.). – Notions fondamentales de la
[59] JAZWINSKI (A.H.). – Stochastic processes and théorie des probabilités. Dunod, Paris (1972). Statics, dynamics and stability. Prentice-Hall,
filtering theory. Academic Press, New York Englewood Cliffs (1970).
[86] NAHI (N.E.). – Estimation theory and applica-
(1971). [110] SANCHEZ-PALENCIA (E.). – Non homo-
tions. John Wiley, New York (1969).
[60] JENKINS (G.M.) et WATT (D.G.). – Spectral geneous media and vibration theory. Springer
[87] NEVEU (J.). – Bases mathématiques de la
analysis and its applications. Holden Day, Verlag, Berlin (1980).
théorie des probabilités. Masson, Paris (1969).
San Francisco (1968). [111] SANCHO (N.G.F.). – On the approximate
[88] NEVEU (J.). – Processus ponctuels. Lecture
[61] JUNGER (M.C.) et FEIT (D.). – Sound, moment equations of a non linear stochastic
Notes in Math., Springer Verlag, Berlin (1977).
structures and their interaction. Cambridge differential equation. J. Math. Anal. Appl., 29,
MIT Press. [89] OPPENHEIM (A.) et SCHAFER (R.). – Digital p. 384-91, USA (1970).
signal processing. Prentice Hall, Englewood
[62] KALLENBERG (O.). – Random measures. [112] SAPORTA (G.). – Théorie et méthodes de la
Cliffs (1975).
Academic Press, New York (1976). statistique. Technip, Paris (1978).
[90] PAPANICOLAOU (G.C.) et KOHLER (W.). –
[63] KALMAN (R.E.) et BUCY (R.S.). – New results [113] SCHMIDT (G.). – Stochastic problems in
Asymptotic theory of mixing stochastic ordi-
in linear filtering and prediction theory. Trans. dynamics. Eds B.L. Clarkson, Pitman, London
nary differential equations, Communication
ASME, USA (1961). (1977).
Pure and Applied Math., 27, USA (1974).
[64] KATO (T.). – Perturbation theory for linear [114] SCHWARTZ (L.). – Théorie des distributions.
[91] PAPOULIS (A.). – Probability, random
operators. Springer Verlag, New York (1966). Paris, Nouvelle Éd., Hermann (1978).
variables and stochastic processes.
[65] KENDALL (M.G.) et STUART (A.). – The McGraw-Hill, New York (1965). [115] SCHWARTZ (L.). – Analyse hilbertienne.
advanced theory of statistics London Griffin Hermann, Paris (1979).
[92] PAPOULIS (A.). – Signal analysis. McGraw-Hill,
(1966). [116] SHINOZUKA (M.). – Simulation of multivariate
New York (1977).
[66] KOZIN (F.). – On the probability densities of and multidimensional random process.
[93] PARDOUX (E.). – Stabilité des équations
the output of some random systems. J. Appl. J. Acoust. Soc. Amer., vol 49, no 1, Part 2,
différentielles stochastiques linéaires. Cas
Mech., 28, p. 161-5, USA (1961). p. 357-67 (1971).
bruit blanc. Conférences sur la Stabilité
[67] KOZIN (F.). – A survey of stability of stochastic Asymptotique des Systèmes Différentiels à [117] SHINOZUKA (M.) et JAN (C.M.). – Digital
systems. Automatica, 5, p. 95-112, GB (1969). Perturbation Aléatoire, CNRS INRIA SMAI, simulation of random processes and its
[68] KOZIN (F.). – Some results on stability of 23-24 janv. 1986. applications. J. of Sound and Vibration, 25,
stochastic dynamical systems. Probabilistic p. 111-128, GB (1972).
[94] PARDOUX (E.) et PIGNOL (M.). – Étude de la
Engineering Mechanics, 1, no 1, p. 13-22, USA stabilité d’une EDS bilinéaire à coefficients [118] SHINOZUKA (M.) et WEN (Y.K.). – Monte Carlo
(1986). périodiques. In analysis and optimization of solution of non linear vibrations, AIAA J.,
vol 10, no 1, p. 37-40 (1972).

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
A 1 346 − 60 © Techniques de l’Ingénieur, traité Sciences fondamentales
______________________________________________________________ PROBLÈMES CLASSIQUES DE DYNAMIQUES STOCHASTIQUES : MÉTHODES D’ÉTUDES

[119] SINITSYN (I.N.). – Methods of statistical Publication de la RCP de mécanique aléatoire, [139] TONG (K.N.). – Theory of mechanical vibra-
linearization. Automation and Remote CNRS (1987) [À paraître aussi dans Probabilis- tion. John Wile and Sons, New York (1960).
Control, 35, p. 765-76, USA (1974). tic Engineering Mechanics (1988)]. [140] TRUESDELL (C.). – The elements of continuum
[120] SKOROHOD (A.V.). – Studies in the theory of [130] SOIZE (C.), DAVID (J.M.) et DESANTI (A.). – mechanics. Springer Verlag, Berlin (1966).
random processes. Reading Addison-Wesley Une méthode de réduction fonctionnelle des [141] VALID (R.). – Mechanics of continuous media
(1965). champs stochastiques pour les études de and analysis of structures. North Holland,
[121] SOIZE (C.). – Oscillators submitted to squared vibrations aléatoires stationnaires. Rech. Amsterdam (1981).
gaussian processes. J. Math. Phys., 21, no 10, Aérosp. (F), no 2 (1986).
[142] VAN KAMPEN (N.G.). – A cumulant expansion
p. 2500-07, USA, oct. 1980. [131] SOIZE (C.), HUTIN (P.M.), DESANTI (A.), DAVID for stochastic linear differential equations I.
[122] SOIZE (C.). – Vibrations linéaires moyennes (J.M.) et CHABAS (F.). – Linear dynamic Physica, 74, p. 215-38, NL (1974).
fréquences des structures élastiques aniso- analysis of mechanical systems in the medium
[143] VAN KAMPEN (N.G.). – Stochastic differential
tropes. La Recherche Aérospatiale (F), no 5 frequency range. J. Computer and Structures,
equations. Physics reports, Section C of
(1982). 23, no 5, p. 605-37, GB (1986).
Physics Letters, 24, no 3, p. 171-228. North
[123] SOIZE (C.). – Markovianisation de la houle [132] SOONG (T.T.). – Random differential equations Holland Amsterdam, NL (1976).
aléatoire et applications. Journée de mécani- in science and engineering. Academic Press,
[144] WAHIZU (K.). – Variationnal methods in
que aléatoire, AFREM, Paris (1984). New York (1973).
elasticity and plasticity. Pergamon Press,
[124] SOIZE (C.). – Éléments mathématiques de la [133] SPANOS (P.D.T.). – Stochastic linearization in New York (1967).
théorie déterministe et aléatoire du signal. structural dynamics. Applied Mech. Reviews,
[145] WEN (Y.K.). – Equivalent linearization for
ENSTA, Paris (1985). vol. 34, no 1, USA (1981).
hysteretic systems under random excitation.
[125] SOIZE (C.). – Mécanique aléatoire. Cours de [134] STRAND (J.L.). – Random ordinary differential Trans. of ASME, 47, p. 150-4, USA (1980).
l’École Centrale des Arts et Manufactures, equations. J. Differential Equations, 7,
[146] WHITEMAN (J.R.). – The mathematics of finite
Paris (1985). p. 538-53, USA (1970).
elements and applications. Academic Press
[126] SOIZE (C.). – Processus stochastiques et [135] STRATONOVICH (R.L.). – Topics in the theory Ltd, London (1973).
méthodes de résolution des problèmes of random noise. Gordon and Breach, New
[147] WIENER (N.). – Nonlinear problems in random
aléatoires. Cours École Centrale des Arts et York (1963).
theory. MIT Press, New York (1958).
Manufactures, Paris (1986). [136] STRATONOVICH (R.L.). – A new representa-
[148] WILCOX (R.M.) et BELLMAN (R.). – Truncation
[127] SOIZE (C.). – Modélisation probabiliste du flou tion for stochastic integrals. J. SIAM control,
and preservation of moment properties for
structural en dynamique linéaire des systèmes vol. 4, no 2 (1966).
Fokker-Planck moment equations. J. Math.
mécaniques complexes. I – Éléments [137] STRATONOVICH (R.L.). – Conditional Markov Anal. Appl., 32, p. 532-42, USA (1970).
théoriques. Rech. Aérosp. (F), no 5 (1986). processes and their application to theory of
[149] YOSIDA (K.). – Functional analysis, 3e éd.,
[128] SOIZE (C.). – Analyse énergétique statistique. optimal control. Amer. Elsevier, New York
Springer Verlag, Berlin (1971).
SEA – Étude bibliographique (1975-1986). (1968).
[150] ZIENKIEWITCZ (O.C.). – The finite element
Tomes I et II. Rapport 72/3454 RY 166 R. [138] TALAY (D.). – Remarques sur le calcul numé-
method in engineering science. McGraw-Hill,
ONERA (1987). rique de l’exposant de Lyapounov. Conférence
New York (1971).
[129] SOIZE (C.). – Steady stade solution of sur la Stabilité Asymptotique des Systèmes
Fokker-Planck equations in higher dimension. Différentiels à Perturbation Aléatoire,
CNRS-INRIA-SMAI, 23-24 janv. 1986.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur, traité Sciences fondamentales A 1 346 − 61

Vous aimerez peut-être aussi