Vous êtes sur la page 1sur 149

Produits de matrices aleatoires :

- exposants de Lyapunov pour des matrices alea-


toires suivant une mesure de Gibbs,
- theor`emes limites pour des produits au sens (max, +).
Version du 7 octobre 2005
Glenn MERLET
7 octobre 2005
2
Remerciements
Je voudrais remercier ici tous ceux sans qui cette th`ese naurait pas ete la meme.
Merci dabord `a mes directeurs Jean-Pierre Conze et Albert Raugi, qui mont
propose de travailler sur les produits de matrices aleatoires et qui mont accom-
pagne avec une disponibilite constante tout au long de ces trois ans.
Cest par les travaux de Jean Mairesse que jai decouvert (max, +) . Il a tou-
jours trouve par la suite le temps de se replonger dans ses articles pour repondre
`a mes questions et nalement dans ce manuscrit pour en etre le rapporteur. Merci
pour tout cela.
Merci aussi `a Marc Peigne davoir minutieusement rapporte sur cette th`ese,
sans doute pas toujours facile `a lire. Linteret qua porte Yves Guivarch `a mon
travail, sa connaissance encyclopedique et sa disponibilite `a mon egard ont ete
une aide reguli`ere. Cest donc un plaisir de le voir aujourdhui dans mon jury. De
meme pour

Emile Le Page, qui a contribue `a cette th`ese `a son insu, puisque ses
travaux ont largement inspire le chapitre 5.
Au chapitre des dettes scientiques, je voudrais ajouter Yves Derriennic, `a
qui je dois de metre oriente vers la theorie ergodique.
Si la tour des maths de Rennes est de lavis unanime un endroit agreable
pour faire sa th`ese, cest d u `a la gentillesse de ceux qui lhabitent. Je pense en par-
ticulier aux personnels administratifs de lIRMAR `a beaucoup dautres coll`egues.
Une pensee speciale bien s ure pour tous ceux avec qui jai partage des repas au
RU, reguli`erement ou irreguli`erement : Benote, Bert, Corentin, Damien,

Elise,
Erwan, Gwenole, Jean-Baptiste, Natacha, Olivier, Philippe, Sandrine, Solen, Va-
lery, Vincent, Yassine...
Merci `a tous ceux que jai rencontre dans les associations de jeunes chercheurs
et qui mont fait voir dieremment le doctorat. Alban, Ronan et Sylvain en tout
premier lieu.
Merci `a tous les proches ou moins proches qui mont soutenu dans les bas de
cette aventure, et qui ont reussi `a me faire croire quils etaient vraiment interesses
par le titre de cette th`ese.
Enn, merci `a Estelle, sans qui rien ne serait pareil.
2
Introduction
0.1 Suites recurrentes stochastiques
Cette th`ese comporte deux parties essentiellement independantes, la premi`ere
portant sur les produits de matrices aleatoires et la seconde sur les composees
dapplications topicales aleatoires. Ces deux objets detudes peuvent etre regrou-
pes dans le formalisme commun des suites recurrentes stochastiques que lon va
rappeler ici.
On donne dabord quelques denitions fondamentales de la theorie ergodique.
Denition 0.1.1 (Syst`eme dynamique mesurable).
1. Soit (, T, P) un espace probabilise et (X, () un espace mesurable. On ap-
pelle variable aleatoire `a valeurs dans X une application f mesurable de
(, T) dans (X, (). Quand X est un espace de matrices (resp. dapplica-
tions,...), on parlera de matrice (resp. dapplication,...) aleatoire.
La loi de f est la probabilite image de P par f, notee f

P :
A (, (f

P)(A) := P
_
f
1
(A)
_
.
2. Une suite (X
n
)
nN
de variables aleatoires `a valeurs dans un meme espace
mesurable (X, () est dite stationnaire si pour tout entier k N

et tout
k-uplet (i
1
< i
2
< < i
k1
< i
k
) dentiers, la loi de la variable aleatoire
(X
i
1
, , X
i
k
) est celle de (X
0
, X
i
2
i
1
, , X
i
k
i
1
).
3. On appelle syst`eme dynamique mesurable (s.d.m.) un quadruplet (, T, P, )
o` u (, T, P) est un espace probabilise et une application T-mesurable de
dans lui meme et qui laisse P invariante :
A T, P
_

1
(A)
_
= P(A).
Le syst`eme dynamique est dit inversible si lest et si son inverse est me-
surable. Il est dit ergodique si tous les ensembles invariants par sont de
probabilite 0 ou 1.
3
4 INTRODUCTION
Rappelons que si (, T, P) est un espace probabilise et (X
n
)
nN
une suite
stationnaire `a valeurs dans un espace (X, (), on peut lui associer canoniquement
le syst`eme dynamique (X
N
, T
N
,

P, ), o` u

P est la loi de (X
n
)
nN
, consideree
comme variable aleatoire `a valeurs dans X
N
, et est le decalage sur X
N
.
On voit que pour f : (x
n
)
nN
x
0
, la suite (f
n
)
nN
a meme loi que (X
n
)
nN
.
Dans la suite du texte, on partira indieremment du syst`eme dynamique ou de la
suite. En particulier, (X
n
)
nN
est ergodique signiera que le syst`eme dynamique
canonique associe lest.
Si X est un espace polonais muni de sa tribu de Borel, on peut aussi associer
canoniquement le syst`eme dynamique inversible (X
Z
, T
Z
,

P,

), o` u

est le de-
calage sur X
Z
et

P est une probabilite telle que pour

f : (x
n
)
nZ
x
0
la suite
(f

n
)
nN
a meme loi que (X
n
)
nN
.
Denissons maintenant les suites recurrentes stochastiques.
Denition 0.1.2 (Suites recurrentes stochastiques). Si (A
n
)
nN
est une
suite stationnaire dapplications aleatoires dun espace X dans lui meme, on ap-
pelle suite recurrente stochastique (SRS) associee `a (A
n
)
nN
toute suite de va-
riables aleatoires `a valeurs dans X veriant lequation
X
n+1
= A
n
X
n
. (1)
On dira que (A
n
)
nN
gouverne la SRS (X
n
)
nN
.
La suite (X
n
)
nN
na pas de raison detre stationnaire. On va donc chercher
des variables aleatoires X
0
telles que lunique (X
n
)
nN
veriant lequation (1)
soit stationnaire. Pour cela, il sera interessant de se ramener `a un cas o` u X est
compact. Do` u lutilisation despaces de drapeaux et despaces projectifs dans les
deux parties. Nous montrerons des resultats de couplage avec des suites station-
naires dans ces espaces. Nous donnons ici les denitions de couplage que nous
utiliserons par la suite.
Denition 0.1.3 (Couplage). Soient (X
n
)
nN
et (Y
n
)
nN
deux suites de va-
riables aleatoires denies sur un meme espace de probabilite `a valeurs dans un
meme espace metrique (X, d).
1. On dit que les suites (X
n
)
nN
et (Y
n
)
nN
couplent si d(X
n
, Y
n
) tend vers 0
en probabilite,
2. On dit que les suites (X
n
)
nN
et (Y
n
)
nN
couplent en temps ni si
P( [N N, n N, X
n
= Y
n
) = 1.
Comme la suite nest pas stationnaire, on ne peut pas utiliser le theor`eme de
Birkho. Loutil fondamental pour obtenir des resultats de type loi des grands
nombres sera le theor`eme ergodique sous-additif de Kingman [Kin73] rappele ci-
dessous.
0.2. EXPOSANTS DE LYAPUNOV 5
Denition 0.1.4 (Sous-additivite). Un s.d.m. (, T, P, ) etant donne, une
suite F
n
de v.a.r. denie sur est dite -sous-additive si elle verie les inegalites
suivantes :
n, m N, F
n+m
F
n

m
+ F
m
P p.s. .
Theor`eme 0.1.5 (Theor`eme sous-additif de Kingman [Kin73]). Soient
(, T, P, ) un s.d.m. et (F
n
)
nN
une suite -sous-additive de v.a.r. telle que la
partie positive F
+
1
= max(F
1
, 0) de F
1
soit integrable.
La suite (
1
n
F
n
)
nN
converge presque s urement vers une variable aleatoire
P-presque s urement -invariante f `a valeurs dans R telle que :
_
fdP = lim
n+
1
n
_
F
n
dP = inf
1
n
_
F
n
dP.
Si cette limite est nie, et si les F
n
sont P-integrables, alors la convergence a lieu
dans L
1
.
En particulier, si le syst`eme est ergodique, la suite (
1
n
F
n
)
nN
converge presque
s urement vers lim
1
n
_
F
n
dP.
Dans la suite de ce chapitre dexposition, nous presentons les dierents cas
de SRS auxquels nous nous sommes interesses et les resultats obtenus dans leur
contexte.
0.2 Exposants de Lyapunov
Dans la premi`ere partie, la suite (A
n
)
nN
qui gouverne la suite recurrente sto-
chastique (X
n
)
nN
est `a valeurs dans lespace des matrices inversibles dordre d.
On est dans le cas des produits de matrices aleatoires. Ce sujet a ete etudie inten-
sivement depuis les travaux de H. F urstenberg et H. Kesten ([FK60] et [Fur63]).
Le theor`eme ergodique multiplicatif 1.1.2 dOseledets [Ose68], generalise par Rag-
hunathan [Rag79] montre que
_
1
n
log |X
n
|
_
nN
converge presque s urement et, si
la suite (A
n
)
nN
est ergodique, la limite ne peut prendre que d valeurs, eventuel-
lement egales. Ces valeurs sont appelees les exposants de Lyapunov de (A
n
)
nN
,
et notees par ordre decroissant
1
, ,
d
.
Le theor`eme dOseledets donne une decomposition de A
n
en blocs, dont la
taille est donnee par la multiplicite des exposants. On va donc essayer de separer
les exposants de Lyapunov, cest-`a-dire de montrer que pour certains r,
r
>

r+1
. Ce type de resultats est dautant plus interessant qu

E. Le Page a montre
(cf. [LP82]) que
1
>
2
est la condition cruciale pour prouver que la suite (X
n
)
nN
satisfait des theor`emes limites, tels que le TCL.
De nombreux travaux ont donc ete menes dans cette direction. Quand les
variables aleatoires A
n
sont i.i.d. de loi , Y. Guivarch et A. Raugi ont montre
6 INTRODUCTION
(cf. [GR85] et [GR89]) que
r
>
r+1
si laction du support S

de sur les-
pace T
r
des sous-espaces de dimension r de R
d
est proximale et irreductible.
Ces travaux ont ete etendus depuis `a des cas de matrices en dependance mar-
kovienne ([Gui84] et [GLP04]), et la condition dirreductibilite a ete ranee. De
plus Ya. Goldshed et G. A. Margulis ont montre ([GdM87] et[GdM89]) que les
exposants sont tous dierents quand le semi-groupe engendre par S

est Zariski-
dense. Lintroduction de ces concepts algebriques a donne lieu `a de nouvelles
avancees, comme [GG96].
Le but du chapitre 1 est de montrer le theor`eme 1.1.3 et ses corollaires, enonces
dans la partie 1.1 . La situation est la suivante :
- Soit S un ensemble ni et A une application de S dans GL(d, R).
- Soit T une matrice irreductible dindices dans S et de coecients dans 0, 1,

T
= (x
n
)
nN
S
N
[n N T
xn,x
n+1
= 1
le sous-shift unilat`ere associe. On note X
0
, X
1
, les projections coordonnees
de
T
et

T
=
_
x
1
x
k
S
k
[k N, n, T
xn,x
n+1
= 1
_
lensemble des mots nis admissibles.
Dans le cas o` u T est une matrice primitive (cest `a dire quil existe N N tel
que T
N
> 0), R. Bowen a montre quil existe pour chaque fonction holderienne f
de
T
dans R une unique mesure de probabilite telle quil existe des constantes
C et P telles que pour tout cylindre c de longueur n, on ait :
1
C
e
nP+f(x)+f(
n1
x)
(c) Ce
nP+f(x)+f(
n1
x)
.
Cette mesure est appelee mesure de Gibbs associee au potentiel f. On utilise ici
une notion qui generalise ce cas, quand T est simplement irreductible et qui est
denie au chapitre 1.
Nous obtenons alors le theor`eme suivant :
Theor`eme 0.2.1 (1.1.3). Sil existe un s S tel que lensemble de matrices
T
s
= A(s
1
) A(s
n
)[s
1
= s, s
1
s
n
s

agisse de mani`ere totalement irreductible sur la grassmanienne dordre r, notee


T
r
, et contienne une suite qui contracte T
r
, alors, pour toute mesure de Gibbs
denie par un potentiel holderien sur
T
, les exposants de Lyapunov de la suite
(A
n
)
nN
verient
r
>
r+1
.
Les notions daction totalement irreductible et de contraction sont denies et
etudiees dans la partie 1.2 . Les T
s
jouent le role du semi-groupe engendre par
0.3. APPLICATIONS TOPICALES 7
S

dans le cas independant. Ils prennent en compte linterdiction de certaines


successions de matrices.
Dans [GLP04], Y. Guivarch et

E. Le Page etendent le crit`ere de separation
des exposants des matrices i.i.d `a des matrices en dependance markovienne. Ils
remarquent que leur cas inclut la situation presentee ici, quand
T
est le shift
complet S
N
, cest-`a-dire quand T
ij
= 1 pour tout i, j S. Nous reprenons leur
demonstration et letendons.

Etre passe `a un sous-shift permet ensuite detendre
le resultat `a des cocycles A dependant dun nombre ni de coordonnees (corol-
laire 1.1.4), et ` a des chanes de Markov `a espace detats ni (corollaire 1.1.5).
En outre nous donnons explicitement la demonstration de la separation du
r-i`eme exposant, cest-`a-dire que nous remplacons lespace projectif par la grass-
manienne dordre r et faisons les adaptations necessaires.
Signalons enn que Ch. Bonatti et C. Viana ont montre [BV04] des resultats
de separation pour des cocycles holderiens au dessus dune mesure de Gibbs. Leur
cadre est donc beaucoup plus general, mais leur hypoth`ese est moins explicite, car
elle fait intervenir les holonomies autour dun point periodique. Elle leur permet
cependant de montrer que la situation o` u les exposants sont separes est generique
en plusieurs sens.
0.3 Applications topicales
0.3.1 Contexte
Dans la seconde partie, (A
n
)
nN
est `a valeurs dans lespace Top
d
des applica-
tions topicales (i.e. croissantes et additivement homog`enes) de R
d
dans lui meme,
et pour les chapitres 2 `a 4, dans le sous-espace (R )
dd
des matrices `a
coecients dans le semi-anneau (R , max, +) note R
max
.
Dans ce sous-cas, lequation (1) devient
i 1, , d, (X
n+1
)
i
= max
j
((A
n
)
ij
+ (X
n
)
j
) .
Les suites recurrentes stochastiques (X
n
)
nN
associees `a de telles applications
modelisent une classe de syst`emes `a evenements discrets. Cette classe inclut les
graphes evenements temporises (F. Bacelli [Bac92]), certains reseaux de les dat-
tente (J. Mairesse [Mai97]) et de multiples applications. Citons par exemple les
ateliers exibles (G. Cohen et al.[CDQV85]), des reseaux ferroviaires (H. Bra-
ker [Bra93]) ou un mod`ele de mecanique statistique (R. Griths [Gri90]).
Ces suites ont fait lobjet de nombreux travaux, certains conduisant `a des
theor`emes limites decrivant le comportement de (X
n
)
nN
de type loi des grands
nombres (J.E. Cohen [Coh88], F. Baccelli et Z. Liu [BL92], F. Baccelli et J.
Mairesse [BM98] dans le cas (max, +) , A. Jean-Marie et G. Olsder [JMO96],
J.M. Vincent [Vin97], J. Mairesse et T. Bousch [BM03] dans le cas topical),
8 INTRODUCTION
theor`eme central limite (J. Resing et al. [RdVH
+
90] dans le cas (max, +) ) et
grandes deviations (F. Toomey [Too02] dans le cas topical). Signalons le livre de
F. Baccelli et al. [BCOQ92] qui reprend un grand nombre de resultats dans le cas
(max, +). et celui, plus generaliste, de P. Glasserman et D. Yao [GY94].
Les resultats de convergence de
_
1
n
X
n
_
nN
ou de
_
1
n
(A
n1
A
n2
A
0
)
ij
_
nN
sont appeles du premier ordre. Les resultats de convergence de ((X
n
)
i
(X
n
)
j
)
nN
ou de ((X
n+1
)
i
(X
n
)
i
)
nN
sont dits du second ordre.
Dans tous les cas, il existe un exposant de Lyapunov maximal (theor`eme-
denition 2.2.7), deni comme limite presque s ure de
_
1
n
max
i
(X
n
)
i
_
nN
.
0.3.2 Resultats pour les matrices aleatoires non irreduc-
tibles
Les chapitres 2 `a 4 sont consacres `a letude du sous-cas o` u les A
n
sont des
matrices `a coecients dans le semi-anneau R
max
.
Dans les chapitres 2 et 3, on decompose les matrices aleatoires en blocs (de-
nition 2.4.2), en fonction des coecients toujours egaux `a , et on montre
que le comportement des suites est essentiellement determine par celui des blocs
diagonaux. Nous suivons la demarche de [BL92] et de [Bac92], en nous aran-
chissant, quand cest possible, des conditions supplementaires presentes dans ces
deux articles, ou sinon en les modiant. Ces conditions, qui proviennent du mo-
d`ele des graphes devenements temporises, sont principalement une condition dite
de structure xe (la place des coecients nest pas aleatoire) et une condi-
tion de precedence (les coecients diagonaux sont positifs).
Dans la partie 2.3, on etudie les variables aleatoires denies par lequation
Y
n+1
= max (A
n
Y
n
, B
n
) (2)
o` u (A
n
, B
n
)
nN
est une suite stationnaire, dapplications (les A
n
) et de vecteurs
(les B
n
) aleatoires.
Dans [BL92], les applications sont des matrices `a coecients dans R
max
, mais
tout est redige avec les coecients, sans introduire les matrices elles-memes.
Dans [Bac92], les matrices sont mises en evidence mais tout nest pas repris dans
ce cadre. Dans les deux cas, B
n
= 0, mais on peut en deduire le cas o` u B
n
est ni
en utilisant une methode dite de residuation. En introduisant une notion dappli-
cation topicale generalisee (denition 2.2.2), qui generalise `a la fois les matrices
`a coecients dans R
max
et les applications topicales, nous obtenons des preuves
plus lisibles et un cadre plus general, ce qui sera utile pour la suite.
0.3. APPLICATIONS TOPICALES 9
Signalons aussi que P. Glasserman et D. Yao m`enent dans [GY95] une etude
uniee des solutions dequations du type de (2) quand A
n
prend ses valeurs dans
un espace de matrices `a coecients dans divers semi-anneaux. La preuve du
theor`eme 2.3.1 revient `a mener cette etude, quand A
n
prend ses valeurs dans
lensemble des applications topicales generalisees.
Nous utilisons les resultats de la partie 2.3 pour montrer (theor`eme 2.4.4) que
lexposant de Lyapunov maximal dune suite (A
n
)
nN
de matrices aleatoires est le
maximum des exposants des suites de blocs diagonaux, et cela sans aucune autre
condition que lergodicite.
En revanche labandon de la condition de precedence introduit la possibilite
de nouveaux comportements de la suite (X
n
)
nN
. On doit donc imposer des condi-
tions supplementaires pour que la suite (X
n
)
nN
satisfasse une loi forte des grands
nombres.
Ces conditions seront soit lindependance des A
n
et une condition dabsence de
ligne de dans certains blocs de la matrice (theor`eme 2.4.8 et son corollaire),
soit des conditions de structure xe et dergodicite renforcee (theor`eme 2.4.10 et
lemme 2.4.7).
Les exemples 1 et 2 montrent que dans chaque cas, aucune des deux conditions
ne sut.
La preuve du theor`eme 2.4.10 est essentiellement celle de [Bac92], alors que
celle du theor`eme 2.4.8 apporte une contribution nouvelle, essentiellement dans
le lemme 2.4.13 .
Dans la partie 3.4, on montre (theor`eme 3.4.1) que les suites ((X
n
)
i
(X
n
)
j
)
nN
et ((X
n+1
)
i
(X
n
)
i
)
nN
, couplent en temps ni avec une suite stationnaire, qui
ne depend pas de la condition initiale X
0
, sous trois hypoth`eses : une hypoth`ese
sur les exposants de Lyapunov maximaux des blocs diagonaux, une hypoth`ese de
couplage relative `a certains blocs de la decomposition precedente, et une hypo-
th`ese sur la loi de (A
n
)
nN
(Les A
n
sont i.i.d. ou ont la propriete de structure
xe). Remarquons que, contrairement au premier ordre, ni condition sur les ,
ni ergodicite renforcee ne sont necessaires.
Nous etendons ainsi le resultat de [Bac92] sur le deuxi`eme ordre. Les resul-
tats de la partie 2.3 permettent encore de simplier la redaction et detendre les
preuves.
`
A nouveau, la preuve du cas i.i.d. est fondee sur le lemme 2.4.13 et les me-
thodes de [Bac92].
0.3.3 Perte de memoire
Dans le chapitre 4, on revient sur la propriete dite de perte de memoire,
dej`a introduite dans la partie 3.2 . J. Mairesse a montre (theor`eme 3.2.2, extrait
de [Mai97]) quelle assure le couplage en temps ni de (X
n
)
nN
avec une suite
10 INTRODUCTION
stationnaire, independante de la condition initiale X
0
. S. Gaubert et D. Hong,
qui lui ont donne son nom, la supposent veriee pour prouver lanalyticite de
lexposant de Lyapunov maximal ([GH00]).
Nous prouvons (theor`emes 4.1.3 et 4.1.4) que la propriete de perte de memoire
est generique pour les produits de matrices aleatoires A
n
i.i.d. `a coecients nis :
si elle nest pas satisfaite, alors le support de la loi de A
1
est inclus dans une
union nie dhyperplans anes et les couples datomes de sont lies par une
relation lineaire.
Ce resultat est presente dans larticle [Mer04]. Pour le prouver, on utilise
les resultats et certaines methodes de la theorie spectrale et asymptotique des
matrices `a coecients dans R
max
, qui est donc rappelee dans la partie 4.2 .
0.3.4 Theor`emes limites
Enn le dernier chapitre montre que si (A
n
)
nN
est une suite i.i.d. dapplica-
tions topicales et a la propriete de perte de memoire, alors (X
n
)
nN
verie un theo-
r`eme central limite (theor`eme 5.2.1), eventuellement avec vitesse (theor`eme 5.2.1),
un theor`eme local limite (theor`eme 5.2.4), un theor`eme de renouvellement (theo-
r`eme 5.2.6) et un principe des grandes deviations partiel (theor`eme 5.2.1). De plus,
quand les A
n
sont des matrices, on donne des conditions algebriques de nullite
de la variance dans le TCL (theor`eme 5.2.9) et de non-arithmeticite dans le TLL
(theor`eme 5.2.11), qui sont veriees generiquement (corollaires 5.2.12 et 5.2.10).
Tous ces resultats sont obtenus par la methode du trou spectral appliquee `a
la chane de Markov (X
n
)
nN
. Ils sont presentes dans larticle [Mer05].
Notons que J. Resing et al. [RdVH
+
90] ont dej`a prouve un TCL dans le cas
(max, +) par une methode de martingale, mais la condition quils obtiennent
nest pas explicite. Notons aussi que F. Toomey [Too02] a etabli un principe
des grandes deviations, sous une hypoth`ese de bornitude plus forte que notre
condition dintegrabilite, mais en nexigeant pas la perte de memoire.
0.4 Perspectives
Le resultat de F. Toomey sugg`ere que des theor`emes limites restent vrais sans
lhypoth`ese de perte de memoire. Quand (A
n
)
nN
prend ses valeurs dans un en-
semble de deux matrices carrees de taille 2, on peut montrer que cest le cas. En
eet, si la propriete de perte de memoire nest pas satisfaite, alors il existe une
orbite nie dans lespace projectif au sens (max, +) .
Pour obtenir des resultats dans cette direction, un premier pas consisterait `a
etudier les mesures invariantes possibles. Cela permettrait aussi, sous lhypoth`ese
de perte de memoire, de simplier le theor`eme limite local, sous des hypoth`eses
supplementaires. Ces hypoth`eses pouraient sinspirer de celles dirreductibilite du
0.5. SUR LE LIEN ENTRE LES DEUX PARTIES 11
cas des matrices inversibles.
Ensuite, on peut sinteresser au comportement des suites A
1
A
n
dans les-
pace projectif. Dans le cas de perte de memoire, elles ecrasent lespace sur un
point au bout dun temps ni, ce qui est `a la base des resultats de J. Mairesse,
et de ceux du chapitre 5 . Dans les cas etudies, elles semblent ecraser lespace sur
un sous ensemble sur lequel elles ont une action isometrique. Le comportement
devrait etre clarie, au moins dans le cas (max, +) .
Finalement, on esp`ere quune meilleure connaissance de la dynamique dans
lespace projectif permettrait de prouver des theor`emes limites sans lhypoth`ese
de perte de memoire. Un autre angle dattaque consisterait `a utiliser la genericite
de la perte de memoire et etendre les resultats par densite.
Une autre direction pour etendre les theor`emes limites serait de saranchir
de la condition dindependance et de prouver des theor`emes pour des SRS gou-
vernees par des suites melangeantes ou provenant de syst`emes dynamiques. Un
point de depart dans le cas des suites melangeantes pourrait etre larticle de
H. Hennion [Hen97] sur les matrices positives.
0.5 Sur le lien entre les deux parties
On peut voir les produits de matrices au sens (max, +) comme un cas limite
des produits de matrices au sens usuel. En eet, si A R
dd
max
na pas de ligne
de , lapplication A de R
d
dans lui meme denie par (Ax)
i
= max
j
(A
ij
+x
j
),
qui correspond au produit de matrices `a coecients dans R
max
, est limite uniforme
quand tend vers + des applications A

denies par
(A

x)
i
=
1

ln
_

j
e
A
ij
e
x
j
_
.
En utilisant cette convergence, T. Bousch et J. Mairesse ont deduit du theo-
r`eme dOseledets pour les matrices positives ([Rag79]) la loi forte des grands
nombres pour la suite
_
1
n
A
1
A
n
x
0
_
nN
, o` u x
0
est un vecteur de R
d
, (A
n
)
nN
une suite stationnaire de matrices aleatoires et o` u tous les produits sont pris au
sens (max, +). On appellera exposants de Lyapunov au sens (max, +) les limites
de cette suite.
Generiquement, une suite de matrices aleatoires inversibles i.i.d. a d exposants
de Lyapunov au sens classique, et lespace projectif est contracte en direction
dune solution stationnaire de lequation 1 (dite regime stationnaire).
Pour des produits au sens (max, +), nous montrons au chapitre 4 quune suite
generique de matrices aleatoires i.i.d. a la propriete de perte de memoire. Cela
12 INTRODUCTION
implique quil ny a quun seul exposant de Lyapunov au sens (max, +), mais
aussi que lespace projectif (max, +) est contracte en direction dun unique re-
gime stationnaire.
Les produits de matrices strictement positives contractent le cone des vecteurs
positifs vers un unique regime stationnaire. Il ne semble pas facile den deduire
un regime stationnaire pour le cas (max, +). En eet, meme pour des matrices
`a coecients nis, le regime stationnaire nest pas necessairement unique. On
retrouve donc des probl`emes analogues `a ceux du comportement des mesures de
Gibbs quand la temperature tend vers 0.
On obtient plus facilement les regimes stationnaires directement (Theor`emes
3.2.2, 3.3.2 et 3.4.1), sous des hypoth`eses supplementaires, generiques dans le cas
irreductible.
Dans le cas deterministe, on peut adapter les arguments de J. Bremont [Bre03]
pour le refroidissement des mesures de Gibbs associees `a un potentiel locale-
ment constant. On montre ainsi que si V

est le vecteur propre positif normalise


associe au rayon spectral de la matrice positive
_
e
A
ij
_
1i,jd
, alors pour toute
coordonnee i,
1

ln(V

i
) converge vers une limite H
i
. La limite H est un vecteur
propre au sens (max, +) de la matrice A, non necessairement unique (Proposi-
tion 4.2.4).
Finissons cette partie en signalant que la theorie des produits de matrices
aleatoires classiques a ete une source dintuitions pour le chapitre 4 et de methodes
pour le chapitre 5.
Premi`ere partie
Matrices aleatoires inversibles
13
Chapitre 1
Separation des exposants de
Lyapunov : cas des sous-shifts de
type ni
1.1 Presentation et resume
Soient (, T, P, ) un syst`eme dynamique mesurable et M : M(R, d)
une matrice aleatoire.
On pose M
0
= I, o` u I designe la matrice identite de rang d et pour tout
n N

, M
n
= M
n1
M M.
Le premier resultat decoule immediatement du theor`eme sous-additif de King-
man et donne le comportement de |M
n
| :
Theor`eme 1.1.1 ([FK60],[Rag79]). Si log
+
(|M|) est integrable, alors la suite
_
1
n
log(|M
n
|)
_
nN
converge presque s urement vers une variable aleatoire `a va-
leurs dans R . De plus est invariante et
1
n
Elog(|M
n
|) E.
Ce resultat avait ete demontre d`es 1960, sans le theor`eme de Kingman, par
H. F urstenberg et H. Kesten [FK60] dans le cas o` u les matrices aleatoires M
n
sont i.i.d. . En outre est appele premier exposant de Lyapunov de la suite
(M
n
)
nN
. Il concide avec le premier coecient
1
du theor`eme ergodique
multiplicatif dOseledets que nous enoncons maintenant.
Theor`eme-Denition 1.1.2 ([Ose68]).
Si est inversible, si M est `a valeurs dans GL(R, d) et si la variable aleatoire
reelle log(max(|M|, |M
1
|)) est integrable, alors il existe une variable alea-
toire : GL(R, d) et des variables aleatoires reelles
1

2

d
,
15
16 CHAP. 1 EXPOSANTS DE LYAPUNOV
-invariantes, appelees exposants de Lyapunov de la suite (M
n
)
nN
, telles que
les enonces suivants soient veries presque s urement :
i) pour tout n, la matrice aleatoire
1

n
M
n
est diagonale par bloc ;
ii) le i-`eme vecteur e
i
de la base canonique de R
d
verie
lim
1
n
log |M
n
e
i
| =
i
et i et j sont dans le meme bloc dindices pour lenonce i) ssi
i
=
j
.
En cas dambiguite, on notera
i
(M, ) les variables ainsi denies.
M.S. Raghunathan a montre dans [Rag79] que le deuxi`eme enonce reste vrai
pour des matrices non necessairement inversibles d`es que log
+
(|M|) est inte-
grable. Sa demonstration fait apparatre les exposants de Lyapunov en fonction
des limites obtenues en appliquant le theor`eme 1.1.1 aux suites (
r
M
n
)
nN
,
o` u
r
M est la matrice associee `a laction de M sur le r-i`eme produit exterieur
de R
d
:
1
n
log |
r
M
n
|
r

i=1

i
.
Comme annonce dans lintroduction, nous allons montrer un theor`eme de
separation des exposants de Lyapunov, adapte de [GLP04]. On se place dans la
situation suivante :
- Soit S un ensemble ni et A une application de S dans GL(d, R).
- Soit T une matrice irreductible dindices dans S et de coecients dans 0, 1,

T
= (x
n
)
nN
S
N
[n N T
xn,x
n+1
= 1
le sous-shift unilat`ere associe. On note X
0
, X
1
, les projections coordonnees
de
T
et

T
= x
1
x
k
S
k
[k N, n, T
xn,x
n+1
= 1
lensemble des mots nis admissibles.
- Soit p une fonction holderienne strictement positive sur
T
telle que pour tout
x
T
,

sS,s.x
T
p(s.x) = 1. Elle denit un operateur de Perron P et une
unique mesure P-invariante sur
T
, qui est invariante par le decalage . La
suite de variables aleatoires (A X
n
)
nN
est stationnaire et bornee donc poss`ede
des exposants de Lyapunov. Le r-i`eme exposant est note
r
ou
r
(A, ) si on
veut preciser.
Lunicite de la mesure decoule du theor`eme de Ruelle-Perron-Frobenius.
Pour une demonstration dans le cas o` u T est simplement irreductible, on peut
consulter [Bal00].
Dans le cas o` u T est une matrice primitive (cest `a dire quil existe N
N tel que T
N
> 0), les mesures P-invariantes associees `a de telles fonctions p
1.1. PR

ESENTATION ET R

ESUM

E 17
sont les mesures de Gibbs associees `a des potentiels holderiens (cf. [Bow75]).
Par extension, on appellera mesures de Gibbs holderienne toutes les mesures
associees `a des fonctions p holderiennes.
Le but de ce chapitre est de prouver le crit`ere suivant, qui assure que deux
exposants consecutifs sont distincts :
Theor`eme 1.1.3. Sil existe un s S tel que le semi-groupe
T
s
= A(s
1
) A(s
n
)[n N, s
1
= s, (s
1
, , s
n
, s)

agisse de mani`ere totalement irreductible sur lespace T


r
des drapeaux homo-
g`enes dordre r et contienne une suite qui contracte T
r
, alors les coecients de
Lyapunov pour une mesure de Gibbs holderienne sur
T
verient
r
>
r+1
.
Les notions de drapeaux, daction totalement irreductible et de contraction
sont denies et etudiees dans la partie 1.2 . On a dej`a remarque que les semi-
groupes T
s
generalisent le semi-groupe dont laction donnait le crit`ere de separa-
tion pour des matrices i.i.d. .
On deduit du resultat precedent un resultat pour des fonctions dependant
dun nombre ni de coordonnees.
Corollaire 1.1.4. Soient S un ensemble ni, T une matrice irreductible `a indices
dans S et `a coecients dans 0, 1 et A une application de
T
dans G = Gl(d, R)
ne dependant que des k premi`eres coordonnees.
Pour (t
1
, , t
k
)

T
, soit T
t
1
,,t
k
le semi-groupe des matrices de la forme
A(s
1
, , s
k
) A(s
n+1
, , s
n+k
) tels que s
1
, , s
n+k
verie :
s
1
s
n+k

T
s
1
s
k
= t
1
t
k
s
n+2
s
n+k
= t
1
t
k1
Sil existe (t
1
, , t
k
) S
k
, tel que T
t
1
,,t
k
agisse de mani`ere totalement ir-
reductible sur T
r
et contienne une suite qui contracte T
r
, alors les coecients
de Lyapunov de toute mesure de Gibbs associee `a un potentiel holderien sur
T
verient
r
>
r+1
.
Demonstration. Posons

S = S
k
, et soit

T la matrice `a indices dans

S denie par

T
(s
1
,,s
k
),(s

1
,,s

k
)
=
_
1 si (s
t
1
, , s
t
k
, s
k
)

T
et (s
t
1
, , s
t
k1
) = (s
2
, , s
k
)
0 sinon

T
est le sous-shift de

S
N
associe `a

T et la mesure de Gibbs sur

T
associee
`a la fonction p denie par
p((s
1
, , s
k
), (s
2
, , s
k+1
) ) = p(s
1
, s
2
).
Il sut de remarquer que le syst`eme dynamique considere est isomorphe `a
(

T
, , ), que le conjugue

A de A par lisomorphisme ne depend que dune coor-
donnee de

T
et que les hypoth`eses de la proposition sont exactement celles pour
lesquelles (

T
, , ) et

A verient les hypoth`eses du theor`eme 1.1.3 .
18 CHAP. 1 EXPOSANTS DE LYAPUNOV
La demonstration du theor`eme 1.1.3 se fera sur le shift bilat`ere. La proba-
bilite sur les coordonnees negatives sachant n 0, X
i
= x
i
est notee P
x
. Si p
ne depend que des deux premi`eres coordonnees, les P
x
sont les mesures dune
chane de Markov `a etats dans S, avec donnee initiale x
0
. La projection de sur
les coordonnees negatives est donc une mesure de Markov stationnaire. Comme

r
(, A) =
r
(
1
,
t
A), on en deduit :
Corollaire 1.1.5. Soit S un ensemble ni et (X
n
)
nN
une chane de Markov `a
valeurs dans S, stationnaire et irreductible. Soit A une application de S dans
G = Gl(d, R). Sil existe un s S tel que le semi-groupe deni par
T
s
= A(s
1
) A(s
n
)[s
n
= s, P(X
0
= s, X
1
= s
1
, , X
n
= s
n
) > 0
agisse de mani`ere totalement irreductible sur T
r
et contienne une suite qui contracte
T
r
, alors les coecients de Lyapunov de la suite (A X
n
)
nN
verient
r
>
r+1
.
La suite du chapitre constitue la demonstration du theor`eme 1.1.3 . On com-
mence par introduire les dierents outils algebriques dans la partie 1.2 . On etudie,
dans la partie 1.3, les noyaux harmoniques qui remplacent les mesures station-
naires du cas i.i.d. On montre quil en existe (theor`eme 1.3.2) et quils prennent
leurs valeurs dans lensemble des probabilites irreductibles (theor`eme 1.3.4). Dans
la partie suivante, on montre (theor`eme 1.4.1) que la suite (MM M
n
))
nN
contracte presque s urement T
r
. Enn, dans la derni`ere partie, on en deduit le cri-
t`ere de separation.
1.2 Outils algebriques
1.2.1 Decompositions du groupe lineaire
Notations. Soit d N

. On note I
d
lensemble des entiers compris entre 1
et d. Soient G = GL(R, d), K = O(R, d), N = N(R, d) le sous-groupe de G des
matrices triangulaires inferieures `a elements diagonaux egaux `a 1, A = A(R, d)
le sous-groupe de G des matrices diagonales `a elements diagonaux strictement
positifs. On designera par |x| la norme associee au produit scalaire canonique si
x R
d
, la norme dapplication lineaire associee si x G. Cependant, la plupart
des resultats seront valables pour une norme quelconque grace `a lequivalence des
normes sur les espaces de dimension nie.
Theor`eme-Denition 1.2.1 (Decomposition polaire).
Toute matrice g G secrit g = xa(g)k, avec
i) x, k K
ii) a(g) = diag(a
1
(g), ..., a
d
(g)) A et a
1
(g) a
2
(g) ... a
d
(g) > 0.
1.2. OUTILS ALG

EBRIQUES 19
De plus a(g) est unique et les a
i
(g) sont les racines carrees des valeurs propres
de g
t
g. En particulier, a
1
(g) = |g| et a
d
(g) = |g
1
|
1
.
Une telle decomposition est dite decomposition polaire de g.
Demonstration. Si g = xa(g)k, alors g
t
g = xa
2
(g)x
1
, do` u la seconde partie du
theor`eme.
En outre g
t
g est symetrique denie positive. Elle admet donc une base ortho-
normee de vecteurs propres que lon ordonne par valeurs propres decroissantes.
Matriciellement cela secrit g
t
g = xa
2
x
1
, avec x K et a comme souhaitee. On
pose alors k = a
1
x
1
g et on verie que k Ket g = xak.
Remarque 1.2.1. Si g = xa(g)k, alors g
1
= k
1
a
1
(g)x
1
, do` u a
i
(g
1
) = a
1
d+1i
(g).
De meme, g = xa(g)k, donc a(g) = a(g), K.
Theor`eme-Denition 1.2.2 (Decomposition dIwasawa).
Toute matrice g G secrit de facon unique g = (g)b(g)(g) avec
1. (g) N
2. (g) K
3. b(g) A.
On note alors b(g) = diag(b
1
(g), , b
d
(g)) et on appelle decomposition dIwasawa
de g cette decomposition.
Demonstration. Existence :
On applique le procede dorthogonalisation de Schmidt aux vecteurs colonnes de
t
g
1
, notes v
1
, , v
d
. On obtient u
1
, , u
d
tels que la matrice de passage de
v `a u soit triangulaire superieure de diagonale I. La matrice de passage de
e
1
, , e
d
`a
u
1
|u
1
|
, ,
u
d
|u
d
|
est orthogonale et
t
g = diag(|u
1
|
1
, , |u
d
|
1
).
Unicite :
Si b et

b sont deux decompositions de g, alors (

b)
1
b =
1
est orthogo-
nale et triangulaire inferieure. Cest donc lidentite. Donc = et

b = b, do` u

b = b (cest la restriction `a la diagonale de legalite precedente) et = .


1.2.2 Produits exterieurs
Denition 1.2.3 (Produits exterieurs). Soient E un espace vectoriel de di-
mension nie d et r I
d
.
1. On appelle r-i`eme produit exterieur de E, et on note

r
E, lespace des
formes r-lineaires alternees sur E.
2. Un element de

r
E est appele r-vecteur.
20 CHAP. 1 EXPOSANTS DE LYAPUNOV
3. Pour toute forme r-lineaire f sur E, lantisymetrisee de f, notee Alt(f), est
donnee par :
Alt(f)(x
1
, , x
r
) =
1
r!

Sr
Sgn() f(x
(1)
, , x
(r)
)
4. Pour toutes formes f

k
E et g

l
E, on denit le produit exterieur
f g

k+l
E de f et g par f g =
(k+l)!
k!l!
Alt(f g), o` u
f g(x
1
, , x
k+l
) = f(x
1
, , x
k
)g(x
k+1
, , x
k+l
).
5. Un r-vecteur non nul qui secrit x
1
x
r
(E est identie `a

1
E) est dit
decomposable.
Resultats :
1) Soit (e
i
)
d
i=1
une base de E, alors (e
i
1
e
ir
)
1i
1
<<irn
est une base de

r
E. On identie desormais

r
E `a R
C
r
d
.
Via cette identication on transporte la structure euclidienne usuelle de R
C
r
d
sur

r
E. On a alors sur

r
E un produit scalaire < , > qui verie pour
(u
i
)
r
i=1
E
r
et (v
i
)
r
i=1
E
r
:
< u
1
u
r
, v
1
v
r
>= det[(< u
i
, v
j
>)
r
i,j=1
].
On note |.| la norme euclidienne associee.
2) GL(R, d) op`ere sur

r
E par :
g GL(R, d), (u
i
)
r
i=1
E
r
, g.(u
1
u
r
) = gu
1
gu
r
.
On note

r
g la matrice de GL(R, C
r
d
) associee `a cette action ecrite sur la
base du 1).
Les indices sont donc pris dans (
r
= (i
1
, , i
r
) [ 1 i
1
< < i
r
d,
ordonne par lordre lexicographique.
3) < e
i
1
e
ir
, ge
j
1
ge
jr
> est egal au mineur de g obtenu en conservant
uniquement les lignes i
1
, , i
r
et les colonnes j
1
, , j
r
.
<
t
ge
i
1

t
ge
ir
, e
j
1
e
jr
> est egal au mineur de
t
g obtenu en
conservant uniquement les lignes j
1
, , j
r
et les colonnes i
1
, , i
r
.
4) On en deduit (

r
g)
1
=

r
(g
1
) et
t
(

r
g) =

r
(
t
g) .
1.2. OUTILS ALG

EBRIQUES 21
5) Si g = xak est une decomposition polaire de g,
alors (

r
g) = (

r
x)(

r
a)(

r
k) en est une de (

r
g) et
= (i
1
, , i
r
) (
r
, a

(g) := a

r
g) = a
i
1
a
ir
(g).
On notera aussi
r
pour (1, , r).
6) Si g = bk est la decomposition dIwasawa de g, alors (

r
g) = (

r
)(

r
b)(

r
k)
est celle de (

r
g) et
= (i
1
, , i
r
) (
r
, b

(g) := b

r
g) = b
i
1
b
ir
(g).
1.2.3 Comparaison des decompositions
Lemme 1.2.4.
Pour tout g G et tout j I
d
, on a
1
|g
1
|
=
1
a
1
(g
1
)
= a
d
(g) b
j
(g) a
1
(g) = |g|.
En appliquant ce lemme `a

r
g, on obtient :
Corollaire 1.2.5.
Pour tout g G, tout r 1, , d et tout j = (j
1
, , j
r
) (
r
, on a
r

k=1
a
dr+k
(g)
r

k=1
b
j
k
(g)
r

k=1
a
k
(g).
Demonstration du lemme. Les egalites sont claires. Soit g = bk une decompo-
sition dIwasawa de g. Le coecient b
j
est le j
eme
element de la diagonale de
b = g
t
k, donc b
j
=< g
t
ke
j
, e
j
> |g
t
k| = |g|.
De meme b
1
j
=< kg
1
e
j
, e
j
> |kg
1
| = |g
1
|.
Pour ameliorer la minoration du lemme 1.2.4, on pose, pour tout r I
d
tout
g G, et pour tout k K,

r
(g) =< e
r
,

r
ge
r
> et
r
(k) = log([
r
(k)[).
22 CHAP. 1 EXPOSANTS DE LYAPUNOV
Lemme 1.2.6.
Soient g G, k K et g = xa(g) une decomposition polaire de g. Alors :
r I
d
, log(a
r
(g)) +
r
(kx) log(b
r
(kg)) log(a
r
(g)).
Demonstration. La seconde inegalite resulte du corollaire 1.2.5 et de la remarque
suivant la denition de la decomposition polaire.
Pour prouver la premi`ere inegalite, remarquons quon a :
b
r
(kg)
a
r
(kg)
=
|

r
t
(kg)e
r
|
|

r
t
g|
=
|

r
t
g

r
t
k e
r
|
|

r
t
g|
.
Alors
b
r
(kg)
a
r
(kg)
=
|

r
t
a(g)

r
t
x

r
t
k e
r
|
|

r
t
g|
=
(

j(r
a
j
(g)
2
< e
r
,

r
k

r
x(g)e
j
>
2
)
1/2
a
r
(g)
[ < e
r
,

r
k

r
x(g)e
r
> [.
Lemme 1.2.7. r I
d
, p [1, +],
r
L
p
(K, m
K
), o` u m
K
est la mesure
de Haar normalisee sur K.
Demonstration. On xe d et on fait un recurrence nie sur r.
Soit
d1
la loi uniforme sur S
d1
. Soit p 1. Il existe c R
+
tel que
_
K
[ log([
1
(k)[)[
p
dm
K
(k) =
_
S
d1
[ log([ < v, e
1
> [)[
p
d
d1
(v)
c
_

0
[ log([ cos()[)[
p
d
< +
Supposons le lemme montre jusquau rang r 1.
On admet pour linstant la relation suivante, o` u u
r
(g) est un vecteur norme
orthogonal aux vecteurs ge
1
, , ge
r1
:
[
r
(g)[ [
r1
(g)[[ < ge
r
, u
r
(g) > [ (1.1)
On en deduit que lintegrabilite de [
r
[
p
equivaut `a celle de [ log([ < u
r
(.), .e
r
> [)[
p
.
Soit X une variable aleatoire `a valeur dans K de loi m
K
.
E[[ log([ < u
r
(X), Xe
r
> [)[
p
] = E[E[[ log([ < u
r
(X), Xe
r
> [)[
p
[Xe
1
, , Xe
r1
]].
1.2. OUTILS ALG

EBRIQUES 23

Etant donne (v
1
, , v
r1
) un syst`eme de vecteurs orthogonaux de R
d
, la dis-
tribution de Xe
r
sachant Xe
1
= v
1
, , Xe
r1
= v
r1
est la loi uniforme sur la
sph`ere unite de lorthogonal dans R
d
de vect(v
1
, , v
r1
). On a donc lexistence
de C R
+
tel que
E[[ log([ < u
r
(X), Xe
r
> [)[
p
] =
_
S
dr
[ log([ < e
1
, v > [)[
p
d
dq
(v)
C
_

0
[ log([ cos [)[
p
d
< +.
Le lemme est donc demontre par une recurrence nie.
Il reste `a montrer la relation 1.1. Cest ce que nous faisons maintenant.
Pour tout q I
d
, on note
q
le projecteur orthogonal de R
d
sur V
q
=
q

i=1
Re
i
et
q
(g) le determinant de la matrice carree dordre r 1 obtenue `a partir de
(
r
(ge
1
), ,
r
(ge
r1
)) en enlevant la ligne q. On denit alors u
r
(g) par les rela-
tions suivantes :
v(g) =
r

i=1
(1)
i

i
(g)e
i
et u
r
(g) =
v(g)
|v(g)|
.
Alors, on a pour tout k I
r1
,
< v(g), ge
k
>= Det(
r
(ge
1
), ,
r
(ge
r1
),
r
(ge
k
)) = 0,
donc v(g) et u
r
g sont bien orthogonaux aux vecteurs ge
1
, , ge
r1
.
Si
r1
(g) = 0, linegalite (1.1) est triviale. Sinon la famille (
r
(ge
1
), ,
r
(ge
r1
))
est de rang r 1, donc (
r
(ge
1
), ,
r
(ge
r1
), u
r
(g)) est une base de V
r
. En de-
composant
r
(ge
r
) dans cette base et on developpe le determinant suivant la
derni`ere colonne. Par lorthogonalite de u
r
(g) par rapport aux autres vecteurs,
tous les termes sannulent, et il vient :
[
r
(g)[ = [Det(
r
(ge
1
), ,
r
(ge
r
))[
= [ < u
r
(g), ge
r
> [.[Det(
r
(ge
1
), ,
r
(ge
r1
), u
r
(g)[
Comme |v(g)|
2
=
r

i=1

i
(g)
2
= [Det(
r
(ge
1
), ,
r
(ge
r1
), v(g)[, on en deduit :
[
r
(g)[ = [ < u
r
(g), ge
r
> [.|v(g)|
[ < u
r
(g), ge
r
> [.[
r
(g)[
= [ < u
r
(g), ge
r
> [.[
r1
(g)[
24 CHAP. 1 EXPOSANTS DE LYAPUNOV
1.2.4 Espaces des drapeaux, contractions
Dans toute la suite, r I
d
sera une dimension de sous-espace de R
d
.
Denition 1.2.8 (Espaces des drapeaux). On appelle espace des drapeaux
dordre r, et on note T
r
, lensemble des sous-espaces vectoriels de R
d
de dimen-
sion r.
Pour tout I
d1
, on appelle drapeau de type un -uplet (U
i
)
i
de sous-
espaces vectoriels de R
d
tels que
i , dim U
i
= i et i, j , i < j U
i
U
j
.
On note T

lensemble des drapeaux de type .


Remarque 1.2.2. Si U T
r
, et si (u
i
)
r
i=1
est une base de U, on identiera U
`a u
1
u
r
P(

r
R
d
), ce qui munit T

dune structure despace metrique


compact.
Notations.
On note, pour tout r ,
r
la r-i`eme projection de T

.
Le drapeau dit canonique, que lon notera

est donne par :


r ,
r
(

) = e
r
.
Le groupe G op`ere sur T

de la facon suivante :
g G, (U
i
1
, , U
im
) T

, g.(U
i
1
, , U
im
) = (g(U
i
1
), , g(U
im
)).
Le stabilisateur de

pour cette action est note P

.
Denition 1.2.9 (Contractions).
1. On dit quune suite (g
n
)
nN
de matrices de G contracte PR
d
sil existe z R
d
non nul tel que pour toute valeur dadherence M de
_
gn
|gn|
_
nN
, M est de
rang 1 et a pour image z = R z.
On dit alors que (g
n
)
nN
contracte PR
d
en direction de z.
2. On dit quune suite (g
n
)
nN
de matrices de G contracte T
r
si

r
g
n
contracte
P(
_
r
R). On dira aussi que la suite contracte T
r
.
Remarque 1.2.3. les valeurs dadherence de
_
gn
|gn|
_
nN
sont appelees les valeurs
dadherence quasi-projective de (g
n
)
nN
.
Lemme 1.2.10. Soit (g
n
)
nN
une suite de matrices de G.
Pour chaque n N, soit g
n
= x
n
a(g
n
)k
n
une decomposition polaire de g
n
.
1.2. OUTILS ALG

EBRIQUES 25
1) (g
n
)
nN
contracte T
r
en direction de z si et seulement si on a les deux rela-
tions suivantes :
lim
n +
a
2
(

r
g
n
)
a
1
(

r
g
n
)
= lim
n +
a
r+1
(g
n
)
a
r
(g
n
)
= 0 (1.2)
lim
n +

r
x
n
.e
r
= z. (1.3)
2) si (g
n
)
nN
contracte T
r
en direction de z, alors, quitte `a changer certains x
n
et k
n
en leurs opposes, on a :
u

r
R
d
, lim
n +

r
a(g
n
)

r
t
x
n
u
a
r
(g
n
)
=
< u, z >
|z|
e
r
. (1.4)
Demonstration. Il sut de la faire pour r = 1.
1) Remarquons quon peut ecrire
gn
|gn|
comme :
g
n
|g
n
|
=
g
n
a
1
(g
n
)
= x
n
diag
_
1,
a
2
(g
n
)
a
1
(g
n
)
, ,
a
d
(g
n
)
a
1
(g
n
)
_
k
n
. (1.5)
Supposons que les relations (1.2) et (1.3) sont veriees, et que M est une
valeur dadherence de
_
gn
|gn|
_
nN
. Par denition, il existe une suite n
t
telle
que (g
n
) converge vers M. Comme K est compact, on peut supposer que
(x
n
) et (k
n
) convergent respectivement vers x et k. En outre, le terme dia-
gonal de la decomposition (1.5) tend vers diag(1, 0, , 0) dapr`es (1.2), donc
M = x diag(1, 0, , 0) k est de rang 1 et (x
n
e
1
) tend vers z, donc xe
1
= z,
et Im(M) = z. Donc si les relations (1.2) et (1.3) sont veriees, alors la suite
(g
n
)
nN
contracte T
r
en direction de z.
Si (1.2) nest pas veriee, alors il existe une suite extraite (g
n
)
nN
telle que
_
a
2
(g
n
)
a
1
(g
n
)
_
tende vers
2
> 0. Comme K et [0, 1] sont compacts, quitte `a
extraire encore, on peut supposer que chacun des termes de la decomposi-
tion (1.5) tend vers une limite. Notons x, k et diag(1,
2
, ,
d
) ces limites.
Alors x diag(1,
2
, ,
d
) k est une valeur dadherence de
_
gn
|gn|
_
nN
de rang
au moins 2, donc la suite (g
n
)
nN
ne contracte pas T
r
.
Si (1.3) nest pas veriee, alors il existe v T
r
z et une suite extraite
(g
n
)
nN
telle que (x
n
e
1
) tende vers v.
26 CHAP. 1 EXPOSANTS DE LYAPUNOV
Comme K et [0, 1] sont compacts, quitte `a extraire encore, on peut supposer
que chacun des termes de la decomposition (1.5) tend vers une limite. Notons
x, k et diag(1,
2
, ,
d
) ces limites. Alors M = x diag(1,
2
, ,
d
) k est
une valeur dadherence de
_
gn
|gn|
_
nN
. Comme xe
1
= v, v Im(M) et la suite
(g
n
)
nN
ne contracte pas T
r
en direction de z.
2) Pour tout n N,
a(gn)
t
xnu
a
1
(gn)
appartient au compact [|u|, |u|]. Dapr`es le 1),
on sait que (
a(gn)
a
1
(gn)
)
nN
tend vers diag(1, 0, , 0), donc les valeurs dadherence
de la suite sont les <
t
xu, e
1
> e
1
, o` u x est valeur dadherence de (x
n
)
nN
.
Or on sait aussi que les valeurs dadherence x de (x
n
)
nN
verient xe
1
=
z
|z|
,
donc <
t
xu, e
1
>=< u, xe
1
>=
<u,z>
|z|
.
Donc, quitte `a changer certains x
n
et k
n
en leurs opposes,
_
a(gn)
t
xnu
a
1
(gn)
_
nN
tend
vers
<u,z>
|z|
e
1
.
Lemme 1.2.11. Soit (g
n
)
nN
une suite de matrices de G qui contracte T
r
en
direction de z.
Soit g
n
= x
n
a(g
n
)k
n
une decomposition polaire de g
n
.
Soit g
n
=
n
b(g
n
)
n
la decomposition dIwasawa de g
n
.
1) On a les relations suivantes :
lim
n +
b
r
(g
n
)
a
r
(g
n
)
=

< z, e
r
>
|z|

(1.6)
lim
n +
k
n

1
n
e
r
= e
r
(1.7)
j (
r

r
, lim
n +
b
r
b
j
a
2
r
(g
n
) = 0. (1.8)
2) si z et e
r
ne sont pas orthogonaux, alors on a aussi :
j (
r

r
, lim
n +
b
j
(g
n
)
b
r
(g
n
)
= 0 (1.9)
lim
n +

n
e
r
=
z
< z, e
r
>
. (1.10)
Demonstration. L`a encore il sut de faire la demonstration dans le cas r = 1.
1) Remarquons que lon a :
a(g
n
)
t
x
n
e
1
= k
n
t
g
n
e
1
= k
n

1
n
b(g
n
)
t

n
e
1
= b
1
(g
n
)k
n

1
n
e
1
. (1.11)
La relation (1.6) provient de lequation (1.4) du lemme precedent, et de lega-
lite precedente prise en norme : |a(g
n
)
t
x
n
e
1
| = b
1
(g
n
).
1.2. OUTILS ALG

EBRIQUES 27
La relation (1.7) provient de lequation (1.4) et de legalite (1.11) prise en
projectif : k
n

1
n
e
1
= a(g
n
)
t
x
n
e
1
.
Par ailleurs on a, pour tout j 2, , d,
< a(g
n
)
t
x
n
(e
1
e
j
), k
n

1
n
(e
1
e
j
) > = <
t
g
n
(e
1
e
j
),
1
n
(e
1
e
j
) >
= <
t

n
b(g
n
)
t

n
.(e
1
e
j
),
1
n
(e
1
e
j
) >
= < b(g
n
)
t

n
(e
1
e
j
), e
1
e
j
>
= b
1
(g
n
)b
j
(g
n
),
De l`a, on deduit la majoration
0
b
1
(g
n
)b
j
(g
n
)
a
1
(g
n
)
2
|k
n

1
n
(e
1
e
j
)|
_
_
_
_
a(g
n
)
t
x
n
(e
1
e
j
)
a
1
(g
n
)
2
_
_
_
_

a
j
(g
n
)
a
1
(g
n
)
,
do` u la relation (1.8), dapr`es lequation (1.2).
2) La relation (1.9) decoule de (1.2) et (1.4) puisque
lim
n +
b
1
(g
n
)
a
1
(g
n
)
=

< z, e
1
>
|z|

,= 0 (do` u
b
1
(g
n
)
a
1
(g
n
)
,= 0 pour n assez grand)
Pour montrer (1.10), ecrivons
n
e
1
comme
n
e
1
=
nb(gn)nk
1
n
(kn
1
n
e
1
)
b
1
(gn)
et de-
composons k
n

1
n
e
1
sur la base canonique. On obtient :

n
e
1
=
d

j=1
< k
n

1
n
e
1
, e
j
>

n
b(g
n
)
n
k
1
n
e
j
b
1
(g
n
)
=
d

j=1
< k
n

1
n
e
1
, e
j
>
x
n
a(g
n
)e
j
b
1
(g
n
)
=
d

j=1
a
j
(g
n
)
b
1
(g
n
)
< k
n

1
n
e
1
, e
j
> x
n
e
j
. (1.12)
Dapr`es les equations (1.2) et (1.6), on a, pour tout j ,= 1 :
lim
n +
a
j
(g
n
)
b
1
(g
n
)
= 0.
Or | < k
n

1
n
e
1
, e
j
> x
n
e
j
| 1, donc tous les termes de la somme de (1.12)
tendent vers 0 sauf celui pour j = 1.
Estimons ce terme. Dapr`es lequation (1.11) , on a :
< k
n

1
n
e
1
, e
1
> x
n
e
1
= b
1
(g
n
)
1
< a(g
n
)
t
x
n
e
1
, e
1
> x
n
e
1
= b
1
(g
n
)
1
<
t
x
n
e
1
, a(g
n
)e
1
> x
n
e
1
=
a
1
(g
n
)
b
1
(g
n
)
< e
1
, x
n
e
1
> x
n
e
1
.
28 CHAP. 1 EXPOSANTS DE LYAPUNOV
Dapr`es la relation (1.3) on a, quitte `a changer certains x
n
et k
n
en leurs
opposes :
lim
n +
x
n
e
1
=
z
|z|
.
Et, compte tenu de (1.6), on a donc :
lim
n +
a
1
(g
n
)
b
1
(g
n
)
< k
n

1
n
e
1
, e
1
> x
n
e
1
=
|z|
2
< z, e
1
>
2
< e
1
,
z
|z|
>
z
|z|
=
z
< z, e
1
>
.
(1.13)
Comme on a montre que tous les autres termes de somme dans (1.12) tendent
vers 0, on a prouve (1.10).
1.2.5 Notions dirreductibilite
Pour separer les exposants de Lyapunov, on aura besoin de formaliser lidee
que lorbite dun r-vecteur sous laction des matrices aleatoires sur

r
R
d
est assez
grande. Pour cela on introduit les denitions suivantes :
Denition 1.2.12 (Espaces de type (S)). Un sous-espace V non trivial de

r
R
d
est dit de type (S) sil admet une base de r-vecteurs decomposables et sil
est contenu dans lorthogonal dun r-vecteur decomposable non nul.
Denition 1.2.13 (Irreductibilite faible).
1. Un semi-groupe T G agit de facon irreductible au sens faible sur

r
R
d
sil nexiste pas de sous-espace de type (S) stable par T.
Il agit de facon totalement irreductible au sens faible sil nexiste pas de
reunion nie de sous-espace de type (S) stable par T.
On dira aussi quil agit de facon irreductible (resp. totalement irreductible)
sur T
r
.
2. Une probabilite sur les boreliens de P(

r
R
d
) est dite faiblement irreduc-
tible si elle ne charge limage daucun sous-espace de type (S).
3. Une probabilite sur les boreliens de T
r
est dite irreductible si elle est fai-
blement irreductible en tant que probabilite sur P(

r
R
d
).
Une probabilite sur les boreliens de T

est dite irreductible si, pour tout


r , limage de par la projection
r
de T

sur T
r
est irreductible.
1.2. OUTILS ALG

EBRIQUES 29
Remarque 1.2.4. Les notions au sens fort sobtiennent en supprimant la restriction
de type (S) dans les denitions precedentes.
La premi`ere notion est clariee par le lemme suivant :
Lemme 1.2.14. Soit T G un semi-groupe et H le sous-groupe ferme de G
engendre par T. Les assertions suivantes sont equivalentes :
i) T agit de fa con totalement irreductible au sens faible sur

r
R
d
.
ii) T ne permute aucune famille nie de sous-espace de type (S) de meme di-
mension.
iii) H agit de facon totalement irreductible au sens faible sur

r
R
d
.
iv) Tout sous-groupe dindice ni de H agit de facon irreductible au sens faible
sur

r
R
d
.
v)
t
H agit de facon totalement irreductible au sens faible sur

r
R
d
.
vi) Il nexiste pas de r-vecteurs decomposables u, v
1
, , v
p
tels que :
t T,
p

k=1
< tu, v
k
>= 0.
En outre tout groupe connexe qui agit de facon irreductible au sens faible sur

r
R
d
agit de facon totalement irreductible au sens faible.
Demonstration.
- i) ii). ii) i) est clair. Pour voir que i) ii). il sut de conside-
rer les sous-espaces de dimension maximum et de remarquer quils ne peuvent
sinclure dans une union nie de sous-espaces de dimension plus petite.
- ii) iii). On applique le point precedent `a H, car si T permute des espaces,
H aussi.
- iii) iv). Si H permute les sous-espaces de type (S) V
i
, on pose H
0
= g
H[gV
1
= V
1
. Pour chaque V
j
, on choisit un g
j
H tel que g
j
V
1
= V
j
. Alors
H = g
j
H
0
, donc H
0
contredit iv).
- iv) iii). Si H
0
est dindice ni et laisse le sous-espace V de type (S)
invariant, on prend g
1
, , g
p
, un syst`eme de representants de H/H
0
. Alors H
laisse stable lunion de sous-espaces de type (S) g
i
V .
- Pour demontrer que iii) v), le point precedent permet de se ramener `a
montrer que lirreductibilite dun groupe equivaut `a lirreductibilite du groupe
transpose. Cest le cas car lirreductibilite de H
0
est labsence de vecteurs decom-
posables u, v tels que g H < gu, v >= 0, i.e. tels que g H < u,
t
gv >= 0.
30 CHAP. 1 EXPOSANTS DE LYAPUNOV
- ii) vi). ii) vi) est clair. Supposons donc vi) et notons 1 la reunion
des sous-espaces orthogonaux aux v
k
, 1 k p. Tu 1, donc pour tous
t
1
, t
m
T, Tu 1 t
1
1
1 t
1
m
1. Comme une intersection de sous-
espaces est encore un sous-espace, on construit ainsi des reunions nies de
sous-espaces non triviaux de R
d
qui contiennent Tu.
Soit k(t
1
, t
m
) = maxdim(H)[H 1 t
1
1
1 t
1
m
1 et k
0
= min k.
Soit n(t
1
, t
m
) = #H 1 t
1
1
1 t
1
m
1[dim(H) = k
0
et n
0
=
minn(t
1
, t
m
)[k(t
1
, t
m
) = k
0
.
Soient alors s
1
, s
m
tels que n(s
1
, s
m
) = n
0
et k(s
1
, s
m
) = k
0
. On verie
facilement que tout t T permute les sous-espaces de dimension k
0
de 1
s
1
1
1 s
1
m
1. En remplacant les sous-espaces par ceux engendres par leur
intersection avec Tu, qui sont de type (S), on a bien i).
- Enn si H est connexe et permute les V
1
, , V
m
, on pose H
0
= g H[gV
1
=
V
1
. H/H
0
est connexe (comme image de H par la projection) et a au plus m
elements. Comme les singletons sont fermes (car H
0
lest), on en deduit que
H/H
0
est reduit `a un point, i.e. H = H
0
, donc H laisse V
1
invariant.
Le lien entre les deux notions dirreductibilite est donne par le lemme suivant :
Lemme 1.2.15. Si est une probabilite sur G et T

le semi-groupe ferme en-


gendre par son support, alors les deux assertions suivantes sont equivalentes :
i) T

agit de mani`ere totalement irreductible sur T


r
.
ii) Toute probabilite -invariante sur T
r
est irreductible.
Demonstration. ii) i) :
Soient une probabilite -invariante sur T
r
non-irreductible et V un sous-espace
de type (S) de

r
R
d
tel que
_
V
_
> 0 de dimension minimale.
Pour tout couple (y, g) G
2
, soit

r
y.V =

r
g.V , soit

r
y.V

r
g.V est
un sous-espace de dimension strictement plus petite que celle de V . Dans le
second cas,
_

r
y.V

r
g.V
_
=
_

r
y.V

r
g.V

T
r
_
= 0 car le dernier
ensemble engendre un sous-espace de type (S) de dimension strictement plus
petite que celle de V .
Donc pour tout > 0, lensemble des

r
g.V de mesure plus grande que est
ni. Donc 1 =
_

r
g.V

r
g.V
_
= sup
xG

r
x.V
__
est non vide et ni.
Comme est -invariante, on verie que
y G,
_

r
y.V
_
=
_
G

r
x
1
y.V
_
(dx).
1.2. OUTILS ALG

EBRIQUES 31
En particulier, si

r
y.V 1,

r
x
1
.

r
y.V 1 pour presque tout x, donc
les elements de 1 sont permutes par les x
1
dun ensemble de mesure 1. Or les
x qui permutent un ensemble ni de sous-espaces forment un groupe ferme, donc
T

permute les sous-espaces de 1.


i) ii) :
Si T

laisse invariante une famille nie 1 de sous-espaces de type (S). Linter-


section avec T
r
de limage de 1 dans P
_

r
R
d
_
est un compact invariant par
T

. Il porte donc une probabilite -invariante, qui est non-irreductible par de-
nition.
Si G agit continuement sur un compact metrique E, G agit aussi sur les pro-
babilites sur E, par :
g G, f ((E), g.(f) =
_
E
f(g.x)(dx).
On peut alors montrer le lemme suivant, qui caracterise les contractions `a laide
des probabilites irreductibles.
Lemme 1.2.16. Soient (g
n
)
nN
G
N
et z T
r
. La suite (g
n
)
nN
contracte T
r
en direction de z si et seulement si pour une (donc toute) probabilite faiblement
irreductible sur P(

r
R
d
) la suite (g
n
.)
nN
converge etroitement vers
z
.
Demonstration.
1) Les valeurs dadherence quasi-projective de
_

r
g
n
_
nN
sont de la forme M =

r
x diag(

: (
r
)

r
k avec x, k K et
r
= 1.
Donc ker M = V ect(k
1
e

[ (
r
,

= 0) = k
1
e

[ (
r
,

,= 0

est un
sous-espace de

r
R
d
reduit `a 0 ou de type (S) donc
_
ker M
_
= 0 pour
toute probabilite faiblement irreductible . En particulier M.u est denie pour
-presque tout u.
2) Supposons que (g
n
)
nN
G
N
contracte T
r
en direction de z.
Soit une probabilite faiblement irreductible sur P(

r
R
d
) et f une fonction
continue sur P(

r
R
d
). De toute suite extraite de (g
n
.(f))
nN
, on peut extraire
32 CHAP. 1 EXPOSANTS DE LYAPUNOV
une suite (g
n
.(f))
nN
telle que

r
g
n
|

r
g
n
|
M.
g
n
u Mu = z d`es que u , ker M donc -p.s. Par le theor`eme de convergence
dominee, on en deduit que
g
n
.(f)
_
u,ker M
f(M.u)(du) = f(z) =
z
(f).
Cest vrai pour toute suite extraite donc g
n
.(f)
z
(f).
Cest vrai pour toute fonction continue f donc g
n
.
z
.
3) Reciproquement, si est une probabilite faiblement irreductible sur P(

r
R
d
)
telle que g
n
.(f)
z
(f), tout valeur dadherence quasi-projective M de
_

r
g
n
_
nN
verie comme precedemment, pour toute fonction f continue sur
P(

r
R
d
)
_
u,ker M
f(M.u)(du) = limg
n
.(f) =
z
(f).
On en deduit M.u = z pour -presque tout u.
Soit g
i
nG, tel que z = g.e
r
et posons M.u = z si u ker M, alors :
M.u = z g
1
M.u e
r
(
r

r
, < g
1
.M.u, e

>= 0
(
r

r
, u (
t
M
t
g
1
e

.
Or pour tout (
r

t
M
t
g
1
e

est decomposable, donc sil etait non nul


(
t
M
t
g
1
e

serait de type (S) , et donc M.u = z ne serait verie que sur


un ensemble negligeable. Le noyau de
t
M contient donc tous les
t
g
1
e

sauf
un,
t
M est de rang un, et M aussi. Son image ne peut alors etre que z. Donc
(g
n
)
nN
contracte T
r
en direction de z.
On reprend quelques resultats de [GG96] :
Notations. Si T est un sous-semi-groupe de G, on note :


T =
_
u M(R, C
r
d
)

(u
n
) T
N
, u = lim
run
|run|
et rg(u) = 1
_
T
0
= g T [
r
g a une valeur propre dominante simple
p
+
(g) = Im(g) si g

T, p
+
(g) = v et p

(g) = p
+
(
t
g) si v est vecteur propre
associe `a la valeur dominante de g T
0
.
L(T) =
_
p
+
(g)[g

T
_
.
1.2. OUTILS ALG

EBRIQUES 33
Remarque 1.2.5. Soit g T
0
de valeur propre dominante . Il sut decrire la
decomposition de Dunford de

r
g pour voir que

r
g
n

n
tend vers une projection
P sur p
+
(g). On en deduit linclusion
p
+
(T
0
) L(T). (1.14)
En outre

r
t
g
n

n
tend vers
t
P, donc ker P = Im
t
P

= p

(g)

. Donc

r
g
n
.y tend
vers p
+
(g), si y / p

(g)

.
En guise de reciproque `a linclusion 1.14, on a :
Lemme 1.2.17. Si T agit de facon irreductible au sens faible sur

r
R
d
et si

T ,= , alors :
p
+
(T
0
) est dense dans L(T).
pour tout x T
r
, L(T) T.x. En particulier, L(T) est le plus petit ferme
non vide T-invariant de T
r
.
Demonstration. Si g

T, alors il existe une suite (g
n
)
nN
T
N
telle que g =
lim

r
g
n
|

r
g
n
|
.
Si p
+
(g) , ker g, alors g est `a valeur propre dominante simple et donc

r
g
n
aussi pour n grand (cf par exemple [Ser02]). De plus la suite des valeurs propres
dominantes tend vers celle de g et donc p
+
(g) = limp
+
(g
n
). (On verie facilement
que cest la seule valeur dadherence possible.)
Sinon, comme le noyau de g est de type (S), lirreductibilite de T assure
lexistence dun h T tel que h.p
+
(g) , ker g, et comme p
+
(g

r
h) = p
+
(g) ,

r
h
1
ker g = ker g

r
h, on est ramene au cas precedent. Dans les deux cas, on
a bien p
+
(g) p
+
(T
0
).
Soit maintenant x T
r
, si x / ker g, g
n
.x tend vers p
+
(g), sinon on prend
h T tel que h.x / ker g, et (g
n
h.x)
nN
tend vers p
+
(g) donc dans les deux cas
p
+
(g) T.x.
Corollaire 1.2.18. Si T agit de facon irreductible au sens faible sur

r
R
d
, alors

T ,= si et seulement si T
0
,= .
34 CHAP. 1 EXPOSANTS DE LYAPUNOV
Mais (
t
T)
0
=
t
T
0
, ce qui, combine au lemme 1.2.14, nous donne :
Corollaire 1.2.19. Le sous-semi-groupe T G agit de facon totalement irre-
ductible sur T
r
et poss`ede une suite contractant T
r
si et seulement si
t
T agit de
facon totalement irreductible sur T
r
et poss`ede une suite contractant T
r
.
1.3

Etude des noyaux markoviens harmoniques
Desormais, le decalage est suppose localement sur
T
: pour un certain
< 1, on a x, y
T
, d(ax, ay) d(x, y). Il sut pour cela de mettre une
metrique adaptee sur
T
.
Notations :
On pose p
n
(x) = p(x)p(x) p(
n1
x). Si est une mesure, || designera sa
variation totale.
On note Y
1
, Y
2
les projections sur les coordonnees strictement negatives de

T
= (x
n
)
nZ
S
N
[n Z, T
xn,x
n+1
= 1 et X
0
, X
1
, celles sur les coordon-
nees positives.
On denit alors :
- Lapplication lineaire P de ((
T
) dans lui meme, par :
h ((
T
), x
T
, Ph(x) =

sS,s.x
T
p(s.x)h(s.x).
Par denition de , P = , donc P est lapplication duale du shift pour la
mesure .
- Pour s S, on note X
s
= x
T
[x
0
= s et Y
s
= y t
T
[y
0
= s. Pour
tout x X
s
, P
x
la mesure de Markov associee sur Y
s
: si f ne depend que de n
coordonnees, P
x
(f) =

sns
1
.x
T
p
n
(s
n
s
1
.x)f(s
1
, , s
n
).
On peut alors identier

T
et

sS
Y
s
X
s
, et le calcul suivant montre que
=
_
P
x

x
(dx) est invariante par :
_
P
x

x
(dx)([Y
n
= y
n
, , Y
1
= y
1
, X
0
= x
0
, , X
m
= x
m
])
=
_
[X
0
=x
0
,,Xm=xm]

sns
1
.x
T
p
n
(s
n
s
1
.x)1
[Y
1
=y
1
,,Yn=yn]
(s
1
, , s
n
)(dx)
=
_

sns
1
.x
T
p
n
(s
n
s
1
.x)1
[X
0
=yn,,X
n1
=y
1
]
(s
n
s
1
.x)1
[X
0
=x
0
,,Xm=xm]
(x)(dx)
=
_

sns
1
.x
T
p
n
(s
n
s
1
.x)1
[X
1
=yn,,Xn=y
1
]
(s
n
s
1
.x)1
[Xn=x
0
,,X
m+n
=ym]
(s
n
s
1
.x)(dx)
=
_
P
n
1
[X
1
=yn,,Xn=y
1
,Xn=x
0
,,X
m+n
=ym]
d
= ([X
1
= y
n
, , X
n
= y
1
, X
n
= x
0
, , X
m+n
= y
m
]).
1.3.

ETUDE DES NOYAUX MARKOVIENS HARMONIQUES 35
Remarque 1.3.1. On verie sur les fonctions ne dependant que dun nombre ni
de coordonnees, que si p est -holderienne, de constante de Holder M, alors, on a :
|P
x
P
y
| Md

(x, y)

n0

n
.
Denition 1.3.1 (Noyaux harmoniques). Soit un ensemble dindices et
x
x
un noyau markovien continu en topologie vague de
T
dans T

. Il est
dit harmonique sil verie pour tout element x de
T
:

x
=

s.x
T
p(s.x)A(s).
s.x
.
Remarque 1.3.2. Si x
x
est un noyau harmonique de
T
dans T

, et si

,
alors la projection de sur T

est encore harmonique.


Theor`eme 1.3.2. Pour tout ensemble dindices , il existe un noyau harmonique
`a valeurs dans T

continu en variation.
Demonstration. On note N, le convexe des noyaux markoviens de
T
dans T

continus en topologie vague, muni de la metrique de la convergence uniforme.


a) On denit loperateur R sur les noyaux, par :
(R)
x
=

s.x
T
p(s.x)A(s).
s.x
.
Si m est une probabilite sur T

, et m le noyau deni par m


x
= m, alors :
(R
n
m)
x
=

sns
1
.x
T
p
n
(s
n
s
1
.x)A(s
1
) A(s
n
).m .
Do` u |(R
n
m)
x
(R
n
m)
x
| |P
x
P
x
|.
b) N
0
= N [|
x

x
| |P
x
P
x
| est un convexe compact de N, par le
theor`eme dAscoli et la continuite en variation de P
x
.
c) Considerons la suite de noyaux
m
n
=
1
n
n1

k=0
R
k
m.
Le a) assure que les m
n
sont des elements de N
0
, donc par le b) on peut
extraire une sous-suite convergeant vers le noyau N
0
.
De la relation R m
n
= m
n
+
1
n
(R
n+1
m m), on deduit que R = , i.e. que
est harmonique.
36 CHAP. 1 EXPOSANTS DE LYAPUNOV
Denition 1.3.3 (Semi-groupes R
s
). Pour tout s S, on note R
s
le sous-
semi-groupe de G deni par :
R
s
= A(s
1
) A(s
n
)[s
n
s
1
s

T
, s
n
= s.
Theor`eme 1.3.4. Si est un noyau harmonique `a valeurs dans T
r
continu en
variation et sil existe un s S, tel que laction de R
s
sur T
r
soit totalement
irreductible, alors pour tout x
T
,
x
est une mesure irreductible.
Pour alleger les notations, on identiera les sous-ensembles de

r
R
d
et leurs
images dans T
r
.
La preuve va utiliser les lemmes suivants :
Lemme 1.3.5. Soit une probabilite sur T
r
, H

lensemble des sous-espaces


H de type (S) de

r
R
d
de dimension minimale tels que (H) > 0, et m =
sup(H)[H H

. Alors lensemble des H H

tels que (H) = m est non


vide et ni. De plus, il existe

> 0 tels que pour tout H H

, on ait (H) = m
ou (H) m

. En outre si H et H
t
sont deux elements distincts de H

, on
a (H H
t
) = 0.
Demonstration. Commencons par la derni`ere assertion : (HH
t
) = 0, car cest
la mesure de limage du sous-espace engendre par les r-vecteurs decomposables de
HH
t
, qui est de type (S) et de dimension strictement inferieure `a celle de H et
H
t
. On en deduit que pour tout A > 0 lensemble des H H

tels que (H) A


a au plus
1
A
elements, ce qui donne le reste du lemme en prenant 0 < A < m.
Lemme 1.3.6. Avec les notations precedentes, soit k un entier, H une famille
de reunions de k sous-espaces. Alors h(x) = sup
x
(W)[W H denit une
fonction h continue sur
T
. En particulier, elle atteint son maximum sur un
ferme non vide.
Demonstration.
`
A W xe,

x
_
W
_

_
W
_

|
x

x
|, donc [h(x)h(x
t
)[
|
x

x
|, ce qui prouve la continuite de h.
Demonstration du theor`eme 1.3.4. Supposons que x
x
soit un noyaux har-
monique tel que
x
ne soit pas toujours irreductible. Pour tout l, on note H
l
lensemble des sous-espaces de type (S) de

r
R
d
de dimension l. Posons :
p = minl N[x
T
, H H
l
,
x
(H) > 0,
m = sup
x
(H)[x
T
, H H
p
,
E = x
T
[H H
p
,
x
(H) = m,
H
x
= H[
x
(H) = m et W
x
=
HHx
H.
1.4. PROPRI

ET

ES DE CONTRACTION 37
Tout dabord E est un ferme non vide dapr`es le lemme 1.3.6 et, si x E,W
x
est
toujours une union nie de sous-espaces de type (S) dapr`es le lemme 1.3.5 .
De la relation dharmonicite, on deduit,
x E, s S, s.x
T

_
s.x E, A(s)
1
H
x
H
s.x
_
et nalement E =
T
.
Soit n
0
= sup #H
x
qui est atteint car le lemme 1.3.5 implique #H
x
m 1. On
refait le raisonnement precedent avec H
t
lensemble des unions de n
0
sous-espaces
de type (S) de

r
R
d
de dimension p et on en deduit que
x[#H
x
= n
0
=
_
x

sup
H1

x
(H) = n
0
m
_
=
T
et que A(s)
1
H
x
= H
s.x
, do` u
W
s.x
= A(s)
1
W
x
. (1.15)
Montrons maintenant que x H
x
est localement constante : soit x xe, on
applique le lemme 1.3.5 `a
x
, ce qui donne un > 0 tel que, pour tout H H
p
,

x
(H) = m ou
x
(H) m. Or il existe un voisinage U de x dont les elements
y verient |
y

x
| < . Si y U et H H
y
, alors
x
(H)
y
(H) |
y

x
| >
m, donc
x
(H) = m et H H
x
. Alors H
y
H
x
et par cardinalite H
y
= H
x
.
Pour s S, x W
x
est localement constante sur le compact x
0
= s et
W =
x
0
=s
W
x
est donc une union nie de sous-espaces de type (S) de dimension
p, invariante par R
s
dapr`es lequation (1.15). Pour le s de lhypoth`ese, cest une
contradiction.
1.4 Proprietes de contraction
Le but de cette partie est de montrer le theor`eme suivant :
Theor`eme 1.4.1. Sil existe un s S tel que R
s
agisse de mani`ere totalement
irreductible sur T
r
, et une suite (s
n
1
, , s
n
kn
)
nN
`a valeurs dans t
T
telle que
(s
n
1
s
n
kn
)
nN
contracte T
r
, alors pour tout x
T
et P
x
-presque tout y Y
x
0
,
la suite (y
1
y
n
)
nN
contracte T
r
, en direction de z(y). En outre x z(P
x
) est
lunique noyau harmonique `a valeurs dans T
r
continu en variation.
On commence par deux lemmes :
Lemme 1.4.2. Si (M
n
)
nN
est une suite de matrices convergeant vers M ,= 0 et

n
une suite de probabilites irreductibles sur T
r
convergeant en variation vers ,
alors M
n
.
n
converge etroitement vers M. .
38 CHAP. 1 EXPOSANTS DE LYAPUNOV
Demonstration. Il est clair que est irreductible. Soit f ((T
r
), alors :
[M
n
.
n
(f) M.(f)[ [M
n
.
n
(f) M
n
.(f)[ +[M
n
.(f) M.(f)[
|
n
| |f|

+
_
[f M
n
(u) f M(u)[(du).
Le premier terme tend vers zero par hypoth`ese. Puisque est irreductible f
M
n
(u) tend vers f M(u) pour -presque tout u et par le theor`eme de convergence
dominee le second terme tend aussi vers zero.
Lemme 1.4.3. Si est un noyau harmonique de
T
dans T
r
,alors pour tout
x
T
et P
x
-presque tout y Y
x
0
:
i) La suite (A(y
1
) A(y
n
).
yny
1
.x
)
nN
converge etroitement vers une probabi-
lite notee (y, x),
ii) Pour tout k N, et tous les s
n
1
, , s
n
k
S tels que s
n
k
s
n
1
y
n
y
1
.x
T
,
_
A(y
1
) A(y
n
)A(s
n
1
) A(s
n
k
).
s
n
k
s
n
1
yny
1
x
_
nN
converge etroitement vers (y, x).
Demonstration. Le point clef de la demonstration consiste `a montrer que pour
toute fonction f ((T
r
), les variables aleatoires f
n
denies sur Y
s
par
f
n
(y) = A(y
1
) A(y
n
).
yny
1
.x
(f)
forment une martingale sous P
x
pour la ltration naturelle des applications coor-
donnees. Ceci est donne par le calcul suivant :
_
Y
i
=y
0
i

i=1,,n
f
n+1
(y)P
x
(dy)
=

s:sy
0
n
y
0
1
x
T
p
n+1
(sy
0
n
y
0
1
.x)A(y
0
1
) A(y
0
n
)A(s).
sy
0
n
y
0
1
.x
(f)
= p
n
(y
0
n
y
0
1
.x)

s:sy
0
n
y
0
1
x
T
p(sy
0
n
y
0
1
.x)A(s).
sy
0
n
y
0
1
.x
(f A(y
0
1
) A(y
0
n
))
= p
n
(y
0
n
y
0
1
.x)(P)
y
0
n
y
0
1
.x
(f A(y
0
1
) A(y
0
n
))
= p
n
(y
0
n
y
0
1
.x)A(y
0
1
) A(y
0
n
).
y
0
n
y
0
1
.x
(f)
=
_
Y
i
=y
0
i

i=1,,n
f
n
(y)P
x
(dy).
La suite (f
n
)
nN
est bornee par |f|

, donc elle converge presque s urement


vers une limite (y, x)(f).
1.4. PROPRI

ET

ES DE CONTRACTION 39
Montrons maintenant la seconde propriete. Soit f ((T
r
), on a :
_

nN

s
n
1
,,s
n
k
p
k
(s, y
n
y
1
.x)
_
f
n
(y) A(y
1
) A(y
n
)A(s
n
1
) A(s
n
k
).
s
n
k
s
n
1
yny
1
x
(f)
_
2
P
x
(dy)
=

nN
_
(f
n
(y) f
n+k
(y))
2
P
x
(dy)
=

nN
__
f
2
n
(y)P
x
(dy)
_
f
2
n+k
(y)P
x
(dy)
_
k|f|

.
On en deduit que P
x
-presque s urement le terme general de la serie tend vers
zero, cest-`a-dire, puisque p admet un minimum strictement positif, que pour
toutes les suites nies (s
n
i
)
iI
k
admissibles, la suite de mesures
_
A(y
1
) A(y
n
)A(s
n
1
) A(s
n
k
).
s
n
k
s
n
1
yny
1
x
(f)
_
nN
tend vers (y, x)(f).
On applique maintenant ces resultats `a un sous-ensemble denombrable dense
de ((T
r
), ce qui conclut la demonstration du lemme.
Demonstration du theor`eme 1.4.1 . Soit un noyau harmonique `a valeurs dans
T
r
continu en variation (le theor`eme 1.3.2 en assure lexistence). Soit y X
s
veri-
ant les conclusions du lemme 1.4.3, on va montrer que la suite (A(y
1
) A(y
n
))
nN
contracte T
r
. Soit donc M une valeur dadherence de cette suite. Quitte `a extraire
une sous-suite, on peut supposer que
_
A(y
1
)A(yn)
|A(y
1
)A(yn)|
_
nN
converge vers M et que
y
n
y
1
.x converge vers x
t
. Alors le lemme 1.4.2 donne (x, y) = M.
x
, mais aussi
(x, y) = MA(s
1
) A(s
k
).
s
k
s
1
.x
, pour tout (s
1
, , s
k
) tels que s
k
s
1
.x
t

T
. Il sut de montrer que (y, x) est une mesure de Dirac en z, car alors, comme

x
est irreductible, limage de M sera z (la caracterisation des suites contractantes
par leur action sur les probabilites irreductibles reste valable pour des applica-
tions quasi-projectives). Comme T est irreductible, quitte `a changer M, on peut
supposer que x
t
0
= s, o` u le s est celui de lenonce. Par hypoth`ese, il existe une suite
(s
n
1
, , s
n
kn
)
nN
telle que (A(s
n
1
) A(s
n
kn
))
nN
contracte T
r
en direction dun z.
Quitte `a extraire, on peut supposer que s
1
est constante et comme T est irreduc-
tible, que T
s
1
,s
= 1. Comme laction de R
s
est irreductible, il existe a
1
a
k
Y
s
,
tels que A(a
1
) A(a
k
)z / ker M, donc
_
MA(a
1
) A(a
k
)A(s
n
1
) A(s
n
kn
)
_
nN
contracte T
r
en direction de MA(a
1
) A(a
k
)z. En extrayant et en appliquant
encore une fois le lemme 1.4.2, on obtient (y, x) =
MA(a
1
)A(a
k
)z
.
40 CHAP. 1 EXPOSANTS DE LYAPUNOV
On a ainsi montre que pour tout noyau harmonique `a valeurs dans T
r
continu
en variation (y, x) =
z
(y). Verions sur une fonction ((T
r
) que z(P
x
) =
x
:
z(P
x
)() =
_
(z(y))P
x
(dy)
=
_
lim
n
A(y
1
) A(y
n
).
yny
1
.x
()P
x
(dy)
= lim
n
_
A(y
1
) A(y
n
).
yny
1
.x
()P
x
(dy) (convergence dominee)
=
x
() (harmonicite de ).
1.5 Separation des exposants
On va demontrer le theor`eme 1.1.3 . Pour cela on utilisera le lemme de theorie
ergodique bien connu suivant :
Lemme 1.5.1. Si (, T, P, ) est un syst`eme dynamique et f une fonction P-
integrable telle que les sommes de Birkho S
n
f tendent presque s urement vers
, alors
_
fdP < 0.
On va maintenant construire le syst`eme dynamique auquel appliquer ce lemme.
Pour 0 k d on introduit les fonctions
k
sur GT
k
et GT, o` u T designe
lespace des drapeaux complets, denies par :

0
= 1,
v

k
R
d
, g G,
k
(g, v) =
|
_
k
gv|
|v|
,
T, g G,
k
(g, ) =
k
(g,
k
()).
On note P
k
lextension de P `a
T
T
k
denie pour tout ((
T
T
k
) par
P
k
(x, v) =

s.x
T
(s.x, A(s).v)p(s.x) et P
c
lextension analogue sur
T
T.
On note M
c
et M
k
les convexes formes des probabilites respectivement P
c
- et
P
k
-invariantes.
Pour tout k et tout M
k
, on pose :
I
k

=
_

s.x
T
p(s.x) log
k
(A(s), v)(dx, dv).
Si
k
est la projection de M
c
sur
T
T
k
, alors
k
M
k
et on note I
k

pour
I
k

k
.
On peut maintenant demontrer le lemme suivant, qui donnera la probabilite
du s.d.m. auquel appliquer le lemme 1.5.1 :
1.5. S

EPARATION DES EXPOSANTS 41


Lemme 1.5.2. Pour tout 0 k d :
k

i=1

i
= sup
M
k
I
k

= sup
M
c
I
k

et il existe un M
c
pour lequel tous les sup sont atteints.
Demonstration. On note
k
=

k
i=1

i
et, pour tout x

T
, x = (y, x).
Posons, pour ( x, v)

T
T
k
,

( x, v) = (
1
x, A(y
1
).v) et f
k
( x, v) = log
k
(A(y
1
), v).
Si M
k
, on munit
T
T
r
de la loi denie comme
_

(x,v)
P
x
(dx, dv),
qui est

-invariante. On verie facilement que :
n1

i=1
f
k

i
( x, v) = log
k
(A(y
n
) A(y
1
), v). (1.16)
Do` u :
I
k

=
_
f
k
( x, v) (d x, dv)
=
1
n
_
log
k
(A(y
n
) A(y
1
), v)P
x
(dy)(dx, dv)

1
n
_
log |

k
A(y
n
) A(y
1
)|P
x
(dy)(dx, dv)
=
1
n
_
log |

k
A(y
n
) A(y
1
)|P
x
(dy)(dx)
(La projection de sur
T
est Q-invariante)
=
1
n
_
log |

k
A(y
n
) A(y
1
)| (d x).
Le dernier terme tend vers
k
, do` u
k
sup
M
k I
k

sup
M
c I
k

.
Pour demontrer les inegalites inverses, on utilise que, pour tout g G, si m
K
designe la mesure de Haar sur K = O(d, R), on a :
0 log |

k
g|
_
log
k
(g, .e

k
)m
K
(d)
= log a

k
(g)
_
log |

k
a(g)

k
e

k
|m
K
(d)
log a

k
(g)
_
log <

k
a(g)

k
e

k
, e

k
> m
K
(d)
= log a

k
(g)
_
log <

k
e

k
,

k
a(g)e

k
> m
K
(d)
= |
k
|
L
1
(K,m
K
)
.
42 CHAP. 1 EXPOSANTS DE LYAPUNOV
O` u
k
est la fonction denie sur K par
k
() = log < .e

k
, e

k
> dont on sait
quelle est m
K
-integrable (cf lemme 1.2.7). On notera C =
d

k=1
|
k
|
L
1
(K,m
K
)
. On
a donc, si
0
designe le drapeau complet canonique :
0
d

k=1

_
m
K
(d)
_
_
log |

k
A(y
n
) A(y
1
)| log
k
(A(y
n
) A(y
1
),
0
)
_
(d x)

C.
Le lemme de Fatou et la majoration assurent que :
liminf
n
d

k=1
1
n

_
_
log |

k
A(y
n
) A(y
1
)| log
k
(A(y
n
) A(y
1
),
0
)
_
(d x)

= 0 m
K
-p.s.
En particulier, il existe un K et une suite extraite n
t
tels que pour tout k I
d
,
on ait :
lim
n

1
n
t
_
log
k
(A(y
n
) A(y
1
),
0
) (d x) = lim
n

1
n
t
_
log |

k
A(y
n
) A(y
1
)| (d x) =
k
.
On pose donc f
t
k
(x, ) =
_
f
k
( x,
k
())P
x
(dy) =

p(s.x) log
k
(A(s), ) et en
integrant lequation (1.16) par rapport `a , on trouve, pour tout k :
n

i=0
P
i
c
(

0
)(f
t
k
) =
_
log
k
(A(y
n
) A(y
1
),
0
)) (d x).
On prend alors pour , une valeur dadherence de la suite
1
n

i=0
P
i
c
(

0
),
ce qui assure M
c
et la relation precedente donne I
k

=
k
(f
t
k
) =
k
.
Demonstration du theor`eme 1.1.3 . On prend le donne par le lemme. On pose
=

r+1

r1

2
r
.
Alors on a : _
log d = I
r+1

+ I
r1

2I
r

=
r+1

r
.
On garde les notations du lemme precedent et on denit g(, y) = log (A(y
1
), )
et =
_

(x,)
P
x
(dx, d). Comme precedemment pour f
k
, on a :
() log (A(y
n
) A(y
1
), ) =
n

i=0
g

k
(, y).
Grace au corollaire 1.2.19, on peut appliquer le theor`eme 1.4.1 au syst`eme ob-
tenu en remplacant les elements de S par leurs transposees, ce qui assure que
1.5. S

EPARATION DES EXPOSANTS 43


t
(A(y
n
) A(y
1
)) contracte T
r
, P
x
-presque s urement pour tout x, en direction
de z. Soit T tel que (
r1
(),
r
(),
r+1
()) = (v, v
t
, v
tt
) xe, avec v, v
t
, v
tt
normalises. On a alors :
(A(y
n
) A(y
1
), ) =
|A(y
n
) A(y
1
)v|.|A(y
n
) A(y
1
)v
tt
|
|A(y
n
) A(y
1
)v
t
|
2

r1
(A(y
n
) A(y
1
)).a

r+1
(A(y
n
) A(y
1
))
|A(y
n
) A(y
1
)v
t
|
2
=
_
a
r
(
t
(A(y
n
) A(y
1
)))
|A(y
n
) A(y
1
)v
t
|
_
2
a
r+1
(
t
(A(y
n
) A(y
1
)))
a
r
(
t
(A(y
n
) A(y
1
)))
.
Le lemme 1.2.10 nous dit que quand
t
(A(y
n
) A(y
1
)) contracte T
r
vers un z(y),
la seconde fraction tend vers 0 et linverse de la premi`ere vers
[<v

,z(y)>[
|z(y)|
. Or cette
derni`ere valeur est non nulle, P
x
-presque s urement pour tout x, car z(P
x
) =
x
est
irreductible (theor`eme 1.3.4). Donc pour tout T, (A(y
n
) A(y
1
), ) tend
vers 0 P
x
-presque s urement pour tout x. Donc (A(y
n
) A(y
1
), ) tend vers 0
-presque s urement et dapr`es(**),
lim
n
n

i=0
g

i
(, y) = -p.s..
On en conclut grace au lemme 1.5.1 que :

r+1

r
=
_
log d =
_
g d < 0.
Remarque 1.5.1. La demonstration a montre que les exposants sont separes, d`es
quil existe un T
s
totalement irreductible, et une suite contractante de matrices
dans A(s
n
) A(s
1
)[n N, (s
1
, , s
n
)

T
. En fait cette condition nest
pas plus faible que celle du theor`eme 1.1.3 car lirreductibilite de T permet den
deduire une suite de T
s
contractante. (On fait comme dans la demonstration de
1.4.1 .)
44 CHAP. 1 EXPOSANTS DE LYAPUNOV
Deuxi`eme partie
Applications topicales aleatoires
45
Chapitre 2
Matrices aleatoires dans
(R, max, +) : ordre 1
2.1 Presentation et resume
Beaucoup de syst`emes o` u plusieurs taches sont executees successivement peuvent
se modeliser par des equations (max+)-lineaires et donc par des suites recur-
rentes stochastiques gouvernees par des applications (max+)-lineaires. Pour des
exemples, le lecteur est renvoye `a lintroduction et aux references qui y sont don-
nees. On introduit maintenant le semi-anneau R
max
et les structures algebriques
associees, puis on presente le plan du chapitre. Les principaux resultats sont com-
mentes dans lintroduction generale de la th`ese.
Pour tout entier k on notera I
k
lensemble des entiers compris entre 1 et k.
Denition 2.1.1 (Alg`ebre (max,+)).
i) Lensemble R
max
:= R est muni des lois , denies par :
x, y R
max
,
_
x y := max(x, y)
x y := x + y .
ii) Pour tout d N, lensemble R
d
max
est muni dune structure analogue `a celle
despace vectoriel par :
x, y R
d
max
, R
max
, i k,
_
(x y)
i
:= x
i
y
i
( x)
i
:= x
i
.
iii) Pour tout k, l, m N, deux matrices A R
kl
max
et B R
lm
max
ont pour produit
la matrice AB R
km
max
denie par :
i I
k
, j I
m
, (AB)
ij
:=
l

p=1
A
ip
B
pj
.
On note A
n
la eni`eme puissance de A pour cette operation.
47
48 CHAP. 2 MATRICES DANS (R, max, +) : ORDRE 1
En particulier, si x R
l
max
, alors Ax R
k
max
est denie par :
i I
k
, (Ax)
i
=
l

j=1
A
ij
x
j
.
Proposition 2.1.2.
i) Les lois de R
max
sont associatives et commutatives, la multiplication est
distributive par rapport ` a laddition . La multiplication admet 0 comme
element neutre, laddition . Lensemble R
max
nest pas un anneau car
nest pas inversible, par contre on remarque que x R
max
, x x = x et on
dit donc que R
max
est idempotent.
ii) La restriction `a R
d
des droites de R
d
max
(les ensembles de la forme R x)
sont les droites anes de R
d
de vecteur directeur
t
(1, , 1). Deux elements
dune meme droite (max,+) sont dits proportionnels au sens (max, +).
iii) La matrice A R
kl
max
denit lapplication (max,+)-lineaire

A de R
l
max
dans
R
k
max
par
x R
l
max
,

A(x) := Ax,
et le produit des matrices correspond `a la composition des applications. Si A
na pas de ligne de , elle denit aussi une application de R
l
dans R
k
.
iv) Limage de

A est stable par les operations de R
l
max
. Cest le sous-espace
(max,+)-vectoriel engendre par les colonnes de A. En fait, on a comme dans
le cas lineaire :
x R
k
max
, Ax =

jI
k
x
j
A
.j
.
Demonstration. il sut de le verier par des calculs. Apr`es le i), ce sont les memes
calculs que dans un corps, car on ne fait ni division ni soustraction.
La multiplication `a gauche par une matrice ne comportant pas de ligne de
est une application de R
d
dans R
d
croissante pour lordre produit et additivement
homog`ene. Une telle application est dite topicale :
Denition 2.1.3 (Fonctions topicales). On note

1 pour
t
(1, , 1, ) et

0
pour
t
(0, , 0). Une application A de R
k
dans R
l
est dite topicale si elle verie :
x R
k
, R, A(x +

1 ) = Ax +

1
x, y R
k
, (i I
k
, x
i
y
i
) (i I
l
, (Ax)
i
(Ay)
i
) .
(2.1)
Lensemble des applications topicales de R
d
dans lui meme est note Top
d
.
Ce type dapplication a ete introduit par J. Gunawardena et M. Keane dans [GK95].
Remarquons simplement que Top
d
est stable par composition et par les operations
min, max et +.
2.1. PR

ESENTATION ET R

ESUM

E 49
Notations : Dans tout le texte (, , P) sera un syst`eme dynamique mesu-
rable et A une application mesurable de `a valeurs dans un ensemble dappli-
cations dun espace dans lui meme. En general il sagira de lensemble R
dd
max
des
matrices carrees de taille d ` a coecients dans R
max
, identiees aux applications
associees, ou de lensemble Top
d
. On notera indieremment A
n
ou A(n).
On sinteresse au comportement asymptotique des variables x(n, x
0
) denies
par :
_
x(0, x
0
) = x
0
x(n + 1, x
0
) = A(n)x(n, x
0
).
(2.2)
On denit aussi le produit A
n
:= A(n1)A(n2) A(0) tel que x(n, x
0
) = A
n
x
0
et la suite y(n, x
0
) := A(1) A(n)x
0
.
On rappelle dans la partie 2.2 dierents resultats du premier ordre : loi forte
des grands nombres pour (y(n, X
0
))
nN
, o` u X
0
est une variable aleatoire, sous
une simple condition dintegrabilite, et pour (x(n, X
0
))
nN
sous des hypoth`eses
supplementaires.
Les exemples 1 et 2 montrent que lon ne peut pas esperer de loi forte des
grands nombres pour la suite (x(n, X
0
))
nN
sous des hypoth`eses aussi larges que
celles qui assurent la loi forte des grands nombres pour (y(n, X
0
))
nN
. En re-
vanche la loi faible des grands nombres pour (x(n, X
0
))
nN
decoule de celle pour
(y(n, X
0
))
nN
.
On etend dans la partie 2.3 certains resultats de [BL92] et de [Bac92] sur les
suites de variables aleatoires denies par lequation
Y (n + 1) = A(n)Y (n) B(n) (2.3)
du cas B = 0 au cas B L
1
. On saranchit aussi de la condition dite de
precedence qui interdit aux elements diagonaux de prendre la valeur , et on
remplace les matrices dans R
max
par des applications topicales generalisees.
Signalons aussi que P. Glasserman et D. Yao m`enent dans [GY95] une etude
uniee des solutions dequations du type de (2) quand A
n
prend ses valeurs dans
un espace de matrices `a coecients dans divers semi-anneaux. La preuve du
theor`eme 2.3.1 revient `a mener cette etude, quand A
n
prend ses valeurs dans
lensemble des applications topicales generalisees.
Suivant en cela [Bac92], nous utilisons les resultats de la partie 2.3 pour mon-
trer (theor`eme 2.4.4) que lexposant de Lyapunov maximal dune matrice A est le
maximum des exposants des blocs diagonaux, et cela sans aucune autre condition
que lergodicite.
En revanche labandon de la condition de precedence introduit la possibilite
de nouveaux comportements de la suite (x(n, X
0
))
nN
. On doit donc imposer des
conditions supplementaires pour assurer la loi forte des grands nombres.
50 CHAP. 2 MATRICES DANS (R, max, +) : ORDRE 1
Ces conditions seront soit lindependance des A(n) et une condition dabsence
de ligne de dans certains blocs de la matrice (theor`eme 2.4.8 et son corollaire),
soit des conditions de structure xe et dergodicite renforcee (theor`eme 2.4.10 et
lemme 2.4.7).
Lexemple 1 montre que ni la structure xe ni la condition sur les blocs nassure
seule la loi forte des grands nombres. Lexemple 2 montre que lindependance, et
donc lergodicite renforcee, non-plus.
2.2 Cas general
Dans de nombreux cas, on veut eviter que x(n, X
0
) prenne des valeurs innies.
On a vu que la condition minimale est labsence de ligne de dans les matrices.
On denit donc la condition suivante :
Denition 2.2.1 (Condition de topicalite). On dit quune matrice aleatoire
A verie la condition T si P(i I
d
, j I
d
, A
ij
,= ) = 1.
M.Crandall et L.Tartar ont remarque (cf. [CT80]) que les applications topi-
cales sont exactement les applications additivement homog`enes 1-lipschitziennes
pour la norme innie. On en deduit que si A est `a valeurs dans Top
d
, et si
_
x(n,

0 )
_
nN
satisfait une loi forte des grands nombres, alors pour toute condi-
tion initiale X
0
integrable, (x (n, X
0
))
nN
satisfait aussi une loi forte des grands
nombres. On se restreindra donc desormais au cas X
0
=

0 .
Pour pouvoir traiter le cas des matrices aleatoires non-irreductibles, on devra
considerer des sous-matrices, qui ne verieront pas la condition T. On denit
donc un ensemble un peu plus grand que les applications topicales, qui inclut `a
la fois les matrices avec des lignes de et les applications topicales.
Denition 2.2.2 (Fonctions topicales etendues). On note Tope
d
lensemble
des applications de R
d
max
dans lui meme, veriant les relations suivantes :
x R
d
max
, R
max
, A(x +

1 ) = Ax +

1
x, y R
d
max
, (i I
k
, x
i
y
i
) (i I
l
, (Ax)
i
(Ay)
i
)
(2.4)
Il est clair que Tope
d
contient R
dd
max
. A. Burbanks et C. Sparrow ont montre
dans [BS99] que toute application de Top
d
se prolonge en une application de
Tope
d
. En eet la monotonie permet de denir les applications sur R
d
max
, et les
proprietes de monotonie et dhomogeneite sont preservees.
Lensemble Tope
d
est stable par composition et par les operations min, max
et +.
Denition 2.2.3 (Espace projectif (max,+)).
2.2. CAS G

EN

ERAL 51
1. On appelle espace projectif au sens (max,+) et on note PR
d
max
lespace R
d
quotiente par la relation de colinearite dans R
d
max
:
x y (i, j I
d
, (x y)
i
= (x y)
j
) .
On note x le projete de x R
d
dans PR
d
max
:
R, x R
d
, x = x.
2. Lapplication x (x
i
x
j
)
i<j
fait de PR
d
max
un sous-espace vectoriel de
R
d(d1)
2
de dimension d1. La norme innie de R
d(d1)
2
induit donc une norme
sur PR
d
max
que lon notera [x[
1
:= max x
i
min x
i
. Par abus decriture, on
notera parfois aussi [x[
1
pour [x[
1
.
3. On appelle distance projective sur R
d
max
()
d
la pseudo distance
denie par
u, v R
d
, (u, v) =

i
(u
i
v
i
) +

i
(v
i
u
i
), (2.5)
avec la convention = 0. Si les coordonnees de u et v qui valent
sont les memes, alors (u, v) = [u v[
1
R. Si elles sont dierentes,
alors (u, v) = +.
4. Pour tout A R
dd
max
, on appelle diam`etre projectif de A la quantite
D(A) := sup
u,vR
d
(Au, Av).
Proposition 2.2.4.
1. Une application topicale A agit sur PR
d
max
par Ax := Ax. Lapplication
quelle denit ainsi ne depend que de son projete dans PR
dd
max
.
2. Pour toute suite (
n
x)
nN
`a valeurs dans R
d
, (
n
x)
nN
converge dans PR
d
max
vers x si et seulement si pour tous les i, j I
d
, la suite (
n
x
i

n
x
j
)
nN
tend
vers x
i
x
j
.
3. Si A Top
d
, alors lapplication quelle denit sur PR
d
max
est 1-lipschitzienne :
u, v R
d
, (Au, Av) (u, v).
4. Pour toutes matrices A, B R
dd
max
on a :
u R
d
, (Au, Bu) (A, B), (2.6)
o` u (A, B) est la pseudo-distance sur lensemble R
dd
max
.
52 CHAP. 2 MATRICES DANS (R, max, +) : ORDRE 1
Demonstration. Seules les deux derni`eres armations necessitent une demons-
tration. Pour larmation 3, on remarque que pour tout u, v R
d
, on a :
u v +

i
(u
i
v
i
)

1 .
Donc on a,
Au Av +

i
(u
i
v
i
)

1 , (2.7)
donc aussi

i
((Au)
i
(Av)
i
)

i
(u
i
v
i
) et
(Au, Av) =

i
((Au)
i
(Av)
i
) +

i
((Av)
i
(Au)
i
)

i
(u
i
v
i
) +

i
(v
i
u
i
)
= (u, v).
Demontrons larmation 4. Pour tout i I
d
, il existe un j I
d
tel que
(Au)
i
= A
ij
+ u
j
. Comme (Bu)
i
B
ij
+ u
j
, on a :
(Au)
i
(Bu)
i
A
ij
B
ij

j
(A
ij
B
ij
).
Do` u lon deduit

i
((Au)
i
(Bu)
i
)

i,j
(A
ij
B
ij
).
Et dapr`es (2.5), on a :
(Au, Bu) =

i
((Au)
i
(Bu)
i
) +

i
((Bu)
i
(Au)
i
)

i,j
(A
ij
B
ij
) +

i,j
(B
ij
A
ij
)
= (A, B).
Comme les matrices sans lignes de sont exactement celles qui laissent
stable R
d
, elles sont stables par composition. On en deduit le resultat suivant :
Proposition 2.2.5. Si A verie la condition T, alors pour tout n N, A
n
la
verie aussi et pour tout x
0
R
d
, x(n, x
0
) R
d
et y(n, x
0
) R
d
.
Quand A est `a valeurs dans R
kk
max
, on supposera parfois que les coecients de
A sont soit toujours nis, soit jamais. Ainsi A
n
et la ni`eme puissance au sens du
produit (max, +) ont les memes coecients innis, et ces coecient ne dependent
pas de . Dans ce cas on parle de structure xe :
2.2. CAS G

EN

ERAL 53
Denition 2.2.6 (Structure xe). On dit quune matrice aleatoire A est `a
structure xe (en abrege SF), ou quelle a la propriete de structure xe, si pour
tous les indices i, j R
d
, P(A
ij
= ) 0, 1.
On dit quune suite stationnaire (A(n))
nN
de matrices aleatoires est `a struc-
ture xe si A(1) lest.
Theor`eme-Denition 2.2.7 (Exposant de Lyapunov maximal).
Soit (, , P) un syst`eme dynamique mesurable.
Si A est une variable aleatoire `a valeurs dans Tope
d
telle que max
i
(A

0 )
+
i
est
integrable, alors la suite
_
1
n
max
i
x
i
(n,

0 )
_
nN
converge presque s urement vers
une variable aleatoire `a valeurs dans R
max
.
En outre la convergence a lieu dans L
1
si A

0 est integrable. Si (, , P) est


ergodique, alors est une constante, appelee exposant de Lyapunov maximal de
la suite (A(n))
nN
. On le notera (A, ) ou
_
(A(n))
nN
_
, ou meme (A) quand
il ny a pas dambiguite.
Remarque 2.2.1. Quand A est une matrice aleatoire, max
i
(A

0 )
i
= max
ij
A
ij
: la
condition dintegrabilite et la convergence portent sur le plus grand coecient de
la matrice.
Demonstration. Il sut de montrer que la suite
_
max
i
x
i
(n,

0 )
_
nN
est -sous-
additive `a valeurs dans R
max
et dappliquer le theor`eme de Kingman.
Pour montrer la sous-additivite, on utilise la monotonie et lhomogeneite de
A
m

n
et linegalite evidente :
x(n,

0 )

0 + max
i
x
i
(n,

0 )

1 .
On en deduit :
x(n + m) x(m,

0 )
n
+ max
i
x
i
(n,

0 )

1 ,
do` u la sous-additivite de
_
max
i
x
i
(n,

0 )
_
nN
.
Le theor`eme suivant reprend les principaux resultats du premier ordre. Il faut
y ajouter le theor`eme 2.4.6 de D. Hong ([Hon01]), qui sera enonce quand on aura
introduit les denitions necessaires.
Theor`eme 2.2.8. Soit (, , P) un s.d.m. ergodique, A une variable aleatoire `a
valeurs dans Top
d
telle que A

0 soit integrable. On a les resultats suivants :


1. J.E. Cohen [Coh88] : Si A est `a valeurs dans lensemble des matrices `a
coecients nis, alors la suite
_
1
n
x(n,

0 )
_
nN
et pour tout j I
d
, la suite
_
1
n
A
n
.j
_
nN
convergent presque s urement vers (A, )

1 .
54 CHAP. 2 MATRICES DANS (R, max, +) : ORDRE 1
2. F. Baccelli et Z. Liu [Bac92] et [BL92] : Si A est `a valeurs dans (R
+

)
dd
et a la propriete de structure xe, si toutes les coordonnees dia-
gonales sont nies et si P est
k
-ergodique pour tout k d, alors la suite
_
1
n
x(n,

0 )
_
nN
converge presque s urement.
3. J.M. Vincent [Vin97] : Si A est `a valeurs dans Top
d
, et si A

0 est integrable,
alors les suites
_
1
n
max
i
x
i
(n,

0 )
_
nN
et
_
1
n
min
i
x
i
(n,

0 )
_
nN
convergent
presque s urement.
4. F. Baccelli et J. Mairesse [BM98] : Si A est `a valeurs dans Top
d
, si P est
-ergodique et sil existe un n tel que P(D(A
n
) < +) > 0, alors la suite
_
1
n
x(n,

0 )
_
nN
converge presque s urement vers (A, )

1 .
5. T. Bousch et J. Mairesse [BM03] : Si A est `a valeurs dans R
dd
max
et satisfait
la condition T, alors la suite
_
1
n
y(n,

0 )
_
nN
converge presque s urement.
6. T. Bousch et J. Mairesse [BM03] : Si A est `a valeurs dans R
dd
max
et satisfait
la condition T et si est inversible, alors il existe une variable aleatoire
`a valeurs dans R
d
telle que lon ait :
1
n
x(n,

0 )
n
0.
De plus les convergences ont aussi lieu dans L
1
.
On commente maintenant chacun de ces resultats, soit pour donner une idee
de sa demonstration, soit pour preparer lutilisation que lon souhaite en faire.
1. Lassertion 1. peut se deduire de lassertion 4. En eet une matrice est de
diam`etre projectif ni, si et seulement si elle a tous ses vecteurs colonnes
soit nis soit egaux `a

1 .
Lassertion 4. se traduit donc dans le cas (max,+) par les deux enonces
suivants, dont le premier implique le point 1. :
Si A est `a valeurs dans R
dd
max
et verie la condition T, si P est -ergodique
et sil existe un n tel quavec probabilite strictement positive tous les co-
ecients de A
n
sont nis, alors la suite
_
1
n
x(n,

0 )
_
nN
converge presque
s urement vers (A, )

1 .
Si A est `a valeurs dans R
dd
max
et a la propriete SF, si P est -ergodique,
et si A est presque s urement irreductible et aperiodique, alors la suite
_
1
n
x
i
(n,

0 )
_
nN
converge presque s urement vers (A, )

1 . De plus, pour
tout i, j I
d
,
_
1
n
A
n
ij
_
nN
converge presque s urement vers (A, ).
2. Les resultats du point 2. sont repris et generalises dans la partie 2.4 . Dans
ces generalisations comme dans [Bac92] et [BL92], les limites sont exprimees
en fonction des exposants de Lyapunov des sous-matrices diagonales.
2.2. CAS G

EN

ERAL 55
3. Lassertion 3. decoule du theor`eme de Kingman et des relations 2.1, comme
la convergence vers lexposant de Lyapunov dans le theor`eme-denition 2.2.7 .
En fait la convergence de
_
1
n
max
i
x
i
(n,

0 )
_
nN
est dej`a contenue dans le
theor`eme-denition 2.2.7 .
Quand le syst`eme est ergodique, les limites sont des constantes. La pre-
mi`ere est lexposant de Lyapunov maximal (A, ) et la seconde sera notee

b
(A, ).
De meme on montre que
_
1
n
max
i
y
i
(n,

0 )
_
nN
et
_
1
n
min
i
y
i
(n,

0 )
_
nN
convergent presque s urement.
4. Lassertion 4. decoule de lassertion 3., de lergodicite et du fait que si
D(A
n
) < +, alors D(A
n+1
) < +.
5. En fait T. Bousch et J. Mairesse montrent aussi ce resultat pour des appli-
cations dites uniformement topicales, qui incluent les applications (max, +),
mais pas toutes les applications topicales. Mais la restriction du cas uni-
formement topical au cas (max, +) , donne une condition dintegrabilite un
peu plus forte : max
i,j:A
ij
,=
[A
ij
[ integrable.
6. L`a encore, T. Bousch et J. Mairesse montrent aussi ce resultat pour les
applications uniformement topicales. On na enonce ici que la restriction du
theor`eme au cas (max, +).
Comme on le voit, si max
i,j:A
ij
,=
[A
ij
[ est integrable, alors
_
1
n
x(n,

0 )
_
nN
verie une loi forte des grands nombres ssi est une constante. Cela permet
de deduire les points 1., 2. et la restriction au cas (max, +) des points 3.
et 4. `a partir de ce point. Notons toutefois que, sauf pour le point 2., la
condition dintegrabilite sera leg`erement plus forte. Par contre, le point 2.
sera obtenu sous la seule hypoth`ese que la diagonale est positive. (La preuve
est donnee dans [BM03]).
La suite
_
1
n
x(n,

0 )
_
nN
ne verie pas toujours une loi forte des grands
nombres, meme avec la structure xe (cf. exemple 1) ou lindependance (cf.
exemple 2).
En revanche, si le s.d.m. est inversible, alors pour tout n N, x(n,

0 )
a meme loi que x(n,

0 )
n1
= A(1) A(n)

0 , qui correspond au
y(n,

0 ) associe `a la suite (A(n 1))


nN
. En posant
l := lim
n+
_
1
n
A(1) A(n)

0
_
,
on voit que la suite
_
1
n
x(n, 0)
_
nN
couple avec la suite (l
n+1
)
nN
.
En particulier,
_
1
n
x(n,

0 )
_
nN
converge en loi, et ce resultat ne necessite
pas linversibilite, car on peut faire la demonstration sur le s.d.m. canonique
inversible associe comme dans lintroduction.
56 CHAP. 2 MATRICES DANS (R, max, +) : ORDRE 1
En outre max
i
l
i
= (A, ) et min
i
l
i
=
b
(A, ). Pour montrer que
_
1
n
x(n,

0 )
_
nN
converge presque s urement vers (A, )

1 , il sut donc de montrer que la


limite de
_
1
n
A(1) A(n)

0
_
nN
est proportionnelle `a

1 . Cest ainsi
que lon procedera dans ce chapitre.
Avant daller plus loin, on donne deux exemples qui montrent que ni la struc-
ture xe, ni lindependance ne susent `a assurer une loi des grands nombres.
Exemple 1 ([Mai95], Exemple 6.9.4). Soient =
0
,
1
, lapplication qui
echange
0
et
1
et P =
1
2
(

0
+

1
). Soit A, de dans R
22
max
denie par
A(
0
) =
_
0
0
_
et A(
1
) =
_
1
0
_
.
On verie que (, , P) est un syst`eme dynamique, et que la suite (A(n))
nN
a la
propriete de structure xe. De plus cette structure est irreductible. La suite est
une chane de Markov degeneree : A
n
= A(
0
) A
n+1
= A(
1
).
Or A(
0
) permute les coordonnees, et A(
1
) fait de meme, et augmente ensuite
la premi`ere coordonnee de 1. Donc la suite est enti`erement determinee par les
equations suivantes :
x(2n, z)(
0
) =
t
(z
1
+ n, z
2
) et x(2n + 1, z)(
0
) =
t
(z
2
, z
1
+ n)
x(2n, z)(
1
) =
t
(z
1
, z
2
+ n) et x(2n + 1, z)(
0
) =
t
(z
2
+ n + 1, z
1
).
(2.8)
Donc la suite
_
1
n
x(n,

0 )
_
nN
ne converge presque s urement pas.
Exemple 2 ([BM]). Soit (A(n))
nN
la suite de variables i.i.d. prenant les valeurs
B =
_
_
0
0
0 1 1
_
_
et C =
_
_
0
0 0
0 0
_
_
avec les probabilites respectives p > 0 et 1 p > 0. Calculons laction de B et C
sur les vecteurs de la forme
t
(0, x, y), avec x, y 0 :
B
t
(0, x, y) =
t
(0, 0, max(x, y) + 1) et C
t
(0, x, y) =
t
(0, y, x).
Donc x
1
(n,

0 ) = 0 et max
i
x
i
(n + 1,

0 ) = #0 k n[A(k) = B. En
particulier, si A(n) = B, alors x(n + 1,

0 ) =
t
(0, 0, #0 k n[A(k) = B), et
si A(n) = C et A(n1) = B, alors x(n+1,

0 ) =
t
(0, #0 k n[A(k) = B, 0).
Comme
_
1
n
#0 k n[A(k) = B
_
nN
tend presque s urement vers p, on voit
que :
lim
n
1
n
x
1
(n,

0 ) = 0 p.s.
i 2, 3, liminf
n
1
n
x
i
(n,

0 ) = 0 et limsup
n
1
n
x
i
(n,

0 ) = p p.s. .
(2.9)
Donc la suite
_
1
n
x(n,

0 )
_
nN
ne converge presque s urement pas.
2.3. R

ECURRENCE AFFINE 57
2.3 Recurrence ane
On se donne maintenant deux suites conjointement stationnaires `a valeurs
dans Tope
d
et R
d
max
: (, , P) est toujours un syst`eme dynamique mesurable, A
une application mesurable de dans Tope
d
et B une application mesurable de
dans R
d
max
. On pose A(n) := A
n
et B(n) := B
n
. On sinteresse au
comportement de la suite denie par :
_
Y
n+1
(Y ) = A(n)Y
n
(Y ) B(n)
Y
0
(Y ) = Y.
(2.10)
o` u Y est une variable aleatoire `a valeurs dans R
d
max
.
Cette situation a ete etudiee independemment par F. Baccelli et Z. Liu dune
part (cf. [BL92] et [Bac92]) et P. Glasserman et D. Yao (cf. [GY95]) dautre part,
dans le cas o` u A(n) prend ses valeurs dans R
dd
max
. Notre apport consiste `a rem-
placer R
dd
max
par Tope
d
, ce qui sera utile pour la preuve du theor`eme 3.4.2.
Remarque 2.3.1. La suite de terme general
t
(Y
n
,

0 ) verie une relation de recur-


rence lineaire :
t
(Y
n+1
,

0 ) =
_
A(n) B(n)
()
d
0
_
t
(Y
n
,

0 ). (2.11)
Les resultats de cette partie peuvent sinterpreter comme des resultats du second
ordre sur
_
t
(Y
n
,

0 )
_
nN
.
Pour commencer, calculons Y
n
en fonction de Y :
Y
n
(Y ) = A(n 1) A(0)Y (2.12)
A(n 1) A(1)B(0) A(n 1)B(n 2) B(n 1)
Supposons maintenant que soit inversible. Alors Y
n
(Y ) a meme loi que
M
n
(Y ) := Y (n)
n
.

Ecrivons M
n
(Y ) :
M
n
(Y ) = A(1) A(n)Y
n

k=1
A(1) A(k + 1)B(k) (2.13)
On voit que la suite (M
n
(B(1)))
nN
est croissante, et que
M
n
(Y ) = A(1) A(n)Y
n
M
n1
(B(1)). (2.14)
On note donc M
n
pour M
n
(B(1)) et M

pour la limite (eventuellement innie)


de M
n
.
58 CHAP. 2 MATRICES DANS (R, max, +) : ORDRE 1
Remarques 2.3.2. Pour linstant on na utilise aucune condition dintegrabilite.
Comme M
n
ne prend pas la valeur +,
(M

)
i
= + limsup (A(1) A(n)B(n 1))
i
= +.
M
n
et M

verient respectivement les relations suivantes :


M
n+1
= A(0)M
n
B(0) (2.15)
do` u
M


n
= Y
n
(M

). (2.16)
On peut alors demontrer le theor`eme suivant :
Theor`eme 2.3.1 ( < 0). Soit (, , P) un s.d.m. ergodique et inversible, et
A : Tope
d
une application aleatoire telle que (max
i
(A

0 )
i
)
+
soit integrable.
Soit B : R
d
max
un vecteur aleatoire tel quon ait :
limsup
n+
1
n
max
i
B
i
(n) 0. (2.17)
Si (A, ) < 0, alors M

R
max
presque s urement et pour tout Y tel que
(max
i
Y
i
)
+
soit integrable, M
n
(Y ) M

p.s. . De plus si (M

)
i
est ni, alors
(M
n
(Y ))
i
= (M

)
i
`a partir dun certain rang.
Remarque 2.3.3. Une hypoth`ese naturelle pour assurer la relation (2.17) est lin-
tegrabilite de (max
j
B
j
)
+
, mais on aura besoin de la condition plus faible (2.17)
dans la preuve du theor`eme 2.4.4 .
Demonstration. On sait que la suite
_
1
n
max
i
_
A(1) A(n)

0
_
i
_
nN
tend
vers (A, ) presque s urement et en moyenne.
Pour tout i I
d
, on a :
limsup
1
n
(A(1) A(n)B(n))
limsup
1
n
_
max
i
_
A(1) A(n)

0
_
i
+ max
i
B
i
(n)
_
(A, ) + 0 < 0
En particulier, on a :
limsup (A(1) A(n)B(n 1))
i
= .
donc M
n
(B(1)) est constante `a partir dun certain rang et M

R
d
max
.
De meme , on a :
limsup
_
A(1) A(n)Y
n
_
i
= .
Dapr`es lequation (2.14), si (M

)
i
R, alors M
n
(Y ) est egal `a M
n1
(B(1)) `a
partir dun certain rang, donc aussi `a M

`a partir dun autre rang. Si (M

)
i
=
, alors M
n
(Y ) = (M
n1
(B(1)))
i
= pour tout n, donc la suite de terme
general (M
n
(Y ))
i
= (A(1) A(n)Y
n
)
i
tend vers .
2.3. R

ECURRENCE AFFINE 59
Corollaire 2.3.2. Sous les hypoth`eses du theor`eme 2.3.1, si M

est nie presque


s urement, alors la suite (Y
n
(Y ))
nN
couple en temps ni avec la suite (M


n
)
nN
,
et M

est lunique solution stationnaire de partie positive integrable de lequa-


tion (2.10).
Demonstration. Les ensembles /
N
:= n N, Y
n
(Y ) = M


n
forment une
suite croissante dont lunion est notee /. Dapr`es les equations (2.16) et (2.10),
on remarque que pour tout N N, on a :
/
N
= n N, Y
n
(Y ) = Y
n
(M

)
= Y
N
(Y ) = Y
N
(M

)
= Y
N
(Y ) = M

Donc
P(/) = limP(/
N
)
= limP(
N
(/
N
))
= limP(M
N
(Y ) = M

)
limP(n NM
n
(Y ) = M

)
= P(N, n NM
n
(Y ) = M

)
= 1.
La derni`ere egalite provient du theor`eme 2.3.1 .
Supposons maintenant que (Y
n
)
nN
est une solution de (2.10), cest `a dire
que pour tout n, Y
n
= Y
n
(Y ). On appelle B lensemble sur lequel M

et Y
concident. On remarque que

n
(B) = M


n
= Y
n
= Y
n
(M

) = Y
n
(Y ) = /
n
,
Dapr`es lequation (2.10), /
n
/
n+1
, donc lim
n
P(/
n
) = P(/) = 1. On en
deduit que lim
n
P(
n
(B)) = 1, cest `a dire que P(B) = 1.
Dans le cas > 0, en labsence de la condition de precedence qui assurait
dans [Bac92] que P((M

)
i
= +) 0, 1, on na pas necessairement la conver-
gence presque s ure dune coordonnee vers +.
En eet, considerons la suite (A(n))
nN
de lexemple 1. Comme tous les termes
sont positifs, on a, pour le choix B(n) =

0 , Y
n
(

0 ) = x(n,

0 ), donc M
n
=
x(n,

0 )
n
. Les calculs de la page 56, montrent donc que
M

(
0
) =
t
(+, 0) et M

(
1
) =
t
(0, +).
Remarquons que le meme raisonnement peut etre fait avec la suite A(n) de
lexemple 2. Alors M

prend les valeurs


t
(0, 0, +) et
t
(0, +, 0) avec probabi-
lites p et 1 p.
On a tout de meme le resultat suivant, qui sera susant pour montrer le
theor`eme 2.4.4 :
60 CHAP. 2 MATRICES DANS (R, max, +) : ORDRE 1
Theor`eme 2.3.3 ( > 0). Soit (, , P) est un s.d.m. ergodique et inversible, et
A : Tope
d
telle que max
i
(A

0 )
+
i
soit integrable.
Si (A, ) > 0 et si B : R
k
max
est telle que (min
i
B
i
)

soit integrable, alors


max
i
(M

)
i
= + presque s urement et, pour tout Y , on a :
max
i
(Y
n
(Y ))
i
+ p.s. .
Demonstration. On sait toujours que la suite
_
1
n
max
i
_
A(1) A(n)

0
_
i
_
nN
tend vers (A, ) presque s urement et en moyenne.
Comme (min
i
B
i
)

est integrable, liminf


1
n
min
i
B
i
(n) 0. Donc pour tout
i I
d
,
liminf
1
n
max
i
(A(1) A(n)B(n 1))
i
(2.18)
liminf
1
n
_
max
i
_
A(1) A(n)

0
_
i
+ min
j
B
j
(n 1)
_
(2.19)
(A, ) + 0 > 0 (2.20)
En particulier, on a :
lim
n
max
i
(A(1) A(n)B(n 1))
i
= +.
Comme max
i
(M
n
(B(1)))
i
max
i
(A(1) A(n)B(n 1))
i
, la limite max
i
(M

)
i
de cette quantite vaut +.
De meme, on a Y
n
(Y ) x (n, B(0)) et presque s urement
lim
n
1
n
max
i
x
i
(n, B(0)) = (A, ) > 0,
do` u la seconde assertion.
Remarque 2.3.4 ( = 0). Dans le cas = 0, on ne peut pas esperer de com-
portement independant de B. Ainsi dans le cas le plus simple : d = 1, A = 0,
M
n
= max
kI
n+1
B(k), donc M

= inf c R[P(B(0) > c) = 0 est dans R


max
ssi B(0) est borne superieurement.
2.4 Matrices reductibles
2.4.1 Resultats
A est maintenant une matrice aleatoire veriant la condition T. On cherche
`a quelles conditions la suite
_
1
n
x(n, X
0
)
_
nN
satisfait une loi forte des grands
nombres. En fait on ne donnera que des conditions susantes.
On commence par quelques elements de theorie des graphes.
2.4. MATRICES R

EDUCTIBLES 61
Denition 2.4.1 (Graphe oriente).
1. On appelle graphe oriente ( une paire (V, E) o` u V est un ensemble ni
delements appeles noeuds, E V
2
est lensemble des arcs. Par abus de
notation, on ecrira i ( pour i V .
2. On appelle chemin sur ( de longueur n une suite nie de n + 1 noeuds de
V , ch = (i
1
, , i
n+1
) V
n+1
telle que pour tout j I
n+1
, (i
j
, i
j+1
) soit un
arc de (. La longueur n est notee [ch[. On consid`ere parfois ch comme le
graphe
_
i
j

jI
n+1
, (i
j
, i
j+1
)
jIn
_
.
Un circuit sur ( est un chemin ferme (i
1
= i
n+1
) et une boucle est un circuit
de longueur 1.
On appelle chemin elementaire tout chemin ne contenant pas de sous-
chemin strict ferme. Cela signie que ch = (i
1
, , i
n+1
) V
n+1
est ele-
mentaire si et seulement sil verie :
j, k I
n+1
, i
j
= i
k
(j = k ou j, k = 1, n + 1) .
3. Un graphe ( est dit fortement connexe si pour tous noeuds i, j (, il existe
un chemin sur ( de i vers j.
On appelle ensembles fortement connexes les sous-ensembles F V tels
que pour tout (i, j) F
2
il existe un chemin sur ( de i vers j.
On appelle composantes fortement connexes de ( les ensembles fortement
connexes maximaux pour linclusion. On appelle composantes fortement
connexes triviales de ( les i tels quil nexiste pas de circuit sur ( passant
par i. Les composantes fortement connexes (y compris triviales) forment une
partition de (.
La cyclicite dun graphe fortement connexe est le pgcd des longueurs de
ses circuits. Celle dun graphe en general est le ppcm des cyclicites des
composantes fortement connexes.
Commencons par associer `a notre matrice aleatoire un graphe qui permettra
de decomposer le probl`eme. Les notations seront conservees dans la suite du texte.
Denition 2.4.2 (Graphe dincidences possibles). Soit A une matrice alea-
toire `a valeurs dans R
dd
max
. Pour tout vecteur x R
I
d
max
et tout ensemble I I
d
,
on pose :
x
I
:= (x
i
)
iI
.
i) On appelle graphe dincidences possibles de A et on note ((A) le graphe
oriente dont lensemble des noeuds est I
d
et dont les arcs sont les couples
(i, j) tels que P(A
ij
,= ) > 0.
ii) On note c
1
, , c
K
les composantes fortement connexes de ((A). Dans la
suite on dira simplement composantes de ((A).
62 CHAP. 2 MATRICES DANS (R, max, +) : ORDRE 1
`
A toute composante c
m
, on associe les elements suivants :
A
(m)
:= (A
ij
)
i,jcm
,
(m)
:= (A
(m)
, ) et x
(m)
(n, x
0
) := (A
(m)
)
n
x
0
iii) On dit quune composante c
l
est accessible depuis une composante c
m
, si
m = l ou sil existe un chemin sur ((A) qui va dun noeud dans c
m
`a un
noeud dans c
l
. On note alors m l.
`
A toute composante c
m
, on associe les
elements suivants :
E
m
:= l I
K
[m l,
[m]
:= max
lEm

(l)
,
F
m
:=
_
lEm
c
l
, A
[m]
:= (A
ij
)
i,jFm
et x
[l]
(n, x
0
) :=
_
A
[l]
_
n
x
0
.
iv) On dit quune composante c
m
est terminale (ou source, dapr`es la termino-
logie des syst`emes `a evenements discrets) si pour tout l I
K
, on a :
m l l = m.
On dit quelle est initiale si, pour tout l I
K
, on a :
l m l = m.
On appelle triviale une composante constituee dun seul noeud i tel que
P(A
ii
> ) = 0.
v) On dit quune composante c
l
domine une composante c
m
si elle verie :
m l et
[l]
=
[m]
.
`
A toute composante c
m
, on associe les ensembles suivants :
G
m
:= l E
m
[
[l]
=
[m]
, H
m
:=
_
lGm
c
l
,
A
l
:= (A
ij
)
i,jH
l
et x
l
(n, x
0
) :=
_
A
l
_
n
x
0
.
vi) On dit quune composante c
l
est dominante si elle nest dominee par aucune
autre composante, cest-`a-dire si pour tout m I
K
, on a :
l m
_
l = m ou
(l)
>
(m)
_
.
La proposition suivante regroupe quelques remarques evidentes mais tr`es utiles
pour la suite.
2.4. MATRICES R

EDUCTIBLES 63
Proposition 2.4.3. Soit A une matrice aleatoire `a valeurs dans R
dd
max
. On re-
prend les notations de la denition 2.4.2 .
i) Pour tout l I
K
, x
[m]
(n, x
0
) = x
Fm
(n, x
0
).
ii) Pour tout l I
K
, et tout i c
l
, on a :
x
c
l
i
(n, .) x
l
i
(n, .) x
(l)
i
(n, .).
iii) La relation est une relation dordre. Les composantes initiales et termi-
nales sont les elements minimaux et maximaux pour cette relation.
iv) Si A verie la condition T, alors pour tout l I
K
, A
[l]
verie la condition T.
En particulier les composantes terminales ne sont jamais triviales.
v) Pour tout l I
K
, G
l
est constitue de lensemble des noeuds par lesquels passe
un chemin de ((A) allant dun element de c
l
`a un element dune composante
c
m
telle que
(m)
=
[l]
.
Le premier resultat concerne les exposants de Lyapunov :
Theor`eme 2.4.4. Soit (, , P) un s.d.m. ergodique, et A : R
dd
max
une
matrice aleatoire telle que (max
i,j
A
ij
)
+
soit integrable. Alors (A, ) = max
l

(l)
.
Ce resultat est dej`a present dans [BL92] . Il y est enonce sous des hypoth`eses
plus restrictives, correspondant au cas des graphes devenements temporises, mais
la demonstration sadapte facilement au cas general.
En appliquant ce theor`eme `a la matrice aleatoire A
[l]
, on obtient que (A
[l]
, ) =

[l]
. Compte tenu du i) de la proposition precedente, on en deduit :
Corollaire 2.4.5. Soit (, , P) un s.d.m. ergodique, et A : R
dd
max
une ma-
trice aleatoire telle que (max
i,j
A
ij
)
+
soit integrable. Alors pour tout composante
c
l
de ((A),
lim
n
1
n
max
iF
l
x
i
(n,

0 ) =
[l]
p.s. et limsup
n
1
n
x
c
l
(n,

0 )
[l]

1 p.s. .
Pour montrer des lois des grands nombres, on va decomposer le syst`eme
comme explique precedemment. Alors il sura de savoir que les syst`emes as-
socies aux composantes dominantes satisfont une lois des grands nombres, pour
en deduire que le syst`eme complet aussi.
Pour traiter les composantes dominantes, on peut utiliser lun des resul-
tats du theor`eme 2.2.8 . On donne aussi un resultat simple dans le cas de ma-
trices aleatoires `a structure xe, (lemme 2.4.7) et on rappelle le theor`eme de
D. Hong [Hon01] suivant :
Theor`eme 2.4.6 (D. Hong). Soit (A(n))
nN
une suite de matrices aleatoires
i.i.d. `a valeurs dans R
dd
max
telle que A(1)

0 soit integrable, A(1) verie la condi-


tion T et ((A) soit fortement connexe. Alors, on a la loi des grands nombres
suivante :
lim
n
1
n
x(n,

0 ) = (A, )

1 p.s. .
64 CHAP. 2 MATRICES DANS (R, max, +) : ORDRE 1
Lemme 2.4.7. Soit (, , P) un s.d.m. tel que pour tout k I
d
,
k
soit ergodique,
et soit A : R
dd
max
une matrice aleatoire veriant la condition T telle que A

0
soit integrable. Supposons que A a la propriete de structure xe et que ((A) est
fortement connexe, alors on a :
lim
n
1
n
x(n,

0 ) = (A, )

1 p.s. .
Grace au theor`eme 2.4.6, on obtient par la methode exposee :
Theor`eme 2.4.8. Soit (A(n))
nN
une suite de matrices aleatoires i.i.d. `a valeurs
dans R
dd
max
telle que A(1) verie la condition T et A(1)

0 soit integrable. Si pour


toute composante c
m
, A
m
verie la condition T, alors pour toute composante c
l
,
on a :
lim
n
1
n
x
c
l
(n,

0 ) =
[l]

1 p.s. . (2.21)
Si pour toute composante fortement connexe c
m
, A
(m)
verie la condition T,
alors les A
l
la verient aussi. On a donc le corollaire suivant :
Corollaire 2.4.9. Soit (A(n))
nN
une suite de matrices aleatoires i.i.d. `a valeurs
dans R
dd
max
telle que A(1) verie la condition T et A(1)

0 soit integrable.
Si pour toute composante c
m
, A
(m)
verie la condition T, alors pour toute
composante c
l
, on a :
lim
n
1
n
x
c
l
(n,

0 ) =
[l]

1 p.s. .
Remarque 2.4.1. Dans un article en cours de redaction [BM], T. Bousch et J. Mai-
resse donnent une condition necessaire et susante sur la place des dans les
valeurs prises par A pour que
_
1
n
x(n,

0 )
_
nN
converge presque s urement, quelles
que soient les valeurs prises par les coordonnees nies.
Les hypoth`eses du theor`eme 2.4.8 portent sur les A
l
, donc sur les exposants
de Lyapunov des composantes fortement connexes de ((A). Ce theor`eme nest
donc pas contenu dans les resultats de [BM] .
En revanche le corollaire 2.4.9 donne la convergence sous une hypoth`ese ne
dependant que de la place des . Il est donc contenu dans ces resultats.
Dans le cas de structure xe, la condition T pour les A
l
est automatique-
ment veriee (lemme 2.4.16). La condition dindependance peut etre aaiblie en
la condition pour tout n I
d
,
n
est ergodique, comme le montre le theo-
r`eme suivant, combine au lemme 2.4.7 . Cette propriete dergodicite renforcee est
veriee d`es que la suite (A(n))
nN
est melangeante.
Theor`eme 2.4.10. Soit (, , P) un s.d.m., et A : R
dd
max
une matrice alea-
toire veriant la condition T telle que A

0 soit integrable. Supposons que A a la


propriete SF et que, pour toute composante dominante c
m
, on a :
lim
n
1
n
x
(m)
(n,

0 ) =
(m)

1 p.s. .
2.4. MATRICES R

EDUCTIBLES 65
Alors pour toute composante c
l
, lim
n
1
n
x
c
l
(n,

0 ) =
[l]

1 p.s. .
Pour nir cette partie, on donne le resultat crucial pour la demonstration des
theor`emes 2.4.8 et 2.4.10 .
Theor`eme 2.4.11. Soit (, , P) un s.d.m. et A : R
dd
max
une matrice alea-
toire veriant la condition T telle que A

0 est integrable.
Soit (I, J) une partition de I
d
, telle que la matrice aleatoire A se decompose
en blocs suivant I et J de la mani`ere suivante :
A = :
_
B D
C
_
. (2.22)
Supposons que ((B) est fortement connexe ou que B = p.s., que D nest pas
identiquement egal `a ()
IJ
et que les hypoth`eses suivantes sont veriees :
i) (C) (B)
ii) lim
n
1
n
C
n

0 = (C)

1 p.s. .
Si A verie en outre lune des conditions suivantes :
a) les matrices aleatoires A(n) sont i.i.d.
b) la suite (A(n))
nN
a la propriete SF,
alors on a :
lim
n
1
n
x(n,

0 ) = (C)

1 = (A)

1 p.s. . (2.23)
2.4.2 Demonstration du resultat sur les exposants de Lya-
punov
Le but de cette partie est de demontrer le theor`eme 2.4.4 .
Pour cela, on se place dans le cadre de la partie 2.3 avec B = Y = 0 et on
note M
n
pour M
n
(Y ). Remarquons que comme B est ni, M

est nie dans le


theor`eme 2.3.1 . On peut alors montrer le resultat suivant, qui est `a la base de la
demonstration du theor`eme 2.4.4 .
Proposition 2.4.12. Soit (, , P) un s.d.m. inversible ergodique, et A :
R
dd
max
une matrice aleatoire telle que (

i,j
A
ij
)
+
soit integrable.
Si max
lK

(l)
< 0, alors M

< + presque s urement.


Montrons que cette proposition implique le theor`eme.
Demonstration du theor`eme 2.4.4. Comme A
n
ij
(A
(l)
)
n
ij
pour i, j c
l
, il est
clair que (A, ) max
l

(l)
. Supposons que (A, ) > > max
l

(l)
. Alors

A := (A
ij
)
i,jI
d
verie (

A, ) = (A, ) > 0. Quitte `a changer , on
peut supposer inversible et denir les

M
n
associes. Dapr`es le theor`eme 2.3.3,
max
i
(

M

)
i
= + p.s. . Mais max
l

(l)
(

A) = max
l

(l)
(A) < 0, donc, dapr`es
la proposition 2.4.12,

M

est ni presque s urement. Linegalite stricte est donc


impossible.
66 CHAP. 2 MATRICES DANS (R, max, +) : ORDRE 1
Demonstration de la proposition 2.4.12. On demontre la proposition par recur-
rence sur le nombre K de composantes de ((A) :
Si K = 1, cest un cas particulier du theor`eme 2.3.1 .
Supposons le resultat demontre `a lordre K1. On partitionne I
K
en une com-
posante initiale I et son complementaire J. Quitte `a renumeroter les coordonnees,
on a alors une ecriture de A par blocs suivant lequation (2.22) :
A =
_
B D
C
_
Et si M
n
se decompose en M
I
n
et M
J
n
, on a
M
I
n+1
= B(0)M
I
n
D(0)M
J
n

0 (2.24)
M
J
n+1
= C(0)M
J
n

0 . (2.25)
Le graphe ((C) a K 1 composantes, qui sont les K 1 composantes de
((A) autres que I, donc par lhypoth`ese de recurrence, M
J

< + p.s. .
La premi`ere equation nous montre que pour tout n N, M
I
n
est majoree par
N
n
denie par N
0
= M
0
=

0 et N
n+1
= B(n)N
n
D(n)M
J

0 . Comme
(B, ) < 0, il sut de montrer

B := DM
J

0 verie la relation (2.17) pour


appliquer le theor`eme 2.3.1 et en deduire que N

< +, donc aussi M


I

< +.
Pour verier (2.17), remarquons que (

B
j
)
+
(

i,j
D
+
ij

j
(M
J

)
+
j
) et
que

i,j
D
+
ij
est integrable. Il sut donc de montrer que f :=

j
(M
J

)
+
j
verie
lim
1
n
f
n
= 0. Cela resulte de la relation M
J

= CM
J

0 dont on deduit
f (f +

ij
C
ij
)
+
f +(

ij
C
ij
)
+
, do` u (f f)
+
L
1
. Alors le theor`eme
de Birkho assure que
E(f f) = lim
1
n
(f
n
f) = lim
1
n
f
n
et cette limite est positive, car f 0. On applique encore le theor`eme de Birkho,
cette fois pour
1
et on trouve
E(f f) = lim
1
n
(f f
n
) = lim
1
n
f
n
et cette limite est negative, car f 0. On en conclut que :
lim
1
n
f
n
= E(f f) = 0.
2.4.3 Demonstration du theor`eme 2.4.11
La demonstration du theor`eme 2.4.11 repose sur le lemme suivant :
2.4. MATRICES R

EDUCTIBLES 67
Lemme 2.4.13. Soit (, , P) un s.d.m. ergodique, et A : R
dd
max
une matrice
aleatoire veriant la condition T. On suppose quil existe une partition (I, J) de I
d
telle que A se decompose suivant lequation (2.22), avec ((B) fortement connexe.
Posons pour tout i I,
/
i
:=
_

n N
_
B(1) B(n)D(n + 1)

0
_
i
=
_
.
1. Si /
i
, alors n N, i
n
I (B(1) B(n))
iin
> .
2. Si les matrices aleatoires A(n) sont i.i.d., et si P
_
D = ()
IJ
_
< 1, alors
pour tout i I, on a P(/
i
) = 0.
Demonstration.
1. Soit /
i
. On fait la preuve par recurrence sur n.
Dapr`es la condition T, il existe un i
1
I
d
, tel que A
ii
1
(1) > . Comme
_
D(1)

0
_
i
= , cela signie que tous les coecients de la ligne i de D(1)
valent , cest `a dire A(1)
ij
= pour tout j J, et donc i
1
I. Donc
B
ii
1
(1) = A
ii
1
(1) > .
Supposons la suite construite jusquau rang n. Dapr`es la condition T, il
existe un i
n+1
I
d
, tel que A
ini
n+1
(n + 1) > .
Comme /
i
, on a :
=
_
B(1) B(n)D(n + 1)

0
_
i
(B(1) B(n))
iin
+
_
D(n + 1)

0
_
in
,
donc
_
D(n + 1)

0
_
in
= .
Cela signie que tous les coecients de la ligne i
n
de D(n + 1) valent
, cest `a dire A(n + 1)
inj
= pour tout j J, donc i
n+1
I et
B
ini
n+1
(n + 1) = A
ini
n+1
(n + 1) > .
Finalement, on a bien la relation :
(B(1) B(n + 1))
ii
n+1
(B(1) B(n))
iin
+ B
ini
n+1
(n + 1) >
2.
`
A toute matrice A R
dd
max
, on associe la matrice

A denie par

A
ij
=
si A
ij
= et A
ij
= 0 sinon. On remarque pour toutes matrices A, B
R
dd
max
, on a

AB =

A

B.
La suite de terme general R(n) :=

B(1) B(n) est une chane de Markov
dont les etats sont des matrices I I `a coecients dans 0, et les
transitions sont denies par :
P(R(n + 1) = F[R(n) = E) = P
_

EB(1) = F
_
.
68 CHAP. 2 MATRICES DANS (R, max, +) : ORDRE 1
Elle verie R(n)
ij
= 0 ssi (B(1) B(n))
ij
,= .
Soit E un etat recurrent pour cette chane. Supposons quil existe un k I
d
tel que E
ik
= 0. Dapr`es la forte connexite de ((B), il existe pour tout j I
un p N, tel que P
_
(B(1) B(p))
kj
,=
_
> 0, donc il existe un etat F
de la chane, accessible depuis letat E et tel que F
ij
,= . Comme E est
recurrent, F lest aussi et E et F sont dans la meme classe de recurrence.
Fixons (i, j) I. Dans chaque classe de recurrence de la chane de Markov,
soit il existe une matrice F telle que F
ij
= 0, soit toutes les matrices ont
tous les coecients de leur ligne i egaux `a .
On xe (l, j) I J, tels que P(A
lj
,= ) > 0. Soit c un ensemble
contenant exactement une matrice F de chaque classe de recurrence telle
que F
il
,= si une telle matrice existe dans la classe. Soit S
n
la date du
ni`eme passage de (R(m))
mN
dans c.
Comme c contient un element de chaque classe de recurrence de la chane
de Markov `a espace detats ni, S
n
est presque s urement ni. Par denition
de c, on a pour presque tout , soit (B(1) B(S
n
))
il
,= soit
m I (B(1) B(S
n
))
im
=
Dapr`es le i), si /
i
, on est dans le premier cas. On a donc pour tout
N N :
P[/
i
] P
_
n I
N
,
_
D(S
n
+ 1)

0
_
l
=
_
(2.26)
Or
P
_
n I
N
,
_
D(S
n
+ 1)

0
_
l
=
_
=

kN
P
_
S
N
= k, n I
N
,
_
D(S
n
+ 1)

0
_
l
=
_
=

kN
P
_
S
N
= k,
_
D(k + 1)

0
_
l
= , n I
N1
,
_
D(S
n
+ 1)

0
_
l
=
_
=

kN
P
__
D(k + 1)

0
_
l
=
_
P
_
S
N
= k, n I
N1
,
_
D(S
n
+ 1)

0
_
l
=
_
= P
__
D(1)

0
_
l
=
_
P
_
n I
N1
,
_
D(S
n
+ 1)

0
_
l
=
_
,
car
_

S
N
= k, n I
N1
,
_
D(S
n
+ 1)

0
_
l
=
_
ne depend que des
matrices aleatoires A(1), , A(k).
Donc pour tout N N, on a :
P
_
n I
N
,
_
D(S
n
+ 1)

0
_
l
=
_
=
_
P
__
D(1)

0
_
l
=
__
N
,
et dapr`es lequation (2.26) et le choix de l, on a P(/
i
) = 0.
2.4. MATRICES R

EDUCTIBLES 69
Demonstration du theor`eme 2.4.11. Sans perte de generalite, on peut supposer
que est inversible.
On a remarque `a la suite du theor`eme 2.2.8 (point 5.), quil sut de montrer
que :
lim
n
1
n
A(1) A(n)

0 = (C)

1 p.s. . (2.27)
De meme, lhypoth`ese ii) se traduit par (C) =
b
(C), donc aussi :
lim
n
1
n
C(1) C(n)

0 = (C)

1 p.s. .
Supposons que ((B) est fortement connexe.
Soit i I. Si A verie b), alors il existe un k N et un j J, tels que lon
ait presque s urement :
(B(1) B(k)D(k 1))
ij
> . (2.28)
Si A verie a), alors dapr`es le lemme 2.4.13, il existe pour presque tout ,
des entiers k N et j J dependants de veriant lequation (2.28).
Pour tout tel que k et j sont denis, et pour tout n k(), on a :
_
A(1) A(n)

0
_
i
(B(1) B(k)D(k 1))
ij
+
_
C(k 1) C(n)

0
_
j
.
(2.29)
Donc, si ((B) est fortement connexe, on a :
liminf
n
1
n
_
A(1) A(n)

0
_
i
lim
n
1
n
_
C(k 1) C(n)

0
_
j
= (C).
(2.30)
Si au contraire B = , alors pour tout i I
d
,
_
A(1) A(n)

0
_
i

max
j
A
ij
(0) +min
j
_
C(2) C(n)

0
_
j
, donc lequation 2.30 est aussi veriee.
Mais, dapr`es le theor`eme 2.4.4, on a (A) = (C), donc aussi :
limsup
n
1
n
_
A(1) A(n)

0
_
i
(C).
On en conclut que lequation 2.27 est veriee, donc aussi la conclusion du theo-
r`eme.
2.4.4 Demonstration des lois des grands nombres
Le but de cette partie est de demontrer les theor`emes 2.4.8 et 2.4.10 . On
dispose pour cela du theor`eme 2.4.11 . Il nous permet de montrer la proposition
suivante :
70 CHAP. 2 MATRICES DANS (R, max, +) : ORDRE 1
Proposition 2.4.14. Soit (, , P) un s.d.m. et A : R
dd
max
une matrice
aleatoire veriant la condition T telle que A

0 soit integrable. Supposons que


toutes les composantes terminales c
k
du graphe ((A) verient :
lim
n+
1
n
x
(k)
(n,

0 ) = (A, )

1 p.s. .
Si A verie en outre lune des conditions suivantes :
a) les matrices aleatoires A(n) sont i.i.d.
b) la suite (A(n))
nN
a la propriete SF,
alors on a :
lim
n+
1
n
x(n,

0 ) = (A, )

1 p.s. .
Demonstration de la proposition 2.4.14. On fait une recurrence sur le nombre K
de composantes de ((A).
Si K = 1, il ny a rien `a demontrer.
Supposons donc que le resultat est demontre quand ((A) a au plus K 1
composantes fortement connexes, et que ((A) a K composantes.
Soit c
l
une composante initiale de ((A). Quitte `a renumeroter les coordonnees,
on peut supposer que les premi`eres coordonnees correspondent `a c
l
. On note I = c
l
et J = I
d
I. Alors A se decompose selon lequation (2.22), avec B = A
(l)
. Il est
clair que ((C) a K 1 composantes, qui sont les composantes de ((A) autres
que c
l
et que la relation daccessibilite associee `a ((C) est la restriction de
celle associee `a ((A). En particulier, les composantes terminales de ((C) sont des
composantes terminales de ((A). Donc, dapr`es lhypoth`ese de recurrence, on a :
lim
n+
1
n
x
J
(n,

0 ) (C)

1 p.s. .
A priori, (A) (C), mais, comme lhypoth`ese de convergence vers (A)

1
implique que les composantes terminales c
k
verient
(k)
= (A), on sait que
(C) = (A), donc on a :
lim
n+
1
n
x
J
(n,

0 ) (A)

1 p.s. . (2.31)
Si D = ()
IJ
, alors c
l
est une composante terminale de ((A), donc on a :
lim
n+
1
n
x
I
(n,

0 ) = lim
n+
1
n
x
(c
l
)
(n,

0 ) (A)

1 p.s. .
Ce qui conclut la demonstration dans ce cas.
Si D ,= ()
IJ
, alors cest le theor`eme 2.4.11 qui conclut la demonstration
de la proposition.
2.4. MATRICES R

EDUCTIBLES 71
Remarquons dabord que dapr`es le corollaire 2.4.5, on a, pour toute compo-
sante c
l
,
lim
n
1
n
max
iF
l
x
i
(n,

0 ) =
[l]
p.s. .
En particulier, on en deduit :
limsup
n
1
n
x
c
l
(n,

0 )
[l]

1 ,
et il sut donc de montrer que, pour toute composante c
l
, on a :
liminf
n
1
n
x
c
l
(n,

0 )
[l]

1 .
Mais dapr`es la proposition 2.4.3, x
c
l
(n,

0 )
_
x
l
(n,

0 )
_
ic
l
.
Il sut donc de montrer la relation suivante pour conclure les preuves des
theor`emes 2.4.8 et 2.4.10 :
lim
n
1
n
x
l
(n,

0 ) =
[l]

1 p.s. . (2.32)
Or les matrices aleatoires A
l
ont la propriete suivante :
Lemme 2.4.15. Pour toute composante c
l
de ((A), les composantes terminales
c
k
du graphe ((A
l
) verient :

(k)
= (A
l
, ) =
[l]
.
Demonstration du lemme 2.4.15. Les composantes de ((A
l
) sont les compo-
santes c
k
de ((A) telles que k G
l
. Soit c
k
une telle composante. Comme k G
l
,
on a l k, et donc
(k)

[l]
.
Supposons que
(k)
<
[l]
. Soit c
j
une composante de ((A) telle que
(j)
=
[k]
.
Comme k j,
[j]

[k]
, donc
[j]
=
[k]
. Or, par denition de G
l
, l k, donc
l j, et
[k]
=
[l]
, donc
[j]
=
[l]
. On a donc montre que j G
l
, mais comme

(k)
<
(j)
, j ,= k, donc c
k
nest pas terminale dans ((A
l
).
Par contraposition, on a montre que toutes les composantes terminales c
k
du
graphe ((A
l
) verient
(k)
=
[l]
.
Dapr`es le theor`eme 2.4.4, (A
l
, ) = max
kG
l

(k)
. Comme G
l
E
l
, on a :
(A
l
, ) max
kE
l

(k)
=
[l]
.
Mais comme ((A
l
) admet au moins une composante terminale c
k
et comme

(k)
=
[l]
, on a egalite dans linegalite precedente.
72 CHAP. 2 MATRICES DANS (R, max, +) : ORDRE 1
Fin de la demonstration du theor`eme 2.4.8. Placons nous sous les hypoth`eses du
theor`eme 2.4.8 . Soit c
l
une composante de ((A).
Pour toute composante terminale c
k
de ((A
l
), A
(k)
verie la condition T,
donc le theor`eme 2.4.6 applique `a A
(k)
prouve que lim
n
1
n
x
(k)
(n,

0 ) =
(k)
.
Dapr`es le lemme 2.4.15,
(k)
= (A
l
, ), donc A
l
verie les hypoth`eses de
la proposition 2.4.14. Dapr`es cette proposition, on a donc
lim
n
1
n
x
l
(n,

0 ) = (A
l
).
Mais toujours dapr`es le lemme 2.4.15 (A
l
) =
[l]
, donc cest exactement la
relation (2.32), ce qui conclut la preuve du theor`eme 2.4.8 .
Pour obtenir la relation (2.32) sous les hypoth`eses du theor`eme 2.4.10 et
conclure la preuve du theor`eme 2.4.10, on combine le lemme 2.4.15, la propo-
sition 2.4.14 et le lemme suivant :
Lemme 2.4.16. Si une matrice aleatoire A a la propriete SF et verie la condi-
tion T, alors pour toute composante c
l
de ((A), la matrice aleatoire A
l
verie
la condition T.
Demonstration. Soit c
l
une composante de ((A) et i H
l
.
Si i est dans une composante c
k
de ((A), alors il existe un chemin de i vers
une composante c
m
de ((A) telle que
(m)
=
[k]
. Soit j le premier noeud suivant
i sur ce chemin. j est dans une composante c
p
telle que k p m, donc on a :

[k]

[p]

[m]

(m)
=
[k]
.
Donc on a
[p]
=
[k]
. Or, par denition de G
l
,
[k]
=
[l]
, donc
[p]
=
[l]
.
Finalement, p G
l
, donc i H
l
.
Par denition de ((A), on a P(A
ij
,= ) > 0. Et dapr`es la propriete SF,
P(A
ij
,= ) = 1. Donc A
l
verie la condition T.
Nous terminons cette partie par la demonstration du lemme 2.4.7 .
Demonstration du lemme 2.4.7. Sans perte de generalite, on peut supposer que
est inversible. On a remarque `a la suite du theor`eme 2.2.8 (point 5.), quil sut
de montrer que :
lim
n
1
n
A(1) A(n)

0 = (A, )

1 p.s. .
Posons pour tout i I
d
,
L
i
:= lim
n
1
n
_
A(1) A(n)

0
_
i
.
Ces limites existent dapr`es le theor`eme 2.2.8 5, applique ` a (,
1
, P).
2.4. MATRICES R

EDUCTIBLES 73
Dapr`es lirreductibilite de ((A) et la propriete SF, pour tous i, j I
d
, il existe
un k
ij
I
d
, tel que lon ait presque s urement :
(A(1) A(k
ij
))
ij
> .
On en deduit que
L
i
L
j

k
ij
p.s. . (2.33)
En particulier, pour i = j, on en deduit que L
i
L
i

k
ii
presque s urement.
Alors L
i
= L
i

k
ii
p.s. , et par lergodicite de
k
ii
, L
i
est presque s urement
constante.
Lequation (2.33) devient donc L
i
L
j
, et par symetrie L
i
= L
j
. Or pour
presque tout , il existe un p() I
d
tel que max
i
_
A(1) A(n)

0
_
i
=
_
A(1) A(n)

0
_
p
pour une innite de n. Soit j I
d
tel que P(p = j) > 0.
Alors L
j
= (A), donc pour tout i I
d
, L
i
= (A).
74 CHAP. 2 MATRICES DANS (R, max, +) : ORDRE 1
2.5 Tableaux de synth`ese.
Le tableau 2.1 reprend les resultats generaux du premier ordre sur les ap-
plications (max, +). On suppose toujours que la matrice aleatoire A satisfait la
condition T et que le syst`eme dynamique sous-jacent (, , P) est ergodique. No-
tons aussi que toutes les convergences ont lieu presque s urement, et aussi en
norme L
1
`a partir de la deuxi`eme colonne.
Quantite integrable Conclusion

Enonce Reference
max
ij
A
+
ij
1
n
max
i
x
i
(n,

0 ) R
max
Theor`eme-denition 2.2.7 [Coh88]
A

0
1
n
min
i
x
i
(n,

0 )
b
R Theor`eme 2.2.8 point 3 [Vin97]
1
n
y(n,

0 ) (R
d
)

Theor`eme 2.2.8 point 5 [BM03]


max
ij,A
ij
,=
[A
ij
[
1
n
x(n,

0 )
n
0. Theor`eme 2.2.8 point 6 [BM03]
Tab. 2.1 Conditions dintegrabilite
Le tableau 2.2 reprend les resultats de loi forte des grands nombres pour
_
x(n,

0 )
_
nN
obtenus sur les applications (max, +), sous des conditions de struc-
ture donnees dans la premi`ere colonne et des conditions sur lalea donnees dans la
premi`ere ligne. On suppose toujours que la matrice aleatoire A satisfait la condi-
tion T, que A

0 est integrable et que le syst`eme dynamique sous-jacent (, , P)


est ergodique. La mention Ex. x signie que les conditions ne susent pas `a as-
surer la LGN, comme le montre le contre-exemple Exemple x. La mention Th. x
signie que les conditions assurent la LGN, comme le montre le theor`eme x.
Le sigle SF signie que A a la propriete de structure xe, le sigle FC exprime que
((A) est fortement connexe et la mention 2.4.8 veut dire que A verie lhypo-
th`ese de structure du theor`eme 2.4.8 : pour toute composante c
m
, A
m
verie la
condition T.
(, , P) ergodique Ergodicite renforcee (A(n))
nN
i.i.d.
2.4.8 Ex. 1 ? ? Th. 2.4.8
SF Ex. 1 Th. 2.4.10+Lemme 2.4.7 Th. 2.4.10+Lemme 2.4.7
FC Ex. 1 ? ? Th. 2.4.6 [Hon01]
SF+FC Ex. 1 Lemme 2.4.7 Th. 2.4.6 ou Lemme 2.4.7
Tab. 2.2 Lois forte des grands nombres
Chapitre 3
Matrices aleatoires dans
(R, max, +) : ordre 2
3.1 Presentation et resume
On sinteresse toujours `a des syst`emes du meme type que dans la partie 2 .
On cherche maintenant des resultats du second ordre. Ces resultats seront des
resultats de couplage, au sens deni dans lintroduction.
On reprend dans les parties 3.2 et 3.3 les principaux resultats de [Mai97],
etendus sans diculte supplementaire au cas des applications topicales dans le
cas de la partie 3.2 . Ce sont des resultats du deuxi`eme ordre, obtenus sous des
hypoth`ese dergodicite et de perte de memoire. Les resultats de la partie 3.2 se-
ront cruciaux pour obtenir les theor`emes limites de la partie 5 .
Dans la partie 3.4, nous montrons (theor`eme 3.4.1) que les suites ((X
n
)
i
(X
n
)
j
)
nN
et ((X
n+1
)
i
(X
n
)
i
)
nN
, couplent en temps ni avec des suites stationnaires, qui
ne dependent pas de la condition initiale X
0
, sous trois hypoth`eses : une hypoth`ese
sur les exposants de Lyapunov maximum des blocs diagonaux, une hypoth`ese de
couplage relative `a certains blocs (determines par la place des ), et une hy-
poth`ese sur la loi de A(n) (Les A(n) sont i.i.d. ou ont la propriete de structure
xe). Remarquons que, contrairement au premier ordre, ni condition sur les
ni ergodicite renforcee ne sont necessaires.
Nous etendons ainsi les resultats du deuxi`eme ordre de [Bac92]. Les resultats
de la partie 2.3 permettent encore de simplier la redaction et detendre la portee
des preuves.
75
76 CHAP. 3 MATRICES DANS (R, max, +) : ORDRE 2
3.2 Perte de memoire
Remarque 3.2.1. Il sut de sinteresser aux quantites x
i
(n, x
0
) x
j
(n, x
0
). En
eet on a la relation :
x
i
(n + 1, x
0
) x
j
(n, x
0
) =

l
(A
il
(n, x
0
) + x
l
(n, x
0
)) x
j
(n, x
0
) (3.1)
=

l
(A
il
(n) + (x
l
(n, x
0
) x
j
(n, x
0
))), (3.2)
ce qui permettra de deduire la convergence des (x
i
(n, x
0
) x
j
(n, x
0
)))
nN
de
la convergence des (x
i
(n + 1) x
j
(n))
nN
.
On va donc travailler dans lespace projectif au sens (max,+).
On pourra utiliser lanalogie avec lespace projectif classique et rechercher des
contractions de cet espace. La convergence de x(n, x
0
) dans cet espace assurera la
convergence des dierences (x
i
(n, x
0
) x
j
(n, x
0
))
nN
et, grace `a la remarque 3.2.1,
celle des (x
i
(n + 1) x
j
(n))
nN
.
Dire que x(n, x
0
) ne depend pas de la condition initiale x
0
, cest dire que A
n
a pour image une droite de R
k
max
. Par analogie avec lalg`ebre lineaire on dit que
A
n
est de rang 1 :
Denition 3.2.1 (Perte de memoire).
1. On dit quune application topicale B Top
d
est de rang 1 si B denit sur
PR
d
max
une application constante. On note alors rg(B) = 1.
2. On dit quune suite (A(n))
nN
dapplications topicales aleatoires a la pro-
priete de perte de memoire (MLP) sil existe un N N tel que
P
_
rg(A
N
) = 1
_
> 0.
Si la suite est (A
n
)
nN
, on dira que (A, ) a la MLP.
Remarques 3.2.2.
1. Si la notion de rang 1 est claire, la notion de dimension dans toute sa
generalite ne se transpose pas bien (cf [CG79] et [Wag91]).
2. La matrice A R
dd
max
sans ligne de est donc de rang 1 si toutes ses
colonnes sont proportionnelles au sens de R
d
max
. Cest le cas si et seulement
sil existe a R
d
et b R
d
max
tels que pour tout (i, j) I
2
k
A
ij
= a
i
+ b
j
.
3. La composee dune application topicale de rang 1 et dune autre application
topicale est de rang 1.
4. Si B est une matrice de rang 1, alors pour toute matrice C de taille com-
patible sans ligne de , rg(BC) = 1 ou rg(CB) = 1.
3.2. PERTE DE M

EMOIRE 77
5. La propriete MLP depend de la loi de A(1) et non de son seul support :
si (U(n))
nN
est une suite de variables reelles i.i.d. telles que le support de
U(1) soit lintervalle [0, 1], et si pour tout n N, A(n) est denie par
A(n) =
_
U(n) 0
0 U(n)
_
,
alors (A(n))
nN
a la propriete MLP ssi P(U(n) = 0) > 0.
La condition plus faible il existe une application de rang 1 dans le semi-
groupe engendre par le support de la loi de A(1) est introduit sous le non
de perte de memoire asymptotique dans la partie 3.3 .
On peut enn enoncer le theor`eme suivant :
Theor`eme 3.2.2 ([Mai97]). Soit (, , P) un s.d.m. ergodique et inversible, et
A une variable aleatoire de dans Top
d
. Si (A, ) a la MLP, alors il existe une
variable aleatoire Y `a valeurs dans PR
d
max
telle quon ait :
Y = AY P p.s. (3.3)
et (x(n, x
0
))
nN
couple avec (Y
n
)
nN
en temps ni, uniformement en x
0
.
Nous reprenons infra la preuve de [Mai97] en remplacant simplement les ma-
trices dans (max, +) par des applications topicales.
Corollaire 3.2.3. Sous les memes hypoth`eses, il existe une variable aleatoire Z `a
valeurs dans R
d
2
telle que pour tout i, j I
d
, la suite (x
i
(n + 1, x
0
) x
j
(n, x
0
))
nN
couple avec la suite (Z
ij

n
)
nN
en temps ni, uniformement en x
0
.
Demonstration. Dapr`es la remarque 3.2.1, il sut de poser Z
ij
=

k
(A
ik
+Y
kj
),
o` u Y
kj
= y
k
y
j
si Y = y.
Corollaire 3.2.4. Soit (, , P) un s.d.m. ergodique, et A : R
dd
max
une
matrice aleatoire veriant la condition T. Si (A, ) a la propriete MLP, alors
x(n, x
0
) converge en variation totale uniformement en x
0
vers une probabilite ne
dependant pas de x
0
.
Demonstration. Construisons dabord Y . Par denition de la propriete MLP, il
existe n
0
N tel que P(rg (A
n
0
) = 1) > 0. Posons
B := [n rg(A(1) A(n)) = 1 .
Dapr`es la remarque sur les matrices de rang 1, on verie que
(B) = [n rg(A(2) A(n 1)) = 1
[n rg(A(1) A(n 1)) = 1
B.
78 CHAP. 3 MATRICES DANS (R, max, +) : ORDRE 2
Comme le s.d.m. est ergodique, P(B) est 0 ou 1. Or
P(B) P( [rg(A(1) A(n
0
)) = 1 = P( [rg(A
n
0
) = 1 > 0,
donc P(B) = 1.
On pose alors N() := min n N[rg(A(1) A(n)) = 1 et,
B, Y () := A(1) A(N())
.1
. (3.4)
Hors de B on xe Y arbitrairement.
Montrons que Y verie les proprietes souhaitees.
Par denition de N(), A(1) A(N()) est de rang 1, donc Y () =
(A(1) A(N())x
0
pour tout x
0
. En particulier, on a :
n N(), Y () = (A(1) A(n)
.1
.
En remplacant par (), on obtient que Y (()) = (A(0) A(n))
.1
pour
tout n N(()) 1. En prenant n max(N(), N(() 1), on en deduit
que :
Y = AY p.s. .
Remarquons que grace `a la relation Y = AY il sut davoir la relation
x(n, x
0
) = Y
n
pour n = n
0
pour lavoir pour tout n n
0
. En particulier pour
tout n N, x(n, Y ) = Y
n
p.s. .
Posons ( := [n N, rg(A(n) A(0)) = 1. Dapr`es la remarque sur
les matrices de rang 1, on a :

1
(() = [n N, rg(A(1) A(n + 1)) = 1
[n N, rg(A(0) A(n + 1)) = 1
(.
Or P(() P( [rg(A
n
0
) = 1 > 0, donc par lergodicite de , P(() = 1.
De rg(A
n
) = 1, on deduit x(n, x
0
) = x(n, Y ) = Y
n
, donc sur ( B, les
suites (x(n, x
0
))
nN
et (Y
n
)
nN
concident `a partir dun certain rang.
Le theor`eme 3.2.2 admet la reciproque suivante :
Theor`eme 3.2.5. ([Mai97, 7.5]) Soit (, , P) un s.d.m., A une application alea-
toire `a valeurs dans Top
d
veriant la condition T. Sil existe un Y veriant les
conclusions du theor`eme 3.2.2, alors la suite (A(n))
nN
a la propriete de perte de
memoire.
Remarque 3.2.3. Lhypoth`ese duniformite en x
0
de la convergence est cruciale,
comme le montre le cas des matrices reductibles. En eet les resultats de la
partie 3.4 donnent des exemples de suites nayant pas la MLP (`a cause de blocs
de presque s urs) telles que (x(n, x
0
))
nN
couple en temps ni avec un unique
regime stationnaire.
3.3. PERTE DE M

EMOIRE
`
A LINFINI 79
Demonstration. Si Y
n
= x(n, x
0
) = A
n
x
0
pour tout x
0
R
k
, alors rg(A
n
) = 1.
Donc on a :
P(
nN
[rg(A
n
) = 1) = 1
et il existe n
0
tel que P( [rg(A
n
0
) = 1) > 0.
Remarque 3.2.4. On denit Y comme une limite (atteinte) de produits `a droite,
ce qui ouvre la voie `a la generalisation au cas ou la limite nest pas atteinte. Cest
lobjet de la partie suivante.
3.3 Perte de memoire `a linni
Pour enoncer la CNS de convergence, on a besoin de denir les matrices quon
peut approcher par des produits A
n
(). Pour des raisons techniques, on consid`ere
les matrices dans PR
dd
max
. Cette partie pourait aussi setendre au cas dapplications
topicales. Mais pour cela, il faudrait munir Top
d
de la topologie de la convergence
uniforme, ce qui nest pas naturel, comme nous le montre la proposition 3.3.9 .
Comme les resultats de cette partie ne sont pas reutilises dans la suite, on se
contente du cas des matrices et on reprend tels quels certains resultats de [Mai97].
Denition 3.3.1 (Perte de memoire `a linni). On appelle matrices limites
`a gauche (resp. `a droite) les elements de lensemble T
g
(resp. T
d
) deni comme
suit :
T
g
:=
_
B R
dd
max
[ > 0, n N P((A
n
, B) < ) > 0
_
T
d
:=
_
B R
dd
max
[ > 0, n N P((A(1) A(n), B) < ) > 0
_
o` u est la distance projective sur R
dd
max
.
On dit quune suite de matrice a la propriete de perte de memoire asymp-
totique `a gauche (resp. `a droite) notee PMAG (resp. PMAD) si T
g
(resp. T
d
)
contient un element de rang 1.
Remarque 3.3.1. Si les A(n) sont i.i.d., alors T
g
= T
d
contient le sous semigroupe
ferme engendre par le support de la loi de A(1).
Theor`eme 3.3.2 ([Mai97]).
i) Soit (, , P) un s.d.m. ergodique et A : R
dd
max
une matrice alea-
toire veriant la condition T et la PMAD. Alors, presque s urement, la suite
(y(n, x
0
))
nN
converge uniformement en x
0
vers une limite ne dependant pas
de x
0
.
ii) Soit (, , P) un s.d.m. ergodique inversible et A : R
dd
max
une matrice
aleatoire veriant la condition T et la PMAG. Alors la suite (x(n, x
0
))
nN
couple uniformement en x
0
avec une suite stationnaire ne dependant pas de
x
0
.
80 CHAP. 3 MATRICES DANS (R, max, +) : ORDRE 2
Corollaire 3.3.3. Soit (, , P) un s.d.m. ergodique et A : R
dd
max
une ma-
trice aleatoire veriant la condition T et la PMAG. Alors (x(n, x
0
))
n
i
nN
converge
faiblement, uniformement en x
0
.
La demonstration utilise les resultats suivants sur le diam`etre projectif :
Proposition 3.3.4.
1. Pour toute matrice A R
dd
max
, D(A) = 0 ssi rg(A) = 1.
2. Pour toute matrice A R
dd
max
, D(A) =

i,j
(A
.i
, A
.j
).
3. Donc D(A) < ssi les vecteurs colonnes de A appartiennent `a R
d
()
d
.
4. Si tous les coecients de A sont nis, alors D(A) 2[A[
1
.
5. Pour toutes matrices A et B de tailles compatibles sans ligne de , lin-
clusion des images prouve que
D(AB) D(A).
Comme les matrices sont 1-lipschitziennes sur lespace projectif, on a aussi,
si A na pas de ligne de
D(AB) D(B).
Demonstration du theor`eme 3.3.2.
i) Montrons que D(A(1) A(n)) 0 p.s. . Cela conclura la demonstration
car :
(y(n, x
0
), y(n+m, x
0
)) = ((y(n, x
0
), y(n, y(m, x
0
)
n
)) D(A(1) A(n)),
donc y(n, x
0
)) sera une suite de Cauchy, uniformement en x
0
.
(y(n, x
0
), y(n, x
1
)) D(A(1) A(n)), donc la limite ne dependra pas
de x
0
.
Notons que la suite (D(A(1) A(n)))
nN
est presque s urement decrois-
sante : cela resulte de la condition T et de la proposition 3.3.4 .
Soit > 0. Dapr`es la PMAG, il existe une matrice M de rang 1 et un
i N tel que P((A(1) A(i), B) < ) > 0. Alors par lergodicite de et la
proposition 3.3.4, levenement
/ := [N N, (A(N) A(N + i), B) < )
est de probabilite 1. Or, si (B, M) , on a :
D(B) = sup
u,v
(Bv, Bu)
sup
v
(Bv, Mv) + D(M) + sup
u
(Mu, Bu)
(B, M) + 0 +(M, B)
2.
3.3. PERTE DE M

EMOIRE
`
A LINFINI 81
Donc, pour tout /, il existe un N (dependant de ) tel quon ait :
D(A(1) A(N + i)) D(A(N) A(N + i)) 2.
Donc la probabilite de levenement
[n, D(A(1) A(n)) 2
est de probabilite 1.
Comme D(A(1) A(n)) est une suite decroissante, levenement
[D(A(1) A(n) 0 =

k
_

n, D(A(1) A(n))
1
k + 1
_
est de probabilite 1.
ii) La suite stationnaire est (Y
n
)
nN
, o` u Y est obtenu en appliquant le i) `a
(,
1
, A). Cest possible car lensemble T
d
associe `a A et
1
est exactement
lensemble T
g
associe `a A et . On remarque alors que Y verie Y = AY
et par recurrence, Y
n
= A
n
Y = x(n, Y ).
On a montre au i), que D(A(1) A(n)) 0 p.s. . La convergence a aussi
lieu en probabilite et comme P(D(A
n
) ) = P(D(A(1) A(n)) ,
la suite (D(A
n
))
nN
tend vers 0 en probabilite.
Dapr`es la proposition 3.3.4, D(A
n
) = D(A(n) A(0)) est une suite decrois-
sante, donc elle converge presque s urement. Sa limite ne peut etre que 0.
On conclut la demonstration en notant que
(x(n, x
0
), Y
n
) = (A
n
x
0
, A
n
Y ) D(A
n
).
La remarque 3.2.1 permet den deduire que :
Corollaire 3.3.5. Soit (, , P) un s.d.m. ergodique inversible et A : R
dd
max
une matrice aleatoire veriant la condition T. Si (A, ) a la PMAG, alors il
existe une variable aleatoire Z : R
dd
telle que pour tout i, j I
d
la suite
([x(n + 1, x
0
)
i
x(n, x
0
)
j
Z
ij

n
[)
nN
tende presque s urement vers 0, unifor-
mement en x
0
. En particulier la suite (x(n + 1, x
0
)
i
x(n, x
0
)
j
)
nN
converge fai-
blement vers une loi ne dependant pas de x
0
.
Demonstration. On pose Z
ij
=

k
(A
ik
+ Y
kj
) et on conclut comme pour 3.2.3 .
La convergence en loi se deduit alors du lemme suivant, qui generalise lim-
plication classique de la convergence en loi par la convergence en probabilite.
82 CHAP. 3 MATRICES DANS (R, max, +) : ORDRE 2
Lemme 3.3.6. Soit (, , P) un s.d.m. et (E, ) un espace polonais. Soient X
n
et Y des variables aleatoires `a valeurs dans E. Alors si (X
n
)
nN
et (Y
n
)
nN
couplent, alors (X
n
)
nN
tend vers Y en loi.
Demonstration. Soit f (
b
(E) et soit > 0. Comme E est polonais, il existe un
compact K de E tel que P(Y / K) <

|f|
. La compacite de K assure alors quil
existe un > 0 tel que
x K, y E, (x, y) [f(x) f(y)[ .
On decompose alors la dierence des esperances ainsi :
[E(f(X
n
)) E(f(Y ))[ = [E(f(X
n
)) E(f(Y
n
))[
2|f|

P(Y
n
/ K) + 2|f|

P((X
n
, Y
n
) ) +
3 + 2|f|

P((X
n
, Y
n
) )
Le second terme tend vers 0 quand n tend vers linni, donc pour n assez grand,
[E(f(X
n
))E(f(Y ))[
t
. Donc E(f(X
n
)) E(f(Y )) pour tout f (
b
(E).
La condition du theor`eme 3.3.2 est necessaire comme le montrent les resultats
suivants :
Theor`eme 3.3.7 ([Mai97]).
i) Soit (, , P) un s.d.m. et A : R
dd
max
une matrice aleatoire. On suppose
que la suite (y(n, x
0
))
nN
converge presque s urement, uniformement en x
0
,
vers une limite ne dependant pas de x
0
. Alors la suite (A(n))
nN
a la PMAD.
ii) Soit (, , P) un s.d.m. inversible et A : R
dd
max
une matrice aleatoire
veriant la condition T. On suppose quil existe Y : P(R
k
max
) telle que
la suite ( (x(n, x
0
), Y
n
))
nN
converge presque s urement vers 0, uniforme-
ment en x
0
. Alors la suite (A(n))
nN
a la PMAG.
Jean Mairesse montre aussi le resultat suivant, qui dit que la condition duni-
formite en la condition initiale est automatiquement veriee dans le cas o` u il ny
a pas trop de :
Lemme 3.3.8 ([Mai97]). Soit (, , P) un s.d.m. ergodique inversible et A :
R
dd
max
une matrice aleatoire veriant la condition T. On suppose quil
existe un n
0
N tel que P(A
n
0
R
dd
) > 0 et que pour tout x
0
, x
1
R
d
,
(x(n, x
0
), x(n, x
1
)) 0 en probabilite. Alors il existe une variable aleatoire
Y : PR
d
max
) telle que la suite ( (x(n, x
0
)), Y
n
))
nN
converge presque
s urement vers 0, uniformement en x
0
.
Remarque 3.3.2. Lhypoth`ese P(A
n
0
R
dd
) > 0 est cruciale, comme le montre
le cas des matrices reductibles. En eet les resultats de la partie 3.4 donnent des
exemples de suites nayant pas la PMAG (`a cause de blocs de presque s urs)
telles que (x(n, x
0
))
nN
couple en temps ni avec un unique regime stationnaire.
De tels exemples sont donnes dans la partie 8 de [Mai97]
3.3. PERTE DE M

EMOIRE
`
A LINFINI 83
Concluons cette partie par une remarque sur lextension de la perte de me-
moire asymptotique au cas topical. Pour refaire la demonstration du theor`eme 3.3.2,
il faudrait avoir une application de rang 1 approchee en norme uniforme. Mais
la norme uniforme nest pas adaptee pour travailler dans Top
d
, comme le montre
la proposition suivante. En particulier, cette proposition implique que le support
dune probabilite sur (Top
d
, |.|

) nest pas deni.


Proposition 3.3.9.
i) Pour tout d N, lespace Top
d
muni de la distance de la convergence uni-
forme sur tout compact est un espace -compact, donc en particulier un
espace polonais.
ii) Pour tout d 2, lespace Top
d
muni de la distance de la convergence uni-
forme nest pas separable.
Notons que T. Bousch et J. Mairesse on introduit dans [BM03] lespace des
fonctions uniformement topicales, qui est un espace polonais pour la convergence
uniforme contenant strictement les applications (max, +). Dans cet espace, on
pourait retrouver un analogue du theor`eme 3.3.2.
Demonstration.
i) Pour tout N N, soit K
N
:= f Top
d
[|f(0)|

N. Comme les fonc-


tions topicales sont 1-lipschitziennes, les fonctions de K
N
sont uniformement
bornees sur toute boule B(0, M) de R
d
:
f K
N
, |f
[B(0,M)
|

M + N.
Par le theor`eme dAscoli, et une extraction diagonale, on en deduit que K
N
est compact pour la topologie de la convergence uniforme sur tout compact.
ii) Pour tout reel [0, 1], denissons la fonction f

par :
(f

(x
1
, , x
d
))
i
= x
1
+ (1 )x
2
.
Une telle fonction est bien croissante et additivement homog`ene et elle ve-
rie (f

(x, 0, , 0))
i
= x. Par consequent, f

[0,1]
est une famille non-
denombrable de Top
d
, tels que si ,= , on ait
|f

= +.
Ceci contredit leventuelle separabilite de (Top
d
, |.|

).
84 CHAP. 3 MATRICES DANS (R, max, +) : ORDRE 2
3.4 Matrices reductibles
3.4.1 Resultats
Theor`eme 3.4.1. Soit (, , P) un s.d.m. ergodique inversible, et A :
R
dd
max
une matrice aleatoire veriant la condition T telle que (max
i,j
A
ij
)
+
soit
integrable. Soit E lunion de toutes les composantes terminales de ((A),

A =
(A
ij
)
i,jE
et ( x(n, x
0
))
nN
la suite recurrente stochastique associee `a

A. On fait
les trois hypoth`eses suivantes.
1. Les A(n) sont i.i.d., ou A a la propriete de structure xe.
2. Les composantes dominantes de ((A) sont exactement ses composantes ter-
minales.
3. La suite
_
x(n, X
E
0
)
_
nN
couple en temps ni avec une suite stationnaire ne
dependant pas de X
0
.
Alors (x(n, X
0
))
nN
couple en temps ni avec une suite stationnaire ne dependant
pas de X
0
.
Remarques 3.4.1.
1. Lhypoth`ese 3 est evidemment necessaire. Elle implique que pour toutes les
composantes terminales c
k
,
(k)
= (A). La suite deterministe o` u pour tout
n et tout ,
A(n) =
_
_
_
_
0 0 0 0
0 0 0 0
2
1
_
_
_
_
verie les hypoth`eses 1 (dans ses deux versions) et 2, mais pas la 3.
2. Lhypoth`ese 2 est presque necessaire. En eet, elle sexprime par lequation
suivante :
j, l I
K
, (j l,
(j)

(l)
) j = l.
Or, sil existe j l tel que
(j)
>
(l)
, alors dapr`es le corollaire 2.4.5,
_
max
iF
j
x
i
(n,

0 ) max
iF
l
x
i
(n,

0 )
_
+ p.s. ,
ce qui interdit le couplage de (x(n, X
0
))
nN
.
Ainsi lexemple 3 infra montre que les hypoth`eses 2 et 3 ne susent pas.
3. La suite deterministe o` u pour tout n et tout ,
A(n) =
_
_
_
_
0 0 0 0
0 0 0 0
2 0
1
_
_
_
_
montre que les hypoth`eses 1 et 3 ne susent pas.
3.4. MATRICES R

EDUCTIBLES 85
La preuve se ram`ene `a une recurrence dont le coeur est le theor`eme suivant :
Theor`eme 3.4.2. Soit (I, J) une partition de I
d
, telle que la matrice aleatoire
A, qui verie la condition T, se decompose en blocs suivant I et J de la mani`ere
suivante :
A = :
_
B D
C
_
, (3.5)
avec D non identiquement egal `a ()
IJ
.
On fait les trois hypoth`eses suivantes :
1. i I, P
_
n N
_
B(1) B(n)D(n 1)

0
_
i
=
_
= 0.
2. (B, ) < (C, ).
3.
_
x
J
(n, X
0
)
_
nN
couple en temps ni avec une suite -stationaire ne depen-
dant pas de X
0
.
Alors la suite (x (n, X
0
))
nN
couple aussi en temps ni avec une suite -
stationnaire ne dependant pas de X
0
.
Remarque 3.4.2. Dapr`es la remarque 2.3.1, le theor`eme 2.3.1 est un cas particulier
du theor`eme 3.4.2, correspondant au cas o` u C = 0. On utilise ce cas particulier
pour demontrer le theor`eme general.
Grace `a cette methode, rendue possible grace `a lintroduction dapplications
topicales etendues dans le theor`eme 2.3.1, on obtient les theor`emes 3.4.2 et 3.4.1
sans les hypoth`eses de precedence et de positivite de [Bac92].
Pour conclure lexpose des resultats, donnons un exemple o` u le couplage na
pas lieu alors que deux des trois hypoth`eses du theor`eme 3.4.1 sont veriees.
Exemple 3 (Hypoth`eses 2 et 3). Soient =
0
,
1
, lapplication qui echange

0
et
1
et P =
1
2
(

0
+

1
). Soit A, de dans R
33
max
denie par :
A(
0
) =
_
_
0 0
0
1
_
_
et A(
1
) =
_
_
0
0
1
_
_
.
On verie que (, , P) est un syst`eme dynamique. La suite est une chane de
Markov degeneree : A
n
= A(
0
) A
n+1
= A(
1
).
Or laction de A(
0
) et A(
1
) sur un triplet
t
(x, y, z) tel que z max(x, y)
est donnee par les equations suivantes :
A(
0
)
t
(x, y, z) =
t
(z, x, z + 1) et A(
1
)
t
(x, y, z) =
t
(y, x, z + 1) .
Donc la suite est enti`erement determinee par les equations suivantes :
x(2n,

0 )(
0
) =
t
(0, 2n 2, 2n) et x(2n + 1,

0 )(
0
) =
t
(2n, 0, 2n + 1)
x(2n,

0 )(
1
) =
t
(2n 1, 0, 2n) et x(2n + 1,

0 )(
0
) =
t
(0, 2n 1, 2n + 1).
(3.6)
86 CHAP. 3 MATRICES DANS (R, max, +) : ORDRE 2
Donc la suite
_
1
n
x(n,

0 )
_
nN
ne converge presque s urement pas. En particulier,
_
x(n,

0 )
_
nN
ne couple pas avec une suite stationnaire nie.
Le graphe de A a deux composantes c
1
= 1, 2 et c
2
= 3 telles que 1
2,
(1)
= 0 et
(2)
= 1. Donc c
2
est lunique composante dominante, et elle
est terminale. Avec les notations du theor`eme 3.4.1, E = 3, donc la suite
_
x (n, X
0
)
_
nN
est `a valeurs dans le singleton PR
1
max
, en particulier elle couple en
temps ni avec une unique suite stationnaire.
3.4.2 Demonstrations
On commence par un lemme qui servira dans la demonstration du theo-
r`eme 3.4.2 . Ensuite, on demontre ce theor`eme, et enn le theor`eme 3.4.1 .
Lemme 3.4.3.
1. Soient (a
n
)
nN
, (b
n
)
nN
, (c
n
)
nN
et (d
n
)
nN
des suites de variables aleatoires
`a valeurs dans R
max
, veriant les conditions suivantes :
i) (d
n
)
nN
est stationaire,
ii) P(d
n
R) = 1,
iii) lim
n+
a
n
= ,
Alors on a :
lim
n+
P(a
n
d
n
) = 0. (3.7)
2. Si les conditions suivantes sont aussi satisfaites,
iv) lim
n+
c
n
= ,
v) lim
n+
P(a
n
b
n
,= d
n
) = 0,
alors on a aussi :
lim
n+
P(c
n
b
n
,= d
n
) = 0. (3.8)
Demonstration.
1. Pour tout t R, on a :
P(a
n
d
n
) P(a
n
t) +P(t d
n
).
Or dapr`es iii), limsup
n+
P(a
n
t) = 0, et dapr`es i), pour tout n N,
P(t d
n
) = P(t d
1
), on a donc
limsup
n+
P(a
n
d
n
) P(t d
1
).
Or le ii) assure que lim
t
P(t d
1
) = 0, donc (3.7) est demontre.
3.4. MATRICES R

EDUCTIBLES 87
2. En reapliquant le 1. avec (c
n
)
nN
au lieu de (a
n
)
nN
, on obtient
lim
n+
P(c
n
d
n
) = 0. (3.9)
Or P(b
n
,= d
n
) P(a
n
= d
n
) + P(a
n
b
n
,= d
n
), donc dapr`es (3.7) et ii),
on a :
lim
n+
P(b
n
,= d
n
) = 0. (3.10)
En combinant (3.9) , (3.10) et linegalite
P(c
n
b
n
,= d
n
) P(b
n
,= d
n
) +P(c
n
> d
n
),
on ach`eve la preuve du lemme.
Demonstration du theor`eme 3.4.2.
Recurrence ane :
On denit la suite (Z
n
)
nN
`a valeurs dans R
IJ
max
par
(Z
n
)
ij
:= x
i
(n, X
0
) x
j
(n, X
0
). (3.11)
On repart de lexpression (2.22), et on calcule que Z
n
verie la relation
Z
n+1
= F(n)Z
n
G(n), (3.12)
o` u F(n) et G(n) sont lapplication topicale etendue aleatoire de R
IJ
max
dans lui
meme et le vecteur aleatoire `a valeurs dans R
IJ
max
denis par :
x R
IJ
, (F(n)x)
ij
= max
kI
min
lJ
(B(n)
ik
C(n)
jl
+ x
kl
)
(G(n))
ij
= max
kJ
min
lJ
(D(n)
ik
C(n)
jl
+ x
k
(n, X
0
) x
l
(n, X
0
)) .
Lapplication F(n) est bien `a valeurs dans R
IJ
max
car C verie la condition T. Elle
est clairement dans Tope
#I#J
.
Avant toute chose, calculons (F(n) F(1)x)
ij
, quand il existe un vecteur
y R
d
, tel que (i, j) I J, x
ij
= y
i
y
j
. Comme F(n) ne depend que de
B(n) et C(n), on peut supposer que D = ()
IJ
p.s. et X
0
= y p.s. Dans ce
cas G(n) = ()
IJ
p.s., donc Z
n
= F(n 1) F(1)Z
0
. En outre Z
0
= x et
(Z
n
)
ij
= x
i
(n, y) x
j
(n, y) = (B(n 1) B(0)y)
i
(C(n 1) C(0)y)
j
. On
a donc montre que pour tout y R
d
, x deni par (i, j) I J, x
ij
= y
i
y
j
,
satisfait :
(F(n) F(1)x)
ij
= (B(n 1) B(0)y)
i
(C(n 1) C(0)y)
j
p.s. . (3.13)
88 CHAP. 3 MATRICES DANS (R, max, +) : ORDRE 2
Cas
_
x
J
(n, X
0
)
_
nN
stationnaire :
Supposons maintenant que X
0
est choisi de telle mani`ere que la suite
_
x
J
(n, X
0
)
_
nN
soit -stationnaire. Cest possible dapr`es lhypoth`ese 3.. Alors la suite ((F(n), G(n)))
nN
est aussi -stationnaire, car G(n) est une fonction de A(n) et x
J
(n, X
0
).
On peut donc appliquer le theor`eme 2.3.1, `a condition de prouver que
_
(F(n)))
nN
_
< 0.
Mais dapr`es la relation 3.13,
_
F(n) F(1)

0
_
ij
=
_
B(n) B(1)

0
_
i

_
C(n) C(1)

0
_
j
,
donc
_
(F(n))
nN
_
(B, )
b
(C, ). Dapr`es lhypoth`ese 3,
b
(C, ) = (C, ),
et dapr`es lhypoth`ese 2 (C, ) < (B, ), donc
_
(F(n)))
nN
_
est bien stricte-
ment negatif.
Dire que (M

)
ij
= , cest dire que pour tout n N,
(F(1) F(n)G(n 1))
ij
= .
On pose y
I
= D(n 1)X
J
0

n1
et y
j
= C(n 1)X
J
0

n1
. Dapr`es
lequation 3.13 composee par
n1
, on a :
(F(1) F(n)G(n 1))
ij
=
_
B(1) B(n)D(n 1)X
J
0

n1
_
i

_
C(1) C(n)C(n 1)X
J
0

n1
_
j
.
Or, comme C satisfait la condition T, C(1) C(n)C(n1)X
J
0

n1

R
J
, donc (M

)
ij
= ssi pour tout n N,
_
B(1) B(n)D(n 1)X
J
0

n1
_
i
= .
Comme cette derni`ere condition ne depend que de la place des dans les
dierents termes, lhypoth`ese 3 assure que M

est ni presque s urement. Alors


le theor`eme 2.3.1 prouve que (Z
n
)
nN
couple en temps ni avec un regime sta-
tionnaire, note (d
n
)
nN
.
Cas general : Si
_
x
J
(n, X
0
)
_
nN
nest pas -stationnaire, on note N le temps
darret `a partir duquel x
J
(n, X
0
) concide avec la suite stationnaire. Pour tout
n N, on pose :
a
n
= F(n 1) F(1)G(0) F(n 1) F(N)G(N 1)
F(n 1) F(0)Z(0)
b
n
= F(n 1) F(N + 1)G(N) F(n 1)G(n 2) G(n 1)
et (c
n
)
nN
la suite obtenue comme (a
n
)
nN
, quand la condition initiale est telle
que
_
x
J
(n, X
0
)
_
nN
est -stationnaire.
3.4. MATRICES R

EDUCTIBLES 89
Comme ((F(n))
nN
) < 0, lim
n
a
n
= lim
n
c
n
= et dapr`es lequa-
tion (2.12), Z
n
= a
n
b
n
donc dapr`es le lemme 3.4.3, le couplage avec (d
n
)
nN
a
lieu pour toute condition initiale.
Or dire que (Z
n
)
nN
et
_
x
J
(n, X
0
)
_
nN
couplent en temps ni simultanement
avec un regime stationnaire, cest dire que (x(n, X
0
))
nN
couple en temps ni avec
un regime stationnaire.
Demonstration du theor`eme 3.4.1. On fait une recurrence sur le nombre K de
composantes de ((A).
Si K = 1, il ny a rien `a montrer.
Supposons donc que le resultat est demontre pour K1 composantes, et que
((A) a K composantes. Quitte `a permuter lordre des coordonnees, on peut sup-
poser que les premi`eres coordonnees correspondent `a une composante initiale de
((A), eventuellement triviale, notee I. Soit J = I
d
I. Alors A se decompose selon
lequation (2.22), avec ((B) fortement connexe et ((C) qui a K1 composantes
fortement connexes.
Comme on na enleve quune composante initiale, les composantes terminales
de ((C) sont celles de ((A) et elles sont encore dominantes en tant que compo-
santes de ((C). Comme C verie aussi T et i) et comme ((C) a K1 composantes
fortement connexes, lhypoth`ese de recurrence appliquee `a la matrice aleatoire C
assure le couplage en temps ni de
_
x
J
(n, X
0
)
_
nN
.
Comme J contient une composante terminale, J E ,= ,
_
x
J
(n, X
0
)
_
nN
et
_
x
E
(n, X
0
)
_
nN
couplent en temps ni avec une suite stationnaire ne dependant
pas de X
0
, ce qui implique que
_
x
EJ
(n, X
0
)
_
nN
couple en temps ni avec une
suite stationnaire ne dependant pas de X
0
.
Si D est presque s urement ()
IJ
, alors I est terminale, donc E J = I
d
,
ce qui conclut la preuve de lheredite dans ce cas.
Si B = , alors D a la propriete T et x(n +1, X
0
) est limage de x
J
(n, X
0
)
par une application topicale qui ne depend que de A(n), ce qui conclut aussi la
preuve de lheredite dans ce cas.
On suppose donc desormais que ((B) est fortement connexe et que P
_
D ,= ()
IJ
_
> 0.
Montrons qualors les hypoth`eses du theor`eme 3.4.2 sont veriees :
1. La condition 1. resulte du lemme 2.4.13 dans le cas i.i.d. et de lirreductibilite
de ((B) dans le cas SF.
2. Comme D nest pas presque s urement ()
IJ
, I nest pas terminale et il
existe une composante terminale c
l
J accessible depuis I. Par lhypoth`ese
2, (B, ) <
(l)
, et dapr`es le theor`eme 2.4.4, (C, )
(l)
. Donc (B, ) <
(C, ).
3. La condition 3. a dej`a ete veriee.
90 CHAP. 3 MATRICES DANS (R, max, +) : ORDRE 2
Le theor`eme 3.4.2 permet donc de conclure la demonstration de lheredite de la
propriete, et avec elle la demonstration du theor`eme.
Chapitre 4
Genericite de la propriete de
perte de memoire
4.1 Presentation et resume
4.1.1 Resultats
Rappelons le resultat de J. Mairesse (theor`eme 3.2) : si la suite (A(n))
nN
a
la propriete de perte de memoire (MLP), alors il existe une variable aleatoire Y
`a valeurs dans PR
d
max
telle que (x(n, x
0
))
nN
couple avec (Y
n
)
nN
.
Par analogie avec le cas des produits usuels de matrices, on peut se poser
les questions suivantes : Quelle est la loi de Y ? Peut on prouver un TCL? La
condition de perte de memoire est-elle generique ?
La premi`ere question nest pas traitee dans ce travail, la deuxi`eme fait lobjet
de la partie 5, enn la troisi`eme est le sujet de ce chapitre. Son interet est accru
par le fait quon montre au chapitre 5 que si (A(n))
nN
a la MLP et satisfait des
conditions dintegrabilite susantes, alors (x(n, X
0
))
nN
verie des theor`emes
limites. En outre S. Gaubert et D. Hong ont montre le resultat suivant :
Theor`eme 4.1.1 ([GH00]). Soit (A
1
, , A
t
) un t-uplet dapplications topi-
cales. Pour tout vecteur de probabilite p R
t
, on appelle (A
p
(n))
nN
la suite
i.i.d. dapplications aleatoires telle que
i I
t
, P(A
p
(1) = A
i
) = p
i
et L(p) lexposant de Lyapunov associe `a la suite (A
p
(n))
nN
.
Soit T lensemble des p tels que i I
t
, p
i
> 0. Sil existe un p T tel que
la suite (A
p
(n))
nN
ait la MLP, alors pour tout p T la suite (A
p
(n))
nN
a la
MLP.
Dans ce cas, L est une fonction analytique de p sur T.
Comme on sinteresse `a des matrices aleatoires avec la condition T, on regarde
les matrices sans lignes de . On note /
d
lensemble des matrices de R
dd
max
91
92 CHAP. 4 PERTE DE M

EMOIRE
sans ligne de et T
d
lensemble des matrices A dites primitives, cest-`a-dire
telles quil existe un n N tel que les coecients de A
n
soient tous nis.
Nous denissons des notions de formes lineaires et dhyperplans sur ces espaces
qui etendent celles sur R
dd
.
Denition 4.1.2 (Hyperplans). Soit k N

.
`
A tout vecteur R
k
, on associe
lapplication f

de R
k
max
dans R
max
denie par
_
_
_
f

(V ) =

i
,=0

i
V
i
si pour tout i I
k
,
i
,= 0 V
i
R,
f

(A) = sinon.
(4.1)
On appelle forme lineaire sur R
k
max
une telle fonction. On appelle hyperplan (resp.
hyperplan ane) de R
k
max
lensemble des zeros (resp. une ligne de niveau de niveau
ni) dune forme lineaire non nulle sur R
k
max
.
On appelle hyperplan de /
d
(resp. T
d
) lintersection de /
d
(resp. T
d
) et
dun hyperplan de R
dd
max
.
On appelle hyperplan de T
d
/
d
lintersection de T
d
/
d
dun hyperplan
de
_
R
dd
max
_
2
.
Pour tout i, j I
d
, on note A

ij
lapplication qui `a A associe A
ij
. Les formes
lineaires sur /
d
se decomposent de mani`ere unique en une combinaison lineaire
nie de A

ij
.
Nous obtenons les resultats suivants :
Theor`eme 4.1.3. Pour tout entier d 1, lensemble des couples de matrices
(A, B) T
d
/
d
tels quune suite (A(n))
nN
de matrices aleatoires i.i.d. prenant
les valeurs A et B avec probabilite strictement positive nait pas la propriete de
perte de memoire est inclus dans une union nie dhyperplans de T
d
/
d
.
Pour denir le support dune mesure, il faut munir /
d
dune topologie -
compacte. On prend celle donnee par la distance
d(A, B) = max[ arctan(A
ij
) arctan(B
ij
)[ [i, j I
d
.
Theor`eme 4.1.4. Soit une probabilite sur /
d
de support S

. Si T
d
S

nest
inclus dans aucune union nie dhyperplans anes, alors une suite (A(n))
nN
de
matrices aleatoires i.i.d. de loi a la propriete de perte de memoire.
En fait, on construit des matrices de rang 1 dune mani`ere explicite. Les hy-
perplans qui ne doivent pas contenir les matrices A et B ou le support de seront
donnes par les lemmes 4.3.7 et 4.3.10.
On peut generaliser ces theor`emes en aaiblissant lhypoth`ese dindependance.
On obtient les theor`emes suivants :
4.1. PR

ESENTATION ET R

ESUM

E 93
Theor`eme 4.1.5. Pour tout entier d 1, il existe un ensemble E T
d
/
d
,
inclus dans une union nie dhyperplans de T
d
/
d
, tel que tout couple de
matrices (A, B) T
d
/
d
E ait la propriete suivante : toute suite stationnaire
(A(n))
nN
de variables aleatoires `a valeurs dans A, B veriant
n N, (A
1
, , A
n
) A, B
n
, P[i I
n
, A(i) = A
i
] > 0
a la propriete de perte de memoire.
Theor`eme 4.1.6. Soit (A(n))
nN
une suite stationnaire de matrices aleatoires
`a valeurs dans T
d
, telle que pour tous les boreliens B
i
de R
dd
, on ait :
(i I
n
, P[A(i) B
i
] > 0) P[i I
n
, A(i) B
i
] > 0.
Si le support de la loi de A(1) nest inclus dans aucune union nie dhyperplans
anes, alors la suite (A(n))
nN
a la propriete de perte de memoire.
Le theor`eme 4.1.5 decoule facilement du theor`eme 4.1.3 . Par contre, il faut
examiner la preuve du theor`eme 4.1.4 pour voir quelle donne aussi le theo-
r`eme 4.1.6 .
Avant de presenter la preuve de ces resultats, signalons que le chapitre 7- non-
publie- de la th`ese [Mai95] de J. Mairesse donne des exemples de syst`emes avec
et sans la MLP. Citons en particulier les deux theor`emes suivant, qui prouvent
que certains syst`emes ont la MLP. Les notions de circuit critique et de vecteur
propre (max, +) , seront denies dans la partie 4.2.
Theor`eme 4.1.7 ([Mai95]). Supposons que d est premier et soient A et B deux
matrices de R
dd
max
, ayant chacune un unique circuit critique de longueur d. Alors
il existe un produit ni de A et B de rang 1 ssi A et B nont pas les memes
vecteurs propres au sens (max, +).
Theor`eme 4.1.8 ([Mai95]). Soient (a
ij
)
i,jI
d
R
dd
et (b
ij
)
i,jI
d
R
dd
des
reels tels que a
ij
< b
ij
pour tous i, j I
d
. Notons (A(n))
nN
une suite de matrices
i.i.d. telle que les coordonnees A
ij
(0) soient independantes de loi donnee par
P(A
ij
(0) = a
ij
) = p
ij
> 0 et P(A
ij
(0) = b
ij
) = (1 p
ij
) > 0
La suite (A(n))
nN
a la MLP.
4.1.2 Principe de la preuve
Notation On notera (
i
A)
iIn
un n-uplet de matrices plutot que (A
i
)
iIn
an de
reserver les indices pour noter les coecients des matrices.
Le theor`eme 4.1.3, se ram`ene `a un probl`eme deterministe : `a quelles conditions
sur (A, B) (/
d
)
2
, le semi-groupe engendre par A et B dans R
dd
max
contient-il
une matrice de rang 1 ?
94 CHAP. 4 PERTE DE M

EMOIRE
La theorie asymptotique des matrices `a coecients dans R
max
montre que cer-
taines matrices, dites de type scs1-cyc1, ont des puissances de rang 1. (cf lemme 4.3.1)
Les elements necessaires de cette theorie sont rappeles dans la partie 4.2.
On est donc ramene au lemme suivant dont la preuve est repoussee `a la par-
tie 4.3.3. La notion de graphe critique est denie infra (denition 4.2.1).
Lemme 4.1.9. Pour tout couple (A, B) T
d
/
d
pris en dehors dun certain
ensemble ni dhyperplans, il existe deux entiers m N et n N tels que la
matrice A
m
BA
n
ait tous ses coecients nis et que son graphe critique soit
reduit `a une boucle. En particulier cette matrice est de type scs1-cyc1.
A priori, le theor`eme 4.1.4 ne repond pas `a une question deterministe, car la
propriete MLP depend de la loi et non de son seul support (cf. remarque 3.2.2).
En fait, il decoule aussi du lemme 4.1.9, compte tenu du lemme suivant :
Lemme 4.1.10. Soit A R
dd
une matrice `a coecients nis dont le graphe
critique est reduit `a une boucle. Alors il existe un voisinage V de A et un entier
n tel que :
(
i
A)
iIn
V
n
, rg(
1
A
n
A) = 1.
Dans la partie 4.2, on rappelle donc la theorie spectrale et asymptotique des
matrices `a coecients dans R
max
. Puis, dans la partie 4.3, on prouve les theo-
r`emes 4.1.3 et 4.1.4 . Cette preuve est decomposees en trois sous-parties. La pre-
mi`ere montre que le lemme 4.1.9 entrane bien les theor`emes. On y trouve la
demonstration du lemme 4.1.10 . La deuxi`eme introduit la notion de matrices
reduites, qui sert `a conclure la demonstration du lemme 4.1.9 dans la derni`ere
sous-partie.
4.2 Puissances des matrices dans (R, max, +)
Nous resumons ici la theorie spectrale et asymptotique des matrices `a coe-
cients dans R
max
. Les elements de theorie des graphes necessaires ont ete rappeles
dans la denition 2.4.1 .
Denition 4.2.1 (Graphe associe `a une matrice). Pour une matrice carree
A de taille d `a coecients dans R
max
, on donne les denitions suivantes.
i) Le graphe dincidences de A est le graphe oriente pondere dont les noeuds
sont les elements de I
d
et les arcs les (i, j) tels que A
ij
> avec le poids A
ij
.
Il est note ((A) , lensemble de ses chemins elementaires c(A) et lensemble
de ses circuits elementaires ((A).
ii) Le poids dun chemin ch sur ((A) est note w(A, ch). Il vaut :
w(A, ch) =
[ch[

j=1
A
i
j
i
j+1
.
4.2. PUISSANCES DES MATRICES DANS (R, MAX, +) 95
Le poids moyen dun circuit sur ((A) est note mw(A, c) et vaut
w(A,c)
[c[
.
iii) Le rayon spectral de A est
max
(A) := max
c(
mw(A, c).
iv) Le graphe critique de A est la restriction de ((A) aux noeuds et aux arcs
appartenant aux circuits de poids moyen
max
(A). Il est note (
c
(A).
v) La cyclicite de A est celle de (
c
(A), et on la note c(A).
vi) Le type dune matrice est scsN-cycC, o` u N et le nombre de composantes
fortement connexes de (
c
(A) et C la cyclicite de A.
La remarque suivante est `a la base de toutes les demonstrations `a venir.
Remarque 4.2.1 (Interpretation des puissances en termes de graphe). Si (i
1
, i
2
, i
n+1
)
est un chemin sur le graphe ((A), son poids est

n
j=1
A
i
j
i
j+1
, donc A
n
ij
est le poids
du chemin de longueur n de i vers j le plus lourd.
Pour enoncer les theor`emes spectraux, on a aussi besoin de :
Theor`eme-Denition 4.2.2 (

Etoile de Kleene). Pour tout A R


dd
max
veri-
ant
max
(A) 0, on pose :
A
+
:=

n1
A
n
=

1nd
A
n
.
A

:=

n0
A
n
=

0nd1
A
n
.
Les egalites `a prouver decoulent des remarques suivantes, qui font suite `a la
remarque 4.2.1 .
Remarques 4.2.2.
1. La condition
max
(A) 0 signie que tous les circuits sur (
c
(A) sont de
poids negatif.
2. Pour tout (i, j) I
2
d
, A
+
ij
est le poids du chemin le plus lourd de i vers j.
3. Ce poids est atteint par un chemin de longueur au plus d, car tout chemin
plus long contient un circuit de poids negatif.
4. Si i ,= j, A

ij
= A
+
ij
et pour tout j I
d
, A

jj
= max(A
+
jj
, 0).
Denition 4.2.3 (Vecteurs propres). Pour toute matrice A R
dd
max
, on dit
que R
max
est valeur propre de A, sil existe un vecteur V R
d
max
()
d

tel que :
AV = V.
Un tel V est appele vecteur propre associe `a la valeur propre .
96 CHAP. 4 PERTE DE M

EMOIRE
Quand
max
(A) ,= 0, on sy ram`ene en utilisant que

max
((A
ij

max
(A))
i,jI
d
) = 0.
Il sut donc de connatre la theorie spectrale des matrices `a rayon spectral nul.
Cest ce que donne la proposition suivante.
Proposition 4.2.4 (Vecteurs propres).
1. Si c est un circuit de (
c
(A), alors son poids moyen est
max
(A).
2. Si ((A) est fortement connexe, alors
max
(A) est la seule valeur propre de
la matrice A.
3. Si
max
(A) = 0, alors le vecteur colonne A
+
.i
est vecteur propre de A associe
`a 0 ssi i (
c
(A), .
4. Si
max
(A) = 0, alors tout vecteur y R
d
max
est vecteur propre de A associe
`a 0 si et seulement sil verie
y =

i
c
(A)
y
i
A
+
.i
. (4.2)
5. Si
max
(A) = 0, et si i et j sont dans la meme composante fortement
connexe de (
c
(A), alors les vecteurs colonnes A
+
.i
et A
+
.j
sont proportionnels
au sens (max, +).
6. Si
max
(A) = 0, alors aucun vecteur colonne A
+
.i
avec i (
c
(A) ne peut
secrire comme combinaison (max,+)-lineaire des A
+
.j
avec j dans des com-
posantes fortement connexes de (
c
(A) dierentes de celle de i.
Demonstration.
1. Soit c = (i
1
, , i
n+1
) un circuit de (
c
(A) (donc i
n+1
= i
1
). Par denition de
(
c
(A), tout arc (i
j
, i
j+1
) se compl`ete par un chemin ch
j
de longueur [ch
j
[
pour donner un circuit (i
j
, ch
j
) de poids moyen
max
(A) et de longueur
[ch
j
[ + 1 (cf. dessin 4.1). On a donc lequation :
A
i
j
i
j+1
+ w(ch
j
) =
max
(A)([ch
j
[ + 1) (4.3)
Appelons c
t
le chemin obtenu en concatenant ch
n
, ch
n1
, , ch
1
. En som-
mant lequation (4.3) sur j, on obtient :
w(c) + w(c
t
) =
max
(A)([c[ +[c
t
[). (4.4)
Mais c et c
t
sont des circuits de ((A) donc w(c)
max
(A)[c[ et w(c
t
)

max
(A)[c
t
[, donc lequation (4.4) implique que mw(c) =
max
(A).
4.2. PUISSANCES DES MATRICES DANS (R, MAX, +) 97
i
1
i
2
i
3
i
n1
ch
1
ch
n
A
ini
1
A
i
n1
in
A
i
1
i
2
i
2
i
3
ch
2
i
n
ch
n1
Fig. 4.1 circuits de (
c
(A)
2. Soit V un vecteur propre associe `a la valeur propre . Montrons que =

max
(A). La reciproque decoule du point iii) applique `a la matrice de rayon
spectral nul (A
ij

max
(A))
i,jI
d
.
Excluons dabord le cas = . Dans ce cas, AV =

1 , cest-`a-dire
que pour tout i, j I
d
, A
ij
+ V
j
= . Or, par denition de V , il existe
un j
0
tel que V
j
0
> . Pour ce j
0
, on a A
ij
0
= pour tout i, ce qui
contredit la forte connexite de (
c
(A).
Remarquons que, dapr`es la remarque 4.2.1, ((A) est fortement connexe
ssi pour tout i, j I
d
, il existe n tel que A
n
ij
> . Alors pour tout i,
V
i
= (A
n
V )
i
n A
n
ij
0
+ V
j
0
n, donc toutes les coordonnees de V
sont nies.
Comme A
n
ii
+ V
i
V
i
+ n et comme V est ni, A
n
ii
n. Comme

max
(A) =

n,i
1
n
A
n
ii
, on en deduit
max
(A) .
Par ailleurs, on denit par recurrence la suite des i
j
tels que
+ V
i
j
= A
i
j
i
j+1
+ V
i
j+1
. (4.5)
Comme elle prend ses valeurs dans un ensemble ni, elle prend deux fois la
meme valeur, disons en j
1
et j
2
. Appelons c le chemin obtenu en suivant la
suite (i
j
)
j
entre les indices j
1
et j
2
. En sommant sur j lequation (4.5), on
voit que [c[ = w(c), donc mw(c)
max
(A).
98 CHAP. 4 PERTE DE M

EMOIRE
3. Comme A
+
= AA

et comme les matrices A


+
et A

concident en dehors de
la diagonale, il sut de remarquer que j (
c
(A) ssi A

jj
= A
+
jj
= 0. Cela
decoule des interpretations en terme de chemins.
4. Si V est un vecteur propre de A, A
+
V =

n1
A
n
V = V , donc V secrit
comme combinaison des vecteurs colonnes de A
+
:
V =

jI
d
V
j
A
+
.j

j
c
(A)
V
j
A
+
.j
.
Dans lautre sens, pour tout i, on denit par recurrence la suite i
j
telle que
i
1
= i et
V
i
j
= A
i
j
i
j+1
+ V
i
j+1
. (4.6)
La suite prend deux fois une meme valeur i
j
1
= i
j
2
. Cette valeur est ne-
cessairement dans (
c
(A) car en sommant lequation (4.6) sur j entre j
1
et
j
2
1, on voit que le chemin (i
j
)
j
1
jj
2
est un chemin critique. On a donc :
V
i
=

jI
j
1
1
A
i
j
i
j+1
+ V
j
1
V
j
1
A
+
ij
1

j
c
(A)
V
j
A
+
.j
.
Donc tout vecteur propre de A verie lequation 4.2 . La reciproque decoule
du point 3.
5. Dire que i et j sont dans la meme composante fortement connexe, cest dire
quil existe un circuit de poids maximal passant par i et j, donc un n et
un m tels que A
n
ij
+ A
m
ji
=
max
(A) = 0. Dapr`es le iii), on a, pour tout
k I
d
:
A
+
kj
=
_
A
+
.j
_
k
=
_
A
n
A
+
.j
_
k
= (A
n
A
+
)
kj
= (A
+
A
n
)
kj
A
+
ki
+ A
n
ij
.
Par symetrie, A
+
ki
A
+
kj
+A
m
ji
. Mais par denition de met n, A
n
ij
= A
m
ji
,
donc cette derni`ere equation devient A
+
kj
A
+
ki
+A
n
ij
. Do` u A
+
.j
= A
n
ij
A
+
.i
.
6. Soit i un noeud de (
c
(A) et J un ensemble de noeuds de (
c
(A) nintersectant
pas la composante fortement connexe de i tels que
A
+
.i
=

jJ
a
j
A
+
.j
.
Pour tout j (
c
(A), A
+
jj
= 0, donc il existe un k J tel que 0 = A
+
ii
=
a
k
+A
+
ik
et A
+
ki
a
k
+A
+
kk
= a
k
. En sommant les deux derni`eres inegalites,
on a A
+
ik
+A
+
ki
0. Mais dapr`es la remarque 4.2.2, cela signie quil existe
un chemin critique passant par i et k, donc que i et k sont dans la meme
composante fortement connexe de (
c
(A).
4.2. PUISSANCES DES MATRICES DANS (R, MAX, +) 99
Proposition 4.2.5 (Puissances [CDQV83], [CDQV85]). Si ((A) est for-
tement connexe, si
max
(A) = 0 et si c(A) = 1, alors il existe un rang `a partir
duquel A
n
est egale `a la matrice Q denie par
(i, j) I
2
d
, Q
ij
:=

l
c
(A)
A
+
il
A
+
lj
.
Remarques 4.2.3.
1. Pour tout (i, j) I
2
d
, Q
ij
est le poids du plus lourd chemin de ((A) allant
de i `a j en passant par un noeud de (
c
(A).
2. Si c(A) ,= 1, on pourra appliquer la proposition `a A
c(A)
. Si G(A
c(A)
) nest
pas fortement connexe, il se decompose en composantes fortement connexes
non reliees par des chemins. Cela signie que, quitte `a renumeroter les
indices, A
c(A)
est diagonale par blocs. On applique alors la proposition `a
chaque bloc.
Demonstration. Toute composante fortement connexe C de (
c
(A) est lunion nie
(non disjointe) de ses circuits elementaires c
1
, c
m
. Comme tout circuit sur cette
composante fortement connexe se decompose en circuits elementaires, lensemble
des longueurs de ces circuits a le meme pgcd que lensemble des longueurs de tous
les circuits, cest-`a-dire c(A), qui vaut 1.
La forte connexite assure quil existe un chemin c
0
passant par tous les points,
donc en particulier par tous les circuits. Or il existe un m tel que pour tout n m,
il existe k
1
, k
p
N tels que n =

p
i=1
k
i
[c
i
[. Donc en ajoutant `a c
0
k
i
fois le
circuit c
i
, on obtient un circuit de C de longueur n, pour tout n m +[c
0
[.
Soit maintenant n m + [c
0
[ + 2d et i, j I
d
. Par denition de Q, il existe
un noeud k de (
c
(A), un chemin ch
1
de i vers k et un chemin ch
2
de k vers j, de
longueurs [ch
1
[ et [ch
2
[ inferieures `a d, tels que Q
ij
= w(ch
1
) + w(ch
2
). Mais on
trouve un circuit de (
c
(A) de longueur nl
1
l
2
passant par k, donc (ch
1
, c, ch
2
)
est un chemin de longueur n de i vers j passant par (
c
(A). Comme dapr`es la
proposition 4.2.4 i), w(c) =
max
(A) = 0, on a w(ch
1
, c, ch
2
) = w(ch
1
, ch
2
) = Q
ij
et donc A
n
ij
Q
ij
.
En particulier, on a montre que A T
d
. Pour montrer linegalite inverse, il
sut de montrer que pour n assez grand tout chemin de i vers j, de longueur n
et de poids A
n
ij
passe par (
c
(A). Mais ceci decoule du lemme ci-dessous.
Lemme 4.2.6. Si A T
d
est une matrice primitive, alors il existe un N N
tel que tout chemin ch = (i
1
, , i
n+1
) sur ((A) de longueur n N et de poids
w(ch, A) = (A
n
)
i
1
i
n+1
passe par (
c
(A).
100 CHAP. 4 PERTE DE M

EMOIRE
Demonstration du lemme 4.2.6. Sans perte de generalite, on peut supposer que
(A) = 0. Par denition de T
d
, il existe un rang N
1
tel que les coecients de
A
N
1
soient tous nis. Notons M
1
le minimum des coecients de A
N
1
.
Soit c un circuit critique de (
c
(A), de longueur [c[. Par denition de (
c
(A), il
existe un indice k I
d
tel que A
[c[
kk
= [c[
max
(A) = 0. Donc pour tout n N, et
tout i, j I
d
, on a :
A
(2N
1
+n[c[)
i,j
A
N
1
ik
+ nA
[c[
kk
+ A
N
1
kj
2M
1
.
Notons le poids moyen du plus lourd circuit de ((A) ne passant pas par
(
c
(A). Soit ch = (i
1
, , i
n
) un chemin sur ((A) ne passant pas par (
c
(A). Il se
decompose en un chemin de longueur au plus d et des circuits elementaires, de
poids moyen au plus . En notant M
2
le plus grand coecient de A, on a :
w(ch, A) d[M
2
[ (n d).
il sut donc de prendre N susamment grand pour que d([M
2
[ + ) N soit
strictement inferieure `a 2M
1
.
Remarque 4.2.4. Si on refait le meme raisonnement que dans la preuve de la
proposition 4.2.5, mais avec des chemins de ((A) au lieu de chemins sur une
composante fortement connexe de (
c
(A), on voit que A T
d
ssi ((A) est forte-
ment connexe et de cyclicite 1.
4.3 Demonstrations
4.3.1 Demonstration des theor`emes 4.1.3 et 4.1.4
Pour demontrer le theor`eme 4.1.3, on combine le lemme 4.1.9 avec le lemme
suivant :
Lemme 4.3.1. Si A /
d
est une matrice `a coecients nis de type scs1-cyc1,
alors A admet un puissance de rang 1.
Demonstration. Dapr`es la proposition 4.2.5, pour n grand, les vecteurs colonnes
de
_
A
n
ij
n
max
(A)
_
i,jI
d
=
_
(A
ij

max
(A))
i,jI
d
_
n
sont tous des vecteurs
propres de la matrice (A
ij

max
(A))
i,jI
d
. De plus cette matrice est scs1-cyc1
et de rayon spectral nul, donc, dapr`es la proposition 4.2.4, tous ses vecteurs
propres sont proportionnels au sens (max, +). Tous les vecteurs colonnes de A
n
sont proportionnels au sens (max, +), donc la matrice est de rang 1 et tous ses
coecients sont nis.
Montrons maintenant que le theor`eme 4.1.4 decoule des lemmes 4.1.9 et 4.1.10 .
Ensuite nous demontrerons le lemme 4.1.10 .
4.3. D

EMONSTRATIONS 101
Demonstration du theor`eme 4.1.4.
Chaque hyperplan donne par le lemme 4.1.9 est le noyau dune forme lineaire f

sur T
d
/
d
. Cette forme lineaire se decompose en f

= f

1
+f

2
o` u f

1
ne depend
que de la premi`ere matrice et f

2
de la seconde. Le support de nest pas inclus
dans lunion des ker f

1
donc il existe une matrice A dans le support de telle
que , f

1
(A) ,= 0. Pour tout , lensemble B /
d
[f

2
(B) + f

1
(A) = 0 est
soit lensemble vide, soit un hyperplan ane de /
d
. Il existe donc une matrice B
dans le support de tel que B ne soit pas dans

B R
dd
[f

2
(B)+f

1
(A) = 0.
Finalement (A, B) /

ker f

.
Le lemme 4.1.9 assure donc lexistence de deux matrices A et B dans le support
de et de deux entiers m et n tels que le graphe critique de A
m
BA
n
soit reduit
`a une boucle. Le lemme 4.1.10 donne un voisinage V de A
m
BA
n
et un entier
N tel que toute matrice de V
N
soit de rang 1. Prenons V
1
V
2
un voisinage de
(A, B) tel que V
m
1
V
2
V
n
1
V . Alors les elements de
_
V
m
1
V
2
V
n
1
_
N
sont de
rang 1. Comme A et B sont dans le support de , (V
1
) > 0 et (V
2
) > 0, donc

(n+m+1)N
__
(A
i
)
iI
(n+m+1)N
[rg(A
1
A
(n+m+1)N
) = 1
__
(V
1
)
(n+m)N
(V
2
)
N
> 0.
La n de cette partie est consacree `a la demonstration du lemme 4.1.10 . Le
principe de la demonstration est de reprendre simultanement les elements des
preuves des resultats utilises pour prouver le lemme 4.3.1 .
Pour comprendre les iteres de A, on interpretait ses coecients comme le
poids des chemins sur ((A), comme explique `a la remarque 4.2.1 . On veut faire
la meme chose pour des produits de plusieurs matrices. On va donc autoriser le
poids des arcs (cest-`a-dire les matrices) `a varier.
Dorenavant, ( designera le graphe oriente non pondere associe `a ((A). Pour
toute suite nie de matrices (
i
A)
iIn
on denit les notations suivantes :
Denition 4.3.2.
- Le poids dun chemin ch = (i
j
)
jI
n+1
sur ( (relativement `a (
i
A)
iIn
) est
w(ch) :=

jIn
j
A
i
j
i
j+1
.
- Un chemin est dit maximisant si son poids est maximum parmi ceux des chemins
de meme longueur, meme debut et meme n.
Ces denitions sont telles que (i
j
)
jI
n+1
est maximisant si et seulement sil est
de poids (
1
A
n
A)
i
1
i
n+1
.
102 CHAP. 4 PERTE DE M

EMOIRE
Demonstration du lemme 4.1.10. Le graphe critique de A est reduit `a une boucle.
Cela signie quil existe un l I
d
tel que : c ((A)(l, l), A
ll
> mw(A, c).
Donc il existe un > 0 tel que
c ((A)(l, l), A
ll
mw(A, c) > 3. (4.7)
On denit V comme la boule ouverte de centre A et de rayon pour la norme
uniforme et on note M le maximum de la norme innie sur V .
Remarquons que toute matrice B V a le meme graphe critique que A,
`a savoir une boucle sur l. Soit

B la matrice de rayon spectral nul denie par

B
ij
= B
ij
B
ll
. Alors |

B

A|

< 2 et la relation 4.7 dit que pour tout


c ((A)(l, l), mw(

A, c) < 3.
Dorenavant, (
i
A)
iIn
sera dans V
n
et le poids des chemins sera considere rela-
tivement `a (
i
A)
iIn
.
Soit c un circuit elementaire dierent de (l, l) et de longueur [c[. Son poids
verie :
w(c) w(

A, c) + 2[c[ [c[(mw(

A, c) + 2) < [c[.
Soit ch = (i
j
)
jI
n+1
un chemin de longueur n ne passant pas par l. Quitte
`a permuter les
j
A, il se decompose en un chemin de longueur au plus d et des
circuits elementaires, donc on a :
w(ch) < (n d) + dM.
Or pour tout i, j I
d
,
_
1
A
n
A
_
ij
w((i, l, , l, j)) 2M,
donc il existe un N tel que tous les chemins maximisants de longueur n N
passent par l.
Soit ch = (i
j
)
jI
n+1
un chemin maximisant de longueur n 2N + 1. Comme
(i
j
)
jI
N+1
est encore maximisant, il existe un j
0
N tel que i
j
0
= l. Comme
(i
j
)
nNjn+1
est maximisant relativement `a la suite de matrices (
j
A)
nNjn+1
,
il existe n N j
1
n + 1 tel que i
j
1
= l. Le chemin (i
j
)
j
0
jj
1
est un circuit,
donc il se decompose en circuits elementaires. Comme les circuits elementaires
sont de poids strictement negatif, sauf (l, l), la maximalite du chemin assure que
pour tout j entre j
0
et j
1
, i
j
= l. En particulier cest vrai pour N+1 j nN,
do` u
w(ch) = w((i
j
)
jI
N
+1
) + w((i
j
)
nNjn+1
) .
Cela signie que :
n 2N + 1, i, j I
d
,
_
1
A
n
A
_
i,j
=
_
1
A
N
A
_
il
+
_
nN

A
n
A
_
lj
,
do` u rg
_
1
A
n
A
_
= 1 donc aussi rg (
1
A
n
A) = 1.
4.3. D

EMONSTRATIONS 103
4.3.2 Matrices reduites
Pour prouver le lemme 4.1.9, on introduit les notions suivantes de matrices
reduites :
Denition 4.3.3. Une matrice A R
dd
max
est dite reduite si elle verie :
_
(i, j) I
2
d
, A
ij
0
i I
d
, j I
d
, A
ij
= 0
(4.8)
Elle est dite strictement reduite si elle verie :
_
(i, j) I
2
d
, A
ij
0
i I
d
, !j I
d
, A
ij
= 0
(4.9)
Lemme 4.3.4.
i) Les matrices reduites forment un semi-groupe. Les matrices strictement re-
duites aussi.
ii) Toute matrice reduite A est de rayon spectral nul et (
c
(A) est constitue
des composantes fortement connexes du sous-graphe de ((A) obtenu en ne
gardant que les arcs de poids 0.
Demonstration. La preuve du i) est immediate. Si A est reduite, ses coecients
sont negatifs, donc son rayon spectral aussi. Mais par denition des matrices
reduites, on peut construire par recurrence une suite (i
j
)
jN
I
N
d
telle que pour
tout j N, A
i
j
i
j+1
= 0. Cette suite prend necessairement deux fois la meme
valeur, mettons en j
1
et j
2
. Donc c = (i
j
)
j
1
jj
2
est un circuit de ((A) dont tous
les arcs sont de poids 0. En particulier, w(A, c) = 0 donc
max
(A) est plus grand
que 0.
On a donc montre que
max
(A) = 0, mais comme les coecients de A sont
negatifs, la derni`ere armation est evidente.
Denition 4.3.5.
`
A toute matrice A /
d
telle que ((A) soit connexe on
associe les elements suivants :
1. Une matrice

A denie par i, j I
d
,

A
ij
= A
ij

max
(A).
2. Un circuit c
A
sur ((A) deni comme le plus petit circuit elementaire de
(
c
(A) pour lordre lexicographique.
3. Un entier k(A) I
d
deni comme le plus petit indice dans c
A
4. Une matrice

A denie par :
i, j I
d
,

A
ij
=

A
ij


A
+
ik(A)
+

A
+
jk(A)
. (4.10)
104 CHAP. 4 PERTE DE M

EMOIRE
On denit les ensembles de formes lineaires `a ne pas annuler :
Denition 4.3.6. On appelle ( le graphe oriente complet dont les noeuds sont
les elements de I
d
1. On appelle c
1
lensemble des formes lineaires mw(., c
1
) mw(., c
2
), o` u c
1
et c
2
sont deux circuits elementaires de ( distincts en tant que graphes
orientes.
2. On appelle c
2
lensemble des formes lineaires
w(., ch
1
) [ch
1
[mw(., c) w(., ch
2
) +[ch
2
[mw(., c),
o` u ch
1
et ch
2
sont deux chemins elementaires de ( allant tous deux du
meme noeud i vers le meme noeud k ,= i et o` u c est un circuit elementaire
de ( passant par k.
Lemme 4.3.7.
1. Pour toute matrice A /
d
telle que ((A) soit fortement connexe,

A est
reduite. En particulier, tous les coecients de (
c
(

A) sont nuls.
2. Si de plus, A nannule aucune des formes lineaires de c
1
c
2
, alors

A est
strictement reduite.
3. Ni c
1
ni c
2
ne contient la forme lineaire nulle.
Demonstration du lemme 4.3.7.
1. Comme ((A) est fortement connexe, ((

A) lest aussi. De plus (
c
(

A) et
(
c
(A) concident en tant que graphes non ponderes, donc k(A) (
c
(

A).
Enn
max
(

A) = 0. Dapr`es la proposition 4.2.4, le vecteur

A
+
.k(A)
est donc
vecteur propre de

A associe `a la valeur propre 0, ce qui se traduit sur les
coecients par les syst`emes equivalents suivants :
i I
d
,

A
ik(A)
= max
j
(

A
ij
+

A
+
jk(A)
),
i I
d
,
_
j I
d
,

A
ik(A)


A
ij
+

A
+
jk(A)
j I
d
,

A
ik(A)
=

A
ij
+

A
+
jk(A)
i I
d
,
_
j I
d
,

A
ij
0
j I
d
,

A
ij
= 0
c est-`a-dire que

A est reduite.
2. Supposons que A nannule aucune des formes de c
1
c
2
.
Soit i I
d
. Appelons ch
1
= (i
1
, , i
[ch
1
[+1
) un chemin de i vers k(A) sur
((

A) de poids

A
+
ik(A)
et de longueur minimale pour cette propriete.
On va montrer que j = i
2
est la seule solution possible de lequation

A
ij
= 0,
qui se reecrit :

A
+
ik(A)
=

A
ij
+

A
+
jk(A)
. (4.11)
4.3. D

EMONSTRATIONS 105
Soit j I
d
une solution de cette equation. On appelle ch = (j
1
, , j
[ch[+1
)
un chemin de j vers k(A) sur ((

A) de poids

A
+
ik(A)
et de longueur minimale
pour cette propriete.
Comme
max
(

A) = 0, les circuits sont de poids negatif, donc la minimalite
de la longueur implique que ch
1
et ch sont elementaires.
Si i = k(A), alors w(

A, (i, ch)) =

A
+
k(A)k(A)
= 0, donc (i, ch) est un circuit de
(
c
(

A), donc aussi de (
c
(A). Il se decompose donc en circuits elementaires
de (
c
(A). Soit ch
2
le premier. Alors mw(A, ch
2
) = mw(A, ch
1
) =
max
(A)
et comme A nannule pas les formes de c
1
, ch
1
= ch
2
, donc i
2
= j.
Si i ,= k(A), alors w(

A, (i, ch)) =

A
+
ik(A)
.
Supposons que (i, ch) nest pas elementaire. Il existe l I
[ch[+1
tel que j
l
= i.
Mais alors, on a :
w(

A, (i, j
1
, , j
l
)) = w(

A, (i, ch)) w(

A, (j
l
, , j
[ch[+1
))
=

A
+
ik(A)
w(

A, (i, j
l+1
, , j
[ch[
, j
k(A)
)) 0,
donc mw(

A, (i, j
1
, , j
l
)) =
max
(

A) = 0. Donc (i, j
1
, , j
l
) se decom-
pose en circuits elementaires de (
c
(A). Soit c
1
lun de ces circuits. Comme
mw(A, c
1
) =
max
(A) = mw(A, c
A
), c
1
= c
A
. En particulier, k(A)
j
1
, , j
l
. Comme j
l
= i ,= k(A), k(A) j
1
, j
l1
, ce qui contre-
dit lelementarite de ch.
Donc (i, ch) est elementaire. On le note ch
2
et on a w(

A, ch
1
) = w(

A, ch
2
),
soit
w(A, ch
1
) [ch
1
[
max
(A) = w(A, ch
2
) [ch
2
[
max
(A),
ou encore
w(A, ch
1
) [ch
1
[mw(c
A
) = w(A, ch
2
) [ch
2
[mw(c
A
).
Comme A nannule pas les formes de c
2
, ch
1
= ch
2
, donc i
2
= j.
3. Il est clair que les formes lineaires de c
1
ne sont pas nulles.
Soient donc ch
1
= (i
1
, , i
[ch
1
[+1
), ch
2
= (j
1
, , j
[ch
2
[+1
) et c = (l
1
, , l
[c[
, l
1
)
des chemins elementaires tels que i
1
= j
1
= i, i
[ch
1
[+1
= j
[ch
2
[+1
= l
1
et
i
1
,= l
1
.
Supposons que f = w(., ch
1
) [ch
1
[mw(., c) w(., ch
2
) +[ch
2
[mw(., c) = 0
et montrons que ch
1
= ch
2
.
Comme les chemins ch
1
et ch
2
sont elementaires et non cycliques, ils ne
contiennent quune fois lindice l
1
: en derni`ere position. Donc il ny a darc
partant de l
1
ni sur ch
1
ni sur ch
2
et la composante en A

l
1
,l
2
de w(., ch
1
) et
106 CHAP. 4 PERTE DE M

EMOIRE
w(., ch
2
) est nulle. Celle de f est donc
([ch
2
[[ch
1
[)
[c[
A

l
1
l
2
. Or celle-ci est nulle,
donc [ch
2
[ = [ch
1
[ et f = w(., ch
1
) w(., ch
2
).
Par lirreductibilite de ch
1
, (i
1
, i
2
) est le seul arc de ch
1
partant de i. Donc la
composante de w(., ch
1
) en A

ii
2
est A

ii
2
et pour tout j ,= i
2
, la composante
de w(., ch
1
) en A

ij
est nulle.
De meme, la composante de w(., ch
2
) en A

ij
2
est A

ij
2
et pour tout j ,= j
2
,
la composante de w(., ch
2
) en A

ij
est nulle.
Comme w(., ch
2
) = w(., ch
1
), on en deduit que i
2
= j
2
et w(., (i
2
, , i
[ch
1
[+1
)) =
w(., (j
2
, , j
[ch
1
[+1
))
Par recurrence nie sur [ch
1
[, on conclut que ch
1
= ch
2
.
4.3.3 Demonstration du lemme 4.1.9
Soient A T
d
et B /
d
deux matrices. Dapr`es le lemme 4.3.7, on associe
`a A une matrice reduite

A denie par lequation 4.10 reduite. On denit

B par :

B
ij
:= B
ij


A
+
ik(A)
+

A
+
jk(A)
. (4.12)
Attention,

B depend de A.
On va appliquer `a

A et

B le lemme ci-dessous. Il sura ensuite de montrer
que, si (A, B) nannule pas certaines formes lineaires, alors

A et

B verient les
hypoth`eses de ce lemme.
4.3. D

EMONSTRATIONS 107
Lemme 4.3.8. Soit A T
d
une matrice reduite telle que (
c
(A) soit fortement
connexe. Soit N donne par le lemme 4.2.6 .
Soit B R
dd
max
une matrice telle que
l
1
, l
2
, m
1
, m
2
I
d
,
_
A
N
B
_
l
1
m
1
=
_
A
N
B
_
l
2
m
2
m
1
= m
2
. (4.13)
Alors il existe s N tel que pour tout p s +c(A)N, (
c
_
A
N
BA
p
_
soit un
graphe oriente complet. En particulier, A
N
BA
p
est de type scs1cyc1.
Si A est strictement reduite, alors (
c
_
A
N
BA
p
_
ne comporte quune boucle.
Demonstration du lemme 4.2.6. Examinons les coecients maximaux de A
N
BA
p
.
Un tel coecient
_
A
N
BA
p
_
ij
est le poids dun chemin (i
r
)
rI
N+p+2
de i vers j
(gure 4.2). Notons l pour i
N+1
et m pour i
N+2
.
Comme A est reduite, on peut construire par recurrence une suite dindices

i
r
pour r entre N +2 et N +p +2 telle que

i
N+2
= m et pour tout r, A

ir

i
r+1
= 0.
En remplacant les i
r
tels que r N + 3 par

i
r
, on remplace des arcs de poids
negatif par des arcs de poids nul, donc on construit un chemin de poids superieur `a
_
A
N
BA
p
_
ij
. Comme ce poids ne peut pas etre strictement superieur, et comme
A est reduite, on a dej`a A
iri
r+1
= 0. On en deduit que notre coecient maximum
secrit A
N
il
+ B
lm
et que sa valeur ne depend pas de p.
0
0
0
0
0
0
0
0
0
0

m l q i
i
t
A
N
B
B
lm
j
A
p
i
t

Les arcs dans les botes sont dans (


c
(A).
Fig. 4.2 Chemins de poids maximaux pour A
N
BA
p
.
Par ailleurs, on a pris N de mani`ere `a ce que (i
r
)
rI
N+1
passe par (
c
(A).
Appelons q le premier noeud du chemin `a etre sur (
c
(A). On peut modier le
chemin an que les indices precedant q soient tous dans (
c
(A) : il sut de suivre
un circuit critique auquel appartient q `a contre sens `a partir de q. Appelons i
t
le
premier indice de ce nouveau chemin (gure 4.2). Par construction, i
t
(
c
(A)
et
_
A
N
B
_
i

m
est plus grand que
_
A
N
B
_
im
, donc cest un coecient maximal
de A
N
B.
Dapr`es le ii) du lemme 4.3.4 et la forte connexite de (
c
(A), il existe s
1
N tel
que A
s
1
mi

= 0. Or c(A) est la cyclicite de lunique composante fortement connexe


108 CHAP. 4 PERTE DE M

EMOIRE
de (
c
(A), donc il existe un s
2
N, tel que pour tout p s
2
+ c(A)N, on ait
A
p
i

= 0. Donc, en posant s = s
1
+ s
2
, on a A
p
mi

= 0 pour tout p s + c(A)N.


On suppose desormais que p s + c(A)N.
La matrice M := A
N
BA
p
a un coecient maximum sur la diagonale. Ce
coecient M
i

i
est donc le rayon spectral et le poids de tout arc de (
c
(M). En
outre, M
ij
= M
i

i
si et seulement sil existe m I
d
, tel que (A
N
B)
im
= M
i

et A
p
mj
= 0. Dapr`es lhypoth`ese sur B, on en deduit que m est necessairement le
meme pour tous les i.
Si i et j sont dans (
c
(M), alors il existe un arc de (
c
(M) partant de i et
un partant de j, donc (A
N
B)
im
= (A
N
B)
jm
= M
i

i
. Mais il existe aussi un
arc de (
c
(M) nissant en i en un nissant en j, donc A
p
mi
= A
p
mj
= 0. Donc
M
ij
= M
ji
= M
i

i
. Donc (i, j) et (j, i) sont des arcs de (
c
(M). Le graphe (
c
(M)
est donc le graphe oriente complet dont les noeuds sont les i I
d
, tels que
(A
N
B)
im
= M
i

i
et A
p
mi
= 0.
Si A est strictement reduite, alors A
p
lest aussi, donc il existe un unique i
tel que A
p
mi
= 0. Donc (
c
(M) ne comprend quun noeud, et donc une boucle.
Pour conclure la demonstration du lemme 4.1.9, il sut de montrer que pour
un couple de matrices (A, B) qui nannule pas certaines formes lineaires sur T
d

/
d
, les matrices

A et

B denies par les equations (4.10) et (4.12) verient les
hypoth`eses du lemme 4.3.8. En eet pour tout circuit c, on a
mw
_
c,

A
N

B

A
p
_
= mw
_
c, A
N
BA
p
_
+ (N + p)
max
(A),
donc

A
N

B

A
p
et A
N
BA
p
ont le meme graphe critique, avec des poids die-
rents sur les arcs et, pour p susamment grand, A
p
R
dd
, donc A
N
BA
p

R
dd
.
On donne les denitions suivantes :
Denition 4.3.9. On note ( le graphe oriente complet densemble de noeuds I
d
et A

(resp. B

) lapplication qui, au couple (A, B) T


d
/
d
, associe A (resp.
B).
On appelle c
3
lensemble des formes lineaires sur T
d
/
d
de la forme
B

j
1
m
1
B

j
2
m
2
+ w(A

, ch
i
1
j
1
) w(A

, ch
i
1
k
) + w(A

, ch
m
1
k
)
w(A

, ch
i
2
j
2
) +w(A

, ch
i
2
k
) w(A

, ch
m
2
k
)
([ch
i
1
j
1
[ [ch
i
1
k
[ +[ch
m
1
k
[ [ch
i
2
j
2
[ +[ch
i
2
k
[ [ch
m
2
k
[)mw(A

, ch
kk
),
(4.14)
o` u i
1
, i
2
, j
1
, j
2
, m
1
, m
2
et k sont des noeuds de ( tels que m
1
,= m
2
et pour tout
i i
1
, i
2
, m
1
, m
2
, k, ch
ik
est un chemin elementaire sur ( allant de i vers k et
pour tout l I
2
, ch
i
l
j
l
est un chemin sur ( allant de i
l
vers j
l
de longueur au
plus [ch
kk
[d.
Le lemme 4.1.9 resulte maintenant du lemme suivant et de la remarque evi-
dente que les formes lineaires de c
3
ne sont pas nulles :
4.3. D

EMONSTRATIONS 109
Lemme 4.3.10.
1. Si A T
d
nannule aucune forme lineaire de c
1
, alors (
c
(

A) est fortement
connexe.
2. Si (A, B) T
d
/
d
nannule aucune forme lineaire de c
3
, alors le couple
de matrice (

A,

B) satisfait lequation (4.13).
Demonstration.
1. Comme (
c
(A) et (
c
(

A) sont egaux en tant que graphes non-ponderes, il
sut de montrer que (
c
(A) est fortement connexe. Dire que A nannule
aucune forme lineaire de c
1
, cest dire que tous les circuits elementaires de
((A) ont des poids dierents. En particulier, le graphe (
c
(A) est constitue
dun unique circuit elementaire, donc il est fortement connexe.
2. Soit (A, B) T
d
/
d
telle que (

A,

B) ne satisfasse pas lequation (4.13).
Alors il existe i
1
, i
2
, m
1
, m
2
I
d
tels quon ait m
1
,= m
2
et :
_

A
N

B
_
i
1
m
1
=
_

A
N

B
_
i
2
m
2
.
Pour l I
2
, on choisit j
l
I
d
tel que
_

A
N

B
_
i
l
m
l
=
_

A
N
_
i
l
j
l
+

B
j
l
m
l
et
on designe k(A) par k.
Pour tout i i
1
, i
2
, m
1
, m
2
, k, on choisit un chemin ch
ik
sur ((A) allant
de i vers k tel que w(

A, ch
ik
) =

A
+
ik
et de longueur minimale pour cette
propriete.
Pour l I
2
, on choisit un chemin ch
i
l
j
l
sur ((A) allant de i
l
vers j
l
tel que
w(

A, ch
i
l
j
l
) =

A
N
i
l
j
l
et de longueur minimale pour cette propriete.
Comme
max
(

A) = 0 les circuits sont de poids negatif, donc la minimalite
de la longueur assure que les chemins ch
ik
avec i i
1
, i
2
, m
1
, m
2
, k sont
elementaires.
La proposition 4.2.5 appliquee `a

A
c(A)
assure que [ch
i
l
j
l
[ 2dc(A). Or
c(A) divise [ch
kk
[.
Il sut alors de reprendre les denitions de

A et

B, pour voir que (A, B)
annule la forme lineaire de c
3
donnee par 4.14
Remarque 4.3.1. Si on recapitule tous les lemmes, on obtient la formulation plus
explicite des theor`emes 4.1.3 et 4.1.4 :
Soit (A, B) T
d
/
d
un couple de matrices tel que A nannule aucune
forme lineaire de c
1
c
2
et (A, B) nannule aucune forme lineaire de c
3
. Alors
toute suite (A(n))
nN
de matrices aleatoires i.i.d. prenant les valeurs A et B avec
probabilite strictement positive a la propriete de perte de memoire.
Soit une probabilite sur /
d
de support S

. Sil existe A T
d
S

qui
nannule aucune forme lineaire de c
1
c
2
, et si S

nest pas inclus dans une


110 CHAP. 4 PERTE DE M

EMOIRE
union nie densembles de la forme A /
d
[A
ij
= A
kl
+ a, avec i, j, k, l I
d
,
(i, j) ,= (k, l) et a R, alors une suite (A(n))
nN
de matrices aleatoires i.i.d. de
loi a la propriete de perte de memoire.
Chapitre 5
Theor`emes limites pour les
applications topicales aleatoires
iterees
5.1 Presentation
5.1.1 Contexte
Ce chapitre a pour but de demontrer des theor`emes limites pour les suites
recurrentes stochastiques gouvernees par des suites dapplications topicales alea-
toires ayant la propriete de perte de memoire (MLP) denie dans la partie 3.2 .
Les fonctions topicales sont denies dans la partie 2.1 . On reprend les no-
tations de cette partie : A est une application aleatoire au dessus dun syst`eme
dynamique, et x(n, x
0
) est denie par lequation (2.2). On suppose en outre que
les A(n) sont i.i.d. et que la suite (A(n))
nN
a la propriete de perte de memoire.
Dapr`es le resultat de [BM98] rappele dans le theor`eme 2.2.8, la suite (x(n, X
0
))
nN
satisfait une loi forte des grands nombres, pourvu que X
0
et A(1)

0 soient inte-
grables. Nous allons montrer que, sous des hypoth`eses dintegrabilite adequates,
et parfois des conditions techniques supplementaires, elle satisfait aussi un theo-
r`eme central limite (theor`eme 5.2.1), eventuellement avec vitesse (theor`eme 5.2.1),
un theor`eme local limite (theor`eme 5.2.4), un theor`eme de renouvellement (theo-
r`eme 5.2.6) et un principe des grandes deviations partiel (theor`eme 5.2.1). De plus,
quand les A(n) sont des matrices aleatoires, on donne des conditions algebriques
de nullite de la variance dans le TCL (theor`eme 5.2.9) et de non-arithmeticite
dans le TLL (theor`eme 5.2.11), qui sont veriees generiquement (corollaires 5.2.12
et 5.2.10).
Dans cette partie, nous presentons le principe de la preuve. Dans la partie 5.2,
nous enoncons et commentons les resultats. Dans la partie 5.3, nous rappelons
111
112 CHAP. 5 TH

EOR
`
EMES LIMITE
le formalisme des chanes de Markov abstraites et les theor`emes limites pour ces
chanes qui seront la clef des demonstrations de la derni`ere partie.
5.1.2 Principe de la preuve
La premi`ere etape de la preuve consiste `a decomposer la chane de Markov
(x(n, .))
nN
en une autre chane ((A(n), x(n, .)))
nN
et une somme de cocycles
au dessus de cette chane, suivant ainsi la methode qu

E. Le Page a utilise pour


des produits de matrices au sens usuel ([LP82]). Pour toute fonction topicale
de R
d
dans R telle que
_

1
_
= 1, la quantite (Ax) (x) ne depend
que de A et de x. Donc (x(n, .)) (x(n 1, .)) ne depend que de A(n) et
x(n 1, .) et comme PR
d
max
peut etre vu comme un hyperplan de R
d
, on peut
etudier ((x(n, .)), x(n, .)) au lieu de x(n, .). (cf. lemme 5.4.6)
Dapr`es le theor`eme 3.2.2, la suite (x(n, .))
nN
converge en loi. Par ailleurs,
dapr`es le theor`eme 2.2.8, (x(n, X
0
))
nN
tend vers linni (si ,= 0) dans la direc-
tion de

1 , donc (x(n, .)) n. Nous etudions les oscillations de (x(n, .)) n.
On pensera en particulier aux cas o` u est deni par (x) = x
i
, (x) = max
i
x
i
,
ou (x) = min
i
x
i
.
La seconde etape de la preuve consiste `a montrer que les operateurs associes
`a la chane de Markov (A(n), x(n 1, .))
nN
ont un trou spectral et appliquer
les resultats decrits dans la partie 5.3 qui donnent des theor`emes limites pour
((x(n, .)) n)
nN
. Le trou spectral decoule de la convergence de (x(n, .))
nN
,
comme chez

E. Le Page [LP82].
Nous utilisons deux series de resultats, qui sont rappelees dans la partie 5.3 . La
premi`ere serie est tiree du livre de H. Hennion et L. Herve [HH01] qui reprend dans
un cadre general la theorie classique de la methode de trou spectral developpee
depuis Nagaev [Nag57]. Pour pouvoir appliquer ces resultats, nous mettons des
conditions dintegrabilite sur sup
x
[(A(1)x) (x)[, ce qui permet dobtenir un
operateur de Doeblin sur lespace des fonctions bornees.
La seconde serie est tiree de larticle [HH04] qui est un ranement de la
methode dans le cadre plus restreint dapplications lipschitziennes iterees. Pour
pouvoir appliquer ces resultats, nous mettons des conditions dintegrabilite sur
A(1)

0 , ce qui permet dobtenir un operateur de Doeblin-Fortet sur des espaces


`a poids. Dans la partie 5.2.3, nous comparons les deux series de resultats.
5.2

Enonces des theor`emes limites
5.2.1 Cas topical
Nous enoncons maintenant les resultats que nous prouverons dans la par-
tie 5.4 .
5.2.

ENONC

ES DES TH

EOR
`
EMES LIMITES 113
Soit (A(n))
nN
une suite dapplications topicales aleatoires i.i.d. ayant la pro-
priete MLP. La suite (x(n, .))
nN
est denie par lequation (2.2) et est lexposant
de Lyapunov du theor`eme-denition 2.2.7 .
Le theor`eme limite local et le theor`eme de renouvellement necessitent des
conditions de non-arithmeticite. Il y a trois types de non-arithmeticite, selon que
le theor`eme est demontre en utilisant un theor`eme de [HH01] ou de [HH04]. Nous
les nommerons respectivement (faible) non-arithmeticite et non-arithmeticite al-
gebrique. Quand d = 1 elles se reduisent toutes trois `a la condition usuelle de
(faible) non-arithmeticite pour les sommes de variables reelles i.i.d. . La non-
arithmeticite algebrique sera denie avant lenonce du TLL, mais les autres types
de non-arithmeticite ne seront denis qu`a la partie 5.3 quand nous aurons in-
troduit les operateurs associes aux chanes de Markov. Contrairement `a la non-
arithmeticite algebrique, elles dependent du couple
_
(A(n))
nN
,
_
, qui sera ap-
pele le syst`eme.
Dapr`es la proposition 3.3.9, Top
d
muni de la topologie de la convergence
uniforme sur tout compact poss`ede une base denombrable douverts, donc le
support des mesures y est bien deni. On appelle S
A
le support de la loi de A(1)
et T
A
le semi-groupe engendre dans par S
A
dans Top
d
.
Theor`eme 5.2.1 (TCL). Soit (A(n))
nN
une suite dapplications topicales alea-
toires i.i.d. ayant la propriete MLP et soit X
0
une variable aleatoire `a valeurs
dans R
d
. Soit une application topicale de R
d
dans R telle que
_

1
_
= 1. On
suppose veriee lune des hypoth`eses suivantes :
i) sup
x
[(A(1)x) (x)[ a un moment dordre 2,
ii) A(1)

0 a un moment dordre 4 + .
Alors il existe
2
0 tel que
_
x(n,X
0
)n

n
_
nN
converge en loi vers ^(0,
2
)

1 .
Dans le premier cas, ou si A(1)

0 a un moment dordre 6 + , on a :

2
= lim
1
n
_
((x(n, X
0
)) n)
2
dP, pour toute X
0
ayant un moment dordre 2.
= 0 si et seulement si pour tout M T
A
de rang 1, on a :
A S
A
, M
t
T
A
, rg(M
t
= 1) MAM
t
= MM
t
+

1 . (5.1)
Remarques 5.2.1. 1. On remarque que la variance
2
ne depend pas du choix
de . Cela nest pas surprenant si lon remarque que pour deux fonctions
topicales
1
et
2
,
1
(x(n, X
0
))
2
(x(n, X
0
)) ne depend que de x(n, X
0
),
qui converge en loi.
2. Dapr`es le lemme 5.4.5 `a venir, lequation (5.1) est veriee pour tout M T
A
de rang 1 si et seulement si elle est veriee pour un M de rang 1, non
necessairement dans T
A
.
3. Le cas = 0 semble rare. On montre que, dans le cas dapplications
(max, +), la situation > 0 est generique (cf. corollaire 5.2.10).
114 CHAP. 5 TH

EOR
`
EMES LIMITE
Theor`eme 5.2.2 (TCL avec vitesse). Soit (A(n))
nN
une suite dapplications
topicales aleatoires i.i.d. ayant la propriete MLP et soit X
0
une variable aleatoire
`a valeurs dans R
d
independante de (A(n))
nN
. Soit une application topicale
de R
d
dans R telle que
_

1
_
= 1. On suppose veriee lune des hypoth`eses
suivantes :
i) sup
x
[(A(1)x) (x)[ a un moment dordre l 3,
ii) A(1)

0 a un moment dordre l > 6.


Si le
2
du theor`eme 5.2.1 est strictement positif, alors il existe une constante
C 0 telle que pour toute condition initiale X
0
ayant un moment dordre l, on
ait :
sup
uR

P[(x(n, X
0
)) n (X
0
i
) u

n] ^(0, 1)(] , u])

C
_
1 +E
_
(1 +|X
0
|

)
l
__

n
, (5.2)
sup
uR
d

P[x(n, X
0
) n

1 u

n] ^(0, 1)(] , min


i
u
i
])

C
_
1 +E
_
(1 +|X
0
|

)
l
_
+E
_
_
1 +
_
_
_A(1)

0
_
_
_

_
l
__
n
l
2(l+1)
.
Denition 5.2.3. On dit que la suite (A(n))
nN
est algebriquement arithmetique
sil existe a, b R tels que pour tout M, M
t
T
A
de rang 1,et tout A S
A
, on
ait :
(MAM
t
MM
t
)(R
d
) (a + bZ)

1 . (5.3)
Sinon la suite est dite algebriquement non-arithmetique.
Remarque 5.2.2. Pour tout M, M
t
Top
d
de rang 1 et tout A Top
d
, la fonction
MAM
t
MM
t
est constante `a valeurs dans R

1 .
Theor`eme 5.2.4 (TLL). Soit (A(n))
nN
une suite dapplications topicales alea-
toires i.i.d. ayant la propriete MLP et soit X
0
une variable aleatoire `a valeurs
dans R
d
independante de (A(n))
nN
. Soit une application topicale de R
d
dans
R telle que
_

1
_
= 1. On suppose veriee lune des hypoth`eses suivantes :
i) sup
x
[(A(1)x) (x)[ a un moment dordre 2 et le syst`eme est non-arithmetique.
ii) A(1)

0 a un moment dordre 4 + , > 0, X


0
L

et la suite (A(n))
nN
est algebriquement non-arithmetique.
5.2.

ENONC

ES DES TH

EOR
`
EMES LIMITES 115
Alors il existe une mesure -nie sur R
d
, telle que, pour toute fonction h
continue `a support compact, on ait :
lim
n
sup
uR

2nE
X
0
_
h
_
x(n, X
0
) n

1 u

1
__
E
X
0
_
e

(u+(X
0
))
2
2n
2
_
(h)

= 0.
De plus, limage de par la fonction x (x, (x)) est le produit de la probabilite
invariante sur PR
d
max
par la mesure de Lebesgue.
Remarque 5.2.3. Dapr`es la seconde partie du theor`eme 5.2.1, la condition > 0
decoule de la non-arithmeticite algebrique si A(1)

0 a un moment dordre stric-


tement superieur `a 6.
Remarque 5.2.4. Comme le TLL pour les sommes de v.a.r. i.i.d., ce theor`eme
montre que la probabilite que x(n, X
0
) tombe dans une bote decrot comme
1

n
multiplie par la longueur de la bote. Pour remplacer la fonction continue h par
la fonction indicatrice dune bote, il faudrait en savoir plus sur la probabilite in-
variante sur PR
d
max
. En particulier, cette probabilite peut charger des hyperplans,
donc ces hyperplans ne doivent pas pouvoir intersecter la fronti`ere de la bote.
La non-arithmeticite algebrique est optimale au sens suivant :
Proposition 5.2.5. Si la conclusion du theor`eme 5.2.4 est satisfaite, alors la
suite (A(n))
nN
est algebriquement non-arithmetique.
Theor`eme 5.2.6 (Theor`eme de renouvellement). Soit (A(n))
nN
une suite
dapplications topicales aleatoires i.i.d. ayant la propriete MLP et soit X
0
une
variable aleatoire `a valeurs dans R
d
independante de (A(n))
nN
. Soit une ap-
plication topicale de R
d
dans R telle que
_

1
_
= 1 et que sup
x
[(A(1)x) (x)[
ait un moment dordre 2. On note la meme mesure que dans le theor`eme 5.2.4 .
Si ,= 0 et si le syst`eme est faiblement non-arithmetique, alors, pour toute fonc-
tion h continue `a support compact et toute condition initiale X
0
, on a :
lim
asg()

n1
E
_
h
_
x(n, X
0
) a

1
__
= 0,
lim
a+sg()

n1
E
_
h
_
x(n, X
0
) a

1
__
=
(h)

.
Remarque 5.2.5. La suite (x(n, X
0
))
nN
diverge presque s urement dans la direc-
tion du vecteur

1 . Comme le theor`eme de renouvellement pour les sommes de
v.a.r. i.i.d., ce theor`eme dit que le nombre moyen de x(n, X
0
) qui tombent dans
une bote qui part `a linni dans la direction du vecteur

1 est asymptotiquement
proportionnel `a la longueur de la bote. Comme dans le TLL, il faudrait en savoir
plus sur la probabilite invariante pour remplacer la fonction h par lindicatrice
dune bote.
116 CHAP. 5 TH

EOR
`
EMES LIMITE
Theor`eme 5.2.7 (Grandes deviations). Soit (A(n))
nN
une suite dapplica-
tions topicales aleatoires i.i.d. ayant la propriete MLP et soit X
0
une variable
aleatoire `a valeurs dans R
d
independante de (A(n))
nN
. Soit une application
topicale de R
d
dans R telle que
_

1
_
= 1 et que sup
x
[(A(1)x) (x)[ a un
moment exponentiel. Si
2
> 0 dans le theor`eme 5.2.1, alors il existe une fonction
c, positive, strictement convexe , denie sur un voisinage de 0 et ne sannulant
quen 0, telle que, pour toute condition initiale bornee X
0
et tout > 0 susam-
ment petit, on ait :
lim
n
1
n
ln P[(x(n, X
0
)) n > n] = c(),
lim
n
1
n
ln P[(x(n, X
0
)) n < n] = c().
5.2.2 Cas max-plus
Quand les A(n) sont des matrices aleatoires, il est naturel de prendre (x) =
max
i
x
i
. Dans ce cas, on a linegalite min
j
max
i
A
ij
(Ax) (x) max
ij
A
ij
,
donc on peut tester les conditions dintegrabilite sur les deux quantites ne depen-
dant que de A. Le theor`eme 5.2.1 devient alors :
Theor`eme 5.2.8 (TCL). Soit (A(n))
nN
une suite de matrices aleatoires `a
coecients dans R
max
i.i.d. ayant les proprietes T et MLP. Soit X
0
une variable
aleatoire `a valeurs dans R
d
. Si max
ij
A(1)
ij
et min
j
max
i
A(1)
ij
ont un moment
dordre 2, alors il existe
2
0 tel que pour toute condition initiale X
0
,
(i)
x(n,X
0
)n

n
converge faiblement vers ^(0,
2
)

1 pour tout X
0
ayant un
moment dordre 2,
(ii)
2
= lim
1
n
_ _
max
i,j
(A(n) A(1))
ij
n
_
2
dP.
Les theor`emes 5.2.2 `a 5.2.7 peuvent se specialiser de la meme mani`ere. Pour
les enonces suivants, on reprend les notations de la partie 4.2.
Dans le cas (max, +), on a aussi une condition de non degenerescence dans le
TCL.
Theor`eme 5.2.9. Sous les hypoth`eses du theor`eme 5.2.8, avec = 0, la variance

2
dans ce theor`eme est 0 si et seulement si
max
(T
A
) = 0.
Le theor`eme 4.1.4 donne une condition qui assure la propriete MLP. Cette
condition assure aussi lexistence de deux matrices de rayon spectral (max, +)
distincts dans S
A
. On en deduit le corollaire suivant :
5.2.

ENONC

ES DES TH

EOR
`
EMES LIMITES 117
Corollaire 5.2.10. Supposons que A(1) est une matrice aleatoire satisfaisant la
condition T et telle que A(1)

0 admet un moment dordre 2. Si S


A
T
d
nest pas
inclus dans une union nie dhyperplans anes de R
dd
, alors (x(n, .))
nN
verie
les conclusions du theor`eme 5.2.8 avec > 0.
On donne aussi une condition susante de non-arithmeticite algebrique :
Theor`eme 5.2.11. Soit (A(n))
nN
une suite de matrices aleatoires satisfaisant
la condition T. Supposons veriees les hypoth`eses du theor`eme 5.2.4 ii), sauf
peut etre la non-arithmeticite algebrique. Si le syst`eme est algebriquement arith-
metique, alors il existe a, b R tels que

max
(A)[A S
A
, ((A) fortement connexe a + bZ.
Compte tenu du corollaire 5.2.10, cela montre que les hypoth`eses du theo-
r`eme 5.2.4 sont generiques au sens suivant :
Corollaire 5.2.12. Supposons que A(1) une matrice aleatoire satisfaisant la
condition T et telle que A(1)

0 admet un moment dordre 4 + . Si S


A
T
d
nest pas inclus dans une union denombrable dhyperplans anes de R
dd
, alors
(x(n, .))
nN
verie les conclusions du theor`eme 5.2.4 .
5.2.3 Commentaires
Le tableau suivant recapitule les theor`emes limites obtenus. Dans chaque si-
tuation on suppose que (A(n))
nN
a la propriete MLP.
Theor`emes : Moments nis de Conditions
A(1)

0 max
ij
A(1)
ij
et min
j
max
i
A(1)
ij
supplementaires
TCL 4 + 2
TCL avec vitesse 6 + 3
TLL 4 + 2 NA
Renouvellement 2 NA
PGD exp X
0
L

NA= non-arithmeticite
Tab. 5.1 Theor`emes limites
Les resultats de la seconde colonne sont enonces pour des matrices car la
quantite sup
x
[(A(1)x) (x)[ nest pas bornee pour toutes les applications to-
picales. Si A(1) est `a valeurs dans une autre sous-classe de Top
d
, il faut trouver
un tel que sup
x
[(A(1)x) (x)[ soit integrable. Par exemple, si A(1) est `a
valeurs dans lespace des applications (min, +), on prendra (x) = min
i
x
i
.
118 CHAP. 5 TH

EOR
`
EMES LIMITE
Dautre part on devrait pouvoir prouver un theor`eme de renouvellement et un
principe de grandes deviations par la methode de [HH04], do` u on deduirait des
theor`emes analogues pour des applications topicales, mais cela na pas ete verie.
Les resultats de la premi`ere colonne sont obtenus sous des hypoth`eses dinte-
grabilite plus fortes ; mais ils sont aussi meilleurs pour deux raisons. Dabord, ils
sont vrais pour des applications topicales generales et non pour une sous-classe
adaptee au choix de . Ensuite, la non-arithmeticite algebrique ne depend pas de
. Elle est enonce sans introduire les operateurs markoviens Q bien que le syst`eme
soit algebriquement arithmetique si et seulement il existe un t ,= 0 tel que Q
t
a
une valeur propre de module 1. De plus pour les suites de matrices aleatoire, la
non-arithmeticite algebrique peut etre prouvee `a laide du theor`eme 5.2.11 .
Un cas important des matrices aleatoires est celui o` u A
ij
(n) R
+

et A
ii
(n) 0 car il modelise des situations o` u x
i
(n, .) est la date du eni`eme
evenement de type i et les A
ij
(n) sont des delais. Dans ce cas, lintegrabilite de
max
ij
A(1)
ij
et min
j
max
i
A(1)
ij
est equivalente `a lintegrabilite de A(1)

0 .
On a mentionne dans lintroduction que J. Resing et al. [RdVH
+
90] ont obtenu
un TCL. En un sens, leur resultat est meilleur, puisque la propriete MLP implique
que x(n, .) est uniformement -recurrente et aperiodique. Mais nos conditions
dintegrabilite sont plus faibles, et la propriete MLP est plus facile `a tester.
Le PGD de [Too02] ne necessite quune borne uniforme de limage de pro-
jective de A(1), ce que lon peut voir comme une condition dintegrabilite tr`es
forte. Cela sugg`ere que la propriete MLP nest pas necessaire. Mais sa formulation
du PGD nest pas equivalent `a la notre, et dans le cas (max, +), il demande la
condition de structure xe.
5.3 Chanes de Markov et operateurs quasi-compacts
5.3.1 Trou spectral
On rappelle le formalisme des chanes de Markov et des operateurs associes,
en suivant la presentation de H. Hennion et L. Herve [HH01]. Ensuite on enonce
les resultats que nous allons appliquer `a notre mod`ele dans la partie 5.4 .
Le contexte est donne par :
un espace mesurable (E, c),
une probabilite de transition Q sur (E, c),
une chane de Markov sur (E, c) associee `a Q, de terme general X
n
,
une fonction mesurable reelle sur (E, c).
On etudie la fonction caracteristique
Sn
de
S
n
:=
n

l=1
(X
l
)
5.3. CHA

INES DE MARKOV ET OP

ERATEURS QUASI-COMPACTS 119


en faisant agir les noyaux de Fourier, notes Q
t
ou Q(t), sur un espace de Banach
approprie de fonctions mesurables de E dans C. Ces noyaux sont denis pour
tout t C par :
Q
t
(x, dy) = e
it(y)
Q(x, dy) (5.4)
et ils agissent sur les fonctions selon lequation :
(Q
t
f)(x) =
_
f(y)e
it(y)
Q(x, dy).
On en deduit immediatement
Sn
(t) =
_
E
Q
n
t
1d(x), o` u est la loi de X
0
.
Comme Q est une probabilite de transition, Q = Q
0
admet 1 pour valeur
propre. Pour controler les perturbations Q
t
de Qet en particulier Q
n
t/

n
, le concept
clef est la quasi-compacite. On dit que Q a un trou spectral si elle verie la
denition suivante :
Denition 5.3.1. Un endomorphisme continu Q sur un espace de Banach B est
dit quasi-compact, sil existe une decomposition Q-stable B = F H telle que :
1. dimF < et toutes les valeurs propres de Q
[F
sont de module r(Q),
2. r(Q
[H
) < r(Q).
Dans ce cas, dimF sera note s(Q, B).
5.3.2 Premier cadre
Dans cette sous-partie, on enonce les resultats de [HH01], avec quelques hy-
poth`eses supplementaires qui simplient les enonces.
Denition 5.3.2. Soit (Q, ) comme plus haut, et (B, |.|) un espace de Banach
de fonctions continues de E dans C. On dit que (Q, B, ) verie la condition H(m)
si les proprietes suivantes sont satisfaites :
(H1) (i) 1 B et si f B, alors

f B et, si f est `a valeurs reelles, f
+
=
max(f, 0) B,
(ii) La norme |.| sur B est plus grande que la norme innie,
(iii) Pour toutes fonctions f, g B , on a aussi fg B.
(H2) (i) Q a une probabilite invariante ,
(ii) Q est quasi-compact sur B, et sup |Q
n
| < ,
(iii) Lespace propre de Q associe `a la valeur propre 1 est lensemble des
fonctions constantes sur E.
(H3) il existe un voisinage I
0
de 0 dans R tel que Q(.) soit une fonction de classe
(
m
de I
0
dans lespace L
B
des endomorphismes lineaires continus de B et tel que
pour 1 k m, la derivee ki`eme de cette fonction en 0 soit laction du noyau
(i(y))
k
Q(x, dy) sur B.
120 CHAP. 5 TH

EOR
`
EMES LIMITE
Denition 5.3.3. On dit que le syst`eme est non-arithmetique si Q(.) est continu
de R dans lespace L
B
des operateurs lineaires continus sur B et, pour tout t R

,
r (Q(t)) < 1.
On dit que le syst`eme est faiblement non-arithmetique si Q(.) est continu de
R dans L
B
et, pour tout t R

, 1 Q(t) est inversible.


On enonce les theor`emes limites de [HH01] quand s(Q, B) = 1.
Theor`eme 5.3.4 ([HH01]). On suppose que (Q, B, ) verie la condition H(2)
et que s(Q, B) = 1. Si
2
est -integrable et si () = 0, alors il existe
2
0 tel
que pour toute condition initiale de loi , on ait :
(i) lim
n
1
n
E

[S
2
n
] =
2
,
(ii) si
2
= 0, alors il existe
1
B, tel que
2
1
est -integrable et (X
1
) =

1
(X
0
)
1
(X
1
) P

p.s.,
(iii) pour f B et g (
c
(R),
lim
n
E

_
f(X
n
)g(
S
n

n
)
_
= (f)^(0,
2
)(g),
o` u la convergence est uniforme en la condition initiale.
Si s(Q, B) ,= 1, alors est encore denie, mais les convergences nont lieu
que pour = .
Theor`eme 5.3.5 ([HH01]). On suppose que (Q, B, ) verie la condition H(3).
Si () = 0 et > 0, alors il existe C > 0 tel que pour toute condition initiale ,
sup
uR

[S
n
u

n] ^(0, 1)(] , u])

C(|| + 1)

n
.
Theor`eme 5.3.6 ([HH01]). On suppose que (Q, B, ) verie la condition H(2),
que s(Q, B) = 1, et que () = 0. Si le syst`eme est non-arithmetique et si > 0,
alors pour toute fonction f B et g (
c
(R), on a :
lim
n
sup
uR

2nE

[f(X
n
)g(S
n
u)] e

u
2
2n
2
(f)L(g)

= 0,
o` u L est la mesure de Lebesgue. De plus, la convergence est uniforme en la condi-
tion initiale .
Theor`eme 5.3.7 ([HH01]). On suppose que (Q, B, ) verie la condition H(2),
et que () > 0. Si le syst`eme est faiblement non-arithmetique, alors pour toutes
fonctions f B et g (
c
(R), on a :
lim
a

n1
E

[f(X
n
)g(S
n
a)] = 0,
lim
a+

n1
E

[f(X
n
)g(S
n
a)] =
(f)
()
L(g),
o` u les convergences sont uniformes en la condition initiale .
5.3. CHA

INES DE MARKOV ET OP

ERATEURS QUASI-COMPACTS 121


Theor`eme 5.3.8 ( [HH01]). On suppose que (Q, B, ) verie la condition H(2),
que () = 0 et que > 0. Sil existe M > 0 tel que Q(.) soit continu de
z C : ['(z)[ < M dans L
B
et holomorphe sur z C : [z[ < M, alors il
existe une fonction c, positive, strictement convexe , denie sur un voisinage de
0 et ne sannulant quen 0, telle que, pour tout B
t
p
et tout > 0 susamment
petit, on ait :
lim
n
1
n
P

[S
n
> n] = c().
5.3.3 Second cadre
Dans larticle [HH04] H. Hennion et L. Herve ont obtenu des theor`emes limites
pour des suites (Y
n
, Z
n1
), o` u (Y
n
)
nN
est une suite dapplications lipschitziennes
i.i.d., et Z
n
est deni par Z
n+1
= Y
n+1
Z
n
. Comme indique dans la partie 5.1.2,
notre mod`ele rentre dans ce cadre. De plus, les Y
n
, qui sont les applications denies
par les A(n) sur PR
d
max
, sont 1-lipschitziennes. En reprenant la demonstration
de [HH04] avec cette condition supplementaire, on obtient les theor`emes de cette
partie.
Les conditions dintegrabilite sont plus faibles que dans [HH04], car la constante
de Lipschitz est uniformement bornee. La seule modication de la preuve `a ef-
fectuer porte sur linegalite de Holder dans la 4e partie de la proposition 7.3
de [HH04] : il faut prendre les exposants 1 et .
Dans toute la suite, (/, ) est un espace metrique dont toutes les boules fer-
mees sont compactes et G est le semi-groupe de ses applications 1-lipschitziennes.
On note o la situation suivante :
(i) (Y
n
)
nN
est une suite de variables aleatoires `a valeurs dans G, i.i.d. et de
loi . Z est une variable aleatoire `a valeurs dans /independante de (Y
n
)
nN
.
La suite (Z
n
)
nN
est denie par
Z
0
= Z et Z
n+1
= Y
n+1
Z
n
.
(ii) : G/ R est 1-lipschitzienne en la seconde variable, et S
n
est deni
par
S
n
=
n

k=1
(Y
k
, Z
k1
).
(iii) On choisit x
0
/, et pour tout 1 et tout n N, on pose /

=
E[

(Y
1
x
0
, x
0
)] et (
n
= E[c(Y
n
Y
1
)], o` u c(.) est la constante de Lipschitz.
Sil existe un N N tel que (
N
< 1, alors il existe un
0
]0, 1[, tel que
_
G
c(g) (1 +
0
(gx
0
, x
0
))
2
d
N
(g) < 1. On choisit un tel
0
et on se donne les
notations suivantes :
122 CHAP. 5 TH

EOR
`
EMES LIMITE
(i)
`
A toute fonction f de / dans C, on associe les quantites suivantes :
[f[

= sup
x
[f(x)[
(1 +
0
(x, x
0
))
1+
,
m

(f) = sup
x,=y
[f(x) f(y)[
(x, y) (1 +
0
(x, x
0
))

(1 +
0
(y, x
0
))

.
B

est lensemble des fonctions f de / dans C telles que m

(f) < . Il
est muni de la norme |.|

= [.[

+ m

(.).
(ii) B
t

est lensemble des probabilites sur E qui denissent une forme lineaire
continue sur B

et pour tout r > 0, on note B


t
,r
= B
t

: || < r, o` u
|| est la norme de la forme lineaire sur B

denie par .
(iii) On dit que le syst`eme est -arithmetique sil existe un t R0, un C
de module 1, et une fonction w B

de module constant non nul sur le


support S

0
de
0
telle que pour tout n N, on ait :
e
itSn
w(Z
n
) =
n
w(Z
0
)P

0
p.s. . (5.5)
Sinon, on dit que le syst`eme est -non-arithmetique
Remarque 5.3.1 (non-arithmeticite). Dans le premier cadre, la non-arithmeticite
porte sur le rayon spectral de Q
t
. Ici, on travaille avec loperateur associe P
t
qui agit sur / au lieu de (G, /) (cf. [HH04]). Si P
t
est quasi-compact, alors
r(P
t
) = 1 ssi P
t
a une valeur propre de module 1. La proposition 9.1 de [HH04]
montre que si r(P
t
) = 1, alors P
t
est quasi-compact en tant quoperateur sur B

et que tout vecteur propre w associe `a verie lequation (5.5).


Nous pouvons maintenant enoncer les theor`emes limites dus `a H. Hennion et
L. Herve.
Theor`eme 5.3.9 ([HH04]). Dans la situation o, sil existe 0 tel que
/
+1
< et n
0
N tel que (
n
0
< 1, alors S
n
converge en loi vers une distribu-
tion invariante , telle que
_
/

+1
(x, x
0
)d(x) < .
Theor`eme 5.3.10 ([HH04]). Dans la situation o, sil existe > 2 et n
0
N
tels que (
n
0
< 1 et /
2
< , alors, pour f

<1
B

et g (
c
(R), on a :
(i) lim
n
E

_
f(Z
n
)g(
Sn

n
)
_
= (f)^(0,
2
)(g), o` u la convergence est uniforme
en B
t
,r
.
(ii) Si > 3, alors pour B
t

, lim
n
1
n
E

[S
2
n
] =
2
.
(iii) Si > 3 et
2
= 0, alors il existe
1
B
1
, tel que
2
1
soit -integrable et
(X
1
) =
1
(X
0
)
1
(X
1
) P

p.s..
5.4. D

EMONSTRATION DES TH

EOR
`
EMES LIMITE 123
Theor`eme 5.3.11 ([HH04]). Dans la situation o, sil existe > 3 et n
0
N
tels que (
n
0
< 1 et /
2
< , si de plus () = 0 et > 0, alors il existe C > 0
tel que pour B
t

,
sup
uR

[S
n
u

n] ^(0, 1)(] , u])

C||

n
.
Theor`eme 5.3.12 ([HH04]). Dans la situation o, sil existe > 2 et n
0
N
tels que (
n
0
< 1 et /
2
< , si () = 0 et > 0, et sil existe 1 <
t
< 1
tel que le syst`eme soit
t
-non-arithmetique, alors pour f B

et g (
c
(R), on
a :
lim
n
sup
uR

2nE

[f(Z
n
)g(S
n
u)] e

u
2
2n
2
(f)L(g)

= 0,
o` u L est la mesure de Lebesgue et la convergence est uniforme en B
t
,r
.
5.4 Demonstration des theor`emes limite
5.4.1 Des applications topicales iterees aux chanes de
Markov
Dans cette partie, on montre que les hypoth`eses des theor`emes de la partie 5.2
impliquent les hypoth`eses des theor`emes de la partie 5.3 . Pour appliquer les
resultats de [HH01],
lespace E sera Top
d
PR
d
max
muni de la tribu de Borel,
la probabilite de transition Q sera denie par
Q((A, x), D) = P
_
(A(1), Ax) D
_
,
le terme general X
n
de la chane de Markov sera (A(n), x(n 1, .)),
la fonction sera denie par (A, x) = (Ax) (x), o` u est une fonction
topicale de R
d
dans R telle que
_

1
_
= 1.
(A) = sup
x
[(A, x)[ = sup
x
[(Ax) (x)[ < p.s. .
On denit maintenant lespace B.
Denition 5.4.1. Soit L

lespace fonctions continues bornees de PR


d
max
dans
C. On le munit de la norme innie.
Soit j la fonction de Top
d
PR
d
max
dans PR
d
max
telle que j(A, x) = Ax et soit
I la fonction de C
PR
d
max
dans C
(Top
d
PR
d
max
)
denie par
I() = j.
On appelle B

limage de L

par I.
124 CHAP. 5 TH

EOR
`
EMES LIMITE
Comme (L

, |.|

) est un espace de Banach, et I une une isometrie pour la


norme innie, (B

, |.|

) est aussi un espace de Banach.


Rappelons que les noyaux de fourrier et en particulier Q agissent sur B

selon
la formule 5.4. De meme, la probabilite invariante agit sur B

selon lequation
(f) =
_
f(x)(dx).
Pour pouvoir utiliser les resultats de la partie 5.3.2, il reste `a prouver la
proposition suivante :
Proposition 5.4.2. Si (A(1)) a un moment dordre m et si A(n) a la propriete
MLP, alors (Q, , B

) satisfait la condition H(m). De plus lintervalle I


0
de la
condition (H3) est R tout entier et s(Q, B

) = 1.
Pour montrer (H2), on utilisera le theor`eme 3.2.2, qui dit que si la suite
(A(n))
nN
de variables aleatoires `a valeurs dans Top
d
a la propriete MLP, alors il
existe une variable aleatoire Y `a valeurs dans PR
d
max
telle que Y
n
:= A(n) A(1)Y
est stationnaire et
lim
n
P(x
0
, Y
n
,= x(n, x
0
)) = 0.
Dans la suite,
0
designera la loi de Y .
Demonstration de la proposition 5.4.2. La condition (H1) est triviale, etant donne
le choix de B

.
Pour verier la condition (H2), on denit la probabilite :=
0
. Elle est
Q-invariant par denition de
0
, ce qui prouve (i). Pour prouver (ii) et (iii), on
etudie les iteres de Q. Pour tout L

, et x R
d
on a :
[Q
n
( j)(A, x) ( j)[ =

Q
n
()(Ax)
0
()

_
( x(n, Ax)dP
_
(Y
n
)dP

||

2P(x
0
, Y
n
,= x(n, x
0
)) ,
Si on note N pour (), on obtient :
|Q
n
N| 2P(x, Y
n
,= x(n, x)) 0. (5.6)
Cela montre que r(Q
[KerN
) < 1 et que sup
n
|Q
n
| < , donc (ii) est verie et
s(Q, B

) = 1. Lequation (5.6) montre aussi que les fonctions propres de Q asso-


ciees `a la valeur propre 1 sont inclues dans ImN, ce qui implique (iii).
Pour montrer (H3) on pose Q
(k)
t
:= e
it(y)
(i(y))
k
Q(x, dy) et

(k)
h
:= Q
(k)
t+h
Q
(k)
t
hQ
(k+1)
t
. (5.7)
5.4. D

EMONSTRATION DES TH

EOR
`
EMES LIMITE 125
Pour montrer la proposition 5.4.2, il reste `a majorer |
1
h

(k)
h
| par une quantite
qui tend vers zero avec h.
Pour cela, on introduit la fonction suivante :
_
f : R C
t e
it
1 it.
Les calculs sappuieront sur les estimations suivantes : [f(t)[ 2t, et [f(t)[ t
2
.
Maintenant tout decoule de lequation suivante :

(k)
h
( j)(A, x) =
_

_
BAx
_
e
it(B,Ax)
_
i(B, Ax)
_
k
f
_
h(B, Ax)
_
d(B),
dont on deduit :
_
_
_
(k)
h
( j)
_
_
_

||

_

k
(B) |f (h(B, .))|

d(B). (5.8)
De [f(t)[ t
2
, on deduit
1
[h[
(B)
k
|f (h(B, .))|

h
k+2
(B) 0.
De [f(t)[ 2t, on deduit
1
[h[

k
(B) |f (h(B, .))|

2
k+1
(B).
Quand k < m,
k+1
est integrable donc le theor`eme de convergence dominee et
les deux derni`eres inegalites prouvent que lon a :
_
(B)
k
|f (h(B, .))|

d(B) = o(h). (5.9)


Donc, pour tout k < m, dapr`es lequation (5.8), |
1
h

(k)
h
| tend vers zero. Cela
signie que Q
(k+1)
t
est la derivee de Q
(k)
.
en t.
Pour montrer que Q
(m)
.
est continue, on remarque que
_
Q
(m)
t+h
Q
(m)
t
_
(j)(A, x) =
_

_
BAx
_
e
it(B,Ax)
_
i(B, Ax)
_
m
g
_
h(B, Ax)
_
d(B).
(5.10)
o` u g(t) = e
it
1. On applique la meme methode que precedemment, en rempla-
cant les estimees sur f (h(B, .)) par |g (h(B, .)) |

h(B) pour montrer la


convergence, et par |g (h(B, .)) |

2 pour montrer la domination.


La propriete (H3) est donc veriee avec I
0
= R.
126 CHAP. 5 TH

EOR
`
EMES LIMITE
Pour montrer les theor`emes 5.2.1 et 5.2.4, on veut aussi utiliser les theo-
r`emes de la partie 5.3.3 . Pour cela, on pose / = PR
d
max
, Y
n
= A(n), x
0
=

0
et `a nouveau (A, x) = (Ax) (x). Dans ce cas Z
n
= x(n, X
0
) et S
n
=
(x(n, X
0
)) (X
0
) et on obtient la proposition suivante :
Proposition 5.4.3.
1. Si A(1)

0 a un moment dordre R
+
, alors /

< . Si la suite
(A(n))
nN
a la propriete MLP, alors il existe n
0
N tel que (
n
0
< 1. Si X
0
a un moment dordre 1+ [1, +[, alors la forme lineaire f E[f
_
X
0
_
]
appartient `a B
t

et sa norme est majoree par E((1 +[X


0
[)
1+
) .
2. Si la suite (A(n))
nN
est algebriquement non-arithmetique, alors elle est
aussi -non-arithmetique pour tout > 0.
La premi`ere partie de la proposition est evidente. La seconde partie repose
sur les deux lemmes suivants, qui seront demontres apr`es la proposition :
Lemme 5.4.4. Le support de la mesure invariante
0
est
S

0
:=
_
M

M T
A
, M de rang 1
_
.
Lemme 5.4.5. Si linclusion (5.3) est veriee pour une application M de rang 1,
tout A S
A
et tout M
t
T
A
de rang 1, alors elle est veriee pour tout M T
A
de rang 1.
Demonstration de la proposition 5.4.3. Supposons le syst`eme -arithmetique. Il
existe w B

et t, a R tels que pour -presque tout A et


0
-presque tout x, on
ait :
e
it((Ax)(x))
w
_
Ax
_
= e
ita
w(x) . (5.11)
Comme cette equation ne fait intervenir que des fonctions continues, elle est
veriee pour tout x S

0
et tout A T
A
. Comme S

0
est T
A
invariant, on it`ere
lequation (5.11) et on obtient
e
it((Tx)(x))
w
_
Tx
_
= e
itan
T
w(x) , (5.12)
o` u T T
A
et n
T
est le nombre delements de S
A
quil faut composer pour obtenir
lapplication T. Grace `a la la propriete MLP, il existe un M T
A
de rang 1. On
ecrit lequation (5.12) pour T = MA puis pour T = M et on divise la premi`ere
equation par la seconde. Comme n
(MA)
= n
M
+1 et MAx = Mx , on en deduit :
e
it((MAx)(Mx))
= e
ita
.
En posant b =
2
t
, cela signie que ((MAx) (Mx)) a +bZ. Comme M
est de rang 1, (MAxMx) R

1 , donc comme est topicale, ((MAx) = (Mx))+


(MAx Mx)
1
. Finalement (MAx Mx) (a + bZ)

1 , et larithmeticite alge-
brique decoule du lemme 5.4.4 .
5.4. D

EMONSTRATION DES TH

EOR
`
EMES LIMITE 127
Demonstration du lemme 5.4.4. Dapr`es le theor`eme 3.2.2, il existe une variable
aleatoire Y de loi
0
, independante de (A(n))
nN
et telle que la suite (x(n, Y ))
nN
soit stationnaire. Soit K un sous-ensemble compact de R
d
tel que P(Y K) > 0.
Pour tout M T
A
et tout > 0, lensemble V de fonctions topicales A telles
que (Ax, Mx) pour tout x K est un voisinage de M. Donc la probabilite
que A(n
M
) A(1) soit dans V est strictement positive et par lindependance de
Y , on a :
P(Y K, A(n
M
) A(1) V ) > 0.
Si M est de rang 1, alors M

1 = MY , donc cela implique quavec probabilite


strictement positive, on a :

_
Y
n
M
, M

1
_
=
_
A(n
M
) A(1)Y, MY
_
,
donc M

1 S

0
.
Cela montre que
_
M

M T
A
, M de rang 1
_
S

0
.
Dautre part
0
est obtenu comme la loi de Z = lim
n
A(1) A(n)

1 . En
fait, la propriete MLP et lergodicite assurent quil existe presque s urement un
entier N tel que A(1) A(N + 1) soit de rang 1. Donc A(1) A(n)

1 =
A(1) A(N + 1)

1 pour tout n N + 1 et Z = A(1) A(N + 1)

1 . Mais
A(1) A(N+1) T
A
presque s urement, donc Z
_
M

M T
A
, M de rang 1
_
presque s urement et S

0

_
M

M T
A
, M de rang 1
_
.
Demonstration du lemme 5.4.5. On suppose que lequation (5.3) est veriee pour
M = M
1
, tout A S
A
et tout M
t
T
A
de rang 1.
Soient A
1
, , A
n
S
A
, tels que M
2
= A
1
A
n
soit de rang 1. Pour tout
i n, A
i
A
n
M
t
est de rang 1, donc (M
1
A
i
A
n
M
t
M
1
A
i+1
A
n
M
t
)(R
d
)
(a + bZ)

1 .
On combine ces inclusions pour i variant de 1 `a n, et on obtient (M
1
M
2
M
t

M
1
M
t
)(R
d
) (na+bZ)

1 donc en remplacant M
t
par AM
t
et retranchant lequa-
tion initiale, on trouve :
((M
1
M
2
AM
t
M
1
AM
t
) (M
1
M
2
M
t
M
1
M
t
)) (R
d
) bZ

1 . (5.13)
On ecrit M
2
M
t
comme
M
2
M
t
= M
1
M
t
+ (M
1
M
2
M
t
M
1
M
t
) (M
1
M
2
M
t
M
2
M
t
).
le dernier bloc ne depend pas de M
t
, donc en remplacant M
t
par AM
t
et
retranchant lequation initiale, on trouve :
M
2
AM
t
M
2
M
t
= M
1
AM
t
M
1
M
t
+((M
1
M
2
AM
t
M
1
AM
t
) (M
1
M
2
M
t
M
1
M
t
)) .
Compte tenu de lequation (5.13), cela prouve que lequation (5.3) est veriee
pour M = M
2
.
128 CHAP. 5 TH

EOR
`
EMES LIMITE
5.4.2 Des chanes de Markov aux applications topicales
iterees
Commencons par remarquer que quand X
0
est de loi
0
, la suite (A(n), x(n, X
0
))
nN
est stationnaire de loi , donc par le theor`eme de Birkho, on a
=
_
(A, x)d
0
(x)d(A) = ().
Les propositions 5.4.2 et 5.4.3 montrent que sous les hypoth`eses des theor`emes
de la partie 5.2, les hypoth`eses des theor`emes de la partie 5.3 sont veriees. On
en deduit donc des resultats sur le comportement de la suite
(((x(n, X
0
) (X
0
) n(), x(n, X
0
)))
nN
.
Le lemme suivant sera utile pour revenir `a la suite (x(n, X
0
))
nN
.
Lemme 5.4.6. Si est une fonction topicale de R
d
dans R, la fonction : x
((x), x) est un homeomorphisme bilipschitzien de R
d
sur R PR
d
max
.
En outre, si
_

1
_
= 1, alors
_

0
_
= 0 et on a :
_
_
_x (x)

1
_
_
_

[x[
1
.
Demonstration. Soit (t, x) un element de R PR
d
max
. Alors (y) = (t, x) si et
seulement sil existe un a R tel que y = x + a

1 et (x) + a = t. Donc
lequation a exactement une solution y = x + (t (x))

1 et est inversible.
Les fonctions topicales sont lipschitziennes, et la projection est lineaire, donc
aussi lipschitzienne. Par consequent, est lipschitzienne.
Pour tout x, y R
d
, on a x y + max
i
(x
i
y
i
)

1 , donc (x) (y)


max
i
(x
i
y
i
). Par consequent, pour tout 1 i d, on a (x) (y) (x
i
y
i
)
max
i
(x
i
y
i
) min
i
(x
i
y
i
) = (x, y). En echangeant x et y, on en deduit :
[(x) (y) (x
i
y
i
)[ (x, y). (5.14)
Par consequent [x
i
y
i
[ [(x) (y)[ + (x, y) et la fonction
1
est lipschit-
zienne.
Legalite est obtenue en remarquant que

0
_
=
_

1
_
=
_

1
_
1 = 0
et linegalite en prenant y =

0 dans (5.14).
Demonstration du theor`eme 5.2.1. Sans perte de generalite, on peut supposer
= 0.
5.4. D

EMONSTRATION DES TH

EOR
`
EMES LIMITE 129
Sous lhypoth`ese i), le theor`eme 5.3.4 et la proposition 5.4.2 montrent que
_
(x(n,

0 ))(

0 )

n
_
nN
converge en loi vers ^(0,
2
), cest-`a-dire que
_
(x(n,

0 ))

1
_
nN
converge en loi vers ^(0,
2
)

1 . Sous lhypoth`ese ii), le theor`eme 5.3.10 et la
proposition 5.4.3 montrent la meme chose.
On estime donc la dierence entre la suite convergente et celle dont on veut
montrer quelle converge. Dapr`es linegalite du lemme 5.4.6, on a :

n
:=
_
_
_
_
_
_
x(n,

0 )

_
x(n,

0 )
_

1
_
_
_
_
_
_

x(n,

0 )

n
.
Le membre de droite est le terme general dun suite faiblement convergente
divise par

n. Donc (
n
)
nN
tend vers zero en probabilite, ce qui conclut la
preuve de la convergence en loi dans le theor`eme 5.2.1 si X
0
=

0 .
Quand X
0
,=

0 , le resultat reste vrai puisque |x(n, X
0
) x(n,

0 )|

[X
0
[.
Quand X
0
=

0 , lexpression de
2
comme limite decoule directement des
theor`emes 5.3.4 et 5.3.10 . Montrons que la formule reste vrai pour tout X
0
de carre integrable. Pour cela, on va majorer la dierence entre
2
(x(n,

0 )) et

2
(x(n, X
0
)) :
[
2
(x(n, X
0
))
2
(x(n,

0 ))[

(x(n, X
0
)) (x(n,

0 ))

(x(n, X
0
)) + (x(n,

0 ))

[X
0
[
_
2[(x(n,

0 ))[ +[X
0
[
_
.

1
n
E
_

2
(x(n, X
0
))
_

1
n
E
_

2
(x(n,

0 ))
_

1
n
_
E
_
[X
0
[
2
_
+ 2
_
E
_
[X
0
[
2
__
1/2
_
E
_
[(x(n,

0 ))[
2
__
1/2
_

1
n
E
_
[X
0
[
2
_
+ 2
1

n
_
E
_
[X
0
[
2
__
1/2
_
1
n
E
_

2
(x(n,

0 ))
_
_
1/2
.
Or la suite
_
1
n
E
_

2
(x(n,

0 ))
__
nN
converge, donc la derni`ere quantite tend
vers 0 et le resultat est demontre.
La n de la preuve est consacree `a la caracterisation du cas = 0. Si =
0, alors par le theor`eme 5.3.4 ou par le theor`eme 5.3.10, il existe une fonction
continue f sur PR
d
max
telle que
(Ax) (x) = f(x) f(Ax) (5.15)
130 CHAP. 5 TH

EOR
`
EMES LIMITE
pour -presque tout A et
0
-presque tout x. Comme lequation (5.15) ne fait
intervenir que des fonctions continues, elle est veriee par toute matrice A S
A
et tout element x S

0
. Par une recurrence immediate, elle est aussi veriee par
tout A T
A
. Pour tout M T
A
de rang 1 et tout x S

0
, MAx = Mx, donc
(MAx) = (Mx).
Comme MAxMx R

1 , cela signie que MAx = Mx. Dapr`es le lemme 5.4.5


applique avec a = b = 0, cela signie que MAM
t
= MM
t
pour tous les M, M
t

T
A
de rang 1 et tous les A S
A
.
Reciproquement, supposons que pour tout M, M
t
T
A
de rang 1 et tout
A S
A
, on ait :
MAM
t
= MM
t
. (5.16)
Par une recurrence immediate, lequation (5.16) est aussi veriee par tout A T
A
.
Par consequent, pour tout m N, n m + 1 et M
t
T
A
de rang 1, si
A(n) A(nm+1) est de rang 1 , alors x(n, M
t

1 ) = A(n) A(nm+1)M
t

1
et pour tout n N on a :
P
__
_
_x(n, M
t

1 )
_
_
_

N
_
P
_
A(n) A(n m + 1) est de rang 1, |A(n) A(n m + 1)M
t

1 |

N
_
P
_
A(m) A(1) est de rang 1, |A(m) A(1)M
t

1 |

N
_
. (5.17)
On choisit une application M
t
T
A
de rang 1. La propriete MLP dit quil
existe un entier m tel que P(A(m) A(1) est de rang 1) > 0. Par consequent, il
existe un entier N N tel que le membre de droite de linegalite (5.17) soit un
nombre strictement positif que nous appelons .
Lequation (5.17) implique que pour tout > 0, si n max(m, N
2

2
), alors
P(|
1

n
x(n, M
t

1 )|

) , donc ^(0,
2
)[, ] . En faisant tendre vers
zero, on obtient que ^(0,
2
)(0) > 0, ce qui nest vrai que pour = 0.
Demonstration du theor`eme 5.2.2. Sans perte de generalite, on peut supposer
= 0. La relation (5.2) decoule du theor`eme 5.3.5 et de la proposition 5.4.2 sous
lhypoth`ese i) et du theor`eme 5.3.11 et de la proposition 5.4.3 sous lhypoth`ese
ii).
Dapr`es linegalite du lemme 5.4.6, [(x) min
i
x
i
[ [x[
1
et on a :

n
:=
_
_
_
_
x(n, X
0
)

n

(x(n, X
0
)) (X
0
)

1
_
_
_
_

[(X
0
)[

n
+
[x(n, X
0
)[
1

n
.
(5.18)
On en deduit que pour tout u R
d
et tout > 0, on a :
P[x(n, X
0
) u

n]
5.4. D

EMONSTRATION DES TH

EOR
`
EMES LIMITE 131
P
_
min
i
x
i
(n, X
0
) min
i
u
i

n
_
P
_
(x(n, X
0
)) (X
0
) ( min
i
u
i
+ 2)

n
_
+P
_
[(X
0
)[

n

_
+P
_
[x(n, X
0
)[
1

n

_
^(0, 1)(] , min
i
u
i
+
2

]) +
C

n
+
E
_
[(X
0
)[
l
_
(

n)
l
+
E
_
[x(n, X
0
)[
l
1
_
(

n)
l
^(0, 1)(] , min
i
u
i
]) +
C

n
+
2

+
E
_
[(X
0
)[
l
_
(

n)
l
+
E
_
[x(n, X
0
)[
l
1
_
(

n)
l
. (5.19)
De lautre cote,
P[x(n, X
0
) u

n]
P
_
(x(n, X
0
)) (X
0
) min
i
u
i

n
_
P
_
(x(n, X
0
)) ( min
i
u
i
2)

n
_
P
_
[(X
0
)[

n

_
P
_
[x(n, X
0
)[
1

n

_
^(0, 1)(] , min
i
u
i

])
C

n

E
_
[(X
0
)[
l
_
(

n)
l

E
_
[x(n, X
0
)[
l
1
_
(

n)
l
^(0, 1)(] , min
i
u
i
])
C

n

2


E
_
[(X
0
)[
l
_
(

n)
l

E
_
[x(n, X
0
)[
l
1
_
(

n)
l
.
(5.20)
En prenant = n

l
2(l+1)
dans les equations (5.19) et (5.20) on conclura la
preuve du theor`eme 5.2.2 si on peut montrer que E
_
[x(n, X
0
)[
l
1
_
est borne uni-
formement en n et lineairement en E(|X
0
|
l

). Cest ce que nous faisons dans la


n de la preuve.
Comme les applications topicales sont 1-lipschitziennes sur PR
d
max
, on peut
supposer que X
0
=

0 .
Pour n
0
N, on prend a (P[A(n
0
) A(1) nest pas de rang 1 ])
1/n
0
. Si
n m et si A(n) A(m) nest pas de rang 1, alors pour tout entier i plus petit
que
nm
n
0
, lapplication A(m1 +in
0
) A((i 1)n
0
+m) nest pas non plus de
rang 1. De lindependance des A(n), on deduit :
P(A(n) A(m) nest pas de rang 1 ) a
nmn
0
.
On estime la quantite
_
A(n) A(m)

0 , A(n) A(n
0
+ 1 +m)

0
_
: elle est
nulle quand A(n) A(n
0
+1 +m) est de rang 1, et elle est toujours majoree par

_
A(n
0
+ m) A(m)

0 ,

0
_
=

A(n
0
+ m) A(m)

1
. Par consequent, on a
pour tout n m + n
0
E
_

l
_
A(n) A(m)

0 , A(n) A(m + n
0
)

0
__
132 CHAP. 5 TH

EOR
`
EMES LIMITE
E
_
1
A(n)A(n
0
+1+m) nest pas de rang 1

A(n
0
+ m) A(m)

l
1
_
= a
nm2n
0
E
_

A(n
0
+ 1) A(1)

l
1
_
. (5.21)
Soit n = qn
0
+ r la division euclidienne de n par n
0
. On a

x(n,

0 )

1
=
_
A(n) A(0)

0 ,

0
_

i=1

_
A(n) A(in
0
)

0 , A(n) A((i 1)n


0
)

0
_
+
_
A(n) A(n r)

0 ,

0
_
.
Par consequent on a :
_
E
_

x(n,

0 )

l
1
__
1/l

i=1
_
a
nin
0
n
0
E
_

A(n
0
) A(1)

l
1
__
1/l
+
_
E
_

A(r) A(1)

0 ,

0
_

l
1
_
1/l
. (5.22)
On reutilise cette decomposition (avec n
0
= 1 et a = 1), pour verier que
_
E
_

A(n) A(1)

l
1
__
1/l
n
_
E
_

A(1)

l
1
__
1/l
.
Dapr`es la propriete MLP, il existe n
0
N tel que a < 1. En reintroduisant la
derni`ere inegalite dans lequation (5.22), on obtient :
_
E
_

x(n,

0 )

l
1
__
1/l

_
1 +
a

n
0
l
1 a
n
0
l
_
n
0
_
E
_

A(1)

l
1
__
1/l
.
Pour prouver le TLL et theor`eme de renouvellement, on aura besoin du lemme
dapproximation classique suivant :
Lemme 5.4.7. Soit h une fonction continue `a support compact de R
a
R
b
dans
C. Il existe deux fonctions continues `a supports compacts f
0
(
c
(R
a
, C) et g
0

(
c
(R
b
, C), telles que pour tout > 0, il existe un ensemble ni I et pour tout i I
des fonctions f
i
(
c
(R
a
, C) et g
i
(
c
(R
b
, C) satisfaisant :
x R
a
, y R
b
, [h(x, y)

iI
f
i
(x)g
i
(y)[ f
0
(x)g
0
(y).
5.4. D

EMONSTRATION DES TH

EOR
`
EMES LIMITE 133
Dans toute la suite, on note L la mesure de Lebesgue.
Demonstration du theor`eme 5.2.4. Pour montrer que > 0 sous lhypoth`ese i),
on repart de la caracterisation du cas = 0 dans le theor`eme 5.3.4 que lon
a applique pour demontrer le theor`eme 5.2.1 : si = 0, il existe une fonction
f L

veriant lequation (5.15) :


(Ax) (x) = f(x) f(Ax)
pour -presque tout A et
0
-presque tout x.
Alors pour tout t R la fonction g
t
:= e
itf
B

verie :
x S

0
, A S
A
, Q
t
(g
t
I)(A, x) = (g
t
I)(A, x)
Comme S

0
est stable par S

, on peut iterer cette equation et on a :


n N, Q
n
t
(g
t
I)(A, x) = (g
t
I)(A, x)
donc r(Q
t
) 1, ce qui contredit la non-arithmeticite du syst`eme.
On applique la proposition 5.4.2 et le theor`eme 5.3.6 ou la proposition 5.4.3
et le theor`eme 5.3.12 . On en deduit que, si g (
c
(R) et si f est une fonction
lipschitzienne bornee sur PR
d
max
, alors pour tout x
0
R
d
,
lim
n
sup
uR

2nE(f ( x(n, x
0
)) g ((x(n, x
0
)) (x
0
) u)) e

u
2
2n
2
(f)L(g)

= 0.
(5.23)
En outre, ces convergences sont uniformes en x
0
, car la forme lineaire
x
0
est
borne independamment de x
0
comme forme lineaire sur B

et est un element
B
t
,|X
0
|
si [x
0
[
1
|X
0
|

. Luniformite nous permet de prendre toute condition


initiale X
0
et dobtenir
lim
n
sup
uR

2nE[f ( x(n, X
0
)) g ((x(n, X
0
)) u)] E
_
e

(u+(X
0
))
2
2n
2
_
(f)L(g)

= 0.
(5.24)
Par la densite des fonctions lipschitziennes bornees dans ((
c
(PR
d
max
), |.|

)
lequation (5.24) est veriee par toutes les fonctions continues `a support compact
f et g. Du lemme 5.4.7, on deduit que pour toute fonction h (
c
(PR
d
max
R, C)
continue `a support compact, on a :
lim
n
sup
uR

2nE[h( x(n, X
0
), (x(n, X
0
)) u)] E
_
e

(u+(X
0
))
2
2n
2
_
L(h)

= 0.
(5.25)
Dapr`es le lemme 5.4.6 la fonction : x (, x) est bilipschitzienne, donc
h est `a support compact ssi h lest. Comme x + u

1 = x, cela ach`eve la
demonstration.
134 CHAP. 5 TH

EOR
`
EMES LIMITE
Demonstration de la proposition 5.2.5. Supposons que la suite (A(n))
nN
est al-
gebriquement arithmetique et que la conclusion de theor`eme 5.2.4 est veriee.
Il existe a, b R et M Top
d
de rang 1, tels que pour tout A S
A
et M
t
T
A
de rang 1 lequation (5.3) soit veriee. On pose t =
2
b
si b ,= 0 et t = 1 sinon et
pour tout x R
d
, w(x) = e
it((Mx)(x))
, o` u (x) = max
i
(x
i
). Lequation (5.3)
implique donc que, pour tout A S
A
, y R
d
, et tout M
t
T
A
de rang 1, on ait :
e
it((AM

y)(M

y))
w
_
AM
t
y
_
= e
ita
w
_
M
t
y
_
.
On choisit y tel que (M
t
y) = 0. Par recurrence, on obtient,
e
it(x(n,M

y))
w(x (n, M
t
y)) = e
itna
w
_
M
t
y
_
. (5.26)
Pour toutes les fonctions f : R R et g : PR
d
max
R continues `a support
compact, la conclusion du theor`eme 5.2.4 pour la fonction h denie par h(x) =
f((x))(gw)(x) est :

2nE[f ((x (n, M


t
y))) g (x (n, M
t
y)) w(x (n, M
t
y))] L(f)
0
(gw).
Compte tenu de lequation (5.26), on en deduit que :
e
itna
w
_
M
t
y
_

2nE
_
(e
it.
f) ((x (n, M
t
y))) g (x (n, M
t
y))

L(f)
0
(gw).
(5.27)
Mais la conclusion du theor`eme 5.2.4 pour la fonction h denie par h(x) =
(fe
it.
) ((x)) g(x) est :

2nE
_
(e
it.
f) ((x (n, M
t
y))) g (x(n, M
t
y))

L(fe
it.
)
0
(g). (5.28)
Les equations (5.27) et (5.28) impliquent que at 2Z et
w
_
M
t
y
_
L
_
fe
it.
_

0
(g) = L(f)
0
(gw).
Le membre de droite de lequation ne depend pas de M
t
donc, dapr`es le lemme 5.4.4,
w est constante sur S

0
. Cela prouve que
0
(gw) =
0
(g)w
_
M
t
y
_
, donc L(fe
it.
) =
L(f), cest-`a-dire que e
it.
= 1, ou encore t = 0. Cela contredit lhypoth`ese de de-
part, et conclut donc la demonstration.
Demonstration du theor`eme 5.2.6. On fait la demonstration dans le cas > 0.
On applique `a nouveau la proposition 5.4.2 et le theor`eme 5.3.7 . On en deduit
que, si g (
c
(R) et si f est une fonction lipschitzienne bornee sur PR
d
max
, alors
pour tout x
0
R
d
,
lim
a

n1
E[f ((x(n, x
0
)) (x
0
) a) g ( x(n, x
0
))] = 0,
lim
a+

n1
E[f ((x(n, x
0
)) (x
0
) a) g ( x(n, x
0
))] =
(f)L(g)

.
5.4. D

EMONSTRATION DES TH

EOR
`
EMES LIMITE 135
De plus ces convergences sont uniformes en x
0
, car
x
0
est une forme lineaire bor-
nee sur B

. Luniformite permet de supprimer le terme (x


0
) dans les derni`eres
equations et de prendre nimporte quelle condition initiale. Le theor`eme decoule
ensuite de la meme suite dapproximations successives que dans la demonstration
du TLL.
Demonstration du theor`eme 5.2.7. Sans perte de generalite, on peut supposer
= 0.
Dire que (A) a un moment exponentiel signie quil existe un C > 0 tel
que
_
e
C(A)
d(A) < . Une majoration facile de
k
(y)Q(., dy) inspiree par la
preuve de la proposition 5.4.2 montre que la fonction z Q
z
est analytique sur
la boule ouverte de centre 0 et de rayon C. Pour montrer quelle est continue sur
le domaine [1z[ < C/2, on applique la meme methode.
Le theor`eme 5.3.8 prouve que
lim
n
1
n
ln P[(x(n, X
0
)) (X
0
) > n] = c().
Soit 0 < < . Pour tout n (X
0
)/, on a
P[(x(n, X
0
)) (X
0
) > n] P[(x(n, X
0
)) > n( + )] ,
ce qui implique que
liminf
n
1
n
ln P[(x(n, X
0
)) n > n] c( + ).
Par la meme methode, on obtient que
limsup
n
1
n
ln P[(x(n, X
0
)) n > n] c( ).
Comme la fonction c est continue, la premi`ere convergence est prouvee. La seconde
est obtenue en remplacant par .
5.4.3 Le cas Max-plus
Demonstration du theor`eme 5.2.9. On suppose que = 0. Dapr`es la proposi-
tion 5.4.2 on peut appliquer le theor`eme 5.3.4 . Le deuxi`eme point du theor`eme
prouve quil existe une fonction lipschitzienne bornee f telle que pour -presque
tout (A, x) :
max
i
(Ax)
i
max
i
x
i
= f(x) f(Ax). (5.29)
Comme toutes les fonctions dans lequation sont continues, tous les couples (A, x)
S
A
Supp(
0
) verient lequation (5.29). Si A S
A
et x Supp(
0
), alors Ax
Supp(
0
), donc par recurrence, lequation (5.29) est encore satisfaite si A T
A
.
136 CHAP. 5 TH

EOR
`
EMES LIMITE
Comme pour A T
A
, A
n
T
A
, on en deduit que la suite (max
i
(A
n
x)
i
)
nN
est bor-
nee. Mais il existe un indice k tel que c(A)
max
(A) = A
c(A)
kk
, donc max
i
_
A
nc(A)
x
_
i

nc(A)
max
(A) + x
k
et
max
(A) 0.
Comme tout chemin sur (
c
(A) se decompose en un chemin de longueur au
plus d et des circuits de poids moyen au plus
max
(A), on a :
A
n
x (n d)
max
(A) + d max
A
ij
>
[A
ij
[ + max
i
x
i
.
Par consequent, on a
max
(A) 0.
Reciproquement, si, pour toute matrice A T
A
, on a
max
(A) = 0, alors on
a :
(x(n,

0 )) (

0 ) = max
i
x
i
(n,

0 )
= max
ij
(A(n) A(0))
ij

max
(A(n) A(0)) = 0 p.s. .
Par consequent ^(0,
2
)(R
+
) 1, ce qui nest possible que si = 0.
Demonstration du theor`eme 5.2.11. On suppose que le syst`eme est algebrique-
ment arithmetique. Il existe a, b R tels que pour tout A S
A
et M, M
t
T
A
de rang 1, on ait : (MAM
t
MM
t
)(R
d
) (a + bZ)

1 . En remplacant M
t
par
A
n
M
t
, on obtient (MA
n+1
M
t
MA
n
M
t
)(R
d
) (a + bZ)

1 et par recurrence
(MA
n+k
M
t
MA
n
M
t
)(R
d
) (ka + bZ)

1 . (5.30)
Dapr`es le theor`eme 4.2.5, si ((A) est fortement connexe, alors pour tout n su-
samment grand, A
nc(A)
nc(A)
max
(A)

1 =
_
A
max
(A)

1
_
nc(A)
est constant.
Par consequent A
(n+1)c(A)
= A
nc(A)
+c(A)
max
(A)

1 , et MA
n+c(A)
M
t
MA
n
M
t
=
c(A)
max
(A)

1 . En introduisant cette relation dans lequation (5.30), on conclut


la demonstration.
Bibliographie
[Bac92] F. Baccelli. Ergodic theory of stochastic petri networks. Annals of
Probability, 20(1) :375396, 1992.
[Bal00] Viviane Baladi. Positive transfer operators and decay of correlations,
volume 16 of Advanced Series in Nonlinear Dynamics. World Scien-
tic Publishing Co. Inc., River Edge, NJ, 2000.
[BCOQ92] F. Baccelli, G. Cohen, G.J. Olsder, and J.P. Quadrat. Synchronisa-
tion and Linearity. John Wiley and Sons, 1992.
[BL92] F. Baccelli and Z. Liu. On a class of stochastic recursive sequences
arising in queuing theory. The Annals of Probability, 20(1) :350374,
1992.
[BM] T. Bousch and J. Mairesse. Communication personnelle.
[BM98] F. Baccelli and J. Mairesse. Ergodic theorems for stochastic ope-
rators and discrete event networks. In Idempotency (Bristol, 1994),
volume 11 of Publ. Newton Inst., pages 171208. Cambridge Univ.
Press, Cambridge, 1998.
[BM03] T. Bousch and J. Mairesse. Fonctions topicales `a portee nie et fonc-
tions uniformement topicales. Technical Report 2003-002, LIAFA
(CNRS, UMR 7089 Universite Paris 7), 2003. `a paraitre dans Dyna-
mical Systems.
[Bow75] R. Bowen. Equilibrium states and the ergodic theory of Anosov dieo-
morphisms., volume 470 of Lecture Notes in Mathematics. Springer-
Verlag, 1975.
[Bre03] J. Bremont. Gibbs measures at temperature zero. Nonlinearity,
16(2) :419426, 2003. Constitue en francais le chapitre 10 de sa
th`ese.
[Bra93] H. Braker. Algorithms and Applications in Timed Discrete Event
Systems. PhD thesis, Delft University of Technology, Dec 1993.
[BS99] A. D. Burbanks and C. T. Sparrow. All monotone homogeneous
functions (on the positive cone) admit continuous extension. Techni-
cal Report 199913, Statistical Laboratory, University of Cambridge,
1999.
137
138 BIBLIOGRAPHIE
[BV04] C. Bonatti and M. Viana. Lyapunov exponents with multiplicity
1 for deterministic products of matrices. Ergodic Theory Dynam.
Systems, 24(5) :12951330, 2004.
[CDQV83] G. Cohen, D. Dubois, J.P. Quadrat, and M. Viot. Analyse du com-
portement periodique des syst`emes de production par la theorie des
diodes. Rapport de recherche 191, INRIA, Le Chesnay, France, 1983.
[CDQV85] G. Cohen, D. Dubois, J.P. Quadrat, and M. Viot. A linear system
theoretic view of discrete event processes and its use for performance
evaluation in manufacturing. IEEE Trans. on Automatic Control,
AC30 :210220, 1985.
[CG79] R.A. Cuninghame-Green. Minimax Algebra. Number 166 in Lecture
notes in Economics and Mathematical Systems. Springer, 1979.
[Coh88] J.E. Cohen. Subadditiviy, generalised products and operations re-
search. SIAM Review, 30(1) :6986, 1988.
[CT80] M. G. Crandall and L. Tartar. Some relations between nonexpansive
and order preserving mappings. Proc. Amer. Math. Soc., 78(3) :385
390, 1980.
[FK60] H. Furstenberg and H. Kesten. Products of random matrices. Ann.
Math. Statist, 31 :457469, 1960.
[Fur63] H. Furstenberg. Noncommuting random products. Trans. Amer.
Math. Soc., 108 :377428, 1963.
[GdM87] I. Ya. Gol
t
dshe d and G. A. Margulis. The condition of simplicity
for the spectrum of Lyapunov exponents. Dokl. Akad. Nauk SSSR,
293(2) :297301, 1987.
[GdM89] I. Ya. Gol
t
dshe d and G. A. Margulis. Lyapunov exponents of a
product of random matrices. Uspekhi Mat. Nauk, 44(5(269)) :1360,
1989.
[GG96] I. Ya. Goldsheid and Y. Guivarch. Zariski closure and the dimension
of the Gaussian law of the product of random matrices. I. Probab.
Theory Related Fields, 105(1) :109142, 1996.
[GH00] S. Gaubert and D. Hong. Series expansions of lyapunov exponents
and forgetful monoids. Technical report, INRIA, 2000.
[GK95] J. Gunawardena and M. Keane. The existence of cycle times for
some nonexpansive maps. Technical Report HPL-BRIMS-95-003,
Hewlett-Packard Labs, 1995.
[GLP04] Y. Guivarch and

E. Le Page. Simplicite de spectres de Lyapounov
et propriete disolation spectrale pour une famille doperateurs de
transfert sur lespace projectif. In Random walks and geometry, pages
181259. Walter de Gruyter GmbH & Co. KG, Berlin, 2004.
BIBLIOGRAPHIE 139
[GR85] Y. Guivarch and A. Raugi. Fronti`ere de Furstenberg, proprietes de
contraction et theor`emes de convergence. Z. Wahrsch. Verw. Gebiete,
69(2) :187242, 1985.
[GR89] Y. Guivarch and A. Raugi. Proprietes de contraction dun semi-
groupe de matrices inversibles. Coecients de Liapuno dun produit
de matrices aleatoires independantes. Israel J. Math., 65(2) :165196,
1989.
[Gri90] R. B. Griths. Frenkel-Kontorova models of commensurate-
incommensurate phase transitions. In Fundamental problems in
statistical mechanics VII (Altenberg, 1989), pages 69110. North-
Holland, Amsterdam, 1990.
[Gui84] Y. Guivarch. Exposants caracteristiques des produits de matrices
aleatoires en dependance markovienne. In Probability measures on
groups, VII (Oberwolfach, 1983), volume 1064 of Lecture Notes in
Math., pages 161181. Springer, Berlin, 1984.
[GY94] Paul Glasserman and David D. Yao. Monotone structure in discrete-
event systems. Wiley Series in Probability and Mathematical Sta-
tistics : Applied Probability and Statistics. John Wiley & Sons Inc.,
New York, 1994. A Wiley-Interscience Publication.
[GY95] P. Glasserman and D. Yao. Stochastic vector dierence equations
with stationary coecients. J. Appl. Probab., 32(4) :851866, 1995.
[Hen97] H. Hennion. Limit theorems for products of positive random ma-
trices. Ann. Probab., 25(4) :15451587, 1997.
[HH01] H. Hennion and L. Herve. Limit theorems for Markov chains and
stochastic properties of dynamical systems by quasi-compactness, vo-
lume 1766 of Lecture Notes in Mathematics. Springer-Verlag, Berlin,
2001.
[HH04] H. Hennion and L. Herve. Central limit theorems for iterated random
Lipschitz mappings. Ann. Probab., 32(3A) :19341984, 2004.
[Hon01] D. Hong. Lyapunov exponents : When the top joins the bottom.
Technical Report RR-4198, INRIA, http ://www.inria.fr/rrrt/rr-
4198.html, 2001.
[JMO96] A. Jean-Marie and G. J. Olsder. Analysis of stochastic min-max-plus
systems : results and conjectures. Math. Comput. Modelling, 23(11-
12) :175189, 1996. Recent advances in discrete event systems.
[Kin73] J. F. C. Kingman. Subadditive ergodic theory. Ann. Probability,
1 :883909, 1973. With discussion by D. L. Burkholder, Daryl Daley,
H. Kesten, P. Ney, Frank Spitzer and J. M. Hammersley, and a reply
by the author.
140 BIBLIOGRAPHIE
[LP82]

E. Le Page. Theor`emes limites pour les produits de matrices alea-
toires. In Probability measures on groups (Oberwolfach, 1981), vo-
lume 928 of Lecture Notes in Math., pages 258303. Springer, Berlin,
1982.
[Mai95] J Mairesse. Stabilite des syst`emes `a evenements discrets stochas-
tiques. Approche algebrique. PhD thesis,

Ecole polytechnique, 1995.
[Mai97] J. Mairesse. Products of irreducible random matrices in the (max, +)
algebra. Adv. in Appl. Probab., 29(2) :444477, 1997.
[Mer04] G. Merlet. Memory loss property for products of random
matrices in the (max, +) algebra. Technical report, IRMAR,
http ://fr.arxiv.org/abs/math.PR/0405452, May 2004.
[Mer05] G. Merlet. Limit theorems for iterated random topical operators.
Technical report, http ://fr.arxiv.org/abs/math.PR/0405452, 2005.
In preparation.
[Nag57] S. V. Nagaev. Some limit theorems for stationary Markov chains.
Teor. Veroyatnost. i Primenen., 2 :389416, 1957.
[Ose68] V. I. Oseledec. A multiplicative ergodic theorem. Characteristic Lja-
punov, exponents of dynamical systems. Trudy Moskov. Mat. Obsc.,
19 :179210, 1968.
[Rag79] M. S. Raghunathan. A proof of Oseledecs multiplicative ergodic
theorem. Israel J. Math., 32(4) :356362, 1979.
[RdVH
+
90] J. A. C. Resing, R. E. de Vries, G. Hooghiemstra, M. S. Keane, and
G. J. Olsder. Asymptotic behavior of random discrete event systems.
Stochastic Process. Appl., 36(2) :195216, 1990.
[Ser02] Denis Serre. Matrices, volume 216 of Graduate Texts in Mathema-
tics. Springer-Verlag, New York, 2002. Theory and applications,
Translated from the 2001 French original.
[Too02] F. Toomey. Large deviations of products of random topical operators.
Ann. Appl. Probab., 12(1) :317333, 2002.
[Vin97] J.-M. Vincent. Some ergodic results on stochastic iterative discrete
events systems. Discrete Event Dynamic Systems, 7(2) :209232,
1997.
[Wag91] E. Wagneur. Moduloids and pseudomodules. 1. dimension theory.
Discrete Math., 98 :5773, 1991.
Index
A, 16, 18
A(n), 49
A

, 95
A
+
, 95
A
n
, 49
A
(m)
, 62
A
[m]
, 62
A
l
, 62
B(n), 57
D(A), 51
E
m
, 62
F
+
, 5
F
m
, 62
G, 18
G
m
, 62
H
m
, 62
I
k

, 40
K, 18
L(T), 33
M

, 57, 65
M
n
, 57, 65
M
n
(Y ), 57
N, 18
P, 34
Q, 118, 123
Q
t
, 119
R
s
, 36
S, 16
S
A
, 113
S
n
, 121
T, 6, 16
T
d
, 79
T
g
, 79
T
0
, 33
T
A
, 113
T
s
, 17
Top
d
, 48
Tope
d
, 50
Y
n
, 121
Y
n
(Y ), 57
Z
n
, 121
B
t

, 122
(
n
, 121

r
, 21
((A), 61, 94
(
c
(A), 95
/

, 121
/
d
, 92

T
, 6, 16

T
, 6, 16

T
, 34
|.|

, 122

A, 103
, 51
T
r
, 24
T

, 24
(A), 53
(A, ), 53

_
(A(n))
nN
_
, 53

(m)
, 62

[m]
, 62

b
, 55

i
(M, ), 16
, 35

B, 106

T, 33
c(A), 94
c
1
, 104
c
2
, 104
c
3
, 108
141
142 INDEX
T
d
, 92
B, 119
B

, 123
B

, 122
((A), 94
T, 40
H(m), 119
L

, 123
, 34
, 124

0
, 124

x
, 35
, 48
, 48

, 24

r
, 21
PR
d
max
, 51
P

, 24
, 34
, 62

max
(A), 95
R
max
, 48
(A), 123

k
, 40

A, 103
[ch[, 61
[.[

, 122
i
A, 93
c
l
, 61
e
r
, 24
k(A), 103
m

(.), 122
mw(A, c), 95
n
T
, 126
p(x), 16
p
+
(g), 33
p

(g), 33
p
n
(x), 34
w(ch), 101
w(A, c), 95
x(n, x
0
), 49
x
(m)
(n, x
0
), 62
x
[l]
(n, x
0
), 62
x
l
(n, x
0
), 62
y(n, x
0
), 49
elementaire, 61
o, 121
scsN-cycC, 95
arithmetique, 117, 120
-arithmetique, 122
algebriquement, 114
boucle, 61
chane de Markov, 118
`a etats nis, 18
chemin, 61
circuit, 61
composante dun graphe, 62
condition T, 50
contraction, 24
couplage, 4
cyclicite, 61, 95
decomposable, 20
decomposition
dIwasawa, 19
polaire, 19
drapeaux, 24
ergodique, 4
exposants de Lyapunov
pour des applications topicales eten-
dues, 53
pour des matrices usuelles, 16
Fourier, noyaux de, 119
Gibbs, 6, 17
grandes deviations, 116
graphe, 61
critique, 95
dune matrice, 95
dune matrice aleatoire, 61
irreductible, 28
Kingman, 5
INDEX 143
Lyapunov, 16
maximisant, 101
mesure de Gibbs, 6, 17
MLP, 76
noyau harmonique, 35
ordre, 8
Oseledets, 16
partie positive, 5
perte de memoire, 76
Perte de memoire asymptotique, 79
PGD, 116, 121
PMAD, 79
PMAG, 79
poids dun chemin, 101
primitive, 92
principe des grandes deviations
de [HH01], 121
produits exterieurs, 20
projectif
diam`etre, 51, 80
espace, 51
quasi-compact, 119
quasi-projectif, 24
r-vecteur, 20
recurrence ane, 57
rang 1, 76
rayon spectral, 95
reduite (matrice), 103
semi-anneau, 48
SF, 53
sous-additif, 5
SRS, 4
stationnaire, 4
structure xe, 53
suite recurrente stochastique, 4
syst`eme dynamique, 4
TCL, 113, 116, 120, 122
theor`eme central limite, 113, 116
de [HH01], 120
de [HH04], 122
theor`eme central limite avec vitesse,
114
de [HH01], 120
de [HH04], 123
theor`eme de renouvellement, 115
de [HH01], 120
theor`eme local limite, 114
de [HH01], 120
de [HH04], 123
TLL, 114, 123
topicale, 48
etendu, 50
type (S), 28
type dune matrice, 95
vecteur propre, 96
144 INDEX
Table des mati`eres
Introduction 3
0.1 Suites recurrentes stochastiques . . . . . . . . . . . . . . . . . . . 3
0.2 Exposants de Lyapunov . . . . . . . . . . . . . . . . . . . . . . . 5
0.3 Applications topicales . . . . . . . . . . . . . . . . . . . . . . . . . 7
0.3.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
0.3.2 Resultats pour les matrices aleatoires non irreductibles . . 8
0.3.3 Perte de memoire . . . . . . . . . . . . . . . . . . . . . . . 9
0.3.4 Theor`emes limites . . . . . . . . . . . . . . . . . . . . . . . 10
0.4 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
0.5 Sur le lien entre les deux parties . . . . . . . . . . . . . . . . . . . 11
I Matrices aleatoires inversibles 13
1 Separation des exposants de Lyapunov : cas des sous-shifts de
type ni 15
1.1 Presentation et resume . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2 Outils algebriques . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.2.1 Decompositions du groupe lineaire . . . . . . . . . . . . . 18
1.2.2 Produits exterieurs . . . . . . . . . . . . . . . . . . . . . . 19
1.2.3 Comparaison des decompositions . . . . . . . . . . . . . . 21
1.2.4 Espaces des drapeaux, contractions . . . . . . . . . . . . . 24
1.2.5 Notions dirreductibilite . . . . . . . . . . . . . . . . . . . 28
1.3

Etude des noyaux markoviens harmoniques . . . . . . . . . . . . . 34
1.4 Proprietes de contraction . . . . . . . . . . . . . . . . . . . . . . . 37
1.5 Separation des exposants . . . . . . . . . . . . . . . . . . . . . . . 40
II Applications topicales aleatoires 45
2 Matrices aleatoires dans (R, max, +) : ordre 1 47
2.1 Presentation et resume . . . . . . . . . . . . . . . . . . . . . . . . 47
2.2 Cas general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
145
146 TABLE DES MATI
`
ERES
2.3 Recurrence ane . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.4 Matrices reductibles . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.4.1 Resultats . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.4.2 Demonstration du resultat sur les exposants de Lyapunov . 65
2.4.3 Demonstration du theor`eme 2.4.11 . . . . . . . . . . . . . 66
2.4.4 Demonstration des lois des grands nombres . . . . . . . . . 69
2.5 Tableaux de synth`ese. . . . . . . . . . . . . . . . . . . . . . . . . 74
3 Matrices aleatoires dans (R, max, +) : ordre 2 75
3.1 Presentation et resume . . . . . . . . . . . . . . . . . . . . . . . . 75
3.2 Perte de memoire . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.3 Perte de memoire `a linni . . . . . . . . . . . . . . . . . . . . . . 79
3.4 Matrices reductibles . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.4.1 Resultats . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.4.2 Demonstrations . . . . . . . . . . . . . . . . . . . . . . . . 86
4 Genericite de la propriete de perte de memoire 91
4.1 Presentation et resume . . . . . . . . . . . . . . . . . . . . . . . . 91
4.1.1 Resultats . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.1.2 Principe de la preuve . . . . . . . . . . . . . . . . . . . . . 93
4.2 Puissances des matrices dans (R, max, +) . . . . . . . . . . . . . . 94
4.3 Demonstrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.3.1 Demonstration des theor`emes 4.1.3 et 4.1.4 . . . . . . . . 100
4.3.2 Matrices reduites . . . . . . . . . . . . . . . . . . . . . . . 103
4.3.3 Demonstration du lemme 4.1.9 . . . . . . . . . . . . . . . . 106
5 Theor`emes limites pour les applications topicales aleatoires ite-
rees 111
5.1 Presentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.1.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.1.2 Principe de la preuve . . . . . . . . . . . . . . . . . . . . . 112
5.2

Enonces des theor`emes limites . . . . . . . . . . . . . . . . . . . . 112
5.2.1 Cas topical . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5.2.2 Cas max-plus . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.2.3 Commentaires . . . . . . . . . . . . . . . . . . . . . . . . . 117
5.3 Chanes de Markov et operateurs quasi-compacts . . . . . . . . . 118
5.3.1 Trou spectral . . . . . . . . . . . . . . . . . . . . . . . . . 118
5.3.2 Premier cadre . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.3.3 Second cadre . . . . . . . . . . . . . . . . . . . . . . . . . 121
5.4 Demonstration des theor`emes limite . . . . . . . . . . . . . . . . . 123
5.4.1 Des applications topicales iterees aux chanes de Markov . 123
5.4.2 Des chanes de Markov aux applications topicales iterees . 128
5.4.3 Le cas Max-plus . . . . . . . . . . . . . . . . . . . . . . . . 135
TABLE DES MATI
`
ERES 147
Bibliographie 137
Index des notations et des denitions 141
Table des mati`eres 145