Vous êtes sur la page 1sur 12

Chapitre II

Systèmes dynamiques en temps discret

Dans ce chapitre, on considère des systèmes dynamiques en temps discret t ∈ IN, c’est-à-dire
que leur évolution temporelle n’est pas définie de façon continue par une équation différentielle,
mais par une application itérative, ou relation de récurrence, discrète. Ces applications simples,
même pour des systèmes uni-dimensionnels, peuvent déjà présenter des comportements chao-
tiques, dont nous allons mettre en évidence les principaux aspects.

II.1 Application en temps discret


II.1.1 Définition et motivation
On considère un système dont l’état est décrit par une variable x ∈ IRd où d est la dimension
d’espace, et on considère une application f ∈ C ∞ sur IRd , i.e. f : x ∈ IRd −→ f (x) ∈ IRd . On
définit la dynamique en temps discret du système par l’application itérative

x(t + 1) = f x(t) , t ∈ IN , ou simplement xn+1 = f (xn ) .

La séquence des {x(t)}t∈IN , à partir d’un x(0) ∈ IRd donné forme l’orbite de l’application depuis
x(0), i.e. la trajectoire issue de x(0), qui s’écrit explicitement

x(t) = f t (x(0)) = f ◦ f ◦ · · · ◦ f (x(0)) .


| {z }
t facteurs

Le problème est de déterminer le comportement du système à grand temps.


Il existe plusieurs motivations pour étudier les systèmes dynamiques en temps discret. D’un
point de vue physique, ou biologique, ce type de modèles est utilisé pour étudier la dynamique
de population, où chaque n correspond à une génération. Bien que ceci ne semble pas perti-
nent pour une population humaine, pour laquelle les générations successives s’entremêlent, c’est
réaliste pour de nombreuses espèces d’insectes, pour lesquelles une nouvelle génération appa-
raît à intervalle régulier, tous les ans, ou tous les mois, de sorte que les générations peuvent
effectivement être numérotées. Une espèce particulièrement étudiée à cet égard est la drosophila
melanogaster, qui produit une nouvelle génération tous les jours.
D’autre part, nous verrons qu’un outil extrêmement utile pour étudier la dynamique de sys-
tèmes dynamiques en temps continu, i.e. décrits par une équation différentielle, est la section de
Poincaré, qui associe à la dynamique initiale continue une dynamique en temps discret dans une

7
dimensionalité réduite. Le comportement chaotique du système complet peut ainsi être caracté-
risé de façon beaucoup plus simple à partir de la dynamique discrète sur la section de Poincaré.
L’étude et la compréhension des dynamiques discrètes jouent donc un rôle prépondérant. Enfin,
ces modèles en temps discret se prêtent très simplement à des simulations numériques, ce qui les
rend très attractifs pour l’étude du chaos.

II.1.2 Exemples simples


Considérons un système uni-dimensionnel. Naivement, on pourrait penser que si la loi d’évo-
lution de ce système, c’est-à-dire l’application f , est simple, alors il en est de même pour obtenir
des prédictions sur son comportement temporel. Même si ceci peut être vrai, c’est loin d’être le
cas en général. Prenons par exemple l’application
 1
x(t + 1) = 2 x(t)  si x(t) est pair
1
2 x(t) + 1 si x(t) est impair
En partant de x(0) = 21, on obtient l’orbite 21, 11, 6, 3, 2, 1, 1, · · · . Le système converge à grand
temps vers la valeur 1, et ce quelque soit la valeur initiale. Il hs’agit en i fait d’une suite géomé-
1
trique, dont on peut écrire la solution explicite comme x(t) = 2t x(0) où [·]+ désigne l’entier
+
supérieur le plus proche. On peut en déduire la vitesse de convergence de la suite. En effet, l’état
asymptotique x∞ = 1 est atteint pour t ≥ ln(x(0))/ ln(2).

Figure II.1 – Itérations successives de la suite de syracuse pour x(0) = 31.

Modifions maintenant légèrement la définition de la loi d’évolution


 1
x(t + 1) = 2 x(t)  si x(t) est pair
1
2 3x(t) + 1 si x(t) est impair
Si x(0) = 1, alors le système oscille indéfiniment entre les deux valeurs 1 et 2. Prenons x(0) =
7, on obtient alors une orbite non monotone 7, 11, 17, 26, 13, 20, 10, 5, 16, 8, 4, 2, 1, 2, 1, · · · . Pour
certaines valeurs initiales, le système prend un temps qui semble arbitrairement grand avant
de rejoindre le cycle limite, comme illustré sur la II.1. Cette suite est la suite de Syracuse. Il
existe une conjecture, par Syracuse, selon laquelle quelque soit la valeur initiale x(0), la suite
converge à grand temps vers le cycle limite {1, 2}, mais elle n’est pas démontrée. La prédiction
du comportement temporel de cette application d’apparence pourtant simple s’avère dans ce cas
beaucoup plus complexe.

8
II.1.3 Etude générale
Comme pour les systèmes décrits par une équation différentielle, la dynamique en temps
discret peut être étudiée à partir de l’ensemble des points fixes et leur stabilité. Un point fixe x∗
de l’application f vérifie f (x∗ ) = x∗ . Si pour un temps t donné, x(t) = x∗ , alors l’orbite devient
stationnaire pour tout temps ultérieur, i.e. x(t + k) = x∗ pour tout k > 0. La stabilité d’un point
fixe peut être déterminée par l’analyse d’une petite perturbation ε(t) au point fixe. Supposons
que x(t) = x∗ + ε(t), alors

x(t + 1) = f (x∗ + ε(t)) ' f (x∗ ) + ε(t)f 0 (x∗ ) + O(ε(t)2 )


≡ x∗ + ε(t + 1) + O(ε(t)2 ) .

On en déduit qu’à l’ordre linéaire, ε(t + 1) = f 0 (x∗ )ε(t) ≡ λε(t). L’évolution temporelle de la
perturbation est donc donnée par ε(t) = λt ε(0) et x(t) = x∗ + λt (x(0) − x∗ ). Ainsi,
I si |λ| > 1, alors la perturbation croît avec le temps ε(t) → ∞ pour t → ∞, le point fixe
est instable, ou répulsif,
I si |λ| < 1, alors la perturbation décroît avec le temps ε(t) → 0 pour t → ∞, le point fixe
est linéairement stable ou attractif.
I si |λ| = 1, le point fixe est neutre ou marginal.
Pour étudier la dynamique des systèmes uni-dimensionnels en temps discret, on dispose en
outre d’un outil intéressant qui est la résolution graphique. En effet, l’évolution du système peut
être déterminée graphiquement en traçant le graphe de la fonction y = f (x) et la droite y = x.
A partir d’un point x(t), le point x(t + 1) est donné par l’intersection de la droite x = x(t) avec
la courbe y = f (x), et ce point peut alors être reporté sur l’axe des abscisses en se servant de
la droite y = x. En itérant cette construction, on obtient l’orbite du système à partir d’un point
x(0) choisi.

Figure II.2 – Construction graphique de l’évolution temporelle de l’application linéaire, pour à


gauche a = 1/3 et à droite a = 3.

Pour illustrer cette méthode, considérons l’application linéaire f (x) = ax + b avec a et b réels.
Graphiquement, on obtient un point fixe à l’intersection des deux droites y = x et y = ax + b,
qui est stable si |a| < 1 et instable si |a| > 1, comme montré sur la Fig. II.2. L’analyse donne
effectivement un point fixe x∗ = b/(1 − a) pour a 6= 1, et comme f 0 (x∗ ) = a, il est attractif pour
|a| < 1 et répulsif pour |a| > 1.

9 L. Canet
II.2 Application logistique
Après l’application linéaire, l’exemple le plus simple est une application quadratique. Ce-
pendant, malgré sa simplicité apparente, elle donne lieu à un comportement extrêmement riche.
L’application quadratique la plus célèbre est l’application logistique, proposée par Robert May
en 1976 pour modéliser la dynamique d’une population. Ce modèle très simplifié décrit la crois-
sance d’une population. Le nombre d’individus xn de la génération n se reproduit avec un taux
de reproduction µ. Cependant, pour ne pas obtenir simplement une croissance exponentielle
de la population, ce taux décroît lui-même avec xn et devient nul au-delà d’un certain seuil,
µ → µ(1 − x), ce qui prend en compte la déplétion des ressources. L’application logistique s’écrit
donc
xn+1 = f (xn ) f (x) = µx(1 − x) .
On considère des valeurs 0 < µ < 4, pour lesquelles l’image de l’intervalle [0, 1] est cet intervalle :

x ∈ [0, 1] −→ f (x) ∈ [0, 1]

Pour une condition initiale hors de l’intervalle [0, 1], l’orbite associée diverge xn → −∞ pour
n → ∞. Or si µ > 4, il est probable qu’une itération envoie xn hors de l’intervalle [0, 1] et alors
la suite s’échappe vers l’infini. On se restreint donc dans la suite aux valeurs µ < 4 et à des
conditions initiales x0 ∈ [0, 1], pour lesquelles la dynamique est confinée dans [0, 1].

II.2.1 Comportement pour 0 < µ < 3


Procédons à l’analyse des points fixes et de leur stabilité. Un point fixe vérifie x∗ = f (x∗ ), et
sa stabilité est déterminée par f 0 (x∗ ) = µ(1 − 2x∗ ). On obtient donc les 2 points fixes

x∗a = 0 f 0 (x∗a ) = µ
1
x∗b = 1 − µ f 0 (x∗b ) = 2 − µ

Les figures ci-dessous illustrent pour chaque cas la construction graphique de la dynamique, et
l’évolution temporelle résultante xn en fonction de n.

I0<µ<1
le point fixe x∗a = 0 est stable
et x∗b est instable. Toutes les
orbites convergent vers l’ori-
gine quelque soit la condition
initiale x0 ∈ [0, 1].

I1<µ<3
l’origine devient instable et le
point fixe x∗b = 1 − µ1 de-
vient attracteur. Toutes les or-
bites convergent vers le point
x∗b quelque soit la condition
initiale x0 ∈ [0, 1].

10
Le point µ = 1 correspond à une bifurcation transcritique.
Pour µ > 3, les deux points fixes x∗a et x∗b sont répulsifs. Considérons à présent les valeurs
3 < µ < 4.

II.2.2 Comportement pour 3 < µ < 4


En fait, le point fixe x∗b donne naissance en µ = 3 à une bifurcation vers un cycle stable de
période 2, comme ilustré ci-dessous.


I 3 < µ < 1 + 6 ' 3.45
Les deux points fixes x∗a
et x∗b sont instables, l’orbite
converge vers un cycle stable
{x1 , x2 } de période 2.

Les deux points qui constituent ce cycle {x1 , x2 } vérifient donc f (x1 ) = x2 et f (x2 ) = x1 , ce sont
donc des point fixes de l’application f 2 , car ils satisfont f (f (xi )) = xi . La stabilité de ce cycle
peut être déterminée ainsi
d 2 d d
f (x) = f (x) f (x) = f 0 (x1 )f 0 (x2 ) .
dx x=x1 dx x=f (x1 ) dx x=x1

La stabilité de x1 et de x2 est bien sûr identique. On définit un ensemble attracteur A pour l’appli-
cation f comme l’adhérence des orbites {xn } partant de toute condition initiale x0 . L’adhérence
d’une suite est l’ensemble des points x près desquels s’accumulent une infinité de termes de la
suite. On définit l’ensemble répulsif de f comme l’ensemble attracteur de l’application inverse
f −1 . Les deux valeurs {x1 , x2 √
} forment donc l’ensemble attracteur de f .
Après la valeur µ = 1 + 6, le cycle de période 2 devient instable (voir TD). Le système
présente alors une succession de bifurcations vers des cycles stables de période doublée à chaque
bifurcation. Ces cycles stables sont donc des points fixes de l’application f n , et leur stabilité peut
se déduire de manière analogue à partir de
n
d n Y
f (x) = f 0 (xi ) pour tout xk du cycle.
dx x=xk
i=1
Les bifurcations successives apparaissent pour des valeurs de plus en plus rapprochées, selon la
séquence énumérée dans la Tab. II.2.2.
Une observation remarquable, due à Feigenbaum (1978) est que la suite des valeurs de µn
montre une convergence géométrique vers la valeur µ∞ , i.e. µ∞ − µn ∝ δ −n , et que ce rapport
tend vers une constante
µn − µn−1
δn = −−−→ δ ' 4.6692016 .
µn+1 − µn n→∞

En outre, ce nombre s’avère universel, dans le sens où d’autres applications f , qui montre une sé-
quence de bifurcations avec doublement de période, possède le même taux de convergence δ. Plus
précisément, ce taux de convergence est identique pour toutes les applications uni-dimensionnelles
qui possède un maximum unique, localement quadratique 1 . La valeur de ce taux de conver-
2
f 000 (x) 3 f 00 (x)

1. La condition précise est que la dérivée Schwarzienne de f , donnée par 0 − , soit négative.
f (x) 2 f 0 (x)

11 L. Canet
n période du cycle µn
1 2 3
2 4 3.44948
3 8 3.54408
4 16 3.56872
··· ··· ···
∞ apériodique 3.569946

Table II.1 – Séquence des bifurcations avec doublement de période pour l’application logistique.

gence a pu être mesurée expérimentalement, par exemple dans des expériences de convection
de Rayleigh-Bénard de mercure sous champ magnétique, ou dans des réactions chimiques de
Belousov-Zhabotinsky, voir dans la table Fig. II.2.2. Les causes sous-tendant l’émergence de cette
universalité sont profondes et peuvent se comprendre par des méthodes de physique théorique
avancées comme le groupe de renormalisation fonctionnel.

Figure II.3 – Vérification expérimentale de l’universalité du taux de convergence δ, tiré de [4].

I µ > µ∞
Au-delà de µ∞ , la dynamique
devient apériodique, présen-
tant une évolution tempo-
relle chaotique. L’attracteur
est constitué d’une infinité de
points dépendant de la valeur
de x0 .

I µ > µ∞
Cependant, pour des valeurs
de µ dans certaines fenêtres,
apparaissent de nouveau des
cycles stables, mais de période
impaire, comme le cycle 3 ci-
contre observé pour µ = 3.84.

12
Entre µ∞ et µ = 4, il existe donc une alternance de comportements chaotique et périodique.
La transition entre ces types de comportements est complexe. Un phénomène caractéristique
de la transition vers le chaos est l’apparition d’intermittence, comme illustré sur la Fig. II.2.2.
Le courbe de f 3 montre l’existence d’un cycle stable de période 3, repéré par les points pleins,
pour 3.8284 · · · < µ < 3.8415 · · · , et sa disparition pour une valeur voisine µ = 3.8. L’allure du
signal temporel observé pour µ = 3.8282 montre une alternance de séquences quasi-périodiques
de période 3, et de comportements chaotiques. Le comportement global du système pour cette
valeur est donc apériodique, mais les “fantômes” des points fixes stables provoquent la résurgence
de mouvement ordonné sur des durées arbitrairement grandes, généralement distribuées de façon
fractale.

Figure II.4 – A gauche, allure de la fonction f 3 , pour µ = 3.84 correspondant à un cycle stable
de période 3 et pour µ = 3.8 juste avant l’apparition de ce cycle. La figure de droite, tirée de [4],
montre le comportement temporel intermittent pour µ = 3.8.

II.2.3 Diagramme de bifurcations


Le diagramme de bifurcation complet de l’application logistique est tracé sur la Fig. II.2.3.
Il présente deux propriétés essentielles :

Figure II.5 – Diagramme de bifurcations de l’application logistique pour 1 < µ < 4 puis
3 < µ < 4.

13 L. Canet
I universalité
Nous avons déjà souligné que la valeur du taux de convergence δ est universelle, i.e. com-
mune à toutes les applications uni-dimensionnelles de même allure. En fait, non seule-
ment la séquence de doublement de période est universelle, mais tout le diagramme de
bifurcation l’est aussi. Le diagramme de l’application f = µ4 sin(πx) par exemple est
complètement identique à celui de l’application logistique. En particulier, la succession
d’attracteurs périodiques au-delà de µ∞ suit une séquence universelle appelée séquence
U, présentant les périodes

1, 2, × 2}
|2 {z , 6, 5, 3, × 3}
2| {z , 5, 6, · · ·
série 1 de doublement série 2 de doublement

I invariance d’échelle
Si l’on zoom sur une partie du diagramme, celui-ci se reproduit identique à lui-même à
plus petite èchelle, comme illustré sur la Fig. II.6, et ceci indéfiniment. Le diagramme
présente ainsi une structure fractale (voir Chapitre III).

Figure II.6 – Invariance d’échelle du diagramme de bifurcations de l’application logistique.

II.3 Caractérisation du chaos


Comment caractériser un comportement chaotique ? Un tel comportement possède trois pro-
priétés essentielles, que nous détaillons ci-dessous.

II.3.1 Apériodicité
Une première condition pour l’apparition d’un comportement chaotique est l’apériodicité,
i.e. l’absence de tout point fixe, ou cycle limite stables. L’évolution temporelle du système ne
présente pas de séquences se répétant.

14
II.3.2 Sensibilité aux conditions initiales

Une autre caractéristique est la sensibilité aux conditions initiales, c’est-à-dire que des orbites
partant de conditions initiales très proches divergent exponentiellement. Ceci peut se quantifier
à travers les exposants de Lyapunov.
Considérons une application uni-dimensionnelle, et deux conditions initiales arbitrairement
proches x0 et x0 + δ0 . Après n itérations, les orbites seront en xn et xn + δn respectivement.
L’écart entre les deux trajectoires se comportent comme |δn | ∼ δ0 eλn , où λ est appelé exposant
de Lyapunov. Si λ < 0, les orbites convergent à temps long, et si λ > 0, l’écart initial est amplifié
exponentiellement. On peut donc définir l’exposant de Lyapunov comme

1 δn 1 f n (x0 + δ0 ) − f n (x0 ) 1
λ = lim ln = lim ln = lim ln (f n )0 (x0 )
n→∞ n δ0 n→∞ n δ0 n→∞ n

n−1
1X
= lim ln f 0 (xi )
n→∞ n
i=0

On peut montrer (voir TD), que si l’application possède un point fixe, ou un cycle stable
périodique, alors l’exposant de Lyapunov est négatif. La Fig. II.7 montre le résultat du calcul
numérique de l’exposant de Lyapunov pour l’application logistique. Pour µ < µ∞ , cet exposant
est négatif, et s’annule à chaque bifurcation avec doublement de période jusqu’à µ∞ . Les grands
pics négatifs correspondent à des cycles dits “super-stables” (la dérivée aux points du cycle
devient nulle). Pour µ > µ∞ , l’exposant de Lyapunov devient positif, signalant l’apparition des
comportements chaotiques, sauf dans les fenêtres de résurgence de comportement périodique,
comme le cycle de période 3. L’exposant atteint sa valeur maximale pour µ = 4, et vaut λ(4) =
ln(2). Pour ce point, le système devient uniformément ergodique, et l’orbite couvre l’intervalle
[0, 1] de façon dense. Cette notion d’ergodicité est très importante, nous y reviendrons par la
suite.
L’apparition de chaos pour un système uni-dimensionnel peut paraître surprenante. En fait,
ceci est relié au fait que l’application est non-inversible (un point donné xn+1 possède deux
antécédents xn ). Ce caractère multi-valué joue le rôle des mécanismes d’étirement et repliement
nécessaires à la génération de chaos. En effet, l’intervalle [0, 1/2] est étiré sur [0, 1], alors que
l’intervalle [1/2, 1] est étiré et renversé sur [0, 1], induisant le mélange, autre caractéristique
essentielle du chaos abordée dans la suite.

II.3.3 Mélange

Considérons maintenant un système à plus d’une dimension. Un comportement chaotique


est associé à une divergence exponentielle de trajectoires voisines, quantifiée par les exposants
de Lyapunov. Un autre ingrédient essentiel à la source d’un tel comportement est le mélange.
Celui-ci induit qu’un élément de volume subit une distortion substantielle au cours de l’évolution
temporelle. Une application simple et celèbre, dans le plan, induisant du mélange est l’application
de Arnold, ou cat map, illustrée sur la Fig. II.8, que l’on étudiera en détail dans le chapitre V.
Un autre exemple célèbre dans le plan est la transformation du boulanger, qui s’écrit comme

15 L. Canet
Figure II.7 – Exposant de Lyapunov pour l’application logistique en fonction de µ, tiré de [4].

Figure II.8 – Itérations successives de la transformation “cat map” (Figure tirée de [10]).

une transformation du carré unité selon


   
xn+1 2xn 1
T : = yn 0 ≤ xn ≤
yn+1 2
 2 
2xn − 1 1
= yn 1 ≤ xn ≤ 1
2 + 2 2

Cette transformation consiste à doubler les longueurs dans la direction x et les diviser par deux
dans la direction y. C’est aussi une transformation réversible et qui préserve les aires. Elle s’ap-
parente à la confection d’une pâte feuilletée, par étirements et repliements successifs. Il est clair
que cette transformation aboutit également à un mélange très rapidement. Le mélange implique
un caractère fortement aléatoire. Celui-ci peut être mis en évidence pour cette transformation
en notation binaire. Soit les coordonnées x et y d’un point du carré en binaire

x = .a0 a1 · · · ai · · · y = .b0 b1 · · · bi · · ·

où les ak et bk sont 0 ou 1. Alors, un point du carré peut être représenté en combinant ces
coordonnées en miroir :
X = · · · bi · · · b1 b0 .a0 a1 · · · ai · · ·
Une division ou une multiplication par deux revient simplement en binaire à déplacer la virgule
d’un rang à gauche ou à droite. Ainsi, la tranformation T consiste à déplacer la virgule d’un rang
vers la droite : la partie ai codant la coordonnée x est multipliée par deux, la partie bi codant

16
Figure II.9 – Construction et itérations de la transformation du boulanger.

la coordonnée y est divisée par deux car elle est placée en miroir, et le bit suivant est ajouté
en début de séquence, et induit une translation verticale si ce bit est 1, i.e. si 1/2 < x < 1,
ce qui correspond au repliement. Cette opération porte le nom de décalage de Bernoulli. Si l’on
caractérise une orbite, à partir d’une condition initiale (x0 , y0 ) quelconque simplement par 0 si
0 ≤ xn < 1/2 et 1 si 1/2 ≤ xn < 1, ceci correspond à la séquence des ai . Ainsi, l’itération de
n = −∞ à n = ∞ de la transformation du boulanger produit la séquence doublement infinie

· · · bi · · · b1 b0 a0 a1 · · · ai · · ·

Pour toute condition initiale générique, non rationnelle, cette séquence est une série de 0 et 1 qui
ne se répète pas, aussi aléatoire que le résultat d’un tirage pile ou face. Un système complètement
déterministe et réversible génère ainsi une dynamique complètement aléatoire. On appelle de tels
systèmes des systèmes Bernoulli. Cet exemple montre le lien intime qui existe entre chaos et
stochasticité. Un système déterministe chaotique s’apparente à un système stochastique, et il
s’avérera souvent plus utile d’étudier les propriétés d’un ensemble de trajectoires plutôt que de
chercher à décrire des trajectoires individuelles. Cet aspect est fondamental.

17 L. Canet
18

Vous aimerez peut-être aussi