Vous êtes sur la page 1sur 105

Mécanique Analytique

Cyril Falvo
Université Paris Saclay

2020–2021
Table des matières

1 Introduction 5

2 Principes de la mécanique Newtonienne 7


2.1 Cinématique Galiléenne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Axiomes de la mécanique Newtonienne . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Formulation énergétique de la mécanique classique . . . . . . . . . . . . . . . 10
2.A Repères tournants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

3 Équations d’Euler-Lagrange 15
3.1 Contraintes et variété des configurations . . . . . . . . . . . . . . . . . . . . . 15
3.2 Déplacement et travail virtuel . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3 Équations d’Euler-Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.4 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.5 Potentiel généralisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.6 Moments généralisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.7 Énergie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.A Invariance des équations de Euler-Lagrange sous une transformation ponctuelle 32

4 Principe variationnel 35
4.1 Extrema libres et extrema liés . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Calcul variationnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Principe de moindre action de Hamilton . . . . . . . . . . . . . . . . . . . . . 40
4.4 Coordonnées cycliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.5 Principes de Maupertuis, Jacobi et Fermat . . . . . . . . . . . . . . . . . . . 43
4.6 Multiplicateurs de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.7 Invariance de Jauge du Lagrangien . . . . . . . . . . . . . . . . . . . . . . . . 48
4.8 Théorème de Noether . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.A Solution du problème du brachistochrone . . . . . . . . . . . . . . . . . . . . 53
4.B Équation eikonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.C Mouvement d’une particule au travers d’une marche de potentiel . . . . . . . 54

5 Oscillations 57

3
4 Table des matières

5.1 Linéarisation des équations du mouvement . . . . . . . . . . . . . . . . . . . . 57


5.2 Développement harmonique du Lagrangien . . . . . . . . . . . . . . . . . . . 58
5.3 Pulsations propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.4 Coordonnées normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.5 Exemple : Chaîne linéaire de 3 particules . . . . . . . . . . . . . . . . . . . . 64
5.A Problème aux valeurs propres généralisé . . . . . . . . . . . . . . . . . . . . . 67

6 Équations de Hamilton 69
6.1 Transformée de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.2 Équations de Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
6.3 Principe de Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.4 Flot Hamiltonien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

7 Transformations Canoniques 79
7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
7.2 Fonctions génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

8 Équation de Hamiton-Jacobi 85
8.1 La fonction principale de Hamilton . . . . . . . . . . . . . . . . . . . . . . . . 85
8.2 Équation de Hamilton-Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
8.3 Systèmes conservatifs et séparables . . . . . . . . . . . . . . . . . . . . . . . . 88
8.4 Transformation canonique de Jacobi . . . . . . . . . . . . . . . . . . . . . . . 89
8.5 Variables angle-action . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
8.6 Théorie des perturbations adiabatiques . . . . . . . . . . . . . . . . . . . . . . 96

9 Crochets de Poisson 99
9.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
9.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
9.3 Transformation canonique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
9.4 Transformation canonique infinitésimale . . . . . . . . . . . . . . . . . . . . . 102
9.5 Liouvillien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
1. Introduction

La mécanique newtonienne est la théorie physique qui traite du mouvement des corps ma-
croscopiques dont la vitesse reste faible par rapport à la vitesse de la lumière. Cette théorie
fut introduite par Isaac Newton en 1687 dans son œuvre Philosophiae naturalis principia ma-
thematica. 1 Utilisée conjointement avec la théorie universelle de la gravitation, elle a permis
d’unifier deux domaines de la physique jusque là séparé : la chute des corps et le mouvement
des corps célestes. Cette théorie a prévalu pendant plus de 200 ans jusqu’au tout début du
20ème siècle où une refondation complète de la physique s’est opérée avec l’émergence de
trois nouvelles théories : la physique statistique, la théorie de la relativité, et la mécanique
quantique. 2
On pourrait croire que pendant ces deux siècles entre l’établissement des trois lois de Newton
et la révolution d’Einstein et de Schrödinger, la mécanique classique n’a pas évolué de ma-
nière significative. Pourtant, elle s’est profondément transformée sous l’impulsion notamment
de Pierre Louis Maupertuis, Leonhard Euler, Joseph-Louis Lagrange, William Rowan Hamil-
ton, et Carl Gustav Jacob Jacobi (Fig. 1.1) pour aboutir à une formulation analytique par
opposition à la formulation vectorielle de Newton. Pour illustrer la force de la formulation
analytique on pourra citer les quelques mots de Lagrange dans le préface de son manuscrit
“Mécanique Analytique” publié en 1788.
On ne trouvera point de Figures dans cet Ouvrage. Les méthodes que j’y expose
ne demandent ni constructions, ni raisonnements géométriques ou mécaniques,
mais seulement des opérations algébriques, assujetties à une marche régulière et
uniforme. Ceux qui aiment l’Analyse, verront avec plaisir la Mécanique en devenir
une nouvelle branche, et me sauront gré d’en avoir étendu ainsi le domaine.
— Joseph-Louis, Lagrange
La mécanique analytique est une expression multiforme de la mécanique classique : elle peut
s’écrire sous les différentes formulation dites Lagrangienne, Hamiltonienne, ou bien encore
avec les formulations de Hamilton–Jacobi et symplectique. Ce cours abordera l’ensemble de
ces formulations avec plus ou moins de détails. La mécanique analytique peut être vu comme
juste une simplification mathématique de la mécanique newtonienne sans réel apport aux
principes fondateurs de la mécanique classique. C’est sans compter sur toute la puissance du
1. Principes mathématiques de la philosophie naturelle
2. Il existe également une théorie quantique relativiste : la théorie quantique des champs

5
6 Chapitre 1. Introduction

Figure 1.1. – De gauche à droite, portraits de Pierre-Louis Moreau de Maupertuis (1698–


1759), Leonhard Euler (1707–1783), Joseph-Louis Lagrange (1736–1813),
William Rowan Hamilton (1805–1865) et Carl Gustav Jacob Jacobi (1804–
1851).

formalisme de la mécanique analytique qui permet la résolution de problèmes très complexes


et l’utilisation d’approximations permettant des prédictions très précises notamment en méca-
nique céleste. D’autre part, la formulation analytique de la mécanique a offert aux précurseurs
de la physique moderne le cadre théorique adaptée à une refondation des principes de base de
la physique. La théorie de la relativité d’Einstein s’exprime naturellement avec la formulation
Lagrangienne de la mécanique, la physique statistique avec la formulation Hamiltonienne et
la mécanique quantique dans sa formulation originelle repose sur les formulations Hamilto-
nienne et de Hamilton-Jacobi. La mécanique analytique est donc un formalisme essentiel pour
la compréhension des théories moderne de physique fondamentale.
Ces notes de cours sont largement inspirés d’ouvrages de référence qui peuvent venir compléter
cette introduction à la mécanique analytique. Voici une liste non exhaustive d’ouvrage en
langue Française et Anglaise. Chacun de ces livres comporte un point de vue différent et
complémentaire de la mécanique analytique. Ces notes de cours ont également été fortement
influencées par le cours de Mécanique Analytique donné par J.-M. Rax en Licence 3 de
Physique Fondamentale.
2. Principes de la mécanique Newtonienne

2.1. Cinématique Galiléenne

La cinématique a pour objectif de décrire le mouvement d’un ensemble de point au cours du


temps. En cinématique Galiléenne, nous allons supposer que l’espace ambiant s’apparente à un
espace vectoriel Euclidien de dimension trois E 3 et que le temps est un espace unidimensionnel
pouvant être décrit par l’ensemble des réels R. Puisque l’espace est de dimension 3, la position
dans l’espace de chaque point est donnée par rapport à un repère de manière unique par le
biais de trois coordonnées. Pour décrire le temps, on introduit le paramètre t mesuré par un
observateur associé au repère d’espace. L’union des repères d’espace et de temps forme alors
un référentiel associé à cet observateur. En cinématique Galiléenne, on considère que le temps
est un paramètre absolu partagé par l’ensemble des observateurs et qu’il s’écoule de manière
identique dans l’ensemble des référentiels.
La position du point est déterminé par le vecteur r qui relie le point au centre du repère. Par
exemple, dans un repère Cartésien de centre O les trois composantes du vecteur r par rapport
aux axes Ox, Oy et Oz sont les composantes x, y et z du point

r = xex + yey + zez , (2.1)

où ex , ey , et ez sont les vecteurs unitaires dans les directions Ox, Oy, et Oz. Il est également
courant de noter ces trois composantes sous la forme xi avec i = 1, 2, 3 si bien que le vecteur
r s’écrit
3
X
r = x1 e1 + x2 e2 + x3 e3 = xi ei . (2.2)
i=1

Chaque point du système évolue au cours du temps. Pour décrire cette évolution, le vecteur
r devient une fonction du temps t
r = r(t). (2.3)

On supposera que le paramètre t évolue de manière monotone et croissante de sorte que le


vecteur r(t) suive les différentes positions de manière chronologiquement ordonnée. La vitesse
et l’accélération d’un point par rapport à un référentiel est défini par

dr d2 r
v = ṙ = , a = v̇ = (2.4)
dt dt2

7
8 Chapitre 2. Principes de la mécanique Newtonienne

Dans un repère cartésien, la vitesse et l’accélération s’écrivent


X X
v= ẋi (t)ei , a= ẍi (t)ei (2.5)
i i

Le repère Cartesien n’est pas l’unique manière de décrire la position et le mouvement d’un
point. Il est également possible d’utiliser des repères tournants comme les repères cylindriques
et sphériques. Dans ce cas, les vecteurs unitaires deviennent dépendant des coordonnées du
point xi . Les propriétés des repères tournants est rappelé en annexe de ce chapitre. Dans
le cas du repère cylindrique (er , eθ , ez ), la position du système est caractérisée par les trois
coordonnées r, θ et z.
r = rer + zez (2.6)
La vitesse et l’accélération s’écrivent alors

v = ṙer + rθ̇eθ + żez , (2.7)


  1d  
a = r̈ − rθ̇2 er + r2 θ̇ eθ + z̈ez . (2.8)
r dt

Dans le cas du repère sphérique (er , eθ , eϕ ), la position du point est caractérisée par les trois
coordonnées r, θ et ϕ. La vitesse et l’accélération s’écrivent

v =ṙer + rθ̇eθ + rϕ̇ sin θeϕ , (2.9)


   
a = r̈ − rθ̇2 − rϕ̇2 sin2 θ er + rθ̈ + 2ṙθ̇ − rϕ̇2 sin θ cos θ eθ
 
+ rϕ̈ sin θ + 2ṙϕ̇ sin θ + 2rϕ̇θ̇ cos θ eϕ (2.10)

Dans le repère de Frenet-Serret (t, n, b), la position du point le long d’une courbe gauche est
caractérisée par l’abscisse curviligne s. La vitesse et l’accélération sont alors données par

v = ṡt, (2.11)
a = s̈t + γ ṡ2 n, (2.12)

où γ est la courbure de la courbe.

2.2. Axiomes de la mécanique Newtonienne

La mécanique Newtonienne est en général introduite par les trois lois de Newton. Cependant
ces trois lois n’offrent pas de bonne définition du concept de masse et du concept de force.
Nous préférerons plutôt présenter les principes et axiomes établies à partir d’observations
et d’expériences dont dérive les lois de Newton. Nous allons passer en revue ces axiomes
dans le cadre du mouvement de points matériels, c’est à dire des particules dont la taille est
négligeable. La description de systèmes étendus se fait de naturellement à partir des axiomes
établis pour les points matériels.
2.2. Axiomes de la mécanique Newtonienne 9

Principe d’inertie Il existe une classe d’équivalence de référentiels dit Galiléen qui possèdent
la propriété suivante : dans un référentiel Galiléen, une particule isolée est soit immobile, soit
en mouvement rectiligne uniforme. Le passage d’un référentiel Galiléen à un autre se fait
par l’intermédiaire d’une transformation dite Galiléenne. Ce principe permet d’une part de
définir la notion de référentiel Galiléen, c’est à dire un référentiel dans lequel une particule
isolée se déplace en ligne droite et d’autre part la notion de temps associé à ce référentiel qui
s’écoule de manière linéaire le long du chemin de cette particule. Ce point soulève déjà des
questions sur la définition du temps. Le temps est une notion naturelle et il semble futile de
devoir définir la façon dont celui-ci s’écoule. Aujourd’hui le temps est définit de la manière
suivante : La seconde est la durée de 9 192 631 770 périodes de la radiation correspondant à
la transition entre les niveaux hyperfins de l’atome de césium 133. Cette définition correspond
à une transition quantique entre niveaux excités d’un atome. D’un point de vue classique le
temps peut être définis par rapport au mouvement d’un objet. Par exemple, la rotation de la
terre ou encore le mouvement d’un pendule. 1 Ainsi du principe d’inertie on peut en déduire
que le temps s’écoule de manière uniforme dans un référentiel Galiléen. Ceci sous entend que
ce n’est pas nécessairement le cas pour un référentiel non Galiléen.

Conservation de l’impulsion et définition de la masse Soit un ensemble de N particules


de vitesses vi , i = 1, . . . , N . Ces particules peuvent interagirent entre elles mais sont isolées
du reste de l’univers. Il existe un ensemble de quantités associées aux particules et noté mi
tel que dans un référentiel Galiléen alors
N
X
mi vi = cste. (2.13)
i=1

Les quantités mi sont les masses des particules. Ce principe permet d’introduire d’une part
le concept de masse mais également d’impulsion pi = mi vi , en exprimant la conservation de
l’impulsion totale d’un système isolé. En général ce principe est démontré à partir des lois
de Newton. Ici on préférera admettre ce principe comme étant un axiome de la mécanique et
dont on peut déduire les lois de Newton.

Principe fondamental de la dynamique : L’état initial d’un système mécanique composé


par l’ensemble des positions et des vitesses des points matériels le constituant détermine de
manière unique son mouvement au cours du temps. L’expérience montre en effet qu’il n’est
pas nécessaire de connaître ni l’accélération ni ses dérivées temporelles à l’instant initial pour
connaître l’évolution du système. A partir de ce principe on peut en déduire que l’accélération
d’un point matériel est nécessairement une fonction des positions et des vitesses.

r̈ = f (r, ṙ, t). (2.14)


1. Le pendule est modélisé par un oscillateur harmonique qui est l’équivalent classique d’une transition
atomique en physique quantique.
10 Chapitre 2. Principes de la mécanique Newtonienne

Ceci permet d’introduire la notion de force. La force appliquée à une particule de masse m
est définie par
F = mf (r, ṙ, t) = mr̈ (2.15)
Cette force est nécessairement une fonction de la position de la vitesse et du temps F =
F(r, ṙ, t). Ce principe doit être compris comme une définition de la force plus que comme
une loi fondamentale. La connaissance des forces n’est en effet possible que par l’effet qu’elles
produisent.
L’ensemble de ces trois principes est en fait équivalent aux trois lois de Newton dans sa forme
habituelle. Par exemple la troisième loi de Newton, la loi de l’action et la réaction, se trouve
en fait caché dans le principe de conservation de l’impulsion pour le cas de deux particules
isolées.

2.3. Formulation énergétique de la mécanique classique

C’est Gottfried Wilhelm Leibniz (1646–1716) qui inventa le concept d’énergie cinétique sous
le nom de force vive. Dans le cadre de chocs élastiques, Leibniz s’opposait à René Descartes
(1596–1650) en soutenant que la force vive devait se conserver et non pas la quantité de
mouvement. Pourtant on sait que ces deux concepts ne s’opposent pas. La formulation éner-
gétique de la mécanique classique est complètement équivalente à la mécanique Newtonienne
elle possède cependant un certain nombre d’avantages. En particulier on montre par cette ap-
proche que tout système unidimensionnel et conservatif est intégrable. 2 De plus la mécanique
analytique repose complètement sur le concept d’énergie. Pour un système à une particule,
l’approche énergétique s’exprime grâce au théorème de l’énergie cinétique

Z t2
T (t2 ) − T (t1 ) = W12 = F · vdt, (2.16)
t1
où T (t) est l’énergie cinétique au temps t et W12 est le travail de la force F. Si la force est
indépendante de la vitesse et du temps alors l’expression du travail s’exprime comme une
intégrale le long du chemin suivi
Z
T (t2 ) − T (t1 ) = F(r) · dl (2.17)
C

On peut encore simplifier le problème dans le cas de forces qui dérivent d’un potentiel

F(r) = −∇V (r). (2.18)

Dans ce cas le travail s’écrit W12 = V (r1 ) − V (r2 ) et on peut définir le concept d’énergie
mécanique Em = T + V = cste.
2. D’une manière générale, on montre que pour un système de n degrés de liberté, le système est intégrable
s’il existe n constantes du mouvement indépendantes.
2.3. Formulation énergétique de la mécanique classique 11

Application aux problèmes unidimensionnels Soit une particule de masse m dont la position
est décrite par la coordonnée x. La particule est sujet à l’énergie potentielle V (x). Le système
est conservatif si bien que l’énergie
1
E = mẋ2 + V (x), (2.19)
2
est une quantité conservée. Cette propriété va permettre de trouver une solution par quadra-
ture au problème pour tout potentiel V (x). Exprimons la vitesse ẋ en fonction de la position
r
2q
ẋ = ± E − V (x), (2.20)
m
où le signe ± exprime le fait que pour un système conservatif, pour toute solution, la solution
inverse obtenue par renversement du temps est également solution. On peut donc écrire la
variation du temps en fonction de la variation de l’espace
r
m dx
dt = ± p (2.21)
2 E − V (x)

Cette expression s’intègre pour donner le temps en fonction de la position x


x dx0
r
m
Z
t(x) = ± p (2.22)
2 x0 E − V (x0 )

A partir de l’expression de t(x) on peut en principe trouver la fonction x(t). La solution (2.22)
constitue la solution sous la forme de quadrature d’un système 1D (c’est à dire sous la forme
d’une intégrale).
12 Chapitre 2. Principes de la mécanique Newtonienne

2.A. Repères tournants

2.A.1. Application antisymétrique

Soit E n un espace Euclidien de dimension n. Soit f une application de linéaire E n dans E n .


L’application est antisymétrique lorsque la propriété suivante est vérifiée

∀ u et v ∈ E n , u · f (v) = −v · f (u) (2.23)

Soit ei , i = 1, . . . , n une base de E n . Le vecteur u se décompose sur la base


n
X
u= ui ei (2.24)
i=1

et l’application f est représenté par la matrice A


 
a11 a12 ... a1n
 
 a21 a22 ... a2n 
A= . (2.25)
 
 .. .. .. .. 
 . . .  
an1 an2 . . . ann

les coefficients de la matrice A sont donnés par aij = ei · f (ej ). La matrice d’une application
antisymétrique est antisymétrique
aij = −aji (2.26)

Pour n = 3, il existe une dualité entre application linéaire antisymétrique et produit vectoriel.
En effet pour n = 3, le nombre d’éléments indépendants et non nuls de la matrice A est
n(n − 1)/2 = 3. Il est donc possible de représenter l’application linéaire grâce à un vecteur de
E 3 . Si l’on introduit les nombres R1 = a32 , R2 = a13 et R3 = a21 , la matrice A s’écrit
 
0 −R3 R2
 
A =  R3
 0 −R1 
 (2.27)
−R2 R1 0

Si bien que l’on a


∀u ∈ E 3 f (u) = R × u (2.28)

A partir de cette expression on retrouve très simplement la propriété d’anti-symétrie (Eq. 2.23).

2.A.2. Repère mobile

Dans le cas d’un repère mobile, les directions des vecteurs unitaires dépendent des coordonnées
du point. Cependant la relation d’orthonormalité reste vérifiée

ei · ej = δij . (2.29)
2.A. Repères tournants 13

La différentielle de cette équation donne

dei · ej + ei · dej = 0 (2.30)

Ceci montre que la différentielle d peut être vu comme une application linéaire antisymétrique
et on peut écrire
dei = dR × ei , (2.31)
où dR est le vecteur de rotation infinitésimale.

2.A.3. Repère cylindrique

Dans le cas du repère cylindrique (er , eθ , ez ), la position du système est caractérisée par les
trois coordonnées r, θ et z. La rotation du repère est caractérisé par le vecteur de rotation
dR = dθez . On obtient les différentielles des vecteurs unitaires

der = eθ dθ, (2.32)


deθ = −er dθ. (2.33)

2.A.4. Repère sphérique

Dans le cas du repère sphérique (er , eθ , eϕ ), la position du point est caractérisée par les trois
coordonnées r, θ et ϕ. Le vecteur de rotation infinitésimale s’écrit

dR = dθeϕ + dϕez = dθeϕ + cos θdϕer − sin θdϕeθ (2.34)

et les différentielles des vecteurs unitaires peuvent s’écrire sous la forme

der = eθ dθ + sin θeϕ dϕ, (2.35)


deθ = −er dθ + cos θeϕ dϕ, (2.36)
deϕ = − cos θeθ dϕ − sin θer dϕ. (2.37)

2.A.5. Repère de Frenet-Serret

Pour finir, on peut considérer le repère de Frenet-Serret (t, n, b). Dans ce cas la position est
donnée par l’abscisse curviligne s le long de la courbe gauche que suit le point. Le vecteur
tangent t est définit comme le vecteur unitaire tangent à la courbe.
dr
t= (2.38)
ds
La variation du vecteur unitaire t par une variation de l’abscisse curviligne le long du cercle
osculateur de rayon de courbure R(s) = 1/γ(s) donne la direction du vecteur normal n
dt
= γn. (2.39)
ds
14 Chapitre 2. Principes de la mécanique Newtonienne

Les vecteurs t et n forment alors le plan osculateur. Le vecteur binormal b permet de terminer
le trièdre il est définit par
b = t × n. (2.40)

Les vecteurs t et b forment le plan rectifiant et les vecteurs n et b forment le plan normal.
Dans le cas de courbes gauches (non planes) la variation du vecteur binormal est donnée en
fonction de la torsion κ(s) tel que
db
= −κn. (2.41)
ds
On peut définir le vecteur de Darboux ω.
dt
= ω × t, (2.42)
ds
dn
= ω × n, (2.43)
ds
db
=ω×b (2.44)
ds
A partir des résultats précédents on montre facilement que ce vecteur s’écrit

ω = γb + κt. (2.45)

On obtient alors les relations suivantes


dt
= γn, (2.46)
ds
dn
= −γt + κb, (2.47)
ds
db
= −κn. (2.48)
ds
3. Équations d’Euler-Lagrange

3.1. Contraintes et variété des configurations

En mécanique Newtonienne la dynamique de N masses ponctuelles évoluant dans l’espace


Euclidien E 3 de dimension 3 est décrite par le biais de N vecteurs ri , i = 1, . . . , N de
dimension 3 (Fig. 3.1). En introduisant un repère orthonormée (ex , ey , ez ) chaque vecteur
s’écrit
ri = xi ex + yi ey + zi ez . (3.1)

De manière équivalente il est possible de décrire ce même système par un point unique dans
l’espace Euclidien E 3N de dimension n = 3N . Les coordonnées du système sont alors données
par le 3N-uplets (x1 , y1 , z1 , x2 , y2 , z2 , . . . , xN , yN , zN ).
Certains systèmes mécaniques possèdent des contraintes qui résultent de forces qui ne sont
pas nécessairement connu a priori. On parle également de liaisons. C’est le cas notamment du
pendule simple ou d’un corps glissant le long d’un plan incliné (Fig 3.2). La description de
ces systèmes par le biais de la mécanique Newtonienne passe par la détermination des forces
de contraintes implicites qui ne sont connus que par l’effet qu’elles produisent (par exemple
elles imposent que la longueur du pendule est une constante). En mécanique analytique,
nous verrons que le traitement des contraintes est beaucoup plus simple que par l’approche
Newtonienne.

z
r1

r3 r2

Figure 3.1. – En mécanique Newtonienne la description d’un système de trois particules


repose sur l’utilisation de trois vecteurs r1 , r2 , r3 de l’espace Euclidien de
dimension 3.

15
16 Chapitre 3. Équations d’Euler-Lagrange

O
(a) x (b)
R
`
m
T M
P P
β
y

Figure 3.2. – (a) Problème du pendule simple : La barre OM est rigide, il existe une force
de tension T qui maintien la masse m le long de la trajectoire circulaire. (b)
Problème du bloc glissant le long d’un plan incliné : Pour que le bloc reste sur
le plan, il existe une force de réaction R orthogonale à la surface du plan.

Lorsqu’une contrainte peut s’exprimer sous la forme d’une équation algébrique de la forme

f (r1 , r2 , . . . , rN , t) = 0, (3.2)

on parle alors de contrainte holonome. Lorsque cette dernière est indépendante du temps on
parle de contrainte holonome scléronome et lorsque qu’elle dépend explicitement du temps on
parle de contrainte holonome rhéonome. Par exemple le pendule simple (Fig. 3.2a) possède
deux containtes holonomes scléronomes. La masse est astreinte a se déplacer dans le plan
Oxy et la la longueur du pendule est fixe si bien que l’on a les deux relations z = 0 et
x2 + y 2 − `2 = 0.
Toutes les contraintes ne pouvant pas s’exprimer sous la forme de l’Eq. (3.2) sont alors dites
non holonome. C’est le cas d’une contrainte qui s’exprime sous la forme d’une inégalité

f (r1 , r2 , . . . , rN , t) > 0, (3.3)

ou d’une contrainte qui s’exprime sous la forme d’une équation algébrique faisant intervenir
les vitesses
f (r1 , r2 , . . . , rN , ṙ1 , ṙ2 , . . . , ṙN , t) = 0. (3.4)
Le premier cas de contrainte non holonome permet de décrire par exemple une particule
glissant le long d’une sphère (Fig. 3.3a). Le second type de contrainte non holonome permet
de décrire la condition de roulement sans glissement d’une sphère sur un plan.
Il existe des contraintes non holonomes intégrables, on parle parfois de contraintes semi-
holonomes. C’est le cas du roulement sans glissement d’un cerceau se déplaçant le long d’une
droite (Fig 3.3b). La condition de roulement sans glissement s’écrit

ẋ = Rθ̇. (3.5)

Cette équation s’intègre facilement pour donner

x = Rθ + x0 , (3.6)
3.1. Contraintes et variété des configurations 17

(a) (b)

M θ
x
I

Figure 3.3. – (a) Une bille glisse le long d’une sphère. La contrainte est non holonome. (b) Un
cerceau roule sans glisser le long d’une droite. La contrainte est semi-holonome.

où x0 est une constante. Dans le cas de la sphère roulant sur un plan, la contrainte est non-
intégrable. Ceci se traduit par le fait que l’orientation de la sphère ne dépend pas uniquement
des positions initiales et finales mais elle dépend du chemin suivi le long du plan. Ce dernier
exemple constitue donc bien une contrainte non holonome. Il est beaucoup plus simple de
traiter les contraintes holonomes il est donc préférable dans le cas de contraintes intégrables
d’utiliser la forme intégré de la contrainte même si le prix à payer est d’avoir une contrainte
holonome rhéonome (explicitement dépendante du temps).
La notion de contrainte permet de formaliser un système mécanique. En physique fonda-
mentale, ce concept est utile pour simplifier un problème en réduisant le nombre de degrés
de liberté. Par exemple c’est le cas dans l’approximation rigide d’un système moléculaire.
Dans le cadre de ce cours, nous n’allons considérer que les contraintes holonomes. Le cas des
contraintes non holonomes est beaucoup plus difficile à traiter. Le lecteur intéressé pourra
trouver plus d’informations sur les contraintes non holonomes dans la plus part des livres
traitant du sujet de la mécanique analytique. 1
Soit un système de N masses ponctuelles ri , i = 1, . . . , N assujetties à K contraintes holo-
nomes
fβ (r1 , r2 , . . . , rN , t) = 0, β = 1, . . . , K. (3.7)

Les positions cartésiennes des masses ri ne constituent pas des coordonnées indépendantes.
En effet, il existe K relations entre les coordonnées du sytème. Le nombre de degrés de liberté
est n = 3N − K. L’ensemble des positions accessibles par le système constitue un espace
topologique Q de dimension n inclus dans l’espace Euclidien E 3N . On parle de variété des
configurations. C’est une variété différentielle qui localement “ressemble” à l’espace Euclidien
E n . En général, la variété des configurations peut-être décrite par n coordonnées généralisés

qα = qα (r1 , r2 , . . . , rN , t) α = 1, . . . , n. (3.8)

Les coordonnées généralisés ne sont pas nécessairement des coordonnées cartésiennes elles
1. Certains ouvrages contiennent parfois des erreurs sur ce sujet. Le cas des contraintes non holonomes
linéaires constitue toutefois un cas simple qui est correctement décrit dans le livre de Golstein, Classical
Mechanics
18 Chapitre 3. Équations d’Euler-Lagrange

z
O
(a) x (b) O
`

θ θ
M

y
y ϕ M
x

(c) (d)
O
x
`1

θ1 M1
`2
θ2
M2
y

Figure 3.4. – (a) Le pendule simple, la variété des configurations est le cercle S1 . (b) le
pendule sphérique, la variété des configurations est la sphère S2 . (c) le pendule
double, la variété des configurations est le tore de dimension deux T2 = S1 ×S1 .
(d) représentation graphique du tore de dimension deux T2 .

peuvent être des distances, des angles, etc. Ces coordonnées sont choisis de sorte que les
contraintes soient prise en compte directement si bien que l’ensemble des qα sont des variables
indépendantes. Les coordonnées généralisés peuvent en principe dépendre explicitement du
temps. C’est le cas notamment lorsque nous avons des contraintes holonomes rhéonomes.
La définition des n coordonnées généralisés (Eq. 3.8) associés aux K contraintes (Eq. 3.7)
constitue donc un jeu de 3N équations, qui peut être inversé pour obtenir de manière unique
l’ensemble des N vecteurs

ri = ri (q1 , q2 , . . . , qn , t) i = 1, . . . , N. (3.9)

Cette notion de variété des configurations montre que la mécanique peut être représentée sous
forme géométrique. Ceci peut-être facilement compris dans les trois exemples suivants :

Le pendule simple Dans le cas du pendule simple, le système subit les contraintes x2 + y 2 =
`2 et z = 0 si bien que le nombre de degrés de liberté est n = 3 − 2 = 1. Le système peut être
décrit par l’angle θ définit entre la masse et la verticale. La variété des configuration est le
cercle Q = S1 6= E.

Le pendule sphérique Dans le cas du pendule sphérique, la masse est astreinte à se déplacer
sur une sphère de rayon `. Elle subit la contrainte r2 = `2 . Le nombre de degrés de libertés
3.2. Déplacement et travail virtuel 19

est n = 3 − 1 = 2. En introduisant un système de coordonnées sphérique, on peut voir que le


système peut être décrit par les deux angles θ et ϕ définis par

x = ` cos ϕ sin θ
y = ` sin ϕ sin θ (3.10)
z = −` cos θ

On voit que la variété des configuration est la sphère de dimension 2, Q = S2 6= E 2 .

Double pendule Le double pendule est constitué d’un premier pendule simple au bout
duquel est attaché une masse m1 . Un second pendule relie la masse m1 à une masse m2 . Ce
système mécanique est un cas d’école de mécanique car il constitue l’un des systèmes les plus
simple ayant un comportement chaotique. Pour décrire le système on peut utiliser les deux
angles θ1 et θ2 que font les masses m1 et m2 avec la verticale. La variété des configurations
est alors le tore de dimension 2, Q = S1 × S1 = T2 .
Un point de la variété des configurations Q est déterminé par les coordonnées généralisées
q = {qα }. On notera que les vitesses n’appartiennent pas à Q. A chaque point q de Q on peut
définir un espace tangent Tq Q de dimension n. Cet espace contient l’ensemble des vecteurs
tangents en q aux courbes tracées sur Q. En additionnant l’ensemble des espaces tangents on
construit une nouvelle variété différentielle : le fibré tangent T Q de dimension 2n. Le fibré
tangent est décrit par l’ensemble des coordonnées généralisés qα et l’ensemble des vitesses q̇α
qui sont alors des variables indépendantes.

3.2. Déplacement et travail virtuel

La mécanique analytique repose sur le concept de déplacement virtuel. Ce déplacement ca-


ractérise un déplacement infinitésimal δri qui s’opère à temps constant et qui est consistant
avec les contraintes du système. Les déplacements virtuels permettent de paramétrer tout
déplacement le long de la variété des configurations et sont utilisés pour construire des tra-
jectoires virtuelles qui ne respectent pas nécessairement les équations de Newton mais qui
doivent respecter les contraintes. Les déplacements virtuels s’expriment facilement grâce aux
coordonnées généralisées. En partant de l’Eq. (3.9) on obtient
n
X ∂ri
δri = δqα , (3.11)
α=1
∂qα

où les δqα sont des variations quelconques. Par exemple dans le cas d’une particule astreinte
à se déplacer sur une sphère de rayon R et en utilisant les angles θ et ϕ comme coordonnées
généralisées on a
δr = Rδθeθ + R sin θδϕeϕ (3.12)
20 Chapitre 3. Équations d’Euler-Lagrange

trajectoire
virtuelle

trajectoire
d (r + δr) δr(t + dt) réelle

dr
δr(t) r(t + dt)

r(t)

Figure 3.5. – Les déplacements virtuels δr ont lieu à un instant donnée alors que les varia-
tions naturelles dr ont lieu entre deux instants différents.

On voit dans cet exemple que la variation virtuelle δr appartient au plan tangent à la sphère.
Ceci est vrai en général les variations virtuelles appartiennent à l’hyperplan tangent à la
variété des configurations.
Il est nécessaire de bien différentier les déplacements virtuels δri des déplacements naturels
dri = ri (t + dt) − ri (t) qui s’opèrent eux entre deux instants différents. Puisque les variations
virtuelles ont lieu a temps constant, elles commutent avec les variations naturelles. Ceci se
voit facilement s’il on effectue une variation naturelle le long d’une trajectoire virtuelle du
vecteur ri (Fig. 3.5). On a en effet l’égalité

δri + d (ri + δri ) = dr + δ (ri + dri ) ,

Sachant que les variations sont distributives on obtient

dδri = δdri . (3.13)

Nous garderons en mémoire cette propriété qui sera utilisée par la suite.
Grâce au concept de variation virtuelle on peut définir le concept de travail virtuel. C’est
à dire l’énergie nécessaire pour déplacer le système d’une variation virtuelle. Nous allons
considérer un système de N masses ponctuelles assujetties à des contraintes holonomes. On
sépare les différentes forces du système en deux catégories. D’une part la résultante des forces
appliquées à la masse i et associées aux contraintes est notée Ri . D’autre part le reste des
forces appliquées à la masse i est noté Fi . Le travail virtuel est défini par
X
δW = (Fi + Ri ) · δri . (3.14)
i
Pour des contraintes holonomes, les forces de contraintes Ri sont orthogonales aux variations
virtuelles δri
Ri · δri = 0, ∀ i. (3.15)
3.2. Déplacement et travail virtuel 21

R = λ∇f

x
y f (x, y, z) = 0

Figure 3.6. – Une particule se déplace sur la surface f (x, y, z) = 0. La force de réaction de
la surface est orthogonal à la surface

On peut facilement s’en convaincre s’il on considère le cas du pendule simple. La force de
tension T est alors située le long du pendule est bien orthogonal aux déplacements virtuels
δr s’opérant le long du cercle si bien que T · δr = 0. De même, on peut aussi considérer le
cas d’une particule se déplacent sur la surface f (x, y, z) = 0 (Fig. 3.6). La force de contrainte
permettant d’imposer à cette particule de ce déplacer le long de cette surface est en tout point
orthogonale à celle-ci si bien que la force de contrainte est proportionnelle au gradient de la
contrainte R = λ∇f .
Cette propriété se démontre de manière plus générale en considérant non plus une contrainte
stricte mais en supposant qu’elle est imposé via un potentiel d’interaction. Pour une contrainte
f (r1 , . . . , rN ), une forme assez générale de potentiel s’écrit

Uc (r1 , . . . , rN ) = uc (f (r1 , . . . , rN )) (3.16)

où uc (f ) est une fonction qui possède un minimum autour de f = 0 (par exemple un potentiel
harmonique). Il suffit alors de choisir la fonction uc (f ) avec une courbure suffisament impor-
tante pour que seule la valeur de f = 0 soient explorée. La force de contrainte s’écrit donc

duc
Ri = −∇i U = − ∇i f = λ∇i f (3.17)
df
où λ = − du
df dépend du détail du potentiel choisi. On a donc
c

Ri · δri = −λ∇i f · δri = −λδf = 0. (3.18)

Ici, on utilise le fait que puisque les variations virtuelles vérifient les contraintes alors la
variation de la contrainte est nécessairement nulle δf = 0.
Ainsi le travail virtuel s’écrit donc uniquement à l’aide des forces Fi .
X
δW = Fi · δri . (3.19)
i
22 Chapitre 3. Équations d’Euler-Lagrange

La définition du travail virtuel permet d’écrire le principe de la statique sous une forme plus
simple : le principe des travaux virtuels. Pour un système à l’équilibre pour chaque masse i la
somme des forces qui s’y applique est nulle si bien que le principe des travaux virtuels s’écrit

δW = 0, ∀ δri . (3.20)

Ce principe constitue un principe de stationnarité vis à vis des coordonnés ri . En effet s’il on
considère le cas de forces dérivant d’un potentiel

Fi = −∇i U (r1 , r2 , . . . , rN , t), (3.21)

où ∇i est le gradient vis-à-vis du vecteur ri , le principe des travaux virtuels est équivalent à
la recherche d’un extremum de l’énergie potentiel via la condition de stationnarité.
X
δU = ∇i U · δri = −δW = 0, ∀δri . (3.22)
i

Pour un système sans contraintes, le principe des travaux virtuels redonne simplement le
résultat de la statique. En effet lorsque l’ensemble des δri sont des variables indépendantes
alors Eq. (3.20) implique que Fi = 0. Pour un système subissant des contraintes, les δri ne
sont pas des variables indépendantes si bien qu’en général Fi 6= 0. L’avantage du principe des
travaux virtuels est qu’il ne fait plus référence aux forces des contraintes. Elles sont incluses
implicitement.
D’un point de vue pratique, il est plus commode de traiter le principe des travaux virtuels
en utilisant les coordonnées généralisés qui sont des variables indépendantes. En utilisant
l’Eq. (3.11), le travail virtuel s’écrit alors
X
δW = Qα δqα , (3.23)
α

où Qα est la force généralisée définie par


X ∂ri
Qα = Fi · . (3.24)
i
∂qα

Puisque les δqα sont des variables indépendantes alors le principe des travaux virtuels δW = 0
∀ δqα implique
Qα = 0, α = 1, . . . .n. (3.25)

Pour un système sous contrainte et à l’équilibre ce sont donc les forces généralisées qui sont
nulles et non les forces cartésiennes. On pourra remarquer que dans le cas de forces dérivant
d’un potentiel (Eq. 3.21) l’expression des forces généralisées s’écrit simplement
X ∂ri ∂U
Qα = − ∇i U · =− (q1 , . . . , qn , t), (3.26)
i
∂qα ∂qα

où U = U (q1 , . . . , qn , t) doit être exprimé comme une fonction des coordonnées généralisées.
3.3. Équations d’Euler-Lagrange 23

3.3. Équations d’Euler-Lagrange

Le principe des travaux virtuels se limite aux problèmes de systèmes à l’équilibre. Pour décrire
la dynamique, ce principe se généralise sous la forme du principe d’Alembert. Celui-ci s’écrit
X
(Fi − mi r̈i ) · δri = 0, ∀ δri . (3.27)
i

Tout comme dans le cas de l’équilibre les δri ne sont pas indépendants et il est nécessaire
d’utiliser les coordonnées généralisées. Le principe d’Alembert s’écrit alors
!
X X ∂ri
Qα − mi r̈i · δqα = 0, ∀ δqα (3.28)
α i
∂qα

Sachant que l’ensemble des δqα sont indépendant on a donc


X ∂ri
mi r̈i · = Qα , α = 1, . . . , n (3.29)
i
∂qα

On remarquera que dans la définition des coordonnées cartésiennes en fonction des coordon-
nées généralisées (Eq. 3.9) la fonction ri est une fonction de Q × R à valeur dans E 3 . La
dépendance temporelle de cette fonction prend son origine d’une part dans la dépendance
explicite par rapport au temps et d’autre part dans la dépendance temporelle de chaque
coordonnées qα (t). La vitesse cartésienne s’écrit donc
∂ri X ∂ri
ṙi = + q̇α , (3.30)
∂t α ∂qα

où la dérivée partielle par rapport au temps s’effectue à coordonnées généralisés fixées. On


remarque que la vitesse ṙi est une fonction des positions et vitesses généralisées et du temps

ṙi = ri (q1 , . . . , qn , q̇1 , . . . , q̇n , t), T Q × R → E3. (3.31)

On remarque également que les vitesses cartésiennes sont linéaires dans les vitesses générali-
sées. A partir de l’Eq. (3.30) on en déduit l’expression
∂ ṙi ∂ri
= . (3.32)
∂ q̇α ∂qα
Cette équation caractérise la dépendance des vitesses cartésiennes en fonction des vitesses
généralisés. Pour caractériser la dépendance des vitesses cartésiennes en fonction des coor-
données généralisées on pourra dériver l’Eq. (3.30) sachant que les variables qα et q̇α sont
indépendantes
∂ ṙi ∂ 2 ri X ∂ 2 ri
= + q̇β . (3.33)
∂qα ∂t∂qα β
∂qα ∂qβ
Cette dernière expression se met sous la forme simple
∂ ṙi d ∂ri
 
= . (3.34)
∂qα dt ∂qα
24 Chapitre 3. Équations d’Euler-Lagrange

Grâce aux Eqs. (3.32) et (3.34) on peut écrire la partie inertielle du principe d’Alembert
(Eq. 3.29) sous la forme
∂ri X d ∂ri d ∂ri
X   X  
mi r̈i · = mi ṙi · − mi ṙi ·
i
∂qα i
dt ∂qα i
dt ∂qα
X d  ∂ ṙi ∂ ṙi
 X
= mi ṙi · − mi ṙi ·
i
dt ∂ q̇α i
∂qα
!! !
d ∂ X1 ∂ X1
= mi ṙ2i − mi ṙ2i (3.35)
dt ∂ q̇α i
2 ∂qα i
2
On reconnaît ici l’expression de l’énergie cinétique
X1
T = mi ṙ2i , (3.36)
i
2
si bien que le principe d’Alembert s’écrit sous la forme simple
d ∂T ∂T
 
− = Qα , α = 1, . . . , n. (3.37)
dt ∂ q̇α ∂qα
On remarquera que la dérivée totale par rapport au temps et la dérivée partielle par rapport
aux vitesses généralisées ne commutent pas. En effet, on peut voir que
∂ d ∂ri d ∂
ri = 6= ri = 0. (3.38)
∂ q̇α dt ∂qα dt ∂ q̇α
Dans le cas de forces dérivant d’un potentiel U = U (q1 , . . . , qn , t) le principe d’Alembert s’écrit

d ∂L ∂L
 
− = 0, α = 1, . . . , n (3.39)
dt ∂ q̇α ∂qα
où L est la fonction de Lagrange ou Lagrangien définie par
L (q1 , . . . , qn , q̇1 , . . . , q̇n , t) = T (q1 , . . . , qn , q̇1 , . . . , q̇n , t) − U (q1 , . . . , qn , t). (3.40)
On portera une attention particulière au signe négatif qui différencie la fonction de Lagrange
de l’énergie mécanique Em = T + U du système. Les n équations (3.39) constituent les
équations de Euler-Lagrange à la base de la mécanique Lagrangienne. Ces équations sont
complètement équivalentes aux équations de Newton, leur expression toutefois permettra
d’aborder un certain nombre de problème mécanique de manière beaucoup plus simple puisque
les contraintes géométriques sont naturellement satisfaites dans ce formalisme. Les équations
de Euler-Lagrange (3.39), sont données lorsque l’ensemble des forces dérivent d’un potentiel.
Il est facile de généraliser ce principe dans le cas de forces qui ne dérivent pas d’un potentiel.
Les équations de Euler-Lagrange s’écrivent alors
d ∂L ∂L
 
− = Qα , α = 1, . . . , n (3.41)
dt ∂ q̇α ∂qα
où Qα ne contient que les forces ne dérivant pas d’un potentiel.
Une des propriétés importantes des équations d’Euler-Lagrange (Eq. 3.39) est qu’elles sont
indépendantes du jeu de coordonnées généralisés utilisé. Une démonstration de cette propriété
est donnée en annexe.
3.4. Exemples 25

3.4. Exemples

Le pendule simple Pour illustrer l’utilisation des équations d’Euler-Lagrange, nous allons
considérer le cas du pendule simple (Fig. 3.4a). Le système est décrit par l’angle θ que fait le
pendule avec la verticale si bien que les coordonnées cartésiennes s’écrivent

x = ` sin θ,
(3.42)
y = ` cos θ.

L’énergie cinétique et l’énergie potentielle du pendule exprimés en fonction de θ et θ̇ s’écrivent

1
T = m`2 θ̇2 , (3.43)
2
U = −mg` cos θ, (3.44)

si bien que la fonction de Lagrange s’écrit

1
L (θ, θ̇) = m`2 θ̇2 + mg` cos θ (3.45)
2
L’équation de Euler-Lagrange donne directement l’équation du pendule

θ̈ + ω02 sin(θ) = 0 (3.46)

où ω02 = g` . Dans cette approche, il n’est pas nécessaire d’introduire des forces de contraintes.

3.5. Potentiel généralisé

Les forces dérivant d’un potentiel (Eq. 3.26) sont souvent appelés forces conservatives car un
système n’ayant que ce type de forces a une énergie mécanique constante. Cependant il est
à noter que ce n’est plus le cas si le potentiel devient explicitement dépendant du temps.
Nous préférons donc ne pas utiliser le terme de force conservative mais plutôt le terme de
forces dérivant d’un potentiel. La forme des équations de Euler-Lagrange (Eq. 3.39) suggère
également de généraliser le concept de potentiel. Nous verrons en effet que certaines forces qui
dépendent des vitesses peuvent dériver d’un potentiel généralisé U (q1 , . . . , qn , q̇1 , . . . , q̇n , t). Ce
potentiel est défini par l’équation

d ∂U ∂U
 
Qα = − , (3.47)
dt ∂ q̇α ∂qα

Dans le cas de telles forces, les équations d’Euler-Lagrange (Eq. 3.39) peuvent être utilisés. On
désignera ces forces comme mono-géniques pour reprendre le terme introduit par Cornelius
Lanczos.
26 Chapitre 3. Équations d’Euler-Lagrange

Force de Lorentz La force de Lorentz qui s’applique à une charge q se déplaçant dans un
champ électromagnétique dépendant du temps dérive du potentiel généralisé

Ψ(r, v, t) = qφ(r, t) − qv · A(r, t), (3.48)

où r et v sont respectivement la position et la vitesse de la charge, et où φ(r, t) est le potentiel


scalaire et A(r, t) est le potentiel vecteur. On rappelle ici le lien entre les potentiels scalaire
et vecteur et les champ électrique et magnétique

∂A
E = −∇φ − ,
∂t (3.49)
B = ∇ × A.

Pour démontrer que la force de Lorentz dérive bien de ce potentiel nous allons utiliser l’égalité
vectorielle suivante que nous ne démontrerons pas

∇ (a · b) = a × (∇ × b) + b × (∇ × a) + (a · ∇) b + (b · ∇) a (3.50)

Par définition du potentiel généralisé la force cartésienne s’écrit

d
F= (∇v Ψ) − ∇Ψ, (3.51)
dt

où ∇v = ∂∂ẋ ex + ∂∂ẏ ey + ∂∂ż ez désigne le gradient par rapport aux vitesses. En utilisant l’égalité
vectorielle on obtient

d
F = −q A − q∇φ + qv × (∇A) + q (v · ∇) A. (3.52)
dt

La dérivée total par rapport au temps du potentiel vecteur A(r, t) s’écrit

d ∂
A = A + (v · ∇) A, (3.53)
dt ∂t

si bien que la force s’écrit


F = qE + qv × B. (3.54)

On retrouve l’expression bien connu de la force de Lorentz. Ceci démontre que cette force
dérive bien d’un potentiel généralisés. On retiendra que dans le cas d’une particule chargée se
déplaçant dans un champ électromagnétique il suffit d’utiliser les équations d’Euler-Lagrange
avec le potentiel généralisé (Eq. 3.48). Si ce potentiel est exprimé en fonction de coordonnées
et vitesses généralisées il est ainsi possible de déduire très simplement les équations du mouve-
ment dans ce jeu de coordonnées ce qui n’est pas toujours évident si l’on part de l’expression
cartésienne de la force de Lorentz.
3.6. Moments généralisés 27

Forces d’inertie Les forces d’inertie dérivent également d’un potentiel généralisé. On consi-
dère une particule libre de masse m. On introduit le référentiel Galiléen R0 et le référentiel
tournant R. Soit Ω le vecteur rotation de R par rapport à R0 . La vitesse de la particule dans
le référentiel R0 est noté v0 et s’exprime en fonction de v la vitesse de la particule dans le
référentiel R selon
v0 = v + Ω × r (3.55)

où r est le vecteur position de la particule. La fonction de Lagrange exprimé en fonction de


la position r et de la vitesse v s’écrit

1 1
L (r, v) = mv2 + mv · (Ω × r) + m (Ω × r)2 (3.56)
2 2
On retrouve ici un potentiel généralisé similaire au potentiel d’interaction d’une particule
chargée avec le champ électromagnétique. Exprimons les équations d’Euler-Lagrange

d
(∇v L ) = ∇L (3.57)
dt
Le gradient par rapport aux vitesses s’exprime selon

∇v L = mv + mΩ × r (3.58)

Le gradient par rapport à la position s’écrit

1  
∇L = m∇ (r · (v × Ω)) + m∇ Ω2 r2 − (Ω · r)2
2
2
= −mΩ × v + mΩ r − m (Ω · r) Ω
= −mΩ × v − mΩ × (Ω × r) (3.59)

où on a utilisé la propriété a×(b × c) = b (a · c)−c (a · b). Au final l’équation du mouvement


s’écrit
mv̇ = −mΩ̇ × r − 2mΩ × v − mΩ × (Ω × r) (3.60)

On reconnaît ici l’expression des forces d’Euler, de Coriolis et centrifuge.

3.6. Moments généralisés

Jusqu’ici nous avons introduit le concept de coordonnées et de vitesses généralisés. On peut


également introduire le concept de moment généralisé. En mécanique analytique pour une
coordonnée qα donné le moment conjugué est défini par

∂L
pα = (3.61)
∂ q̇α
28 Chapitre 3. Équations d’Euler-Lagrange

Cette définition rejoint la définition de la quantité de mouvement pour une particule se dé-
plaçant dans un potentiel U et décrite selon les coordonnées cartésiennes x, y et z. Dans ce
cas la fonction de Lagrange s’écrit
1  
L (x, y, z, ẋ, ẏ, ż) = m ẋ2 + ẏ 2 + ż 2 − U (x, y, z) (3.62)
2
Les moments conjugués sont donc définis par
∂L
px = = mẋ,
∂ ẋ
∂L
py = = mẏ, (3.63)
∂ ẏ
∂L
pz = = mż
∂ ż
On peut aussi écrire cette équation sous la forme condensée

p = ∇v L = mv, (3.64)

où v = ṙ. On retrouve donc bien l’expression de la quantité de mouvement. On parle ici de


moment linéaire car le moment conjugué est défini par rapport a des coordonnées cartésiennes.
On peut aussi considérer le cas où on utilise les coordonnées cylindriques r, θ, z, dans ce cas
la fonction de Lagrange s’écrit
1  
L (r, θ, z, ṙ, θ̇, ż) = m ṙ2 + r2 θ̇2 + ż 2 − U (r, θ, z) (3.65)
2
et les moments conjuguées pr et pθ sont données par
∂L
pr = = mṙ,
∂ ṙ
(3.66)
∂L
pθ = = mr2 θ̇
∂ ẏ
Le moment conjugué pr a les même dimension qu’une quantité de mouvement mais ce n’est
pas le cas du moment pθ . Ce dernier s’apparente au moment cinétique le long de l’axe Oz
Lz = (r × p) · ez . On parle ici de moment angulaire.

Exemple : Particule chargé dans un champ électro-magnétique En utilisant les coordon-


nées cartésiennes, la fonction de Lagrange de la charge s’écrit
1
L (r, v, t) = mv2 + qv · A(r, t) − qφ(r, t). (3.67)
2
Le moment linéaire s’écrit donc

p = ∇v L = mv + qA 6= mv. (3.68)

On voit ici que a cause du couplage avec le champ, le moment linéaire n’est pas égal à la
quantité de mouvement.
3.7. Énergie 29

3.7. Énergie

Il est également possible de généraliser le concept d’énergie et de la définir purement en fonc-


tion de la fonction de Lagrange. On considère un système sujet à des contraintes holonomes
scléronomes (indépendantes du temps) et à des forces dérivant d’un potentiel. Dans ce cas le
système est conservatif et la transformation des coordonnées généralisées vers les coordonnées
cartésiennes est indépendante du temps

ri = ri (q1 , . . . , qn ). (3.69)

Dans ce cas l’énergie cinétique s’écrit


X1 X1
T = mi ṙ2i = mαβ (q1 , . . . , qn )q̇α q̇β , (3.70)
i
2 αβ
2

où les masses mαβ (q1 , . . . , qn ) sont définis par


X ∂ri ∂ri
mαβ (q1 , . . . , qn ) = mi · . (3.71)
i
∂qα ∂qβ

Ainsi si la transformation des coordonnées généralisées vers les coordonnées cartésiennes est
indépendante du temps alors l’énergie cinétique est une fonction quadratique homogène des
vitesses. On rappelle le théorème d’Euler sur les fonctions homogènes de degré k.

Théorème. Soit f (x1 , . . . , xn ) une fonction différentiable de n variables. La fonction f est


dite homogène de degré k si pour tout λ ∈ R et pour tout x ∈ Rn on a

f (λx1 , . . . , λxn ) = λk f (x1 , . . . , xn ). (3.72)

Le théorème d’Euler énonce que pour une telle fonction on a la relation


n
X ∂f
xi (x) = kf (x) (3.73)
i=1
∂xi

Si l’on applique ce théorème au cas de l’énergie cinétique on a l’expression


X ∂T
q̇α = 2T. (3.74)
α ∂ q̇α

On peut donc écrire l’énergie mécanique sous la forme


X ∂T X ∂L
Em = T + U = 2T − L = q̇α −L = q̇α −L (3.75)
α ∂ q̇α α ∂ q̇α

On définira donc l’énergie par l’expression


X ∂L
E= q̇α −L. (3.76)
α ∂ q̇α
30 Chapitre 3. Équations d’Euler-Lagrange

z
ϕ̇ = Ω

O
R

θ
M

Figure 3.7. – Une masse glisse sans frottement le long d’un cerceau de rayon R en rotation
uniforme et de vitesse angulaire Ω.

Cette définition est plus générale que l’énergie mécanique. Déterminons tout d’abord pour
quelle condition cette énergie est une constante du mouvement.
dE X ∂L X d

∂L

∂L X ∂L X ∂L ∂L
= q̈α + q̇α − − q̇α − q̈α = − (3.77)
dt α ∂ q̇α α dt ∂ q̇α ∂t α ∂qα α ∂ q̇α ∂t

Ainsi pour que l’énergie soit conservée il faut et il suffit que la fonction de Lagrange ne
dépende pas explicitement du temps. Il est important de bien différentier l’énergie mécanique
Em = T + U de l’énergie E définie par l’Eq. (3.76). En effet l’énergie E coïncide avec l’énergie
mécanique Em pour un système conservatif, holonome et scléronome (ce qui correspond à
de nombreux cas) mais en général on a E 6= Em = T + U . C’est le cas notamment des
systèmes subissant une force extérieure imposant une contrainte dépendante du temps. Dans
cas l’existence d’une énergie associée aux degrés de liberté interne au système n’est pas un
concept évident.

Exemple : Masse glissant le long d’un cerceau en rotation (Fig. 3.7) Pour ce système, il
existe une contrainte holonome rhéonome car l’angle que fait le cerceau par rapport au plan
Oxz dépend explicitement du temps ϕ = Ωt+ϕ0 . La masse est décrite par la coordonnées θ et
la transformation vers les coordonnées cartésiennes dépend explicitement du temps x = x(θ, t),
y = y(θ, t), z = z(θ, t). Pour ce système l’énergie cinétique et l’énergie potentielle s’écrivent
1  
T = m R2 θ̇2 + R2 Ω2 sin2 θ (3.78)
2
U = −mgR cos θ (3.79)

L’énergie est défini par


∂L 1 1
E = θ̇ − L = mR2 θ̇2 − mR2 Ω2 sin2 θ − mgR cos θ (3.80)
∂ θ̇ 2 2
3.7. Énergie 31

Cette expression diffère de l’énergie mécanique qui est donnée par


1 1
Em = T + U = mR2 θ̇2 + mR2 Ω2 sin2 θ − mgR cos θ (3.81)
2 2
On remarquera que l’énergie mécanique Em n’est pas une constante du mouvement alors que
l’énergie E est bien une constante du mouvement.
32 Chapitre 3. Équations d’Euler-Lagrange

3.A. Invariance des équations de Euler-Lagrange sous une


transformation ponctuelle

On considère un système de n degrés de liberté décrit par un jeu de coordonnées généralisées


qα , α = 1, . . . , n et par la fonction de Lagrange L (q, q̇, t). Les équations de Euler-Lagrange
sont données par
d ∂L ∂L
 
= (3.82)
dt ∂ q̇α ∂qα
Nous allons considérer un nouveau jeu de coordonnées généralisées Qα , α = 1, . . . , n défini
par la transformation ponctuelle

Qα = Qα (q1 , . . . , qn , t), α = 1, . . . , n (3.83)

qui dans le cas général peut dépendre explicitement du temps. On suppose que le Jacobien
de cette transformation est non nul en tout point q = (q1 , . . . , qn ).

∂ (Q1 , . . . , Qn )
∂ (q , . . . , q ) 6= 0, (3.84)

1 n

si bien que la transformation inverse existe en tout point

qα = qα (Q1 , . . . , Qn , t), α = 1, . . . , n. (3.85)

On notera Λαβ la matrice jacobienne de cette dernière transformation


∂qα
Λαβ (Q1 , . . . , Qn , t) = (Q1 , . . . , Qn , t). (3.86)
∂Qβ
La vitesse généralisé q̇α s’écrit
∂qα X
q̇α = + Λαβ Q̇β . (3.87)
∂t β

On démontre facilement les deux expressions suivantes


∂ q̇α
= Λαβ , (3.88)
∂ Q̇β
∂ q̇α d
= Λαβ . (3.89)
∂Qβ dt

Si l’on exprime la fonction de Lagrange en fonction des coordonnées Qα , Q̇α et du temps t


on peut calculer ses dérivées partielles
∂L X ∂L X ∂L d
= Λβα + Λβα (3.90)
∂Qα β
∂qβ β
∂ q̇β dt
∂L X ∂L
= Λβα (3.91)
∂ Q̇α β
∂ q̇β
3.A. Invariance des équations de Euler-Lagrange sous une transformation ponctuelle 33

En dérivant l’équation (3.91) par rapport au temps et en utilisant l’équation d’Euler-Lagrange


on trouve !
d ∂L d ∂L X ∂L d ∂L
  X
= Λβα + Λβα = (3.92)
dt ∂ Q̇α β
dt ∂ q̇β β
∂ q̇β dt ∂Qα

On trouve donc bien la même forme pour les équations de Euler-Lagrange dans le nouveau jeu
de coordonnées. On en déduit donc que cette équation est invariante lors d’une transformation
ponctuelle.
4. Principe variationnel

Nous avons dérivé les équations de Euler-Lagrange à partir du principe d’Alembert (c’est-à-
dire les équations de Newton). Il est également possible de le dériver à partir d’un principe
variationnel, le principe de Hamilton, c’est-à-dire sous la forme d’une recherche d’un extremum
d’une fonctionnelle. Une fonctionnelle généralise le concept de fonction qui dépend d’une ou
plusieurs variables. Une fonctionnelle va dépendre d’une ou plusieurs fonctions. L’avantage
d’un principe variationnel réside dans le fait qu’il s’affranchit de tout système de coordonnées.

4.1. Extrema libres et extrema liés

Avant d’aborder la problématique de la recherche d’un extremum d’une fonctionnelle, il peut


être utile de rappeler la problématique de la recherche d’un extremum libre d’une fonction
à plusieurs variables et d’introduire la problématique de la recherche d’un extremum sous
contrainte que l’on résout classiquement par le biais des multiplicateurs de Lagrange. Soit
F (x1 , . . . , xn ) une fonction continue et dérivable de n variables xi , i = 1, . . . , n (Fig. 4.1).
Lorsque l’on effectue une variation infinitésimale δxi des variables cela implique une variation
infinitésimale δF de la fonction. La recherche d’un extremum de cette fonction passe par la
recherche d’un point stationnaire

X ∂F
δF = δxi = 0, ∀ δxi . (4.1)
i
∂xi

C’est-à-dire à partir de ce point et quelque soit la direction dans laquelle on opère une variation
infinitésimale des variables, la variation correspondante de la fonction est nulle. On notera
que la condition de stationnarité est nécessaire mais n’est en général pas suffisante pour
que la condition d’extremum soit respecté. Il est en effet nécessaire d’imposer une condition
supplémentaire sur les dérivées d’ordre plus élevé. Par exemple dans le cas d’une fonction d’une
variable il est nécessaire d’imposer que la dérivée première change de signe au voisinage du
point stationnaire sinon on se trouve dans le cas de figure d’un point d’inflexion. Si l’ensemble
des variables xi sont indépendantes alors l’Eq. (4.1) est équivalente au jeu de n équations

∂F
= 0, i = 1, . . . , n. (4.2)
∂xi

35
36 Chapitre 4. Principe variationnel

x2

F (x1 , x2 )

x2 C
x1

x1

Figure 4.1. – Représentations d’une fonction à plusieurs variable possédant un extremum.


Le cercle vert indique la position de l’extremum libre de la fonction et le carré
vert indique la position du l’extremum lié de la fonction le long de la courbe
C représentée en rouge.

On remarquera que la solution de ce système d’équation correspond bien à un minimum de


F si (mais pas seulement) la matrice Hessienne hij définie par

∂F
hij = , (4.3)
∂xi ∂xj

est définie positive. En effet cette condition impose


X
hij δxi δxj > 0, ∀ δxi (4.4)
ij

On montre facilement que cette condition est remplie si l’ensemble des valeurs propres de la
matrice hessienne sont positives.
Nous allons maintenant considérer la recherche d’un extremum dans le cas où les variables
sont reliés par une contrainte
f (x1 , x2 , . . . , xn ) = 0. (4.5)

On parle d’extremum lié (Fig. 4.1). Pour simplifier nous allons supposer qu’il existe une seule
relation de contrainte. Il sera aisé de généraliser a un nombre quelconque. Dans ce cas les
variations δxi ne sont plus indépendantes. En effet en effectuant une petite variation de la
contrainte on voit qu’il existe une relation
X ∂f
δf = δxi = 0, ∀ δxi (4.6)
i
∂xi
4.1. Extrema libres et extrema liés 37

Une méthode d’apparence simple pour résoudre ce problème est d’exprimer une des coor-
données en fonction des autres par exemple on peut choisir la coordonnée xn . A partir de la
contrainte on obtient une expression du type

xn = g(x1 , . . . , xn−1 ). (4.7)

On peut alors injecter cette expression dans l’expression de la fonction F . Il ne reste plus
qu’a faire la recherche d’un extremum de la fonction F (x1 , . . . , xn−1 , g(x1 , . . . , xn−1 )) dans
l’espace de dimension n − 1. Le problème de cette approche réside dans le fait qu’il est d’une
part nécessaire de trouver l’expression de g(x1 , . . . , xn−1 ) et d’autre part cela peut briser
certaines symétries. Pourquoi choisir la coordonnée xn à éliminer ? Une approche alternative
est l’utilisation des multiplicateurs de Lagrange.
Nous allons sommer les conditions d’extremum et de contrainte Eqs. (4.1)et (4.6) avec un
facteur multiplicatif.
n 
∂F ∂f
X 
δF + λδf = +λ δxi = 0, ∀δxi (4.8)
i=1
∂xi ∂xi

Cette équation est vrai quelque soit la valeur du paramètre λ. Ce paramètre est appelé
multiplicateur de Lagrange. On choisi la valeur de λ tel que
∂F ∂f
+λ =0 (4.9)
∂xn ∂xn
Nous allons voir que le choix de la coordonnées xn n’a aucune importance et que si nous
avions choisi une autre coordonnée par exemple x1 le résultat aurait été le même. Si λ prend
cette valeur alors l’Eq. (4.8) s’écrit
n−1
X ∂F ∂f

+λ δxi = 0, ∀δxi (4.10)
i=1
∂xi ∂xi

Dans cette équation il n’y a que n−1 variables δxi , ils sont donc nécessairement indépendants.
On peut donc en conclure
∂F ∂f
+λ = 0, i = 1, . . . , n − 1. (4.11)
∂xi ∂xi
S’il on combine Eq. (4.9) et Eq. (4.10) on en déduit
∂F ∂f
+λ = 0, i = 1, . . . , n (4.12)
∂xi ∂xi
Ceci démontre que le choix de la coordonnée xn n’a aucune importance, le choix de tout
autre coordonnée mène au même résultat. L’équation 4.12 est équivalent au problème de la
recherche d’un extremum libre de la fonction F défini par

F = F + λf (4.13)
38 Chapitre 4. Principe variationnel

y
A
α

B
β
x
a b

Figure 4.2. – Le problème du brachistochrone : Quelle est la courbe C passant par les point
A et B tel que si un mobile glisse sans frottement le long de cette courbe le
temps de parcours est minimum ?

L’idée de la méthode des multiplicateurs de Lagrange est d’étendre le problème en ajoutant


une inconnue le paramètre λ. Ainsi il y a n + 1 inconnues x1 , . . . , xn et λ. Pour déterminer
l’ensemble des ces inconnues il y a n + 1 équations ∂F /∂xi = 0, i = 1, . . . , n et f = 0.
Il est très simple de généraliser à K contraintes fβ (x1 , . . . , xn ), β = 1, . . . , K. Il est facile de
démontrer que dans ce cas il suffit de rechercher un extremum pour la fonction
K
X
F =F + λβ fβ . (4.14)
β=1

Dans ce cas nous avons n + K inconnues : x1 , . . . , xn et λ1 , . . . , λK que l’on peut déterminer


en résolvant le système de n + K équations : ∂F /∂xi , i = 1, . . . , n et fβ = 0, β = 1, . . . , K.

4.2. Calcul variationnel

4.2.1. Brachistochrone

Pour illustrer le concept de fonctionnelle nous allons introduire le problème classique de la


brachistochrone (Fig. 4.2), c’est-à-dire la courbe de descente la plus rapide. Ce problème fut
résolu pour la première fois par Jean Bernoulli en 1696. Soit une courbe y = f (x) passant par
les points A et B de coordonnées (a, α) et (b, β) si bien que f (a) = α et f (b) = β. Une masse
initialement en A et sans vitesse initiale glisse sans frottement le long de la courbe. Quelle
courbe minimise le temps de parcourt ? On formalise se problème en écrivant le théorème de
l’énergie cinétique
1
mv 2 = mg (α − y) , (4.15)
2
si bien que la vitesse v s’écrit

q dx q p q
v= ẋ2 + ẏ 2 = 1 + y 0 (x)2 = 2g α − y(x), (4.16)
dt
4.2. Calcul variationnel 39

y(x)

y(x) = y(x) + δy(x)

Figure 4.3. – La courbe y(x) en noir représente la courbe qui donne un extremum de la fonc-
tionnelle I[y(x)]. On effectue une petite variation de cette courbe en définissant
la courbe y(x) = y(x) + δy(x)
.

où y 0 = dy/dx. En supposant que dx/dt > 0 ∀ t, le temps mis pour parcourir la courbe s’écrit

s
b dt 1 b 1 + y 0 (x)2
Z Z
T = dx = √ dx (4.17)
a dx 2g a α − y(x)

Le temps de parcours T = T [y(x)] est une fonctionnelle car sa valeur dépend de la courbe
y(x). La solution du brachistochrone n’est pas la ligne droite mais la courbe cycloïde. Cette
solution est détaillé par l’utilisation de l’équation d’Euler dans les compléments du chapitre
(4.A).

4.2.2. Équation d’Euler

Le problème variationnel consiste en la recherche d’une courbe qui produit un extremum


pour une fonctionnelle donnée. Soit une fonctionnelle I[y(x)] d’une courbe y(x) définit sur
l’intervalle [a, b]. Une forme assez générale de fonctionnelle s’écrit

Z b
F y, y 0 , x dx,

I[y(x)] = (4.18)
a

où F (y, y 0 , x) peut dépendre de y, de y 0 et également explicitement de la position x 1 . On


cherche un extremum de I[y(x)] en imposant les conditions aux limites y(a) = α et y(b) = β.
Pour trouver cet extremum nous allons effectuer une petite variation de la fonction y(x)
(Fig. 4.3). On pourra définir cette variation infinitésimale par un paramètre  qui pourra
tendre vers zéro par exemple

δy(x) = φ(x), (4.19)

1. On peut également généraliser pour inclure des dérivées d’ordre supérieurs


40 Chapitre 4. Principe variationnel

tel que φ(a) = φ(b) = 0. La variation de la fonctionnelle donne


Z b Z b Z b
F y, y 0 , x dx = F y + δy, y 0 + δy 0 , x dx − F y, y 0 , x dx
  
δI = δ
a a a
Z b Z b  ∂F ∂F 0
 Z b  ∂F ∂F d

δF y, y 0 , x dx =

= δy + δy dx = δy + δy dx, (4.20)
a a ∂y ∂y 0 a ∂y ∂y 0 dx
où nous avons utilisé la commutativité des variations
dy d
δy 0 = δ = δy. (4.21)
dx dx
En intégrant par partie cette dernière équation on obtient
b  ∂F b
d ∂F ∂F
Z  
δI = − δydx + δy . (4.22)
a ∂y dx ∂y 0 ∂y 0 a

Le terme de borne de l’intégration par partie est nécessairement nul. En effet on garde en
mémoire que nous cherchons une variation de la fonction y(x) tel que les bornes soient fixes.
Si bien que
δy(a) = δy(b) = 0. (4.23)

Ainsi la condition de stationnarité s’écrit


Z b  ∂F d ∂F

δI = − δy(x)dx = 0 ∀ δy(x) (4.24)
a ∂y dx ∂y 0
Dans cette équation on peut choisir librement la variation δy(x), on peut par exemple choisir
δy(x) nul partout sauf en un point 2 . On pourra donc se convaincre que la condition de
stationnarité impose
∂F d ∂F
 
− = 0. (4.25)
∂y dx ∂y 0
Cette équation est l’équation d’Euler. On reconnaît la forme que l’on avait trouvé pour les
équations d’Euler-Lagrange. Les équations de la mécanique classique peuvent donc s’exprimer
sous la forme d’un principe variationnel.

4.3. Principe de moindre action de Hamilton

Le principe de Hamilton s’exprime de la manière suivante. Soit un système décrit par n


coordonnées généralisés qα , α = 1 . . . , n et soit l’action S[q(t)] fonctionnelle de la trajectoire
définie par Z t2
S= L (q1 , . . . , qn , q̇1 , . . . , q̇n , t)dt, (4.26)
t1

où L est la fonction de Lagrange. Le chemin qα (t) pris par la nature entre les instants t1 et
t2 est tel que l’action soit extremum.
2. C’est la distribution de Dirac δ(x − x0 ), cf cours de mathématiques
4.4. Coordonnées cycliques 41

Le principe de Hamilton se démontre assez facilement par la condition de stationnarité. La


variation infinitésimale de l’action s’écrit
Z t2 Z t2 X  ∂L ∂L

δS = δL dt = δqα + δ q̇α dt
t1 t1 α ∂qα ∂ q̇α
t2 X  ∂L t2
d ∂L X  ∂L
Z  
= − δqα dt + δqα (4.27)
t1 α ∂qα dt ∂ q̇α α ∂ q̇α t1

Lors de la variation du chemin, on impose les conditions aux temps initiaux et finaux, qα (t1 ) =
qα,1 et qα (t2 ) = qα,2 . C’est à dire que parmi l’ensemble des trajectoires possible on se restreint
à celles ayant un point initial et un point final bien déterminé. En mécanique pour déterminer
le mouvement à partir de la solution générale, il faut 2n conditions initiales caractérisé par 2n
constantes. On peut choisir qα (t = 0) et q̇α (t = 0) ou bien qα (t1 ) et qα (t2 ). Ainsi la variation
de l’action est donné par
Z t2 X  ∂L d

∂L

δS = − δqα dt (4.28)
t1 α ∂qα dt ∂ q̇α

Le principe de stationnarité implique nécessairement que l’intégrant est nul pour tous les
temps et quelque soit α. On retrouve donc bien les équations d’Euler-Lagrange à partir du
principe de Hamilton.

4.4. Coordonnées cycliques

Lorsque la fonction de Lagrange ne dépend pas explicitement d’une coordonnée qα , on parle


alors de coordonnée cyclique. Dans ce cas la dynamique le long de cette coordonnée peut-être
résolue simplement. Pour simplifier, nous allons considérer un système à n degrés de liberté
et nous allons supposer que la coordonnée qn est cyclique. Il sera aisé de généraliser à d’autres
coordonnées. Par définition on a
∂L
= 0, (4.29)
∂qn
si bien que le moment conjugué pn à la coordonnée qn est une quantité conservé que l’on note
cn .
∂L
pn = = cn = cste (4.30)
∂ q̇n
Puisque la fonction de Lagrange ne dépend pas de qn on a

pn = pn (q1 , . . . , qn−1 , q̇1 , . . . , q̇n−1 , q̇n , t) = cn . (4.31)

A partir de l’expression de pn on peut donc exprimer q̇n en fonction des autres coordonnées
et vitesses.
q̇n = f (q1 , . . . , qn−1 , q̇1 , . . . , q̇n−1 , cn , t). (4.32)
42 Chapitre 4. Principe variationnel

Cette équation s’intègre formellement


Z
qn = dtf (q1 , . . . , qn−1 , q̇1 , . . . , q̇n−1 , cn , t). (4.33)

Ainsi qn peut-être éliminé du problème, il suffit de résoudre les équations d’Euler-Lagrange


pour les autres degrés de liberté en remplaçant q̇n par son expression formelle (Eq. 4.32)
et on en déduit alors la coordonnée qn par intégration. On peut toutefois se demander s’il
ne serait pas possible d’éliminer la coordonnée qn avant de dériver les équations d’Euler-
Lagrange directement dans un principe variationnel. Cette approche est possible mais il faut
toutefois modifier ce principe. En effet, dans le principe variationnel nous avions supposé que
les déplacements virtuels étaient indépendant. Clairement s’il on veut prendre en compte le fait
que le moment conjugué soit constant impose une relation entre qn et les autres coordonnées
(Eq. 4.33). On définit ainsi la variation δ 0 tel que l’on se restreint aux trajectoires tel que
pn = cn = cste, δ 0 = δpn =cn . La variation de l’action donne
t2 n  n  t2
∂L d ∂L ∂L
Z  
0 0 0
X X
δS= − δ qα dt + δ qα . (4.34)
t1 α=1 ∂qα dt ∂ q̇α α=1
∂ q̇α t1

Le premier terme est nul car la solution du problème doit nécessairement respecter les équa-
tions d’Euler-Lagrange. Le second terme est le terme de bord. Pour α 6= n on impose que les
variations aux temps t = t1 et t = t2 est nul δ 0 qα (t1 ) = δ 0 qα (t2 ) = 0. Ceci n’est cependant pas
nécessairement vrai puisqu’il existe une relation entre qn et les autres coordonnées. Ainsi la
variation de l’action s’écrit
Z t2
0
δ S = pn δ 0
[qn ]tt21 =δ 0
pn q̇n dt. (4.35)
t1

Nous allons faire passer le terme de droite de l’équation du coté gauche et on obtient
Z t2 
δ0 L − pn q̇n = 0 (4.36)
t1

Dans le cas d’une coordonnée cyclique, on peut donc utiliser un principe variationnel modifié
et basé sur la fonction de Lagrange modifiée L 0 = L − pn q̇n .
Z t2
δ 0 S 0 = 0, S0 = L 0 dt. (4.37)
t1

Il suffit alors de résoudre les équations d’Euler-Lagrange avec cette fonction de Lagrange
modifié en prenant soin d’avoir éliminer la variable q̇n de l’expression. Ce problème est plus
simple car la coordonnée qn a été complètement éliminé avant de dériver les équations du
mouvement.

Problème à force centrale Dans le cas du problème à force centrale (problème à deux corps
par exemple), on sait que le mouvement est plan on peut donc écrire la fonction de Lagrange
directement en fonction des coordonnées polaires.
1 1
L (r, ṙ, θ̇) = mṙ2 + mr2 θ̇2 − V (r). (4.38)
2 2
4.5. Principes de Maupertuis, Jacobi et Fermat 43

La coordonnée θ est une coordonnée cyclique. Le moment conjugué est donc une quantité
conservée
∂L
pθ = = mr2 θ̇ = cste (4.39)
∂ θ̇
Cette constante correspond à la conservation du moment cinétique. Une grossière erreur serait
d’exprimer θ̇ en fonction de pθ dans l’expression de la fonction de Lagrange et de dériver les
équations d’Euler-Lagrange. Ceci donnerai un résultat faux ! Il est nécessaire de dériver les
équations d"Euler-Lagrange puis d’éliminer la coordonnée θ̇. Alternativement s’il on veut
éliminer la coordonnée θ avant de dériver les équations d"Euler-Lagrange il est nécessaire
d’utiliser la fonction de Lagrange modifiée
1 p2θ pθ
L 0 (r, ṙ) = mṙ2 + 2
− V (r) − pθ
2 2mr mr2
1 pθ2
= mṙ2 − − V (r)
2 2mr2
1
= mṙ2 − Veff(r) (4.40)
2
On trouve donc facilement l’expression du potentiel effectif du problème à deux corps
p2θ
Veff (r) = V (r) + . (4.41)
2mr2
L’équation d’Euler-Lagrange correspondante donne
dVeff
mr̈ = − (4.42)
dr

4.5. Principes de Maupertuis, Jacobi et Fermat

Le principe de moindre action de Hamilton permet de déduire les équations d’Euler-Lagrange.


Ces équations donnent directement l’évolution temporelle du système. Dans bien des cas, il
n’est cependant pas nécessaire (ou trop difficile) de déduire l’évolution temporelle. Il est parfois
utile de rechercher directement la trajectoire en éliminant la variable temps. Le principe de
moindre action de Maupertuis diffère du principe de Hamilton car il permet d’éliminer le
temps. Ce principe historiquement précède le principe de Hamilton et constitue la première
formulation d’un principe variationnel. Nous allons cependant ici le déduire du principe de
Hamilton. Cette approche via notamment le principe de Jacobi permet une analogie entre la
mécanique classique et l’optique avec le principe de Fermat.
Dans le principe de Hamilton, on traite le temps comme un paramètre. On peut aussi le
considérer comme une variable indépendante. Ainsi on passe d’un système à n degré liberté
à un système à n + 1 degrés de liberté, on parle d’espace des configurations étendu et la
trajectoire dans cette espace est appelé ligne d’univers.

qα (τ ),
qα (t) → (4.43)
t(τ ),
44 Chapitre 4. Principe variationnel

où τ est un paramètre qui permet de décrie la trajectoire dans l’espace des configurations
étendu. L’action s’écrit en fonction du paramètre τ selon
t2 τ2 q0
Z Z
S= (q, q̇, t)dt = L (q, , t)t0 dτ, (4.44)
t1 τ1 t0

où t0 = dt/dτ et qα0 = dqα /dτ = q̇α t0 . On note la fonction de Lagrange L (q, q 0 , t, t0 ) du


système étendu
q0
L (q, q 0 , t, t0 ) = L (q, 0 , t)t0 . (4.45)
t
Cette fonction dépend en général des 2n+2 variables q, q 0 ,0 t, t0 . Calculons d’abord les moments
conjugué pα associés aux variables qα dans l’espace des configurations etendu.

∂L ∂L
pα = 0
= = pα . (4.46)
∂q ∂ q̇α
Les moments conjugués aux variables d’espace sont donc identiques dans l’espace des confi-
gurations et l’espace étendu. A la coordonnée temps t on peut associer un moment conjugué
pt .
∂L X ∂L q 0 X
pt = 0
= L − 0
=L − pα q̇α = −E (4.47)
∂t α ∂ q̇α t α

Le moment conjugué à la coordonnée temporelle est donc l’opposé de l’énergie. 3 A partir de


la fonction de Lagrange étendu on peut dériver n + 1 équations d’Euler-Lagrange.
!
d ∂L ∂L
= (4.48)
dτ ∂qα0 ∂qα
!
d ∂L ∂L
= (4.49)
dτ ∂t0 ∂t

La première équation abouti aux équations d’Euler-Lagrange dans l’espace des configurations
de dimension n et la seconde abouti à la variation temporelle de l’énergie au court du temps.
d ∂L ∂L
 
= (4.50)
dt ∂ q̇α ∂qα
dE ∂L
=− (4.51)
dt ∂t
On pourra remarque que l’Eq. (4.51) se dérive des n équations d’Euler si bien qu’il semble que
le système d’équation soit sous-déterminé. Nous avons introduit la variable τ , il est cependant
nécessaire de la définir en introduisant par exemple la relation t(τ ).
Nous allons maintenant considérer le cas d’un système conservatif. Si bien que la fonction de
Lagrange ne dépend pas explicitement du temps. Dans ce cas, dans l’espace des configurations
3. En mécanique quantique, le principe de correspondance énonce que le moment conjugué pα associé à la
coordonnée cartésienne xα doit être remplacé par pα → ~i ∂x∂α . Dans l’espace étendu, sachant que le moment

conjugué au temps est l’opposé de l’énergie il faut donc remplacer l’énergie E par E → i~ ∂t . En partant de
l’expression de l’énergie E = T + V on obtient alors l’équation de Schrödinger dépendante du temps.
4.5. Principes de Maupertuis, Jacobi et Fermat 45

étendu la coordonnée t est cyclique. Le moment conjugué (l’énergie) est une quantité conservé
pt = −E = cste. On défini un principe variationnel tel que l’on se restreint aux trajectoires
tel que E = cste et où le temps est éliminé. Il s’agit de la réduction des coordonnées cycliques
vu précédemment. Ainsi il faut utiliser la fonction de Lagrange modifiée.
!
L = L − pt t0 = L + Et0 = L t0 + t0 = pα qα0 .
X X
pα q̇α − L (4.52)
α α

On aboutit donc au principe de Maupertuis


Z s2 X dqα
δE W = 0 W = pα dτ. (4.53)
s1 α dτ

Ce principe fait apparaître l’action W tel que définie par Maupertuis, c’est-à-dire le produit
de la masse par la vitesse et par l’espace. On parle aujourd’hui d’action réduite. Dans le
principe de Maupertuis le temps à disparu, il s’exprime uniquement en fonction du chemin
parcouru dans l’espace des configurations.
On peut considérer le cas d’une particule unique de masse m dans un potentiel U (r). La
fonction de Lagrange s’écrit
1
L (r, v) = mv2 − U (r) (4.54)
2
Écrivons l’action réduite de Maupertuis en fonction de l’abscisse curviligne s.
Z s2 dr
Z s2 dt
W = p· ds = mv2 ds. (4.55)
s1 ds s1 ds

On peut exprimer la vitesse le long de l’abscisse curviligne en fonction de l’énergie cinétique


p
v = ṡ = 2T /m, de plus on utilise la conservation de l’énergie et l’action réduite s’écrit
√ Z s2 q
W = 2m E − U (r)ds (4.56)
s1

On en déduit donc le principe variationnel de Jacobi


Z s2 q
δE E − U (r)ds = 0 (4.57)
s1

où on voit clairement ici que dans ce principe le temps à disparu. Ce dernier principe est
complètement équivalent au principe de Fermat pour l’optique géométrique. Ce principe sti-
pule en effet que la lumière se propage d’un point à l’autre tel que la durée du parcours soit
extrémal. Soit T le temps de parcours d’un rayon lumineux
1 1
Z Z
T = ds = n(r)ds, (4.58)
v c
où n(r) est l’indice de réfraction du milieu. Le principe de Fermat s’écrit de manière concise

δT = 0 (4.59)
46 Chapitre 4. Principe variationnel

Ceci montre qu’il existe une analogie entre la mécanique et l’optique. Il suffit d’utiliser la
correspondance suivante q
n(r) ↔ E − U (r) (4.60)

Grâce à cette équivalence on peut retrouver le principe fondamental de la dynamique à partir


de l’équation eikonal qui décrit le trajet d’un rayon lumineux dans un milieu et qui dérive du
principe de Fermat (Sec. 4.B). On peut illustrer l’analogie mécanique-optique en regardant le
mouvement d’un particule d’énergie E traversant une interface avec une marche de potentiel
(Sec. 4.C). Soit θ1 et θ2 respectivement les angles d’incidence et de réfraction de la particule
par rapport à la normale à l’interface. Ces angles sont reliés par la relation
p p
E − U1 sin θ1 = E − U2 sin θ2 , (4.61)

où U1 et U2 sont les potentiels de chaque bords de l’interface. On retrouve bien ici la relation
de Snell-Descartes bien connu utilisé en optique géométrique.
La mécanique quantique est née de la découverte de la nature ondulatoire de la lumière. On
peut donc facilement imaginé que la connaissance de l’équivalence entre la mécanique classique
et l’optique géométrique à du guider les réflexions des pères de la mécanique quantique.

4.6. Multiplicateurs de Lagrange

On a introduit les multiplicateurs de Lagrange dans le cas de la recherche d’un extremum lié
d’une fonction à plusieurs variables. Il est également possible de généraliser ce concept pour
les utiliser dans le cadre d’un problème variationnel. Nous avons introduit les coordonnées
généralisés tel qu’elles permettent de décrire le système en incluant directement l’ensemble
des contraintes holonomes. Toutefois il est parfois souhaitable pour des raisons notamment
pratiques de ne pas inclure certaines contraintes dans le jeu de coordonnées choisies et de les
inclure dans les équations du mouvement. Dans ce cas l’approche classique est d’utiliser les
multiplicateurs de Lagrange. Soit qi un jeu de n coordonnées généralisées. Le système possède
également K contraintes holonomes

fβ (q1 , . . . , qn , t) = 0, β = 1, . . . , K (4.62)

Le nombre de degrés de liberté est donc g = n − K. Le système est décrit par la fonction de
Lagrange L (q, q̇, t) et l’action s’écrit
Z t2
S[q(t)] = L (q, q̇, t)dt (4.63)
t1

En généralisant le concept de multiplicateurs de Lagrange on peut montrer que le principe


de moindre d’action sous contrainte se résume à la recherche d’un extremum pour l’action S
4.6. Multiplicateurs de Lagrange 47

définie par
K Z
X t2
S[q(t)] = S[q(t)] + λβ (t)fβ (q1 , . . . , qn , t)dt, (4.64)
β=1 t1

Les multiplicateurs λα (t) sont des fonctions du temps, car la contrainte doit s’appliquer à
chaque instant le long de la trajectoire. Il est donc nécessaire de sommer le long du temps. La
recherche d’un extremum conduit donc aux équations d’Euler-Lagrange a partir de la fonction
de Lagrange modifiée
X
L (q, q̇, t) = L (q, q̇, t) + λα (t)fα (q, t). (4.65)
α

Au final il y a n + K fonctions inconnues : qi , i = 1, . . . , n et λα (t), α = 1, . . . , K et n + K


équations
!
d ∂L ∂L
= i = 1, . . . , n,
dt ∂ q̇i ∂qi (4.66)
fα (q, t) = 0, α = 1, . . . , K.

Interprétation physique des multiplicateurs de Lagrange Les multiplicateurs de Lagrange


peuvent sembler comme un simple intermédiaire de calcul. Toutefois ils ont une réelle inter-
prétation physique. Dérivons les équations d’Euler-Lagrange pour la fonction de Lagrange
modifiée (Eq. 4.65). On obtient
d ∂L ∂L
  X
− = Qi,α (4.67)
dt ∂ q̇i ∂qi α

où Qiα est la force généralisé


∂fα
Qi,α = λα
. (4.68)
∂qi
Ainsi on retrouve la forme des équations d’Euler-Lagrange dans le cas de forces ne dérivant
pas d’un potentiel (généralisé ou non). Pour chaque contraintes il existe une force orthogonale
à l’hypersurface définie par cette contrainte f (q1 , . . . , qn , t). Par exemple si on considère le
mouvement d’une particule le long de la surface f (x, y, z) = 0. La particule subit la force de
réaction R = λ∇f (Fig. 3.6). Ainsi les multiplicateurs de Lagrange représentent directement
l’intensité des forces qui imposent les contraintes. La direction de ces forces est donnée par le
gradient de la fonction définissant la contrainte.

Exemple : Le pendule plan Nous allons chercher ici à calculer la force de tension du fil
dans le cas du pendule plan (Fig. 3.2a). Pour cela nous prendre un système de coordonnées
ne respectant pas la contrainte et nous allons l’imposer via un multiplicateur de Lagrange.
En utilisant un repère polaire la fonction de Lagrange du pendule s’écrit
1  
L (r, θ, ,̇θ̇) = m ṙ2 + r2 θ̇2 + mgr cos θ. (4.69)
2
48 Chapitre 4. Principe variationnel

La contrainte imposant un mouvement circulaire s’écrit r − ` = 0. La fonction de Lagrange


modifiée s’écrit donc L = L + λ (r − `). Les trois équations à résoudre sont

mr̈ = mg cos θ + mrθ̇2 + λ (4.70)


d  
r2 θ̇ = −gr sin θ (4.71)
dt
r=` (4.72)

Les Eqs. (4.71) et (4.72) donnent l’équation du pendule


g
θ̈ + sin θ = 0. (4.73)
`
Les Eqs. 4.70 et (4.72) donne l’expression du multiplicateur de Lagrange

λ(t) = −mg cos θ(t) − m`θ̇2 (t) (4.74)

On peut aussi écrire cette expression en fonction de l’énergie E définie par


1
E = m`θ̇2 − mg` cos θ (4.75)
2
Le multiplicateur de Lagrange s’écrit alors
2E
λ(t) = − − 3mg cos θ(t). (4.76)
`
La tension du fil est simplement donnée par le gradient de la contrainte.

T = λ(t)∇ (r − `) = λ(t)er . (4.77)

Le multiplicateur de Lagrange décrit donc bien l’intensité de la force qui est orienté le long
du fil. Si le fil est rigide λ(t) peut prendre des valeurs positives ou négatives. Si le fil est
non-rigide la contrainte est non-holonome r 6 ` et le multiplicateur de Lagrange ne peut pas
prendre de valeur positive (on suppose ici que le fil ne transmet de tension que s’il est tendu,
c’est-à-dire r = `). On peut donc déduire de ce raisonnement l’angle maximum du pendule
cos θ0 = −2E/(3mg`) au delà duquel la masse va entrer en chute libre (avant de remettre le
fil en tension).

4.7. Invariance de Jauge du Lagrangien

Les équations de Euler-Lagrange sont équivalentes au principe de Hamilton et toute l’informa-


tion de la dynamique est contenu dans le fonction de Lagrange L . Cependant, peut-il exister
plusieurs Lagrangien conduisant à la même dynamique c’est-à-dire au même jeu d’équations
d’Euler-Lagrange ? C’est la question de l’unicité du Lagrangien. Cette question est légitime.
Nous avons d’ailleurs vu que la fonction de Lagrange d’une particule chargé en interaction
4.7. Invariance de Jauge du Lagrangien 49

avec le champ électromagnétique fait intervenir le potentiel scalaire et le potentiel vecteur. Or


nous savons qu’il existe une infinité de potentiel vecteur et de potentiel scalaire conduisant au
même champ électromagnétique. Ainsi de même nous allons montrer qu’il existe une infinité
de fonction de Lagrange conduisant aux mêmes équations d’Euler-Lagrange. Par analogie
avec l’électromagnétisme nous parlons d’invariance de Jauge du Lagrangien.
Soit un système décrit par la fonction de Lagrange L (q, q̇, t). Les équations d’Euler-Lagrange
sont linéaires dans le Lagrangien. Ainsi pour tout C ∈ R alors la fonction de Lagrange
L 0 (q, q̇, t) = CL (q, q̇, t) conduira au même équations d’Euler-Lagrange. On montre également
que les équations d’Euler-Lagrange sont invariantes sous la transformation du Lagrangien
suivante
d
L 0 (q, q̇, t) = L 0 (q, q̇, t) + χ(q, t), (4.78)
dt
où χ(q, t) est une fonction quelconque des coordonnées généralisées et du temps (indépendant
des vitesses). On démontre facilement cette invariance en calculant l’action
Z t2 Z t2 d
S0 = L dt = S + χ(q, t)dt = S + χ(q(t2 ), t2 ) − χ(q(t1 ), t1 ). (4.79)
t1 t1 dt

Les termes de bords sont fixes dans le principe variationnel ainsi on a

δS 0 = δS, (4.80)

Ainsi le principe de moindre action doit aboutir aux mêmes équations pour S et pour S 0 .
On peut aussi facilement effectuer cette démonstration directement à partir des équations
d’Euler-Lagrange.

Exemple : Particule dans un champ électromagnétique La fonction de Lagrange d’une


particule en interaction avec le champ électromagnétique s’écrit

1
L (r, v, t) = mv2 + qv · A(r, t) − qφ(r, t). (4.81)
2
On introduit la fonction de Lagrange L 0 (r, v, t) définie par

d
L 0 (r, v, t) = L (r, v, t) + (qχ(r, t))
dt
1 ∂χ
= mv2 + qv · A(r, t) − qφ(r, t) + q (r, t) + q (v · ∇) χ(r, t) (4.82)
2 ∂t

On introduit les potentiels vecteur A0 = A + ∇χ et scalaire φ0 = φ − ∂χ 0


∂t si bien que L (r, v, t)
s’écrit
1
L 0 (r, v, t) = mv2 + qv · A0 (r, t) − qφ0 (r, t). (4.83)
2
On retrouve ici l’invariance de Jauge du champ électromagnétique.
50 Chapitre 4. Principe variationnel

Particule dans un référentiel en translation non uniforme Soit R0 un référentiel Galiléen


et R un référentiel en translation à la vitesse V(t) par rapport à R0 . Soit une particule de
masse m et de vitesse v0 = v + V par rapport à R0 où v est la vitesse par rapport à R. La
particule est également en interaction avec le potentiel U (r). La fonction de Lagrange s’écrit
1 1 1
L (r, v, t) = m (v + V)2 − U (r) = mv2 + mV (t)2 + mv · V(t) − U(r) (4.84)
2 2 2
Le terme mV2 /2 est indépendant des coordonnées et des vitesses il n’a donc aucune influence
dans les équations d’Euler-Lagrange. Il peut donc être éliminé du Lagrangien. En remaniant
le dernier terme, il s’écrit
1 d dV
L (r, v, t) = mv2 − U (r) + (mr · V(t)) − mr · (t) (4.85)
2 dt dt
En invoquant l’invariance de Jauge du Lagrangien on peut donc éliminer le terme correspon-
dant à une dérivée totale du temps. La fonction de Lagrange s’écrit finalement
1
L (r, v, t) = mv2 − Ueff (r, t), (4.86)
2
où le potentiel effectif inclut la contribution des forces d’inerties proportionnelles à l’accélé-
ration du référentiel R par rapport à R0 .
dV
Ueff (r, t) = U (r) + mr · (t) (4.87)
dt

4.8. Théorème de Noether

La physique moderne est fondée sur la notion de symétrie. Toute la physique fondamentale
et en particulier la physique des particules se base sur la théorie des groupes notamment les
groupes de Lie décrivant les symétries continues. Le théorème de Noether est un théorème
d’une extrême importance en physique, il énonce que pour toute propriété de symétrie, il
existe une quantité conservée. Nous avons déjà vu que dans le cas d’une coordonnée cyclique
qi le moment conjuguée pi était une constante du mouvement. Ceci peut-être généraliser
à des propriétés de symétries plus compliquées. Nous allons considérer une transformation
ponctuelle des coordonnées
Qi = fi (q1 , . . . , qn , t; ) (4.88)
où la transformation dépend continûment d’un paramètre . Sans perte de généralité, on
supposera que la transformation est telle que pour  = 0 on retrouve la transformation
identité
fi (q, t;  = 0) = qi . (4.89)
On suppose que les symétries du système imposent que la fonction de Lagrange est invariante
sous la transformation ponctuelle
 
L f (q, t; ); f˙(q, t; ), t = L (q, q̇, t) (4.90)
4.8. Théorème de Noether 51

Ainsi quelque soit la valeur  le Lagrangien est invariant


d   
L f (q, t; ); f˙(q, t; ), t = 0
d
X ∂L d X ∂L d d
fi (q, t; ) + fi (q, t; ) = 0
i
∂qi d i
∂ q̇i d dt
X ∂L d X d  ∂L d  X d  ∂L  d
fi (q, t; ) + fi (q, t; ) − fi (q, t; ) = 0
i
∂qi d i
dt ∂ q̇i d i
dt ∂ q̇i d
(4.91)

Les premier et dernier termes s’annulent en vertu des équations d’Euler-Lagrange si bien que
la quantité Γ définie par
X ∂L   d
Γ = f (q, t; ); f˙(q, t; ), t fi (q, t; ) = cste (4.92)
i
∂ q̇i d
est une quantité conservée. C’est notamment le cas pour  = 0.

X ∂L dfi
Γ= (q, q̇, t) = cste. (4.93)
i
∂ q̇i d =0
On peut aussi considérer une transformation infinitésimale δfi . Dans ce cas, la transformation
s’écrit δfi (q, t) et on a conservation dans la quantité
X ∂L
δΓ = (q, q̇, t)δfi (q, t) = cste. (4.94)
i
∂ q̇i
On peut également généraliser le théorème de Noether dans le cas où la fonction de La-
grange n’est pas invariante sous la transformation ponctuelle mais peut s’écrire sous la forme
d’une transformation de Jauge, qui laisse donc par conséquent les équations d’Euler-Lagrange
invariantes   d
L f (q, t; ); f˙(q, t; ), t = L (q, q̇, t) + Φ(q, t; ). (4.95)
dt
Dans ce cas la quantité conservée s’écrit
X ∂L
dfi dΦ
Γ= (q, q̇, t) − = cste. (4.96)
i
∂ q̇i d =0
d =0

Invariance par translation On considère un système de N particules de positions ri =


xi ex + yi ey + zi ez . On suppose que le système est invariant par une translation globale du
système par exemple le long de l’axe Ox ri → fi ({ri }; ) = ri + ex . Si le lagrangien est
invariant sous cette transformation la quantité conservée s’écrit
N
X ∂L df X X
Px = · = pi · ex = pix (4.97)
i=1
∂ ṙi d =0

i i
La quantité conservée associée à l’invariance par translation le long de l’axe Ox est le moment
linéaire total dans la direction Ox. On peut généraliser aux autres directions si bien que la
quantité conservée associé à un système invariant par translation dans l’espace est le moment
P
linéaire total P = i pi .
52 Chapitre 4. Principe variationnel

Invariance par rotation On considère un système de N particules de positions ri . La rotation


infinitésimale peut toujours s’écrire

ri → ri + δθ × ri , (4.98)

où δθ = δθn est le vecteur rotation infinitésimale d’un angle δθ autour de l’axe n. La trans-
formation infinitésimale s’écrit donc δri = δθ × ri . Si le système est invariant par rotation
alors le théorème de Noether nous indique que la quantité conservé s’écrit
N N N
X ∂L X X
· δri = pi · (δθ × ri ) = δθ · (ri × pi ) = cste. (4.99)
i=1
∂ ṙi i=1 i=1

Cette équation est vraie quelque soit δθ ainsi on a nécessairement la conservation de la


quantité
N
X
L= r i × pi (4.100)
i=1

qui est le moment angulaire total du système.

Invariance par translation dans le temps On considère la transformation de translation


dans le temps et on suppose la fonction de Lagrange invariante sous cette transformation

L (q, q̇, t + ) = L (q, q̇, t), ∀, (4.101)

c’est-à-dire ∂L
∂t = 0. On a déjà vu que dans un tel cas alors l’énergie E est une constante
du mouvement. On peut simplement voir que si on consière l’espace des configuration étendu
le moment associé au temps et l’énergie pt = −E est donc une quantité conservé. Ainsi
la conservation de l’énergie, de l’impulsion totale et du moment cinétique totale est une
conséquence des symétries de l’espace-temps.
4.A. Solution du problème du brachistochrone 53

4.A. Solution du problème du brachistochrone

Pour simplifier le problème du brachistochrone on introduit le repère Oxy tel que la courbe
y(x) commence en O et tel que l’axe Oy soit orienté vers le bas. Le temps de parcours s’écrit
s
a 1 + y 02
Z
T [y(x)] = dx . (4.102)
0 2gy
q 02
A un facteur près, l’intégrant de la fonctionnelle est donc F (y, y 0 ) = 1+y y . On peut en
principe résoudre directement les équations d’Euler-Lagrange pour ce système. Toutefois,
puisque l’intégrant est indépendant de la position x il est plus simple d’introduire l’équivalent
de l’énergie qui sera ici une quantité conservée
∂F 0
E= y − L = cste. (4.103)
∂y 0
Après quelque dérivations simple on obtient
 
y 1 + y 02 = D. (4.104)

où D = 1/E 2 . On introduit maintenant le changement de variable y → θ définit par


dy θ
 
y0 = = cot , (4.105)
dx 2
ce qui donne
D
y(θ) = (1 − cos θ) . (4.106)
2
On montre également facilement que la différentielle dx s’écrit
D
dx = (1 − cos θ) dθ (4.107)
2
que l’on peut facilement intégrer. Pour finir on trouve que la courbe brachistochrone sous une
forme paramétrée est la courbe cycloïde
D
x(θ) = (θ − sin θ) (4.108)
2
D
y(θ) = (1 − cos θ) (4.109)
2
La figure 4.4 représente la solution cycloïde du brachistochrone pour une courbe passant par
l’origine et passant par le point (a, b) du plan Oxy.

4.B. Équation eikonale

le principe de Fermat énonce que le temps de parcours T d’un rayon lumineux doit être
extremum. On peut écrire le temps de parcours sous la forme
1
Z
T = n(r)ds. (4.110)
c
54 Chapitre 4. Principe variationnel

a
O x

Figure 4.4. – La solution du problème du brachistochrone est la courbe cycloïde.

Il faut cependant faire attention car ds n’est pas une différentielle totale exacte. Il faut donc
introduire un paramètre pour suivre la trajectoire
s
2
1 dr
Z 
T = n(r) dτ (4.111)
c dτ

Le principe de Fermat δT = 0 se résume donc à l’équation d’Euler

d   √   √ 
∇ n(r) r02 = ∇ n(r) r02 , (4.112)

où r0 = dr
dτ . Cette équation se simplifie et on obtient l’équation eikonale

d dr
 
n(r) = ∇n(r). (4.113)
ds ds
Cette équation caractérise en optique géométrique la trajectoire de rayon lumineux se pro-
pageant dans le milieu n(r). Selon l’analogie mécanique-optique il suffit de remplacer l’indice
p
de réfraction par n(r) → E − U (r). A partir de l’équation eikonale et après quelques déri-
vations triviales on obtient alors l’équation de Newton

d
(mv) = −∇U. (4.114)
dt

4.C. Mouvement d’une particule au travers d’une marche de


potentiel

Nous allons considérer ici le mouvement d’une particule de masse m se déplaçant dans le plan
Oxy au travers de l’interface x = 0 (Fig. 4.5) subissant un potentiel en forme de marche tel
que U (x) soit définie par

U1 pour x < 0
U (x) = (4.115)
U pour x > 0
2
4.C. Mouvement d’une particule au travers d’une marche de potentiel 55

y U (x)

U2
θ1
x U1
O θ2
x
O

Figure 4.5. – Problème de la marche de potentiel

On pourra écrire ce potentiel avec la fonction de Heaviside U (x) = U1 + (U2 − U1 )Θ(x). Pour
x 6= 0 le potentiel est constant si bien que la particule ne subit aucune force et se déplace donc
de manière rectiligne uniforme. On notera v1 et v2 les vitesses de part et d’autre de l’interface
et on notera θ1 et θ2 les angles d’incidence et de réfraction définie par rapport à la normale de
l’interface. Pour finir on supposera que la particule possède suffisamment d’énergie cinétique
initiale pour traverser la marche, c’est-à-dire T1 > U2 − U1 . La conservation de l’énergie nous
impose
1 1
E = mv12 + U1 = mv22 + U2 . (4.116)
2 2
L’expression des vitesses de part et d’autre de l’interface est donnée par
r
2
vi = (E − Ui ), i = 1, 2 (4.117)
m
Sachant que le potentiel est indépendant de la coordonnée y, l’impulsion le long de l’axe Oy
est conservé (voir théorème de Noether) si bien que v1y = v2y . En utilisant les normes de
vitesses on peut réécrire cette équation sous la forme

v1 sin(θ1 ) = v2 sin(θ2 ) (4.118)

Ce qui donne la relation de Snell-Descartes


p p
E − U1 sin(θ1 ) = E − U2 sin(θ2 ) (4.119)
5. Oscillations

Les équations classiques du mouvement associées à l’immense majorité des systèmes méca-
niques ne peuvent être résolus de manière analytique. En effet, la plus part des systèmes de
plus d’un degré de liberté ne sont pas intégrables. Les équations classiques du mouvement pour
ces systèmes sont en général non-linéaires et ne peuvent être résolu que de manière numérique.
Cependant, il est toujours possible de décrire un système mécanique proche d’un point fixe,
c’est-à-dire un point d’équilibre stable ou un point d’équilibre instable. Nous allons considérer
dans ce chapitre le cas de la dynamique d’un système de N degrés de liberté autour d’un point
d’équilibre stable ou instable. Nous écarterons le cas pathologique des points d’inflexion qui
nécessitent un traitement spécifique et qui représentent peu d’intérêt face à l’universalité des
points d’équilibre stables et instables. En effet, nous allons montrer que quelque soit la forme
du potentiel d’interaction autour d’un point d’équilibre stable la dynamique se résume à une
simple superposition d’oscillateurs harmoniques. Ceci démontre la puissance et l’universalité
du modèle d’oscillateur harmonique dans la physique.

5.1. Linéarisation des équations du mouvement

En général, lorsque l’on veut étudier la dynamique d’un système proche d’un point fixe, on
dérive les équations du mouvement, on cherche la position des points fixes et enfin on linéarise
les équations du mouvement autour de ce point fixe. Par exemple dans le cas du pendule plan
(Fig. 5.1), l’équation du mouvement s’écrit
θ̈ + ω02 sin θ = 0, (5.1)
p
où ω0 = g/` est la pulsation harmonique du pendule et θ est l’angle que fait le pendule par
rapport à la verticale. Cette équation possède une solution formelle sous la forme de fonctions
elliptiques de Jacobi. Ces expressions sont toutefois peu maniables. Le pendule plan possède
deux points fixes θ = θ0 déterminés par l’équation sin θ0 = 0, c’est à dire θ0 = 0 et θ0 = π.
Lorsque le mouvement est proche de ces points fixes l’angle θ peut s’écrire
θ = θ0 + ϕ, ϕ  1. (5.2)
En faisant un développement linéaire de l’équation (5.1) en fonction de la coordonnée ϕ on
obtient
ϕ̈ + ϕω02 cos θ0 = 0. (5.3)

57
58 Chapitre 5. Oscillations

θ
m

Figure 5.1. – Le pendule simple


On note ω = ω0 cos θ0 , la solution de l’équation linéaire (5.3) donne pour ω 6= 0

ϕ(t) = αeiωt + βe−iωt . (5.4)

On trouve bien évidemment que la position d’équilibre θ0 = 0 est une position d’équilibre
stable puisque cos θ0 = 1 et le système subit des oscillations autour de la position d’équilibre à
la pulsation harmonique ω = ω0 . Alors que θ0 = π représente une position d’équilibre instable
puisque cos θ0 = −1, la pulsation ω devenant imaginaire pure ω = iω0 . Le système s’éloigne
de manière exponentielle à partir d’une position proche du point fixe.
Ce schéma de linéarisation des équations très simple devient vite laborieux pour un système
possédant plusieurs degrés de liberté. Il est en effet nécessaire de faire alors N développements
limités d’équations non-linéaires. Nous allons montrer qu’il existe une approche plus simple
en travaillant directement avec le Lagrangien dont une forme approximé donne directement
l’ensemble des équations linéaires.

5.2. Développement harmonique du Lagrangien

Nous allons considérer un système décrit par un ensemble de n coordonnées généralisés qi et


un Lagrangien L (q, q̇). Nous allons supposer le système autonome si bien que le Lagrangien
est indépendant du temps. Nous allons considérer une forme très générale de Lagrangien qui
inclut un potentiel généralisé

L (q, q̇) = T (q, q̇) − V (q) − U (q, q̇) (5.5)

où T (q, q̇) est l’énergie cinétique, fonction quadratique homogène des vitesses qui s’écrit
X
T (q, q̇) = mα,β (q)q̇i q̇j , (5.6)
i,j
5.2. Développement harmonique du Lagrangien 59

où V (q) est l’énergie potentielle et où U (q, q̇) est le potentiel généralisé fonction linéaire
homogène des vitesses 1
X
U (q, q̇) = ui (q)q̇i . (5.7)
i
Si le système ne subit pas de dissipation, les équations de Euler-Lagrange sont alors données
par
d ∂L ∂L
 
− = 0. (5.8)
dt ∂ q̇i ∂qi
En calculant explicitement la dérivée par rapport au temps, ces équations peuvent s’écrire
X ∂2L X ∂2L ∂L
q̈j + q̇j − = 0. (5.9)
j
∂ q̇i ∂ q̇j j
∂ q̇i ∂qj ∂qi

La position des points fixes q0 peuvent être donc obtenu en résolvant le système d’équations
en prenant q̇ = 0 et q̈ = 0, on obtient
∂V
(q0 ) = 0. (5.10)
∂qi
On retrouve bien sûr la définition d’un point d’équilibre stable ou instable, c’est-à-dire un
point où les forces dérivant du potentiel sont nulles. On voit également à partir de l’équation
(5.9) que pour obtenir un ensemble d’équations linéaires il suffit de négliger la dépendance
dans les coordonnées et les vitesses des dérivées secondes du Lagrangien et de supposer que
la dérivé première du Lagrangien soit au plus une fonction linéaire. Ceci correspond à un
développement harmonique du Lagrangien, c’est-à-dire un développement quadratique autour
d’un point fixe.
Pour effectuer ce développement, nous allons donc introduire la variable x telle que

q = q0 + x, (5.11)

et faire un développement limité à l’ordre 2 du Lagrangien. Un tel développement change


nécessairement la structure de la variété des configurations. Si l’espace des configurations du
système, variété différentielle de dimension n décrit par l’ensemble des coordonnées q, est noté
Q alors dans l’approximation d’un mouvement proche du point fixe, l’espace des configurations
est l’espace tangent au point fixe Tq0 Q. Par exemple dans le cas du pendule plan l’espace des
configurations est le cercle S 1 décrit par l’angle θ alors que dans l’approximation des petits
angles, l’espace des configurations est la droite R décrit par la coordonnée ϕ. On notera que
l’espace tangent constitue un espace vectoriel et que la position d’un point dans cet espace
peut-être caractérisé par un vecteur que l’on peut développer sur une base on pourra donc
écrire
X
x= xi ei . (5.12)
i

1. On pourra s’en convaincre très simplement si l’on considère par exemple la force de Coriolis et la force
magnétique
60 Chapitre 5. Oscillations

L’énergie cinétique est déjà une fonction quadratique des vitesses ainsi on peut donc écrire
X1 1
T (ẋ) ≈ mij (q0 ) ẋi ẋj = ẋT Mẋ. (5.13)
i,j
2 2

où M est une matrice réelle, symétrique et définie positive. Le terme gyroscopique est une
fonction linéaire des vitesses on peut donc faire l’approximation
X X
U (x, ẋ) ≈ ui (q0 )ẋi + uij (q0 )xi ẋj , (5.14)
i i,j

avec uij = ∂uj /∂qi . On notera que le premier terme est une dérivée totale d’une fonction des
positions si bien qu’il peut être éliminé en vertu de l’invariance de jauge du Lagrangien. On
peut également séparer la partie symétrique de la partie antisymétrique de la matrice uij .
X1 X1
U (x, ẋ) ≈ (uij + uji ) (xi ẋj + xj ẋi ) + (uij − uji ) (xi ẋj − xj ẋi ) . (5.15)
i,j
4 i,j
4

La partie symétrique peut être éliminée car elle peut s’écrire sous la forme d’une dérivée
totale d’une fonction quadratique des positions. On peut donc finalement écrire le terme de
potentiel généralisé dans l’approximation harmonique sous la forme
X1 1
U (x, ẋ) ≈ (uij − uji ) xi ẋj = xT Uẋ, (5.16)
i,j
2 2

où U est une matrice réelle et antisymétrique définie par Uij = uij − uji . Finalement le
potentiel s’écrit
X1 1 T
V (x) ≈ vij (q0 ) xi xj = x Vx (5.17)
i,j
2 2

où V est une matrice réelle et symétrique. Ainsi le Lagrangien s’écrit

1 1 1
L (x, ẋ) = ẋT Mẋ − xT Uẋ − xT Vx. (5.18)
2 2 2
Les équations de Euler-Lagrange donnent

Mẍ + Uẋ + Vx = 0, (5.19)

qui constituent donc un jeu d’équations différentielles linéaires d’ordre 2, homogènes et à


coefficients constants.
Jusque là nous avons considéré un système ne subissant pas de dissipation. On peut généraliser
et inclure l’effet des forces de frottement fluide c’est-à-dire proportionnelles à la vitesse. Dans
ce cas les équations de Euler-Lagrange doivent être modifiées

d ∂L ∂L
 
− = Qi , (5.20)
dt ∂ q̇i ∂qi
5.3. Pulsations propres 61

où Qi est la force de frottement généralisé que l’on suppose sous la forme


X
Qi = − wij q̇j . (5.21)
j

Calculons la puissance de ces forces, elle s’écrit sous la forme


X X
P =− Qi q̇i = − wij q̇i q̇j (5.22)
i ij

Cette équation montre que seule la partie symétrique de la matrice contribue à la dissipation.
Ainsi les forces de dissipation sont définies par une matrice W symétrique wij = wji . D’autre
part, sachant que l’énergie doit être dissipée, P doit être négatif si bien que W doit être
définie positive. Au final les équations du mouvement s’écrivent

Mẍ + Λẋ + Vx = 0, (5.23)

où Λ = U + W. La partie symétrique de Λ correspond donc aux forces de dissipation et la


partie antisymétrique de Λ correspond aux forces dérivant d’un potentiel généralisé.

5.3. Pulsations propres

Pour simplifier nous allons maintenant nous restreindre au cas sans dissipation ni potentiel
généralisé Λ = 0. Cette simplification permet de présenter de manière simple la méthode de
résolution qui peut être aisément généraliser au cas Λ 6= 0. Dans ce cas, les équations de
Euler-Lagrange s’écrivent
Mẍ + Vx = 0 (5.24)

Ce sont des équations linéaires on peut donc rechercher une solution sous la forme x = aest .
On obtient  
s2 M + V a = 0. (5.25)

On recherche une solution non-triviale a 6= 0 si bien que la matrice à gauche de l’équation est
nécessairement singulière. Ainsi on a l’équation caractéristique

|s2 M + V| = 0. (5.26)

Cette équation détermine les valeurs possible de s. Dans le cas Λ = 0 ce problème peut alors
se mettre sous la forme d’un problème aux valeurs propres généralisé

Va = λMa. (5.27)

où λ = −s2 . 2 On énonce un théorème important sur le problème aux valeurs propres généralisé
dont la démonstration est donnée en annexe de ce chapitre :

2. Si λ > 0 alors s = ±i λ, c’est à dire que l’on suppose que le système subit des oscillations
62 Chapitre 5. Oscillations

Théorème. Soit V une matrice réelle et symétrique de dimension n × n et M une matrice


réelle et symétrique de dimension n × n et définie positive. Le problème aux valeurs propres
généralisé (Eq. 5.27) admet n valeurs propres réelles λα associées à n vecteur propres aα .
Les n vecteurs propres aα peuvent être choisi réels et orthogonaux vis-a-vis du produit scalaire
défini par la matrice M c’est-à-dire tel que

aαT Maβ = δαβ (5.28)

D’autre part si V est également une matrice définie positive alors l’ensemble des valeurs
propres sont positives λα > 0.

Après avoir résolu le problème aux valeurs propres généralisé, on obtient donc un ensemble

de n vecteurs propres aα et n valeurs propres λα c’est à dire 2n solutions sα = ±i λα .
Ainsi, dans le cas où l’ensemble des valeurs propres λα sont non nulles, la solution générale
du problème s’écrit donc
 
ai,α Cα+ esα t + Cα− e−sα t ,
X
xi = (5.29)
α

où l’ensemble des Cα+ et Cα− constitue 2n constantes d’intégration.


Si la matrice V est définie positive alors l’ensemble des valeurs propres λα sont positives si
bien que sα est un nombre imaginaire pure. En introduisant les pulsation propres ωα définie
par sα = iωα , la solution générale (réelle) s’écrit donc
X
xi = ai,α Cα cos(ωα t + ϕα ) (5.30)
α
La solution générale est donc une somme d’oscillateurs harmoniques indépendants.
Si V n’est pas une matrice définie positive alors il y a deux cas de figure. Soit il existe des
valeurs propres nulles dans ce cas pour chaque valeur propre nulle la solution s’écrit

xi = ai,α (Cα t + Dα ) (5.31)

Soit il existe des valeurs propres négatives dans ce cas sα est réel, la solution est de forme
exponentielle.
Ainsi en analysant les valeurs propres λα il est possible de comprendre la stabilité d’un
système. Si l’ensemble des valeurs propres λi sont positives c’est-à-dire si V est une matrice
définie positive alors le système est stable, dans ce cas en effet le point fixe correspond à un
minimum de l’énergie potentielle. 3
3. On rappelle le résultat suivant : soit une fonction à plusieurs variables f (x) et soit x0 un extremum de
cette fonction c’est-à-dire tel que ∂f /∂xi (x0 ) = 0. Le point fixe x0 est un minimum si la matrice des dérivées
seconde est définie positive. En effet si l’on trace la fonction f le long d’une droite passant par le point fixe
mais de direction quelconque alors la courbure de f doit être toujours positive. Soit la droite ∆ définie par
2 P
l’équation xi = xi,0 + di t, t ∈ R. Pour t → 0 la fonction f s’écrit f (x) ≈ f (x0 ) + t2 ij
∂ 2 f /∂xi ∂xj (x0 )di dj .
f est donc une fonction strictement croissante de t > 0 si et seulement si la matrice des dérivées secondes est
une matrice définie positive.
5.4. Coordonnées normales 63

Si il existe une ou plusieurs valeurs propres négatives alors le point fixe correspond soit
à un maximum du potentiel (l’ensemble des valeurs propres négatives) soit à un point de
selle. Le cas des valeurs propres nulles ne permet pas de discriminer entre point d’équilibre
stable ou instable. En effet, rappelons nous que notre système d’équation linéaire vient d’une
approximation et que nous avons effectué un développement limité à l’ordre 2 du Lagrangien.
Dans le cas des valeurs propres nulles alors il faut faire un développement limité à un ordre
supérieur (en général à l’ordre 4).

5.4. Coordonnées normales

Les vecteurs propres introduits dans la section précédente nous permet de trouver la solution
générale du problème. On peut aussi les utiliser pour définir un système de coordonnées où
l’ensemble des degrés de liberté sont indépendants les uns des autres, ce sont les coordon-
nées normales (modes normaux). On introduit la matrice de passage P dont les colonnes
correspondent aux vecteurs propres aα .
 
a11 a12 ... a1n
 2
a22 a2n 

a ...
 1
P= . . (5.32)

 .. .. .. 
 . ... . 
an1 an2 ... ann

Cette matrice de passage permet de diagonaliser à la fois la matrice V et la matrice M si


bien que

PT MP = I, (5.33)
PT VP = λ. (5.34)

On introduit les coordonnées normales η définies par

x = Pη. (5.35)

En insérant cette équation dans l’expression du Lagrangien harmonique on obtient


X1 1
L (η, η̇) = η̇α2 − λα ηα2 . (5.36)
α 2 2

C’est à dire que le système correspond bien à un ensemble indépendant d’oscillateurs harmo-
niques. Les équations de Lagrange dans ces nouvelles coordonnées pour λα > 0 donnent la
solution
ηα = Cα cos (ωα t + ϕα ) (5.37)

On retrouve évidement la solution trouvé précédemment.


64 Chapitre 5. Oscillations

x
x1 x2 x3

Figure 5.2. – Chaîne linéaire de 3 particules de masse m.

5.5. Exemple : Chaîne linéaire de 3 particules

On considère ici le cas d’une chaîne linéaire de 3 particules de masse m qui interagissent via
un potentiel qui s’apparente à des ressorts entre chaque particules (Fig. 5.2). Typiquement
ce type de potentiel intervient lors que l’on considère des interactions entre atomes dans un
solide ou dans une molécule. Le potentiel s’écrit donc
k k
V = (x2 − x1 − a)2 + (x3 − x2 − a)2 , (5.38)
2 2
où a est la distance d’équilibre entre les masses et où k est une constante de raideur. L’énergie
cinétique du système s’écrit
1  
T = m ẋ21 + ẋ22 + ẋ23 . (5.39)
2
Le système est invariant par translation, c’est-à-dire qu’il est possible de faire une translation
globale du système le long de l’axe Ox sans changer les propriétés du système. On peut
cependant définir des positions d’équilibre de manière relative. Ces positions sont données
par
(0) (0)
x2 − x1 = a, (5.40)
(0) (0)
x3 − x2 = a. (5.41)

(0)
On définit l’écart à la position d’équilibre qi = xi − xi . Le Lagrangien s’écrit donc

m 2  k 
L (q, q̇) = q1 + q22 + q32 + q12 + 2q22 + q32 − 2q1 q2 − 2q2 q3 . (5.42)
2 2
Les équations de Euler-Lagrange donnent

mq̈1 + kq1 − kq2 = 0, (5.43)


mq̈2 + 2kq2 − kq1 − kq3 = 0, (5.44)
mq̈3 + kq3 − kq2 = 0. (5.45)

On recherche une solution sous la forme qi = Re ai eiωt




  
ω2 − ω2 −ω02 0 a1
 0  
 −ω 2 2
2ω0 − ω 2 2
−ω0   a2  = 0, (5.46)
 
 0
0 −ω02 ω02 − ω 2 a3
5.5. Exemple : Chaîne linéaire de 3 particules 65

ω1 = 0

ω2 = ω0


ω3 = 3ω0

Figure 5.3. – Représentation des 3 modes propres de la chaîne linéaire à 3 masses.

p
où ω0 = k/m. Une solution non-triviale est donc donnée par l’équation caractéristique

ω 2 − λ −ω02 0
0

−ω 2 2ω02 − λ −ω02 = 0, (5.47)
0
−ω02 ω02 − λ

0

où λ = ω 2 . Cette équation se factorise sous la forme


  
λ ω02 − λ λ − 3ω02 = 0 (5.48)

La solution générale est donc une somme d’oscillateurs harmonique de fréquences propres

ω1 = 0, ω2 = ω0 et ω3 = 3ω0 . Chaque oscillateur harmonique est un mode propre du
système. Pour comprendre la nature de chacun des modes propres il est nécessaire de résoudre
le problème aux valeurs propres généralisé.

Mode propre ω1 = 0 En reprenant la définition des matrices V et T introduites précédem-


ment celle-ci s’écrivent dans la cas de la chaîne à 3 masses sous la forme
   
k −k 0 m 0 0
   
V = −k 2k −k 

, T = 0 m 0

 (5.49)
0 −k k 0 0 m

Le vecteur propre de valeur propre 0 est donné par l’équation Va = 0, ce qui donne

a1 = a2 = a3 . (5.50)

Ce mode propre correspond donc à une translation globale du système. On retrouve l’inva-
riance par translation le long de l’axe Ox. Ce mode propre est représenté sur la figure 5.3.

Mode propre ω2 = ω0 Le vecteur propre correspondant est donné par l’équation Va = ω02 Ta,
ce qui donne
a2 = 0 a1 = −a3 . (5.51)
66 Chapitre 5. Oscillations

C’est à dire que c’est un mode de vibration symétrique par rapport à la symétrie d’inversion
du système. 4 Ce mode propre est représenté sur la figure 5.3.


Mode propre ω3 = 3ω0 Le vecteur propre correspondant est donné par l’équation Va =
3ω02 Ta. Ce qui donne
a2 = −2a1 = −2a3 . (5.52)

C’est un mode de vibration antisymétrique par rapport à la symétrie d’inversion. Ce mode


propre est représenté sur la figure 5.3. Les modes normaux peuvent être normalisé par rapport
au produit scalaire définie par la matrice T, aT Ta = 1, ce qui donne la matrice de passage P
√  √ √ 
1/ 3 1/ 2 1/ 6
1  √ √ 
P= √  1/ 3 0 −2/ 6 (5.53)
m  √ √ √ 
1/ 3 −1/ 2 1/ 6
La solution générale s’écrit donc q(t) = Pη(t) où

η1 (t) = A1 t + B1 , (5.54)
η2 (t) = C2 cos (ω2 t + ϕ2 ) , (5.55)
η3 (t) = C3 cos (ω3 t + ϕ3 ) . (5.56)

4. En général les propriétés de symétrie d’un système permet de simplifier la détermination des fréquences
propres et modes normaux par l’utilisation de la théorie des groupes.
5.A. Problème aux valeurs propres généralisé 67

5.A. Problème aux valeurs propres généralisé

Soit A et B deux matrices hermitiennes de dimension n × n. On suppose également que B


est définie positive, c’est-à-dire

∀x ∈ Cn , x† Bx > 0 (5.57)

Le problème aux valeurs propres généralisé s’écrit

Ax = λBx. (5.58)

On peut réécrire cette équation sous la forme

(A − λB) x = 0 (5.59)

Une solution non triviale x 6= 0 implique que la matrice A − λB est une matrice singulière,
c’est-à-dire que l’on obtient l’équation caractéristique

|A − λB| = 0. (5.60)

C’est une équation algébrique de degré n en λ, elle possède donc n solutions notées λi . Les
vecteurs propres xi sont alors déterminés par l’équation

Axi = λi Bxi (5.61)

En multipliant cette équation par x†j on obtient

x†j Axi = λi x†j Bxi . (5.62)

Prenons le complexe conjugué de cet équation et inversons les indices i et j on obtient

x†j Axi = λ∗j x†j Bxi (5.63)

En effectuant une soustraction les deux dernières équations on obtient


 
λ∗j − λi x†j Bxi = 0. (5.64)

Pour i = j, on en déduit que λi = λ∗i , c’est-à-dire que l’ensemble des valeurs propres sont
réelles. Pour i 6= j on a donc
(λj − λi ) x†j Bxi = 0. (5.65)

Si l’ensemble des valeurs propres sont distinctes λi 6= λj alors

x†j Bxi = 0. (5.66)


68 Chapitre 5. Oscillations

D’autre part, on peut choisir arbitrairement la normalisation de chaque vecteur propre ainsi
on peut choisir cette normalisation de sorte que x†i Bxi = 1 ce qui est toujours possible si B
est définie positive. Ainsi on a
x†i Bxj = δij . (5.67)
Si il existe une valeur propre λ0 de multiplicité g (1 < g 6 n). Dans ce cas, il existe un
ensemble de g vecteurs propres distincts yk tel que

Ayk = λ0 Byk (5.68)

Toute superposition de ces vecteurs propres est également solution de cette équation. Ainsi,
cet ensemble de vecteur propre associé forment un sous espace vectoriel de dimension g et tout
vecteur appartenant à ce sous-espace est un vecteur propre de valeur propre λ0 . On peut donc
choisir de manière arbitraire ces vecteurs. Ainsi on peut les choisir tel qu’il soit orthogonaux
entre-eux vis-à-vis du produit scalaire généré par la matrice B, c’est-à-dire

x†i Bxj = δij . (5.69)

Ainsi qu’il y ait des valeurs propres dégénérés ou non il est donc toujours possible de choisir un
ensemble de n vecteur propres xi orthogonaux entre eux vis-a-vis du produit scalaire généré
par la matrice B. Ce dernier résultat permet de montrer que

λi = x†i Axi . (5.70)

Ainsi si A est une matrice définie positive alors l’ensemble des valeurs propres sont positives
λi > 0 ∀i.
On peut introduire la matrice de passage P dont les colonnes correspondent aux vecteurs
propres xi ainsi  
x11 x21 . . . xn1
 
 x12 x22 . . . xn2 
P = (x1 , x2 , . . . , xn ) =  . (5.71)
 
 .. .. .. 
 . ... . 

x1n x2n . . . xnn
En général cette matrice n’est pas unitaire 5 P −1 6= P † . On montre aisément les deux équations
suivantes :

P † BP = I (5.72)
P † AP = λ (5.73)

où λ = D(λ1 , . . . , λn ) est la matrice diagonale dont les éléments sont les valeurs propres λi .
Ainsi dans la base des vecteurs propres les deux matrices A et B sont diagonales.
Si les matrices A et B sont également réelles (et par conséquent symétriques) alors il est
toujours possible de choisir les vecteurs propres réels.
5. Dans le cas du problème aux valeurs propres classique où la matrice B est la matrice identité alors P
est une matrice unitaire
6. Équations de Hamilton

Nous avons vu dans le cadre de la mécanique Lagrangienne que l’état d’un système de n degrés
de liberté et son évolution temporelle est complètement décrit par la donné d’un ensemble de
n coordonnées généralisées qα , α = 1, . . . , n et de n vitesses généralisées q̇α . Coordonnées et
vitesses sont alors considérées comme variables indépendantes. La dynamique est décrite par
les équations d’Euler-Lagrange, c’est à dire un ensemble de n équations différentielles d’ordre
2 que l’on dérive à partir de la fonction de Lagrange L (q, q̇, t). Il est possible d’utiliser
une approche alternative. Au lieu de décrire le système grâce aux coordonnées et vitesses
on peut également utiliser les coordonnées et moment conjuguées qui sont alors considérés
comme variables indépendantes. En physique, l’opération qui consiste à changer de variables
indépendantes est la transformée de Legendre couramment utilisée en thermodynamique.
Celle-ci utilisée dans le cadre de la mécanique permet de construire la fonction de Hamilton
(aussi connu sous le nom de Hamiltonien) à partir de la fonction de Lagrange.

6.1. Transformée de Legendre

6.1.1. Exemples en thermodynamique

La transformée de Legendre est une opération très courante qui permet de passer d’un jeu de
variables indépendantes à un autre jeu de variables indépendantes. Elle est très souvent utilisée
en thermodynamique. Par exemple, l’état d’un système fermé est décrit par son entropie S
et son volume V . Dans ce cas la fonction d’état du système thermodynamique est l’énergie
interne U (S, V ) définie par la différentielle totale exacte,

dU = T dS − P dV. (6.1)

La température et la pression sont alors déterminées par


∂U ∂U
T = , P =− . (6.2)
∂S ∂V
Si l’on considère maintenant que notre système est en contact avec un réservoir de pression
P et que le volume du système peut varier, la fonction d’état du système est alors l’enthalpie
H(S, P ) définie par
H(S, P ) = U + P V (6.3)

69
70 Chapitre 6. Équations de Hamilton

φ(x)

−ψ−ψ

Figure 6.1. – Représentation géométrique de la transformée de Legendre.

L’enthalpie est bien une fonction de l’entropie et de la pression car sa différentielle s’écrit

dH = dU + V dP + P dV = T dS + V dP. (6.4)

On voit ici que la température et le volume du système sont alors définis par

∂H ∂H
T = , V = . (6.5)
∂S ∂P
La relation définissant le volume V à partir de l’enthalpie H est conjuguée à la relation
définissant la pression P à partir de l’énergie interne U (Eq. 6.2) De même on peut générer
l’énergie libre de Gibbs G(T, P ) qui permet de décrire un système en contact avec un réservoir
de température et de pression par la transformation

G = H − T S. (6.6)

On a alors les relations définissant l’entropie et le volume

∂G ∂G
S=− , V = . (6.7)
∂T ∂P
Les transformations permettant de passer de l’énergie interne à l’enthalpie et à l’énergie libre
de Gibbs constituent des transformées de Legendre.

6.1.2. Définition géométrique de la transformée de Legendre

Soit φ : R → R une fonction dérivable et convexe. On définie également la fonction p(x) = dφ dx ,


la dérivée de la fonction φ. Cette fonction est une fonction inversible si bien que x(p) existe.
La fonction φ est naturellement représentée par la courbe φ(x) c’est-à-dire l’ensemble des
point (x, φ(x)) où x ∈ R. On peut aussi représenter la fonction φ par l’ensemble des lignes
6.1. Transformée de Legendre 71

tangentes à la courbe (Fig. 6.1). Chacune de ces lignes est caractérisée par sa pente p et son
ordonnée à l’origine −ψ si bien que l’on a

φ = px − ψ, (6.8)

La fonction φ peut donc être également représentée par l’ensemble des couples (p, ψ). La
fonction ψ(p) constitue la transformée de Legendre de la fonction φ(x). Elle est définie par

ψ(p) = px(p) − φ(x(p)). (6.9)

On remarquera que dans le cas de l’énergie libre de Gibbs la transformée de Legendre est
définie avec un signe opposé. La convention présenté ici permet une représentation symétrique
de la transformée de Legendre si bien que

ψ + φ = xp. (6.10)

Avec cette définition, la transformée de Legendre de ψ(p) est de nouveau la fonction φ(x). En
effet, soit x0 (p) = dψ
dp (p). La transformée de Legendre de ψ(p) est alors définie par

φ0 (x0 ) = x0 p(x0 ) − ψ(p(x0 )). (6.11)

En utilisant la définition de la fonction ψ(p). On obtient

d dx dφ dx
x0 (p) = (x(p)p − φ(x(p))) = x(p) + p (p) − (p) = x(p). (6.12)
dp dp dx dp

Si bien que l’on a bien φ0 (x) = φ(x).

Exemple :
— Soit la fonction φ(x) = 12 αx2 + βx + γ. La dérivée de la fonction est donnée par
p = αx + β et la transformée de Legendre par

1 (p − β)2
ψ(p) = xp − φ(x(p)) = αx2 − γ = −γ (6.13)
2 2α
— Soit la fonction φ(x) = ex . La dérivée est donnée par p = ex et la transformée de
Legendre par

ψ(p) = xp − φ(x(p)) = p ln(p) − exp (ln p) = p (ln(p) − 1) (6.14)

La figure 6.2 représente une fonction concave φ(x) ainsi que sa transformée de Legendre ψ(p).
Le point p = 0 correspond au minimum de φ(x) de même le point x = 0 correspond au
minimum de ψ(p). Au point x, la pente de la droite tangente à la courbe φ(x) est donnée
par p et la hauteur du triangle est alors donnée par xp, la transformée de Legendre est ainsi
définie par ψ(p) = xp − φ(x).
72 Chapitre 6. Équations de Hamilton

φ(x) p = 0

φ(x) xp
x
p
φ(p)

x = 0 ψ(p)

Figure 6.2. – Interprétation géométrique de la transformation de Legendre.

6.1.3. Généralisation à plusieurs variables

Soit x = (x1 , . . . , xn ) un ensemble de n variables et φ(x) une fonction dérivable et convexe.


On définit les variables conjuguées
∂φ
pi = , (6.15)
∂xi
si bien que la différentielle de la fonction φ s’écrit
X
dφ = pi dxi . (6.16)
i

La transformée de Legendre de la fonction φ s’écrit


X
ψ(p) = xi (p)pi − φ(x(p)), (6.17)
i

et sa différentielle s’écrit
X X
dψ = dxi pi + xi dpi − dφ = xi dpi , (6.18)
i i

si bien qu’on a la relation conjuguée à l’Eq. (6.15)


∂ψ
xi = (6.19)
∂pi

Exemple Soit la fonction φ(x) = 21 ij aij xi xj , où aij est une matrice symétrique et définie
P

positive. On définie les variables conjuguées


∂φ X
pi = = aij xj (6.20)
∂xi j
6.2. Équations de Hamilton 73

a−1
P
si bien que l’on a xi = j ij pj . La transformée de Legendre de φ(x) s’écrit
X 1 X −1
ψ(p) = xi pi − φ(x(p)) = a pi pj (6.21)
i
2 ij ij

6.2. Équations de Hamilton

6.2.1. Fonction de Hamilton

Dans le formalisme de Lagrange les variables indépendantes sont les coordonnées et les vi-
tesses. On peut également utiliser comme coordonnées indépendantes les coordonnées et les
moments conjugués. Pour passer d’un jeu de variables indépendants à un autre il est né-
cessaire d’opérer une transformée de Legendre. On définit ainsi le fonction de Hamilton, ou
Hamiltonien n X
H (q, p, t) = pi q̇i − L (6.22)
i=1
On pourra remarquer que l’expression du Hamiltonien et de l’énergie coïncide. Toutefois,
l’énergie définie au chapitre 3 correspond à une fonction des coordonnées et vitesses, solutions
des équations d’Euler-Lagrange qui si la fonction de Lagrange ne dépend pas explicitement
du temps est une constante du mouvement. A l’inverse l’Hamiltonien est une fonction des co-
ordonnées et des moments comme variable indépendantes. Il s’agit d’une fonction dynamique
dont nous allons nous servir pour construire les équations du mouvement.

6.2.2. Exemples

Le pendule simple Pour illustrer la construction du Hamiltonien, on considère le cas du


pendule simple. On a vu dans le chapitre 3 que la fonction de Lagrange pour le pendule
s’écrit
1
L (θ, θ̇) = m`2 θ̇2 + mg` cos θ (6.23)
2
Le moment conjugué s’écrit donc pθ = m`2 θ̇ et la fonction de Hamilton
p2θ
H (θ, pθ ) = − mg` cos θ (6.24)
2m`2

Particule chargé en interaction avec un champ électromagnétique Le cas d’une particule


chargé dans un champ électromagnétique illustre très bien la différence entre l’énergie et la
fonction de Hamilton. On rappelle que le Lagrangien de la particule chargée et le moment
conjugué s’écrivent
1
L (r, v, t) = mv2 + qv · A(r, t) − qφ(r, t) (6.25)
2
p = ∇v L = mv + qA(r, t) (6.26)
74 Chapitre 6. Équations de Hamilton

L’énergie s’écrit
1
E = mv2 + qφ(r, t) (6.27)
2
Cette expression ne fait pas intervenir le potentiel vecteur puisque le champ magnétique ne
travaille pas. La fonction de Hamilton s’écrit
1
H (r, p, t) = (p − qA(r, t))2 + qφ(r, t) (6.28)
2m
Cette expression fait intervenir le potentiel vecteur qui contribue évidemment au mouvement.

6.2.3. Équations de Hamilton

∂L
Le moment conjugué est défini à partir de la fonction de Lagrange pi = ∂ q̇i . A partir de la
définition de la transformée de Legendre on a donc la relation conjuguée
∂H
q̇i = . (6.29)
∂pi
Cette équation constitue la première équation de Hamilton. D’autre part, le temps t et les
coordonnées qi sont des variables “spectatrice" dans la transformée de Legendre si bien que
l’on a
∂H ∂L ∂H ∂L
=− , =− (6.30)
∂qi ∂qi ∂t ∂t
Grâce aux équations de Euler-Lagrange la première de ces équations donne
∂H
ṗi = − (6.31)
∂qi
Cette équation constitue la seconde équation de Hamilton. On peut également retrouver ce
résultat en calculant la différentielle de la fonction de Hamilton
X X ∂L X ∂L X ∂L
dH = dpi q̇i + pi dq̇i − dt − dqi − dq̇i
i i
∂t i
∂qi i
∂ q̇i
∂L X X
=− dt + q̇i dpi − ṗi dqi (6.32)
∂t i i

On voit immédiatement que l’on a les équations suivantes


∂H ∂H
q̇i = , ṗi = − . (6.33)
∂pi ∂qi
On remarque également que la dérivée total par rapport au temps du Hamiltonien s’écrit
dH ∂L ∂H
=− = (6.34)
dt ∂t ∂t
Pour un système de n degrés de liberté, dans l’approche Lagrangienne, les équations d’Euler-
Lagrange constituent un ensemble fermé de n équations différentielles d’ordre 2. Dans l’ap-
proche Hamiltonienne, les équations de Hamilton constituent un ensemble de 2n équations
différentielle d’ordre 1.
6.3. Principe de Hamilton 75

Exemple : Le pendule simple On considère de nouveau le problème du pendule simple.


Nous avons vu que la fonction de Hamilton s’écrit selon Eq. (6.24). Les deux équations de
Hamilton donnent
∂H pθ
θ̇ = = (6.35)
∂pθ m`2
∂H
ṗθ = − = −mg` sin θ (6.36)
∂θ
En combinant ces deux équations on retrouve l’équation du pendule simple obtenue précé-
demment.

6.3. Principe de Hamilton

Comme nous l’avons vu, les équations d’Euler-Lagrange peuvent dériver d’un principe va-
riationnel, le principe de Hamiltion. De ce même principe ont peu également en tirer les
équations de Hamilton. On peut écrire l’action en fonction du Hamitonien
!
Z t2 Z t2 X
S= L dt = pi q̇i − H (q, p, t) dt (6.37)
t1 t1 i

La variation de l’action s’écrit


!
Z t2 X X
δS = δpi q̇i + pi δ q̇i − δH dt
t1 i i
Xh it2 XZ t2 
∂H
 
∂H
 
= pi δqi + q̇i − δpi − ṗi + δqi dt (6.38)
i
t1
i t1 ∂pi ∂qi

On remarque tout d’abord dans cette expression que le premier terme fait intervenir la varia-
tion δqi au temps t1 et t2 . Comme précédemment ce terme est nul, car on impose la valeur
des positions initiales et finales. Dans la mesure où l’action doit être extrémale autour de la
solution choisie par la nature pour tout δqi et δpi , on trouve immédiatement les équations de
Hamilton.
Il est également possible d’utiliser le principe variationnel dans un espace augmenté en trai-
tant les coordonnées et moments au même niveau. Dans ce cas le système est décrit par 2n
coordonnées et 2n vitesses (qi , pi , q̇i , ṗi ). De l’Eq. (6.37) on tire le Lagrangien augmenté
X
L (q, p, q̇, t) = pi q̇i − H (q, p, t). (6.39)
i

Les équations d’Euler-Lagrange correspondantes donnent


!
d ∂L ∂L ∂H
= → ṗi = − (6.40)
dt ∂ q̇i ∂qi ∂qi
!
d ∂L ∂L ∂H
= → q̇i = (6.41)
dt ∂ ṗi ∂pi ∂pi
76 Chapitre 6. Équations de Hamilton

6.4. Flot Hamiltonien

Les équations de Hamilton sont complètement équivalentes aux équations d’Euler-Lagrange.


A première vue, il semble qu’il n’y ait pas d’avantage pratique à l’utilisation de l’approche
Hamiltonienne comparée à celle de Lagrange. Au contraire, les équations de Hamilton néces-
sitent des étapes supplémentaires pour déterminer les équations du mouvement. Cependant
l’utilisation d’équations différentielle du 1er ordre à des avantages indéniables par rapport à
l’utilisant d’équations différentielles d’ordre 2. En particulier, l’approche Hamiltonienne per-
met de définir le concept d’espace des phases. Pour un système de n degrés de liberté, l’espace
des phases est un espace de dimension 2n. Il est généré par l’ensemble des coordonnées qi et
des moments pi . L’espace des phases permet de représenter l’ensemble des configurations du
système et à chaque point de l’espace des phases correspond une et une seule configuration
du système. Un point dans l’espace des phases est donc caractérisé par la donné du 2n-uplets
X = (q1 , . . . , qn , p1 , . . . , pn ) = (q, p). Nous allons considérer le cas d’un système conservatif
c’est-à-dire pour lequel l’Hamiltonien est indépendant du temps. La vitesse dans l’espace des
phases s’écrit
∂H ∂H
 
Ẋ = (q̇, ṗ) = (X), − (X) = F(X) (6.42)
∂p ∂q
Donc en chaque point de l’espace des phase on peut définir sa vitesse via le champ de vecteur
F(X). Ce champ de vecteur permet de générer l’évolution temporelle du système dans l’es-
pace des phases. C’est-à-dire l’ensemble des orbites X(t). On parle de flot Hamiltonien par
comparaison avec l’hydrodynamique.
On pourra remarquer que le champ de vecteur des vitesses dans l’espace des phases F(X) est
définie de manière unique en chaque point. Ainsi aucune orbite ne peut se croiser (cela corres-
pondrait sinon à avoir un champ tangent bivalué en certains points). Cette représentation est
donc bien avantageuse comparée à une simple représentation en terme des coordonnées que
permet l’approche Lagrangienne. Dans cette dernière les orbites peuvent se croiser, conduisant
à une image “spaghetti" de la dynamique rendant quasiment illisible l’évolution du système.

Exemple : l’oscillateur harmonique Nous allons considérer le cas de l’oscillateur harmonique


en utilisant le système d’unité m = 1 et ω = 1. La fonction de Hamilton pour ce système
s’écrit
p2 q 2
H (q, p) = + . (6.43)
2 2
La vitesse dans l’espace des phases s’écrit

Ẋ = (p, −q) . (6.44)

Les orbites H(q, p) = E forment dans l’espace des phases des cercles concentriques. Le champ
de vecteur des vitesses dans l’espace des phases est en tout point tangent aux orbites.
6.4. Flot Hamiltonien 77

p p

q q

Figure 6.3. – Portraits de phase de l’oscillateur harmonique et de l’oscillateur non-linéaire.

Exemple : L’oscillateur non-linéaire Dans le cas de l’oscillateur non-linéaire (le pendule


simple par exemple) et toujours en utilisant le système d’unité m = 1 et ω = 1, la fonction
de Hamilton s’écrit
p2
H (q, p) = − cos q (6.45)
2
La vitesse dans l’espace des phases s’écrit

Ẋ = (p, − sin q) (6.46)

L’espace des phases se sépare en deux régions, la région de libration autour des points d’équi-
libres stables q = 2nπ, n ∈ N et la région de rotation (pour lequel l’oscillateur tourne libre-
ment). Ces deux régions sont séparées par une séparatrice. On pourrait penser que les deux
séparatrices se croisent au point d’équilibre instable q = (2n + 1)π, n ∈ N. Cependant, si l’on
suit la trajectoire le long d’une séparatrice, il faudrait un temps infini pour atteindre le point
d’équilibre instable car en ce point l’énergie cinétique est nulle.
7. Transformations Canoniques

7.1. Introduction

Le choix d’un jeu de coordonnées pour décrire un problème ne peut influencer le résultat.
Toutefois un choix judicieux de coordonnées permet de simplifier la résolution d’un problème
d’apparence compliqué. Par exemple, pour un système possédant la symétrie sphérique (pen-
dule sphérique par exemple), l’utilisation des coordonnées cartésiennes n’est pas recommandée
et le choix des coordonnées sphériques est plus adapté au problème. Ainsi la possibilité de
changer de coordonnées est un outil très puissant.
Une classe importante de transformation est la classe des transformations ponctuelles qui
permettent de passer d’un ensemble de coordonnées qi vers un autre jeu de coordonnés Qi

Qi = Qi (q, t), (7.1)

où la transformation peut
dépendre explicitement du temps. On supposera que le Jacobien de
la transformation |J| = ∂(Q 1 ,...Qn )
∂(q1 ,...,qn ) est non nul en tout point de la variété des configuration

si bien que la transformation inverse existe

qi = qi (Q, t). (7.2)

On pourra remarquer que les vitesses qi et Qi s’écrivent

∂Qi X ∂Qi ∂qi X ∂qi


Q̇i = + q̇j , q̇i = + Q̇j (7.3)
∂t j
∂qj ∂t j
∂Qj

A partir de cette transformation on peut définir les nouveaux moments Pi

∂L X ∂L ∂ q̇j X ∂qj
Pi = = = pj , (7.4)
∂ Q̇i j
∂ q̇j ∂ Q̇i j
∂Qi

où pj = ∂L /∂ q̇j sont les anciens moments. On peut également définir le nouvel Hamiltonien
K,
X X ∂Qi X ∂qj ∂Qi X ∂Qi
K= Pi Q̇i − L = Pi + pj q̇k − L = H + Pi , (7.5)
i i
∂t ijk
∂Qi ∂qk i
∂t

79
80 Chapitre 7. Transformations Canoniques

où H = j pj q̇j − L est l’ancien Hamiltonien. Ainsi nous venons de démontrer que lors d’une
P

transformation ponctuelle il est possible de générer des nouveaux moments et un nouvel


Hamiltonien grâce aux relations
X ∂qj X ∂qi
Pi = pj , K=H+ Pi (7.6)
j
∂Qi i
∂t

Avec ces nouvelles coordonnées et moments, la dynamique est décrite par les équations de
Hamilton
∂K ∂K
Q̇i = , Ṗi = − (7.7)
∂Pi ∂Qi
Ainsi, dans l’espace des phases nous avons généré ici une transformaion (q, p) → (Q, P ) qui
préserve la structure Hamiltonienne de l’espace des phases. C’est à dire que la dynamique
continue d’être donnée par les équations de Hamilton. On parle alors de transformation ca-
nonique. Jusqu’ici nous n’avons présenté que les transformations ponctuelles. Il est possible
de généraliser et de considérer des transformation qui permettent de mélanger coordonnées
et moments

Qi = Qi (q, p, t)
(7.8)
Pi = Pi (q, p, t)

Toute les transformations de ce type ne sont pas canoniques car on peut choisir les moments
conjuguées indépendamment des coordonnées. Lorsqu’un tel choix permet de conserver la
structure Hamiltonienne de l’espace des phases alors la transformation est canonique. On dit
alors dans ce cas que les variables Qi et Pi sont canoniquement conjuguées.

Exemple de transformation canonique Nous allons considérer la transformation (q, p) →


(Q, P ) qui s’exprime dans un système d’unité approprié sous la forme

1
Q = √ (q + p)
2
(7.9)
1
P = √ (p − q)
2

Sachant que le système est décrit dans les anciennes coordonnées par le Hamiltonien H, il est
facile de montrer que dans ce cas on a les équations

∂H
Q̇ =
∂P
(7.10)
∂H
Ṗ = −
∂Q

La transformation est donc bien canonique et le nouvel Hamiltonien est simplement l’ancien
Hamiltonien exprimé avec les nouvelles coordonnées K = H
7.2. Fonctions génératrices 81

Exemple de transformation non canonique On considère la transformation (q1 , p1 , q2 , p2 ) →


(Q1 , P1 , Q2 , P2 ) définie par

Q1 = q2 , P1 = p1 ,
(7.11)
Q2 = q1 , P2 = p2 .

Cette transformation permet de décrire de manière identique l’espace des phases. Cependant il
est impossible de définir un Hamiltonien K tel que la dynamique est donnée par les équations
de Hamilton.

7.2. Fonctions génératrices

Nous avons pu dériver les équations de Hamilton à partir du principe variationnel de Hamilton.
Ce principe doit rester vrai quelque soit le jeu de coordonnées canoniques que l’on choisi
!
Z t2 X Z t2 X
δ pi q̇i − H(q, p, t) dt = δ pi dqi − H(q, p, t)dt = 0,
t1 i t1 i
! (7.12)
Z t2 X Z t2 X
δ Pi Q̇i − K(Q, P, t) dt = δ Pi dQi − K(Q, P, t)dt = 0.
t1 i t1 i

Une façon de s’assurer que ces deux égalités soient toujours vérifiées simultanément est d’im-
poser une relation entre les intégrants. Si ceux-ci ne différent que d’une dérivée totale et d’un
facteur d’échelle alors si la condition de stationnarité est vérifiée pour le système de coordon-
nées (q, p) elle sera alors vérifié pour le système de coordonnées (Q, P ). C’est de ce même
principe que découle l’invariance de Jauge du Lagrangien. Ainsi on a la relation.
!
X X
λ pi dqi − Hdt = Pi dQi − Kdt + dF1 (7.13)
i i

où F1 (q, Q, t) est une fonction des anciennes et nouvelles coordonnées. Le facteur d’échelle λ
permet de définir des transformations d’échelle que l’on peut interpréter comme un simple
changement d’unités si bien qu’elles n’apporte pas grand chose dans la théorie des trans-
formations canoniques. Pour le cas des transformations λ 6= 1 on parle de transformations
canoniques étendues. Nous nous limiterons donc ici toujours au cas des transformations ca-
noniques λ = 1. On a donc la relation
X
dF1 = pi dqi − Pi dQi + (K − H) dt. (7.14)
i

On peut tirer de cette relation les égalités suivantes qui permettent de définir une trans-
formation canoniques à partir d’une fonction F1 (q, Q, t) donnée. On parle ainsi de fonction
82 Chapitre 7. Transformations Canoniques

Fonction génératrice Règles de transformation


∂F1 ∂F1
F1 (q, Q, t) pi = Pi = −
∂qi ∂Qi
∂F2 ∂F2
F2 (q, P, t) pi = Qi =
∂qi ∂Pi
∂F3 ∂F3
F3 (p, Q, t) qi = − Pi = −
∂pi ∂Qi
∂F4 ∂F4
F4 (p, P, t) qi = − Qi =
∂pi ∂Pi

Table 7.1. – Résumé des règles de définition des transformations canoniques à partir des
différents types de fonctions génératrices

génératrice
∂F1
pi = (q, Q, t) (7.15)
∂qi
∂F1
Pi = − (q, Q, t) (7.16)
∂Qi
∂F1
K=H+ (7.17)
∂t
Les deux premières relations permettent de définir de manière unique la transformation
(q, p) → (Q, P ) et la dernière relation permet de définir le nouvel Hamiltonien à partir de
l’ancien.
La fonction génératrice F1 (q, Q, t) est une fonction des anciennes et nouvelles coordonnées, on
parle de fonction génératrice de type 1. Il peut-être parfois peu commode d’utiliser cette forme
de fonction génératrice et intéressant de pouvoir utiliser des fonctions génératrices dépendant
des moments. Ainsi il est possible de générer trois autres types de fonctions génératrices (de
type 2,3 et 4) en effectuant des transformée de Legendre successives
X
F2 (q, P, t) = F1 (q, Q, t) + Pi Qi (7.18)
i
X
F3 (p, Q, t) = F1 (q, Q, t) − p i qi (7.19)
i
X X
F4 (p, P, t) = F1 (q, Q, t) + Pi Qi − pi qi (7.20)
i i

En écrivant les différentielles de ces fonctions génératrices on obtient très simplement les
règles de génération des transformations correspondantes (Tab. 7.1). Quelque soit le type de
fonction génératrice l’expression du nouvel Hamiltonien reste identique
∂Fi
K=H+ . (7.21)
∂t
7.2. Fonctions génératrices 83

Bien sur dans le cas général il est possible de faire une transformée de Legendre selon certaines
coordonnées et une autre transformée de Legendre pour d’autres coordonnées, on obtient alors
une fonction génératrice hybride.

Exemples de transformations Pour illustrer le principe des fonctions génératrices nous al-
lons tout d’abord considérer la transformation de type 2 définie par
X
F2 (q, P ) = qi P i (7.22)
i

Les règles de transformation pour ce type de fonction génératrice donne

Q i = qi , Pi = pi , K(Q, P, t) = H(q, p, t) (7.23)

Cette fonction génératrice définie donc la transformation unité. Cette dernière est particuliè-
rement utile dans le cadre de la théorie des perturbations. Nous allons maintenant considérer
une fonction génératrice de la forme
X
F2 (q, P, t) = fi (q, t)Pi , (7.24)
i

où fi (q, t) est une fonction quelconque des coordonnées q et du temps t. Les règles de trans-
formations donnent
∂F2
Qi = = fi (q, t), (7.25)
∂Pi
∂F2 X ∂fj X ∂Qj
pi = = Pj = Pj , (7.26)
∂qi j
∂qi j
∂qi
X ∂fi
K=H+ Pi (7.27)
i
∂t

On remarquera qu’il est très simple d’inverser l’Eq. (7.26) pour retrouver l’Eq. (7.6). En effet
on a
X ∂qi X ∂qi ∂Qj X
pi = Pj = δjk Pj = Pk (7.28)
i
∂Qk ij
∂Qk ∂qi j

On vient donc de trouver la forme générale de fonction génératrice pour toute transformation
ponctuelles. En dernier exemple nous allons considérer la transformation triviale
X
F1 (q, Q) = qi Qi (7.29)
i

Les règles de transformations donnent

Qi = pi , Pi = −qi . (7.30)

Cette transformation définit l’inversion entre coordonnées et moments.


8. Équation de Hamiton-Jacobi

8.1. La fonction principale de Hamilton

Les équations d’Euler-Lagrange peuvent être dérivés du principe de Hamilton pour lequel on
recherche un extremum de l’action vue comme une fonctionnelle du chemin suivi
Z t2
S[q(t)] = L (q(t), q̇(t), t)dt (8.1)
t1

La solution des équations d’Euler-Lagrange noté q(t) donne donc une valeur extrémale à
l’action S = S[q(t)]. Puisque la variation de l’action aux temps initiaux t1 et finaux t2 est
nulle cette action est une fonction des temps t1 et t2 et des positions initiales et finales qi (t1 )
(1) (2)
et qi (t2 ) que l’on notera simplement ici qi et qi . Ceci définit la fonction principale de
(1) (2)
Hamilton S(qi , qi , t1 , t2 ). On remarquera que par définition pour t1 = t2 on a S = 0.
Pour déterminer la dépendance de la fonction principale de Hamilton en fonction des coor-
données, on effectue une petite variation de S par rapport aux positions finales et positions
initiales t2 Z t2 X 
X  ∂L ∂L d ∂L
 
δ0S = δ 0 qi + − δ 0 qi (t)dt (8.2)
i
∂ q̇ i t1 t1 i
∂qi dt ∂ q̇ i

La variation δ 0 est définie par rapport à une variation des positions initiales et finales en
gardant le chemin q(t) toujours solution des équations d’Euler-Lagrange si bien que le second
terme est nul on a donc

δ0S =
X
pi (t2 )δqi (t2 ) − pi (t1 )δqi (t1 ) (8.3)
i

Ceci permet d’obtenir les moments aux instants initiaux et finaux à partir de la fonction
principale de Hamilton.
(2) ∂S (1) (2) (1) ∂S (1) (2)
pi = (2)
(qi , qi , t1 , t2 )), pi =− (1)
(qi , qi , t1 , t2 )) (8.4)
∂qi ∂qi
Ainsi la connaissance de la fonction principale de Hamilton permet en principe de déterminer
complètement le mouvement. En effet pour un instant t donné on peut trouver une relation
entre les positions q à l’instant t, les positions initiales q0 et moments initiaux p0 .
∂S
p0 = − (q, q0 , t, t0 ), (8.5)
∂q0

85
86 Chapitre 8. Équation de Hamiton-Jacobi

que l’on peut inverser pour trouver q(t, t0 , q0 , p0 ). De même l’équation


∂S
p= (q, q0 , t, t0 ), (8.6)
∂q
permet d’obtenir p(t, t0 , q0 , p0 ) si l’on y injecte la solution q(t, t0 , q0 , p0 ).
Pour déterminer l’évolution temporelle de la fonction principale de Hamilton, nous allons tout
d’abord calculer la dérivée totale par rapport au temps de S,
dS ∂S X ∂S (2)
= + q̇ .
(2) i
(8.7)
dt2 ∂t2 i ∂q i
Au cours de la variation temporelle nous avons supposé que les variations des conditions
(2)
finales qi = qi (t2 ) s’effectuaient dans la continuité de la trajectoire reliant qi (t1 ) à qi (t2 ).
Ainsi la dérivée par rapport au temps de S donne
dS ∂S X (2) (2) 
(2) (2)

= + pi q̇i = L qi , q̇i , t2 (8.8)
dt2 ∂t2 i
Au final grâce à la définition de la fonction de Hamilton et en effectuant une variation de la
fonction principale de Hamilton par rapport au temps initial on obtient les deux équations.
∂S (2) (2)
+ H(qi , pi , t2 ) = 0
∂t2
(8.9)
∂S (1) (1)
− H(qi , pi , t1 ) = 0
∂t1
Ce résultat se résume grâce à l’expression de la différentielle totale exacte de S
X (2) (2) X (1) (1)
dS = pi dqi − pi dqi − H (2) dt2 + H (1) dt1 (8.10)
i i
En principe il est possible de résoudre le système d’équations (8.9) et (8.4) pour obtenir la
fonction principale de Hamilton. Cette approche constitue une nouvelle méthode de résolution
(1) (2)
d’un problème mécanique. Toutefois la recherche directe de S(qi , qi , t1 , t2 )) n’est pas une
méthode pratique. Nous allons voir qu’une approche similaire introduite par Jacobi, beaucoup
plus pratique, peut-être mise en place : c’est la méthode de Hamilton-Jacobi.

8.2. Équation de Hamilton-Jacobi

Dans l’approche de Hamilton-Jacobi, nous allons considérer une seule des équations aux dé-
rivées partielles (EDP) précédentes et ne considérer que la dépendance selon le temps final
t et la position finale q de la fonction principale de Hamilton S(q, t). En remarquant qu’au
temps final le moment p dérive de la fonction principale de Hamilton on en déduit l’équation
de Hamilton-Jacobi
∂S ∂S ∂S
(q1 , . . . , qn , t) + H(q1 , . . . , qn , ,..., , t) = 0 (8.11)
∂t ∂q1 ∂qn
Il n’est pas nécessaire de trouver l’intégrale générale de cette équation mais seulement l’inté-
grale complète qui est en général beaucoup plus facilement calculable.
8.2. Équation de Hamilton-Jacobi 87

Définition Soit u(x1 , . . . , xn ) une fonction de n variables xi , i = 1, . . . , n. Une équation aux


dérivées partielles (EDP) d’ordre 1 est une équation de la forme
∂u ∂u
F (x1 , . . . , xn , u, ,..., )=0 (8.12)
∂x1 ∂xn
L’intégrale générale d’une EDP dépend de fonctions arbitraires. Ces fonctions sont détermi-
nées par les conditions aux limites. On appelle l’intégrale complète d’une EDP d’ordre 1 et
de n variables une solution qui possède n constantes d’intégration.
L’équation de Hamilton-Jacobi (Eq. 8.11) dépend de n + 1 variables q1 , . . . , qn , t. En principe
l’intégrale complète dépend alors de n + 1 constantes d’intégration. Cependant S n’apparaît
pas directement dans l’équation de Hamilton Jacobi, il y a donc une constante additive A
triviale
S 0 = S(q1 , . . . , qn , t, α1 , . . . , αn ) + A (8.13)
où α1 , . . . , αn sont des constantes arbitraires. La solution complète de Jacobi S(q, t, α) qui
dépend de n constantes permet de trouver la solution du problème. Pour cela on introduit les
quantités βi définies par
∂S
 
βi = (8.14)
∂αi q,t
Dans cette approche on considère les coordonnées qi et les constantes αi comme variables
indépendantes. On montre que les βi sont des constantes du mouvement
dβi d ∂S ∂ ∂S X ∂  ∂S 
   
= = + q̇k
dt dt ∂αi q,t ∂t ∂αi q,t k
∂qk ∂αi q,t
∂ ∂S X  ∂pk  ∂H
 
= +
∂αi ∂t q,t k
∂αi q,t ∂pk
∂ ∂S ∂S
  
= + H q, ,t =0 (8.15)
∂αi ∂t ∂q
On trouve la dernière égalité simplement en remarquant que
∂H X ∂H ∂pk
 
= . (8.16)
∂αi q,t k
∂pk ∂αi

La définition des βi donne les n équations


∂S
βi = (q1 , . . . , qn , t, α1 , . . . , αn ) (8.17)
∂αi
que l’on peut inverser pour obtenir la solution générale du problème

qi = qi (α1 , . . . , αn , β1 , . . . , βn , t) (8.18)

qui dépend donc bien de 2n constantes. On peut ensuite dériver simplement les moments pour
compléter la solution
∂S
pi = = pi (α1 , . . . , αn , β1 , . . . , βn , t) (8.19)
∂qi
88 Chapitre 8. Équation de Hamiton-Jacobi

8.3. Systèmes conservatifs et séparables

En général la recherche d’une solution complète à l’équation de Hamilton-Jacobi est très


compliquée. Pour les systèmes conservatifs il est toutefois possible de simplifier un peu le
problème. Dans le cas d’un système conservatif, l’Hamiltonien ne dépend pas du temps
H(q, p) = E = cste et la solution de l’équation de Hamilton-Jacobi doit s’écrire sous la
forme
S(q1 , . . . , qn , t) = W (q1 , . . . , qn ) − Et (8.20)

La fonction W (q1 , . . . , qn ) est la fonction caractéristique de Hamilton 1 qui est alors déterminée
par l’équation de Hamilton-Jacobi

∂W ∂W
 
H q1 , . . . , q n , ,..., =E (8.21)
∂q1 ∂qn

La solution complète de cette équation dépend de n constantes W (q1 , . . . , qn , α1 , . . . , αn ).


D’une manière générale, l’énergie qui est une constante peut s’exprimer en fonction des n
constantes αi , E = E(α1 , . . . , αn ). On remarquera qu’il est toujours possible de choisir libre-
ment les constantes et on peut prendre l’énergie E comme une des constantes par exemple
E = αn . 2
Même dans le cas d’un système conservatif si le nombre de degrés de liberté est supérieur à
un, trouver une solution à l’équation de Hamilton-Jacobi n’est pas garanti. Il existe cependant
un certain nombre de système pour lequel la solution s’écrit sous la forme séparable
X
S(q1 , . . . , qn , α1 , . . . , αn , t) = Wk (qk , α1 , . . . , αn ) − E(α1 , . . . , αn )t, (8.22)
k

Si un système possède une telle solution on parle alors de système séparable. Le problème
de Kepler fait parti des systèmes séparables. D’une manière générale les systèmes intégrables
sont séparables pour peu que l’on trouve le bon jeu de coordonnées (ce qui peut être une
tache non triviale !)

Example : le problème du potentiel à force centrale Nous allons montrer ici que le problème
du potentiel à force centrale constitue un problème séparable. Dans un repère sphérique la
fonction de Lagrange s’écrit
m 2 
L (r, θ, ṙ, θ̇, ϕ̇) = ṙ + r2 θ̇2 + r2 sin2 θϕ̇2 − V (r). (8.23)
2
1. On remarquera que l’on peut voir la fonction caractéristique de Hamilton comme la transformée de
Legendre de la fonction principale de Hamilton par rapport au temps.
2. En réalité la solution complète de l’EDP 8.21 ne dépend que de n − 1 constantes mais elle dépend aussi
de l’énergie E qui intervient dans l’équation W (q1 , . . . , qn , α1 , . . . , αn − 1, E) On peut choisir αn = E ou plus
généralement αn = αn (α1 , . . . , αn−1 , E).
8.4. Transformation canonique de Jacobi 89

La fonction de Hamilton s’écrit alors

p2r p2θ p2ϕ


H (r, θ, pr , pθ , pϕ ) = + + + V (r), (8.24)
2m 2mr2 2mr2 sin2 θ
où les moments conjugués sont définis par

pr = mṙ, pθ = mr2 θ̇, pϕ = mr2 sin2 θϕ̇. (8.25)

Ce problème est conservatif et nous allons rechercher une solution séparable, ainsi la fonction
caractéristique de Hamilton s’écrit

W (r, θ, ϕ) = Wr (r) + Wθ (θ) + Wϕ (ϕ) (8.26)

Nous savons que ϕ est une coordonnée cyclique, ainsi le moment pϕ est une constante que
l’on notera αϕ . Ainsi on a
∂W dWϕ
pϕ = = = αϕ , (8.27)
∂ϕ dϕ
Finalement la fonction caractéristique associée à la coordonnée ϕ s’écrit simplement

Wϕ = αϕ ϕ (8.28)

Cette forme est en fait générale à toute coordonnée cyclique. En utilisant cette expression on
obtient alors l’équation de Hamilton-Jacobi
2
2 " 2 #
dWr 1 dWθ αϕ

+ 2 + = 2m (E − V (r)) (8.29)
dr r dθ sin2 θ

On notera que le terme entre crochets est une fonction de θ uniquement et que le reste de
l’équation ne dépend que de r si bien que ce terme ne peut être qu’une constante que l’on
notera αθ2 . Ainsi on a
2
dWθ 2 αϕ
 
+ = αθ2 (8.30)
dθ sin2 θ
2
dWr αθ2

+ = 2m (E − V (r)) . (8.31)
dr r2
Nous n’allons pas résoudre ces deux équations mais ceci démontre que le problème de Kepler
est bien un problème séparable car une telle solution existe.

8.4. Transformation canonique de Jacobi

Nous allons voir que la solution complète de l’équation de Hamilton-Jacobi possède une in-
terprétation en terme de la transformation canonique de Jacobi. Nous avons vu au chapitre
précédent qu’une transformation canonique (q, p) → (Q, P ) peut-être définie à partir d’une
90 Chapitre 8. Équation de Hamiton-Jacobi

fonction génératrice. Cette dernière nous permet de définir le nouvel Hamiltonien K. Il est
peut-être judicieux de trouver une transformation canonique tel que le nouvel Hamiltonien
soit nul K = 0 car dans ce cas la dynamique est particulièrement simple

Qi = cst, Pi = cst. (8.32)

On recherche une telle transformation par le biais d’une fonction génératrice de type 2
F2 (q, P, t). Les règles de transformation sont données par

∂F2 ∂F2 ∂F2


pi = , Qi = , K=H+ . (8.33)
∂qi ∂Pi ∂t
En utilisant la première et dernière équation pour K = 0 on obtient
∂F2 ∂F2
 
H q, ,t + =0 (8.34)
∂q ∂t
qui n’est autre que l’équation de Hamilton-Jacobi et la solution n’est autre que la solution
complète F2 = S. Ainsi la solution complète de l’équation de Hamilton-Jacobi est la fonction
génératrice de la transformation

(q1 , . . . , qn , p1 , . . . , pn ) → (β1 , . . . , βn , α1 , . . . , αn ). (8.35)

où les constantes αi sont les nouveaux moments et les constantes βi sont les nouvelles coor-
données. Avec ce nouveau jeu de coordonnées le problème est devenu complètement statique.

8.5. Variables angle-action

8.5.1. Principe

Au paragraphe précédent nous avons recherché la fonction génératrice de la transformation


canonique permettant d’éliminer toute évolution temporelle dans le système. Cette fonction
génératrice est la fonction principale de Hamilton. Cette approche radicale dans la résolu-
tion d’un problème est cependant peu pratique car il existe peu de système pour lesquels il
est possible de calculer la fonction principale de Hamilton. Une approche plus judicieuse est
de chercher une transformation canonique pour laquelle les moments sont constants et les
coordonnées varient avec le temps. Cette approche est particulièrement puissante pour les
systèmes quasi-périodiques comme le problème à N corps en mécanique céleste car il permet
de faire apparaître de manière naturelle les différentes échelles de temps du système et de
développer des schémas perturbatif très puissants. D’une manière générale, ce type de mé-
thode est propice aux approximations pour des systèmes non-intégrables proches d’un système
intégrable. Les moments ont alors une variation lente comparée aux variations rapides des
coordonnées.
8.5. Variables angle-action 91

On cherche une transformation canonique indépendante du temps

(q1 , . . . , qn , p1 , . . . , pn ) → (θ1 , . . . , θn , J1 , . . . , Jn ) (8.36)

où θi et Ji sont les nouvelles coordonnées et moments également appelés angles et actions.


Pour que les moments soient des constantes du mouvement Ji = cst, il est nécessaire que le
nouvel Hamiltonien K = H soit indépendant des angles.

H = H(J1 , . . . , Jn ). (8.37)

Dans ce cas les équations de Hamilton donnent


∂H
J˙i = 0, θ̇i = = ωi (J1 , . . . , Jn ) . (8.38)
∂Ji
où les ωi sont les fréquences du système. Leur identification permet de mettre à jour les
différentes échelles de temps dans la dynamique (dynamique rapide/lente, effets de résonance)
particulièrement utile dans le cadre de la théorie des perturbations. Ces équations s’intègrent
simplement pour donner

Ji = Ji0 , θi = ωi (J1 , . . . , Jn ) t + θi0 , (8.39)

Les actions sont donc bien des constantes du mouvement et les angles varient linéairement
avec le temps.

8.5.2. Systèmes multiplement périodiques

Les variables angle-action permettent de décrire les systèmes multiplement périodiques. C’est-
à-dire des systèmes pour lesquels il existe un jeu de coordonnées individuellement périodiques
mais avec différentes périodes. Le système dans son ensemble n’est alors périodique que si
l’ensemble des périodes sont commensurables, on parle alors de dégénérescence. Il est évident
que puisque toutes les coordonnées qi sont périodiques il doit exister pour chacune de ces
coordonnées une constante du mouvement, par exemple l’amplitude dans le cas d’une oscil-
lation. L’ensemble de ces n constantes sont alors utilisées comme variable d’action Ji . Un tel
choix n’est évidemment pas unique, mais celui qui est présenté ici est tel que les pulsations
∂H
ωi = ∂J i
correspondent aux pulsations du système.
Nous devons tout d’abord définir la notion de mouvement périodique. Il existe en effet deux
types de mouvement périodiques : la libration et la rotation (Fig. 8.1). Dans le cas de la
libration comme par exemple l’oscillateur harmonique, le mouvement est caractérisé par des
orbites fermées dans l’espace des phases (q, p). Dans le cas de la rotation, l’état du système
est une fonction périodique de la variable q (par exemple dans le cas d’un angle) si bien que
dans l’espace des phases (q, p) le moment p devient une fonction périodique de la coordonnée
q qui n’est pas bornée. On remarquera que l’oscillateur non-linéaire possède les deux types de
92 Chapitre 8. Équation de Hamiton-Jacobi

p p
(a) (b)

Figure 8.1. – (a) mouvement de libration, l’orbite dans l’espace est fermée. (b) la rotation,
l’état du système dépend périodiquement de la coordonnée q.

mouvement. Nous allons définir les variables d’actions dans le contexte des librations mais il
est possible de généraliser aux rotations.
Pour illustrer la notion de système multiplement périodique, nous allons tout d’abord consi-
dérer le cas de deux oscillateurs harmoniques non couplés de coordonnées qi , de moments pi
de fréquences ωi , i = 1, 2. L’Hamiltonien du système s’écrit
1 1 1 1
H(q1 , q2 , p1 , p2 ) = p21 + ω12 q12 + p22 + ω12 q22 (8.40)
2 2 2 2
On montre trivialement que la solution de ce problème s’écrit

qi (t) = ai cos(ωi t + ϕi ), (8.41)

chaque coordonnée est donc périodique mais la trajectoire du système correspond aux courbes
de Lissajous. Ces courbes ne sont fermées que si les fréquences ω1 et ω2 sont commensurables
c’est à dire ∃ n, m ∈ N tel que nω1 = mω2 (Fig. 8.2).
Nous allons maintenant considérer le cas plus complexe du problème d’une masse m dans un
champ de force centrale exprimée dans un repère sphérique (r, θ, ϕ). Dans ce cas l’Hamiltonien
s’écrit
p2 p2θ p2ϕ
H= r + + + V (r) (8.42)
2m 2mr2 2mr2 sin2 θ
Nous allons considérer un potentiel attractif V (r) qui possède des orbites liées mais pas né-
cessairement fermées. 3 Comme le montre la figure 8.3, les coordonnées r(t) et θ(t) sont pério-
diques et la coordonnnée ϕ(t) est une fonction croissante du temps. En général, la trajectoire
n’est pas fermée sauf pour le potentiel de Kepler qui est tel que la période d’oscillation de
θ(t) est identique à la période d’oscillation de r(t). Si l’on regarde maintenant le mouvement
3. Le théorème de Bertrand montre que seul le potentiel harmonique et le potentiel de Kepler ont toutes
leurs orbites liées fermées.
8.5. Variables angle-action 93

q1 q2 q2

t t q1

Figure 8.2. – Exemple de courbe de Lissajou générée par deux oscillateurs harmoniques dont
les fréquences sont commensurables 2ω2 = 3ω1 . Dans le cas de deux fréquences
non-commensurable, la trajectoire rempli l’ensemble du rectangle |q1 | 6 a1 et
|q2 | 6 a2

r(t) θ(t) ϕ(t)

ra θM

z
L rp
θm

t t t
pr
y pθ
x pϕ

r θ
ϕ

Figure 8.3. – Problème à force centrale, la séparabilité permet d’étudier chaque coordonnées
dans l’espace des phases réduite de chaque coordonnée et moment.
94 Chapitre 8. Équation de Hamiton-Jacobi

C pdq

Figure 8.4. – Variable d’action définie comme l’intégrale curvilligne le long de l’orbite C, elle
correspond à la surface S incluses dans la courbe C.

dans l’espace des phases, on identifie parfaitement les coordonnées r et θ comme étant des
librations et la coordonnée ϕ comme une rotation.
Nous allons donc ici considérer un système multiplement périodiques, conservatif et complè-
tement séparable. Pour un tel système la fonction principale de Hamilton s’écrit
X
S(q1 , . . . , qn , α1 , . . . , αn , t) = Wk (qk , α1 , . . . , αn ) − E(α1 , . . . , αn )t. (8.43)
k

Ainsi pour un système complètement séparable le moment pi s’écrit comme une fonction de
la coordonnée qi uniquement
∂W ∂Wi
pi = = (qi , α1 , . . . , αn ) (8.44)
∂qi ∂qi
On définit les variables d’actions par
1 1
I ZZ
Ji = pi dqi = dqi dpi (8.45)
2π Ci 2π Si

où l’intégration s’effectue sur une période de la variable qi le long de l’orbite Ci dans l’espace
des phases. Dans le cas des librations l’orbite dans l’espace des phases est une courbe fermée si
bien que l’action correspond à la surface Si incluse dans la courbe Ci (Fig. 8.4). Cette surface
est bien une constante du mouvement. On peut aussi montrer que les actions sont constantes
en remarquant que les actions sont fonctions uniquement des constantes αi ,
1 ∂Wi
I
Ji = (qi , α1 , . . . , αn ) dqi = Ji (α1 , . . . , αn ) , (8.46)
2π C ∂qi
ce qui montre bien que les actions sont des constantes du mouvement.
Pour finaliser la transformation angle-action et définir les angles, nous allons montrer que la
fonction caractéristique de Hamilton exprimée en fonction des actions constitue la fonction
8.5. Variables angle-action 95

génératrice de la transformation angle-action. Ainsi on considère la fonction génératrice de


deuxième espèce F2 (q1 , . . . , qn , J1 , . . . , Jn ). Les règles de transformations donnent

∂F2 ∂F2
pi = , θi = , K = H. (8.47)
∂qi ∂Ji

La première équation qui définit le moment conjugué est vérifiée facilement si la fonction
génératrice est la fonction caractéristique de Hamilton F2 = W (q1 , . . . , qn , J1 , . . . , Jn ). Pour
le confirmer il suffit de vérifier que la définition de θi à partir de W donnent bien l’équation
de Hamilton θ̇i = ωi .
!
d ∂W X ∂  ∂W  X ∂ ∂W ∂H X ∂pj ∂H ∂H
 
θ̇i = = q̇j = = = = ωi
dt ∂Ji j
∂qj ∂Ji j
∂Ji ∂qj ∂pj j
∂Ji ∂pj ∂Ji
(8.48)
Ce qui démontre que l’on retrouve l’équation de Hamilton. La fonction génératrice de la
P
transformation est donc la fonction caractéristique de Hamilton, W = j Wj . Sachant que
chaque Wj peut être définie à partir des moments on a
XZ
W (q1 , . . . , qn , J1 , . . . , Jn ) = pi (qi , J1 , . . . , Jn )dqi . (8.49)
i

Ainsi la fonction caractéristique de Hamilton n’est autre que l’action réduite de Maupertuis.

8.5.3. Représentation des coordonnées en fonction des variables angle-action

Nous venons donc de montrer que la fonction caractéristique de Hamilton W (q1 , . . . , qn , J1 , . . . , Jn )


permet de définir la transformation (q, p) → (θ, J) dans le cas des systèmes complètement
intégrables. Cette dernière permet d’obtenir les relations

qi = qi (θ, J)
(8.50)
pi = pi (θ, J)

Pour obtenir ces relations il est nécessaire de connaître la forme précise de la fonction généra-
trice W (q1 , . . . , qn , J1 , . . . , Jn ) et de résoudre les règles de génération des fonctions génératrices
de seconde espèce. Ici nous allons extraire une forme générale d’équation reliant les coordon-
nées qi aux variables angle-action. Pour simplifier nous allons considérer un système à un
degré de liberté. La variable d’angle est définie par

∂W
θ= (q, J). (8.51)
∂J
En effectuant une petite variation δq (à action constante), on obtient la variation de l’angle

∂2W
δθ = δq. (8.52)
∂q∂J
96 Chapitre 8. Équation de Hamiton-Jacobi

On intègre cette variation sur une période complète de q

∂2W ∂ ∂W ∂ ∂J
I I I
∆θ = dq = dqj = pdq = 2π = 2π. (8.53)
∂q∂J ∂J ∂q ∂J ∂J

Ainsi lors de la variation de la coordonnée q d’une période complète, l’angle θ varie de 2π. La
coordonnée q est donc une fonction périodique de l’angle θ de période 2π. Il est donc possible
de faire un développement en série de Fourier des coordonnées

X
q(θ, J) = am (J)eimθ (8.54)
m=−∞

où am (J) sont les coefficients du développement. Puisque q est une fonction périodique de
l’angle θ de période 2π et puisque θ varie linéairement en fonction du temps θ = ωt + θ0 ,
avec la pulsation ω = ∂H 2π
∂J , alors la période de la coordonnée q est donnée par T = ω . Ceci
démontre qu’avec la définition de l’action (Eq. 8.45) la pulsation ω est bien la pulsation du
système.
Pour un système à n degrés de liberté on généralise de manière triviale ce résultat et on écrit
les coordonnées sous la forme du développement
∞ ∞
X X
im1 θ1 +···+mn θn
X (i)
qi (θ1 , . . . , θn ) = ... a(i)
m1 ,...,mn e = am eim·θ , (8.55)
m1 =−∞ mn =−∞ m

(i) (i)
où les coefficients am = am (J1 , . . . , Jn ) sont des fonctions des actions. En résumé, les variables
angle-action permettent de paramétrer un mouvement multiplement périodique sous la forme
d’une représentation de la trajectoire dans l’espace le long d’un tore invariant T n de dimension
n.
C’est cette représentation qui a aboutit au théorème de Kolomogorov, Arnold et Moser (KAM)
qui montre que la perturbation d’un système intégrable (qui peut donc être représenté sous
la forme d’un tore invariant) n’aboutit pas nécessairement à la destruction complète du tore
et que des tores invariants de dimension plus faible peuvent persister et sur lesquelles le
mouvement reste multiplement périodique. Ceci remet notamment en cause l’hypothèse ad-
mise jusque là d’ergodicité de Boltzmann et mis en lumière par l’expérience numérique de
Fermi-Pasta-Ulam en 1953.

8.6. Théorie des perturbations adiabatiques

La représentation en variable angle-action est très puissante car elle permet d’identifier les
différentes fréquences des systèmes mécaniques. Toutefois, elle ne peut s’appliquer qu’à une
certaine classe de système dit intégrables. L’immense majorité des systèmes mécaniques est
non-intégrable et il est impossible de définir des variables angle-action. Cependant dans bien
8.6. Théorie des perturbations adiabatiques 97

des cas le système non-intégrable est voisin d’un système intégrable, il est alors possible
d’utiliser la théorie des perturbations. Un schéma perturbatif repose toujours sur une décom-
position de l’Hamiltonien total H selon un Hamiltonien H0 intégrable et une perturbation
V . On suppose qu’il existe donc un jeu de coordonnées angle-action (θ, J) associé à H0 où
θ = (θ1 , . . . , θn ) et J = (J1 , . . . , Jn ). L’Hamiltonien total s’écrit donc

H(θ, J) = H0 (J) + V (θ, J). (8.56)

La perturbation V introduit des couplages entre les différents degrés de libertés si bien que
les actions ne sont plus des constantes et les angles ne sont plus des fonctions linéaires du
temps. On peut séparer l’effet de la perturbation en deux catégories
— Régime résonant : Il existe m ∈ Zn et J0 ∈ Rn tel que m.·ω(J0 ) = 0. Dans ce cas, pour
un tore J0 , certaines fréquences sont commensurables. Cet effet de résonance implique
des transferts important d’énergie d’un degré de liberté à un autre.
— Régime chaotique : Si il existe au moins deux résonances, le système peut entrer dans
un régime dit chaotique pour lequel son comportement ne permet plus d’être prédit.
— Régime adiabatique : Dans ce régime il n’existe pas de résonance. Le système s’il
n’est pas intégrable doit avoir un comportement proche d’un système intégrable si la
perturbation V n’est pas trop forte.
C’est ce dernier régime que nous considérons ici dans le but d’introduire la théorie des per-
turbations adiabatiques à l’ordre 1. Pour construire le schéma perturbatif on introduit un
paramètre λ qui caractérise l’intensité du couplage. Ce paramètre permet de suivre l’ordre de
la perturbation. En fin de calcul on utilisera simplement λ = 1. L’Hamiltonien s’écrit donc

H(θ, J) = H0 (J) + λV (θ, J). (8.57)

On recherche une transformation canonique perturbative permettant de trouver les coordon-


nées angle-action de l’Hamiltonien total (θ, J) → (ϕ, I). Le nouvel Hamiltonien ne doit pas
dépendre des nouveaux angles et ne peut être une fonction que des nouvelles actions K(I).
Pour effectuer cette transformation on recherche une fonction génératrice de deuxième espèce
F (θ, I) pour laquelle les règles de transformation sont

∂F ∂F
ϕi = , Ji = . (8.58)
∂Ii ∂θi

Si la perturbation est faible la transformation doit être proche de la transformation identité

F (θ, I) = θ · I + λF1 (θ, I) + O(λ2 ). (8.59)

La seconde équation de transformation donne

∂F1
J=I+λ + O(λ2 ) (8.60)
∂θ
98 Chapitre 8. Équation de Hamiton-Jacobi

La transformation étant indépendante du temps, l’Hamiltonien K est simplement l’Hamilto-


nien H exprimé en fonction des nouvelles actions K(I) = H(θ, J). On peut donc écrire K
sous la forme
∂H0
K(I) = H0 (I) + (J − I) + λV (θ, I) + O(λ2 ) = K0 (I) + λK1 (I) + O(λ2 ) (8.61)
∂J
où K0 (I) et K1 (I) s’écrivent

K0 (I) = H0 (I),
∂F1 (8.62)
K1 (I) = V (θ, I) + ω(I) · (θ, I).
∂θ

où ω(I) = ∂H∂J sont les fréquences du système. D’une manière générale le terme de couplage
0

V doit être une fonction périodique des angles θ. On peut donc effectuer le développement
en série de Fourier
X
V (θ, I) = Vm (I)eim·θ , (8.63)
m

où Vm (I) est donné par


1
Z D E
Vm (I) = n dθ1 . . . dθn V (θ, I)e−im·θ = V (θ, I)e−im·θ (8.64)
2π θ

La perturbation contient un terme constant V0 (I) = hV (θ, I)iθ et les autres termes sont
oscillants
X
V (θ, I) = V0 (I) + Vm (I)eim·θ (8.65)
m6=0

On peut effectuer un développement identique pour la fonction génératrice F1


X
F1 (θ, I) = Fm (I)eim·θ (8.66)
m

Au final on obtient l’expression de la correction au premier ordre K1 sous la forme


X
K1 (I) = V0 (I) + [Vm (I) + im · ω(I)Fm (I)] eim·θ . (8.67)
m6=0

Si il n’y a pas de résonances m · ω(I) 6= 0 alors on peut toujours choisir Fm (I) tel que le
second terme est nul. Au final on obtient le résultat très simple

K(I) = H0 (I) + hV (θ, I)iθ . (8.68)

Ainsi au premier ordre de la théorie des perturbations adiabatiques, l’effet d’une perturbation
se résume simplement à la moyenne sur les angles de cette perturbation. Ce résultat est
identique à la théorie des perturbations non-résonantes en mécanique quantique.
9. Crochets de Poisson

Les crochets de Poisson constitue une formulation supplémentaire de la mécanique à la base


de la géométrie dite symplectique. Nous allons voir que les crochets de Poisson constitue
l’équivalent classique des commutateurs de la mécanique quantique.

9.1. Définition

Soit F l’espace des fonctions sur l’espace des phases, décrivant ainsi l’ensemble des fonc-
tions A(q, p, t). Les crochets de Poisson sont une structure algébrique sur F. Soit A(q, p, t) et
B(q, p, t) ∈ F deux fonctions de l’espace des phases. Les crochets de Poisson sont définis par
X  ∂A ∂B ∂B ∂A

{A, B}q,p = − . (9.1)
i
∂qi ∂pi ∂qi ∂pi

Le crochet de Poisson {A, B}q,p constitue donc une application bilinéaire et antisymétrique
de A et B
{., .} : F × F → F. (9.2)
Une propriété importante des crochets de Poisson qui sera démontré plus loin est son inva-
riance sous une transformation canonique (q, p) → (Q, P ). Ainsi on peut écrire

{A, B}q,p = {A, B}Q,P = {A, B}. (9.3)

Nous verrons également qu’il est possible de faire un parallèle entre les crochets de Poisson
et les commutateurs en mécanique, à l’origine d’une méthode de quantification
1 h i
{A, B} → Â, B̂ . (9.4)
i~

9.2. Propriétés

Nous allons lister ici quelques propriétés mathématiques des crochets de Poisson qui résultent
de la définition de ces derniers
— antisymétrie :
{A, B} = −{B, A}, (9.5)
si bien que l’on a {A, A} = 0.

99
100 Chapitre 9. Crochets de Poisson

— bilinéarité : La linéarité de chaque argument se résume sous la forme

{A1 + A2 , B1 + B2 } = {A1 , B1 } + {A2 , B1 } + {A1 , B2 } + {A2 , B2 }. (9.6)

— Relation de Leibniz :
{A, BC} = {A, B}C + B{A, C}. (9.7)

— Identité de Jacobi :

{f, {g, h}} + {g, {h, f }} + {h, {f, g}} = 0. (9.8)


A l’exception de la dernière propriété, toutes ces propriétés sont triviales à démontrer. La
dernière est un peu plus subtile et une approche astucieuse est utilisée dans le livre de mé-
canique de Landau et Lifshitz. Une autre propriété importante est la valeur des crochets
fondamentaux, c’est à dire des crochets de Poisson entre les qi et pi

{qi , qj } = 0, {pi , pj } = 0, {qi , pj } = δi,j . (9.9)

Il est également possible de relier l’évolution temporelle d’une fonction F (q, p, t) de l’espace
des phases aux crochets de Poisson
dF ∂F X ∂F ∂F ∂F
 
= + q̇i + ṗi = + {F, H}. (9.10)
dt ∂t i
∂qi ∂pi ∂t

9.3. Transformation canonique

Nous allons démontrer ici la propriété importante d’invariance des crochets de Poisson sous
une transformation canonique. Pour cela nous devons définir les critères de canonicité d’une
transformation canonique. Si la transformation (q, p) → (Q, P ) est une transformation cano-
nique cela veut dire qu’il existe une fonction génératrice F1 , F2 , F3 ou F4 qui permet de la
dériver. Dans le cas d’une fonction génératrice de première espace, on rappelle les relations
de dérivation
∂F1 ∂F1
pi = (q, Q, t) , Pi = − (q, Q, t) (9.11)
∂qi ∂Qi
Si l’on calcule la dérivée partielle de pi par rapport à la variable Qj en gardant l’ensemble
des autres variables conjuguées (Q, P ) constantes on obtient
!
∂pi ∂ 2 F1
= (q, Q, t) . (9.12)
∂Qj Q,P
∂Qj ∂qi

De même, calculons la dérivée partielle de Pj par rapport à qi en gardant l’ensemble des


autres variables conjuguées (q, p) constantes on obtient

∂Pj ∂ 2 F1
 
=− (q, Q, t) . (9.13)
∂qi q,p ∂qi ∂Qj
9.3. Transformation canonique 101

Ainsi on obtient la première relation de condition de canonicité


!
∂pi ∂Pj
 
=− (9.14)
∂Qj Q,P
∂qi q,p

En effectuant de même avec les six autres relations permettant de définir une transformation
canonique à partir de fonctions génératrices F2 , F3 ou F4 on obtient au final 4 jeux de relation
de condition de canonicité
!
∂pi ∂Pj
 
=−
∂Qj Q,P
∂qi q,p
!
∂pi ∂Qj
 
=
∂Pj Q,P
∂qi q,p
! (9.15)
∂qi ∂Pj
 
=
∂Qj Q,P
∂pi q,p
!
∂qi ∂Qj
 
=−
∂Pj Q,P
∂pi q,p

Ces critères de canonicité vont nous permettre de montrer l’invariance des crochets sous une
transformation canonique. Soit A(q, p, t) et B(q, p, t) deux fonctions de l’espace des phases
X  ∂A ∂B ∂A ∂B

{A, B}q,p = −
k
∂qk ∂pk ∂pk ∂qk
X ∂A ∂B ∂Qi ∂A ∂B ∂Pi ∂A ∂B ∂Qi ∂A ∂B ∂Pi

= + − −
k,i
∂qk ∂Qi ∂pk ∂qk ∂Pi ∂pk ∂pk ∂Qi ∂qk ∂pk ∂Pi ∂qk
X ∂A ∂B ∂qk ∂A ∂B ∂qk ∂A ∂B ∂pk ∂A ∂B ∂pk

= − + − +
k,i
∂qk ∂Qi ∂Pi ∂qk ∂Pi ∂Qi ∂pk ∂Qi ∂Pi ∂pk ∂Pi ∂Qi
X  ∂A ∂B ∂A ∂B

= − = {A, B}Q,P (9.16)
i
∂Qi ∂Pi ∂Pi ∂Qi

Cette propriété démontré il n’est donc plus nécessaire de préciser avec quel jeu de coordonnée
canonique les crochets de Poisson sont calculé {A, B}q,p = {A, B}Q,P = {A, B}. Il en résulte
évidemment l’invariance des crochets de Poisson fondamentaux

{Qi , Qj } = 0, {Pi , Pj } = 0, {Qi , Pj } = δi,j . (9.17)

Si sous l’effet d’une transformation canonique les crochets de Poisson sont invariants, l’inverse
est également vrai. C’est à dire si les crochets de Poisson sont invariants sous une transforma-
tion alors cette dernière est nécessairement canonique. En effet l’invariance des crochets de
Poisson impose les relations de canonicité Eq. (9.15). Il s’agit ici d’une méthode pratique pour
vérifier la canonicité d’une transformation. En particulier, il n’est pas nécessaire de vérifier
l’invariance des crochets de Poisson pour toute fonction A(q, p, t) et B(q, p, t) de l’espace des
102 Chapitre 9. Crochets de Poisson

phases mais il est seulement nécessaire de la vérifier pour les crochets de Poisson fondamen-
taux. En effet on peut démontrer sans trop de difficulté que le crochets de Poisson {A, B}
s’écrit pour tout transformation (q, p) → (Q, P ) non nécessairement canonique
" ! #
X ∂A ∂B ∂A ∂B ∂A ∂B ∂A ∂B
{A, B} = {Qi , Qj } + {Pi , Pj } + − {Qi , Pj }
i,j
∂Qi ∂Qj ∂Pi ∂Pj ∂Qi ∂Pj ∂Pj ∂Qi
(9.18)
Ainsi pour qu’une transformation (q, p) → (Q, P ) il faut et il suffit que les équations Eq. (9.17)
soient vérifiées.

Exemple Soit la transformation (q, p) → (Q, P ) définie par


1
 
Q = ln sin p , P = q cot p. (9.19)
q
On vérifie aisément que cette transformation est bien canonique en calculant les crochets de
Poisson fondamentaux
∂Q ∂P ∂P ∂Q
{Q, Q} = 0, {P, P } = 0, {Q, P } = − = 1. (9.20)
∂q ∂p ∂q ∂p

9.4. Transformation canonique infinitésimale

Jusque là nous avons considéré une vue passive des transformations canoniques (q, p) →
(Q, P ). On passe d’une représentation de l’espace des phases à une autre. Il est possible
d’avoir un point de vue actif des transformations canoniques, c’est à dire en opérant des
transformations à partir et vers le même espace des phases. C’est le cas notamment de l’opé-
ration de rotation. Il est possible de voir cette transformation de manière passive (introduction
d’un nouveau système de coordonnée) ou de manière active via le déplacement d’un point
dans l’espace.
Nous allons introduire le concept de transformation canonique infinitésimale via une vue
active. Pour cela nous allons considérer une transformation dépendant continûment d’un
paramètre .
Qi = Qi (q, p, ), Pi = Pi (q, p, ), (9.21)
tel que l’on trouve la transformation identité pour  = 0, c’est-à-dire Qi (q, p, 0) = qi et
Pi (q, p, 0) = pi . Le paramètre  contrôlant la transformation, nous allons considérer un trans-
formation infinitésimale c’est-à-dire pour  = δ un paramètre infinitésimal. Pour définir la
transformation nous allons chercher une fonction génératrice G2 (q, P ) de type 2. Comme la
transformation est infinitésimale, cette fonction génératrice doit être proche de la transfor-
mation identité
X
G2 (q, P ) = qi Pi + δG(q, P ). (9.22)
i
9.4. Transformation canonique infinitésimale 103

Les règles de transformations donnent

∂G2 ∂G
Qi = = qi + δ (q, P )
∂Pi ∂Pi
(9.23)
∂G2 ∂G
pi = = Pi + δ (q, P )
∂qi ∂qi

Ces deux équations permettent d’écrire

∂G
Qi = qi + δ (q, P ) = qi + δqi
∂Pi
(9.24)
∂G
Pi = pi − δ (q, P ) = pi + δpi
∂qi

En ne gardant que les termes linéaires en δ on peut finalement exprimer les variations δqi et
δpi en fonction de (q, p) uniquement

∂G
δqi = δ (q, p)
∂pi
(9.25)
∂G
δpi = −δ (q, p)
∂qi

Au cours d’une transformation active la valeur d’une fonction de l’espace des phases F (q, p)
change
X ∂F ∂F
δF = F (q + δq, p + δp) − F (q, p) = δqi + δpi
i
∂qi ∂pi
X  ∂F ∂G ∂F ∂G

= δ − = δ{F, G} (9.26)
i
∂qi ∂pi ∂pi ∂qi

Ainsi la fonction G permet de définir de manière unique la transformation infinitésimale, on


parle de générateur d’une transformation

Exemples Nous allons considérer l’opération de translation dans le temps δ = δt. A partir
des équations de Hamilton on a

∂H
δqi = qi (t + δt) − qi = q̇i δt = δt (9.27)
∂pi
∂H
δpi = pi (t + δt) − pi = ṗi δt = − δt (9.28)
∂qi

On voit par le biais de ces relations que le Hamiltonien H est le générateur d’opération de
translation dans le temps. Ainsi l’évolution temporelle peut-être vu comme une succession
continue de transformations canoniques infinitésimales. D’autre part l’évolution temporelle
d’une fonction F de l’espace des phases indépendante du temps F (q, p) est bien donnée par

δF = δt{F, H}. (9.29)


104 Chapitre 9. Crochets de Poisson

On remarquera que l’on retrouve la conservation de l’énergie lorsque le Hamiltonien est indé-
pendant du temps δH = δt{H, H} = 0.
Nous allons également considérer le cas de la rotation autour de l’axe Oz. Pour tout rotation
d’une angle θ les coordonnées x et y s’écrivent

x0 = x cos θ − y sin θ
(9.30)
y 0 = x sin θ + y cos θ

Une relation similaire permet de relier les moments px , py aux moments px0 et py0 . si bien que
pour une variation infinitésimale δθ on a

δx = −yδθ, δy = xδθ
(9.31)
δpx = −py δθ, δpy = px δθ

A partir ces relations on peut vérifier que le générateur de la transformation est donnée par
le moment cinétique le long de l’axe Oz.

G = xpy − ypx = Lz (9.32)

si bien que la variation d’une fonction de l’espace des phases sous l’effet d’une rotation autour
de l’axe Oz est donnée par
δF = δθ{F, Lz } (9.33)

9.5. Liouvillien

Les crochets de Poisson permettent de définir une nouvelle approche de résolution d’un pro-
blème mécanique, c’est l’approche dite symplectique. Elle permet notamment de résoudre de
manière formelle les équations du mouvement via l’introduction d’un Liouvillien. Nous avons
vu que pour une fonction de l’espace des phases indépendante du temps F (q, p), l’évolution
temporelle de cette fonction s’écrit

Ḟ = {F, H} = −{H, F }. (9.34)

On peut donc voir l’opération {H, ·} comme une application linéaire sur l’espace vectoriel des
fonctions de l’espace des phases , on définit ainsi le Liouvillien L̂.

L̂ = {H, ·} : F → F (9.35)

Le Liouvillien L̂ est ici un opérateur agissant sur l’espace vectoriel des fonctions de l’espace
des phases. Par définition on a
Ḟ = −L̂F (9.36)
9.5. Liouvillien 105

Que l’on peut donc intégrer formellement sous la forme

F (t) = e−L̂t F (0) (9.37)

Il faut interpréter ici le terme e−L̂t comme l’exponentielle d’un opérateur défini à partir du
développement de Taylor de la fonction exponentielle. La méthode symplectique est particu-
lièrement puissante pour permettre d’effectuer diverses approximations notamment dans le
cadre d’une schéma perturbatif. Cette aussi cette représentation qui est utilisée pour définir
certains schémas d’intégration numérique des équations de Hamilton (on parle alors d’in-
tégrateur symplectique) dont les propriétés de stabilité en font aujourd’hui des méthodes
d’intégration privilégiées pour la description de la physique microscopique (dynamique molé-
culaire) ou mésoscopique (milieux granulaires, etc..)

Exemple Nous allons considérer ici le cas de la chute libre. Le Hamiltonien s’écrit

p2
H= + mgz (9.38)
2m
L’évolution temporelle du système est donc donnée par

1
z(t) = e−L̂t z(0) =
X
L̂n tn z(0) (9.39)
n=0
n!

−L̂t
X 1
p(t) = e p(0) = L̂n tn p(0) (9.40)
n=0
n!
(9.41)

On peut calculer de manière successive l’effet du Liouvillien sur le variables z et p


p
L̂z = {H, z} = − (9.42)
m
L̂p = {H, p} = mg (9.43)
L̂2 z = −g (9.44)
L̂n z = 0, ∀n > 3 (9.45)
n
L̂ p = 0, ∀n > 2 (9.46)

Si bien que les développements de z(t) et p(t) donnent

p(0) g
z(t) = z(0) + t − t2 (9.47)
m 2
p(t) = p(0) − mgt (9.48)

Vous aimerez peut-être aussi