Académique Documents
Professionnel Documents
Culture Documents
MECANIQUE ANALYTIQUE
MASTER 2 PHYSIQUE
3 Mécanique de Hamilton 40
3.1 Hamiltonien d’un système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 Équations canoniques de Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3 Principe variationnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4 Étude d’un cas simple : pendule 1D . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.4.1 Écriture de l’hamiltonien . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.4.2 Le portrait de phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.4.3 Étude au voisinage de points particuliers . . . . . . . . . . . . . . . . . . 44
3.4.4 Remarques d’ordre général . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1
TABLE DES MATIÈRES Mécanique Analytique
4 Systèmes hamiltoniens 61
4.1 L’équation de Hamilton-Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.1.1 La fonction principale de Hamilton . . . . . . . . . . . . . . . . . . . . . 61
4.1.2 L’action hamiltonienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.1.3 Méthode générale de résolution . . . . . . . . . . . . . . . . . . . . . . . 63
4.1.4 Méthode de séparation des variables . . . . . . . . . . . . . . . . . . . . 64
4.1.5 Applications à quelques problèmes simples . . . . . . . . . . . . . . . . . 65
4.1.6 Le principe de Maupertuis . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.1.7 Mécanique ondulatoire de Louis de Brooglie . . . . . . . . . . . . . . . . 70
4.2 Variables canoniques angles-actions . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.2.1 Systèmes fermés périodiques . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.2.2 Variables angulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.2.3 Variables d’actions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.2.4 Fonction génératrice des variables angles-actions . . . . . . . . . . . . . . 79
4.2.5 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
1.1 Introduction
L’objet de la mécanique est de décrire l’évolution au cours du temps d’un système de par-
ticules (= points matériels) en interaction. L’expérience prouve que l’état d’un système est
entièrement déterminé si l’on se donne la position et la vitesse de chaque articule à un instant
donné. Si l’on repère les particules par un indice i, on définit :
mi =masse de la particule i,
−−→
OMi ≡ ~ri = position de la particule i,
d~ri
~vi ≡ = vitesse de la particule i,
dt
p~i ≡ mi~vi = impulsion de la particule i,
d~vi
~ai ≡ = accélération de la particule i.
dt
La loi fondamentale de la dynamique, aussi appelée deuxième loi de Newton, stipule que
l’évolution du système peut se décrire à l’aide du système d’équations différentielles suivant :
p~i →
−
= F i, i = 1, ...., N (1.1)
dt
→
−
où F i (~r1 , ....., ~rN , ~v1 , ......, ~vN , t) est à priori une fonction des positions et des vitesses de toutes
les particules, ainsi que du temps, mais pas des accélérations.
En général, les masses ne dépendent pas du temps, et on obtient donc un système d’équations
différentielles du second ordre :
¨ →
− ˙ ˙
mi~ri = F i ~r1 , ...., ~rN , ~r1 , ......, ~rN , t , i = 1, ......, N. (1.2)
Exemples :
→
− X ~ri − ~rk
• F i = G mi mk ( Gravitation universelle)
k6=i
k~ri − ~rk k3
3
1.2. EXEMPLE D’UNE PARTICULE Mécanique Analytique
→
− →
− →
−
• F i = q E (~r, t) + ~r˙ ∧ B (~r, t) (Particule dans un champ électromagnétique)
→
−
Dans tous les exemples d’application courante, la force F i peut se décomposer de la façon
suivante :
→
− →
− X→
−
F i = F ext
i (~ ri , ~vi , t) + F ij (~ri , ~vi , ~rj , ~vj , t) . (1.3)
j6=i
Première loi de Newton : il existe des référentiels dits inertiels ou galiléens dans lesquels,
→
−
pour un système de particules isolées, F ext
i = ~0.
Pour beaucoup de situations expérimentales, un référentiel fixe par rapport à la terre peut
être considéré comme galiléen, mais il est néanmoins souvent nécessaire de se placer dans un
référentiel lié au soleil ou aux étoiles fixes pour avoir une approximation correcte d’un référentiel
galiléen.
Remarque : c’est vrai pour la gravitation universelle, le problème majeur auquel s’intéressait
Newton, mais pas de façon générale,par exemple pour l’interaction entre particules chargés en
mouvement.
d~p →−
= F ext (1.5)
dt
→
−
Pour une particule isolée dans un référentiel galiléen, F ext = ~0 ⇒ p~ est constant.
C’est une autre formulation de la première loi de Newton : une particule isolée dans un référentiel
→
−
galiléen est animée d’un mouvement rectiligne uniforme. Si F ext 6= ~0, il est souvent utile d’in-
troduire des fonctions de ~r et p~ pour étudier le mouvement.
Moment cinétique
→
−
L = ~r ∧ p~ (1.6)
−−→ →
−
N.B. ~r = OM ⇒ L = ~r ∧ p~ = moment cinétique par rapport au point O .
→
−
dL d d~p →
−
= (~r ∧ p~) = ~r˙ ∧ p~ +~r ∧ = ~r ∧ F ext (1.7)
dt dt | {z } dt
=~0
→
− →
−
Application : si ~r ∧ F ext = ~0, par exemple pour une force centrale telle que F ext ||~r,
→
−
dL →
−
= ~0 ⇒ L est constant. (1.8)
dt
→
−
Travail et énergie Le travail de la force F ext le long d’une trajectoire allant d’un pint 1 à un
point 2 est défini par
Z 2
→
− ext
W12 = F · d~s (1.9)
1
→
−
où ~s est l’abscisse curviligne le long de la trajectoire. Puisque F ext = m d~
v
dt
etd~s = ~v dt, on a
Z 2
d~v
W12 = m .~v dt
dt
Z1 2
d v2
m 2
v2 − v12 .
= m dt = (1.10)
1 dt 2 2
mv 2
Mais ≡ T = énergie cinétique,et donc
2
W12 = T2 − T1 . (1.11)
Cas particuliers : Systèmes conservatifs. Un système est dit conservatif si le travail entre
deux points ne dépend pas du chemin suivi.
Conséquence :
→
−
I
F · d~s = 0.
c
tels que C = C 0 ∪ C 00
2 2 Z 1
→
− →
− →
−
Z Z
F · d~s = F · d; ~s = − F · d~s
1C 0 1C 00 2C 00
Z 2 Z 1
→
− →
− →
−
I
⇒ F · d~s = F · d~s + F · d~s = 0 (1.12)
C 1C 0 2C 00
où S est une surface quelconque s’appuyant sur C, et ~n le vecteur unitaire normale à la surface.
→
− −→→−
I
F · d~s = ~0pour tout chemin fermé ⇒ rot F = ~0(voir exercices). (1.14)
C
−→→−
Potentiel : Puisque rot F = ~0, il existe une fonction V (~r) telle que
→
− →
−
F = − ∇V (~r) (1.15)
Z 2 Z 2
→
− →
−
W12 = F · d~s = − ∇V · d~s = V1 − V2 (1.16)
1 1
→
−
On dit que F dérive du potentiel V .
On obtient donc dans le cas d’une force conservative :
V1 − V2 = T2 − T1
⇒ T1 + V1 = T2 + V2 (1.17)
Si on définit l’énergie mécanique par E = T + V , on en déduit un nouveau théorème.
=~0
Impulsion totale :
→
− X X →
−̇
P = p~i = mi~r˙ = M R (1.20)
i i
On obtient donc :
→
−
d2 R X→− ext →
−
M 2 = F i ≡ F ext (1.21)
dt i
Théorème 1.3.1 : le centre de masse se comporte comme un point matériel de masse totale
M soumis à une force extérieure égale à la somme des forces extérieures s’exerçant sur chacune
des particules.
→
−
Corollaire 1.3.1 : pour un système isolé dans un référentiel galiléen, P est conservé. Intro-
duisons les coordonnées barycentriques par rapport au centre de masse
( →
−
~ri = R + r~0 i
→
− →
− →
−̇ (1.22)
~vi = V + v~0 i V = R
Moment cinétique
→
− X
L = ~ri ∧ p~i
i
X →
− ~0 →
−
= R + r i ∧ mi V + v~0 i (1.23)
i
X h→
− →
− ~0 →
− → − i
= ~0 ~0 ~0
R ∧ mi V + r i ∧ mi V + R ∧ mi v i + r i ∧ mi v i
i
X→
− →
− → −
• R ∧ mi V~ = M R ∧ V
i
X X →
− X →
−
• mi r~0 i = mi ~ri − R = mi~ri − M R = ~0
i i i
d X ~0
• mi v~0 i = mi r i = ~0
dt i
→
− →
− → − X ~0 ~0
⇒ L =MR ∧ V + r i ∧ p i. (1.24)
i
Premier théorème de Kœning : le moment cinétique par rapport au point O est égal à
la somme du moment cinétique du centre de masse par rapport au point O et les moments
cinétiques des particules par rapport au centre de masse.
d→ − X X
L = ~r˙i ∧ p~i + ~ri ∧ ~p˙ i
dt
| i {z } i
~0
X →
− X →
−
= ~ri ∧ F ext
i + ~ri ∧ F ji (1.25)
i i,j
i6=j
| {z }
−
→ −
→ −
→
i<j (~ rj ∧ F ij )= i<j (~
P P
ri ∧ F ji +~ ri −~
rj )∧ F ji
→
−
Théorème 1.3.2 du moment cinétique : Si F ji est dirigé suivant ~ri − ~rj (c’est le cas pour
la gravitation), la dérivée par rapport au temps du moment cinétique est égale au moment des
forces extérieures appliquées au système :
d→ − X →
−
L = ~ri ∧ F ext
i . (1.26)
dt i
→
− →
−
Pour un système isolé, F ext
i = ~0 dans un référentiel galiléen. Alors L est conservé.
Energie : L’énergie cinétique totale est donnée par
1X 1 X → − 2
T = mi vi2 = mi V + v~0 i
2 i 2 i
!
1 1 X 2 X
= MV 2 + mi v~0 i mi~vi = ~0 . (1.27)
2 2 i i
Supposons que
→
− ext →
−
F i = − ∇ i Vi (1.29)
→
− →
−
F ji = − ∇ i Vij , Vij = Vij (|~ri − ~rj |) . (1.30)
Cette deuxième condition est satisfaite si la loi d’action-réaction est satisfaite, et si la force est
dirigée suivant ~ri − ~rj . Alors
B B B B
→
− →
− →
− →
−
Z Z Z Z
F ji · d~si + F ij · d~sj = − ∇ i Vij · d~si − ∇ j Vij·d~sj . (1.31)
A A A A
→
− →
−
Mais si on définit ~rij = ~ri − ~rj et ∇ ij ≡ ∇ ~rij , on a
→
− →
− →
−
∇ i Vij = ∇ ij Vij = − ∇ j Vij (1.32)
et d~si − d~sj = d~ri − d~rj = d~rij (1.33)
Z B Z B Z B
→
− →
− →
−
d’où F ji · d~si + F ij · d~sj = − ∇ ij Vij · d~rij = VijA − VijB . (1.34)
A A A
Comme
!
B Z B B
X XZ →
− →
− →
−
Z
1X
F ji · d~si = F ji · d~si + F ij · d~sj , (1.35)
i j6=i A 2 i,j A A
i6=j
on en déduit : WAB = VA − VB (1.36)
X 1X
VA = Vi + Vij . (1.37)
i
2 i,j
i6=j
Chaque intégrale première conduit à une équation différentielle du premier ordre. Comme un
système mécanique est défini par la donnée de la position et de la vitesse de chaque particule,
les intégrales premières sont un pas très utile vers la solution.
Si on connaı̂t 6N intégrales premières pour un système, il suffit d’inverser le système :
Une grande partie de ce cours sera donc logiquement consacrée à la recherche d’intégrales
premières. Malheureusement (ou heureusement ? !) il n’est en général pas possible de trouver
6N intégrales intégrales premières. Dans le cas d’un système de particules isolées avec des
interactions à 2 corps dérivant d’un potentiel, on a en général 10 intégrales premières :
→
−
• P (3)
→
− → −
• MR − Pt (3)
→
−
• L (3)
• E (1)
Dans le cas d’une particule, elles ne sont bien sûr pas indépendantes. Dans le cas de deux
particules, il en faudrait déjà 12 pour que le problème soit résolu. Il faut donc encore travailler.
Dans le cas général, l’existence ou non d’intégrales premières a des conséquences sur la nature
du mouvement (mouvement régulier ou chaotique). L’un des objectifs des développements de
ce cours est d’exposer la méthode la plus systématique de recherche d’intégrales premières.
→
−
(d) Sphère qui roule sans glisser sur un plan : V I = ~0.
x = r sin θ cos φ
y = r sin θ sin φ θ, φ sont les coordonnées généralisées.
z = r cos θ
Si le problème est simplement de trouver les équations du mouvement satisfaites par les coor-
données généralisées, autrement dit si l’on n’a pas besoin de déterminer les forces de contraintes,
les équations de la mécanique newtonienne sont mal adaptées.
Par ailleurs, dans un tel cas, l’énergie potentielle est souvent plus facile à exprimer en
fonction des coordonnées généralisées que les coordonnées cartésiennes. Malheureusement la
formulation newtonienne de la mécanique fait intervenir les forces, c’est-à-dire les dérivées de
l’énergie potentielle par rapport aux coordonnées cartésiennes.
Définition : si un système de N particules est décrit par des coordonnées généralisées qj ,
les forces généralisées sont définies par
X→− ∂~ri
Qj = Fi· .
i
∂q j
→
− ∂V
Proposition : si les forces F i dérivent d’un potentiel V, Qj = − .
∂qj
Démonstration :
X→− ∂~ri X→− ∂~ri ∂V
Qj = Fi· =− ∇ iV · =− .
i
∂qj i
∂qj ∂qj
L’un des objectifs du chapitre suivant sera de formuler la mécanique à l’aide d’équations qui
soient valables dans n’importe quel système de coordonnées et qui fassent intervenir directement
les coordonnées généralisées et les forces généralisées.
Exemples : pendule sphérique = point matériel qui peut glisser sans frottement à l’intérieur
d’une sphère.
Comme il n’y a pas de frottement, la réaction ne travaille pas. Elle doit donc être perpendiculaire
à la vitesse, c’est-à-dire dirigée vers O.
1
T = m r2 θ̇2 + r2 sin2 θφ̇2 . (1.43)
2
L’énergie potentielle est égale à mgz = mgr cos θ
1
⇒ m r2 θ̇2 + r2 sin2 θφ̇2 + mgr cos θ = E0 . (1.44)
2
Comme il y a deux degrés de liberté, il faut impérativement une autre équation, le but étant d’en
→
− →
−
trouver une qui ne fasse pas intervenir la force de réaction. 1ère méthode : m~a = F = R + m~g .
→
−
Comme R + m~g n’a pas de composante suivant ~k, on a m~a · ~k = ~0.
Il faut calculer l’accélération en coordonnées sphériques dans le référentiel local.
2eme méthode : on cherche s’il n’y a pas une autre intégrale première.
→
−
dL −−→ → − −−→ →
−
= OM ∧ F = OM ∧ P ⊥ (0z)
dt
d
⇒ Lz = 0
dt
⇒ Lz = constante (1.45)
Lz = m (xvy − yvx )
Lz = mr2 θ̇ (sin θ cos φ cos θ sin φ − sin θ sin φ cos θ cos φ) + mr2 φ̇ sin2 θ cos2 φ + sin2 θ sin2 φ
Conclusion : on s’en sort assez bien si l’on pense à cette seconde intégrale première, mais ce
n’est pas une approche systématique. On va développer dans le chapitre suivant une méthode
qui conduit automatiquement à cette solution.
Considérons un système de points matériels soumis è des liaisons parfaites qui astreignent les
positions des points matériels à satisfaire k contraintes holonômes sans déperdition d’énergie.
Pour décrire un tel système à l’aide des équations de Newtons, il faut introduire un champ
de forces de contrainte. Pour un système de N particules, cela conduit à 6N inconnues : 3N
coordonnées pour décrire les positions des particules et les 3N composantes des N forces de
contraintes agissant sur les particules. Or, on ne dispose à priori que de 3N + k équations : les
→
−
3N équations du mouvement ~p˙ i = F i , et les k contraintes. Pour pourvoir résoudre le problème,
il est donc indispensable d’introduire 3N − k conditions supplémentaires. Par exemple, dans
le cas du pendule sphérique, il y a une contrainte holonôme, et N = 1 puisqu’on considère
une seule particule. Il faut donc deux équations supplémentaires. Ces équations découlent de
l’hypothèse que la force de contrainte ne travaille pas, donc qu’elle est centrale, ce qui implique
que ces deux composantes tangentes à la sphère sont nulles.
Le principe de d’Alembert est une généralisation de cette condition au cas général d’un système
quelconque soumis à k contraintes holonômes. Sa formulation repose sur la notion de déplacement
virtuel.
Définition : un déplacement virtuel est un déplacement infinitésimal qui, à un instant donné,
satisfait les contraintes holonômes imposées à un système.
Si on note {δ~ri } un tel déplacement, il satisfait les conditions
X ∂fj
· δ~ri = 0, j = 1, ....., k (2.1)
i
∂~ri
14
2.1. LE PRINCIPE DE D’ALEMBERT Mécanique Analytique
où δqj est quelconque. En effet, par définition des coordonnées généralisées,
∂~ri
Tout déplacement de la forme δqk est donc un déplacement virtuel. Comme la condition
∂qk
(2.1) est linéaire, on en déduit la propriété cherchée. Le principe de d’Alembert consiste à
traduire l’idée que les forces de contrainte ne travaillent pas par la condition :
X→ −
R i · δ~ri = 0. (2.2)
i
Cette condition doit être valable pour tout déplacement virtuel. D’après la forme des déplacements
virtuels, cela conduit à
X→ − X ∂~ri
Ri · δqj = 0 (2.3)
i j
∂q j
où les δqj sont quelconques. Le choix δqk = 0 si k 6= j, δqj 6= 0 conduit à l’équation :
X→− ∂~ri
Ri · =0
i
∂qj
Comme cette équation est valable pour j = 1, ....., 3N − k, on obtient bien 3N − k équations
supplémentaires.
Finalement, si l’on écrit les équations du mouvement sous la forme :
d~pi →− (a) →
−
= F i + Ri (2.4)
dt
→
− →
− (a)
où R i est la force de contrainte et F i la résultante de l’ensemble des autres forces appliquées
à la particule i, on peut éliminer les forces de contraintes, ce qui conduit à l’expression usuelle
du principe de d’Alembert :
Principe de d’Alembert : pour tout déplacement virtuel δ~ri , on a :
X → − (a)
F i − ~p˙ i · δ~ri = 0 (2.5)
i
N.B. : Les contraintes interviennent dans cette équation par le fait que {δ~ri } n’est pas un
déplacement quelconque mais un déplacement satisfaisant les contraintes holonômes. Si {δ~ri }
pouvait être un déplacement absolument quelconque, on déduirait de ces équations que
→
− (a)
F i − ~p˙ i = 0. (2.6)
ce qui correspond au système sans contrainte.Autrement dit, les déplacementsδ~ri ne sont plus
des variables indépendantes.
P → − (a) ∂~ri
où Qj ≡ i Fi · est la force généralisée. Le principe de d’Alembert conduit donc à
∂qj
l’équation :
d ∂T ∂T
− − Qj δqj = 0. (2.8)
dt ∂ q̇j ∂qj
Comme cette équation doit être satisfaite pour une variation quelconque des δqj , on en déduit
d ∂T ∂T
− = Qj . (2.9)
dt ∂ q̇j ∂qj
Supposons par ailleurs que la force appliquée dérive d’un potentiel global V . Nous avons vu
que les forces généralisées sont données par
X→− (a) ∂~ri X→− ∂~ri ∂V
Qj = Fi · =− ∇ iV · =− . (2.10)
i
∂q j i
∂q j ∂q j
∂V
Mais comme V ne dépend que des ~ri , donc que des qj , = 0. On peut donc finalement écrire :
∂ q̇j
d ∂L ∂L
− =0 (2.12)
dt ∂ q̇j ∂qj
avec L = T − V = lagrangien.
Ces équations s’appellent les équations de lagrange. Elles ont les propriétés remarquables sui-
vantes :
• Elles conduisent directement aux équations du mouvement pour les coordonnées généralisées.
• Elles ne font pas intervenir les forces de contrainte.
• De façon plus générale, ces équations restent valables tant que les forces sont reliées au
potentiel par :
∂V d ∂V
Qj = − + . (2.13)
∂qj dt ∂ q̇j
Exemple :Particule dans un champ électromagnétique (voir exercice).
• Par ailleurs, le lagrangien n’est pas défini de façon unique. Plus précisément, si F (q1 , ...., qN , t)
est une fonction des coordonnées généralisées et du temps mais pas des vitesses généralisées,
la fonction
d
L0 (q1 , ....., qN , q̇1 , ...., q̇N , t) = L(q1 , ......, qN , q̇1 , ....., q̇N , t) + F
dt
conduit aux mêmes équations.
Démonstration :
dF ∂F X ∂F
= + q̇i
dt ∂t i
∂qi
L0 ∂L ∂F
= +
∂ q̇i ∂ q̇i ∂qi
∂L0
∂L ∂ d
= + F
∂qi ∂qi ∂qi dt
d ∂L0 ∂L0
d ∂L ∂L d ∂F ∂ dF
⇒ − = − + − .
dt ∂ q̇i ∂qi dt ∂ q̇i ∂qi dt ∂qi ∂qi dt
| {z } | {z }
=0 =0
si L=lagrangien
• Enfin, les équations de Lagrange ont la même forme dans tous les systèmes de coor-
données.
∂L
pj ≡ (2.14)
∂ q̇j
s’appelle l’impression générale par analogie avec la particule libre. En effet, pour une particule
libre,
1 ∂L
L = T = m ẋ2 + ẏ 2 + ż 2
et = mẋ = px . (2.15)
2 ∂ ẋ
Exemple :Considérons une particule libre (V=0).
• Coordonnées cartésiennes : L = 21 m(ẋ2 + ẏ 2 + ż 2 ) est indépendant de x, y, z ⇒ px , py et
pz sont conservés.
• Coordonnées
cylindriques
x = r cos θ ẋ = ṙ cos θ − rθ̇ sin θ
y = r sin θ ⇒ ẏ = ṙ sin θ + rθ̇ cos θ
z=z ż = ż
1 2 1 2 2 2 2
⇒ L = T = 2 mv = 2 m ṙ + r θ̇ + ż est indépendant de θ
∂L
⇒ = constante.
∂ θ̇
∂L
Mais = mr2 θ̇ = Lz composante du moment cinétique suivant z. En effet, Lz =
∂ θ̇
m(xẏ−y ẋ) = mr2 θ̇. On retrouve la loi de conservation du moment cinétique. L’impulsion
généralisée correspondant à un angle est égale à la projection du moment cinétique sur
l’axe de rotation.
Systèmes isolés : un système est dit isolé si le lagrangien ne dépend pas explicitement du
temps. Autrement dit,
∂L
=0
∂t
dL X ∂L X ∂L ∂L
Mais = q̇i + q̈i +
dt i
∂qi i
∂ q̇i ∂t
X d ∂L X ∂L
= q̇i + q̈i
i
dt ∂ q̇i i
∂ q̇i
!
d X ∂L
= q̇i
dt i
∂ q̇i
X ∂L
⇒ h(q1 , ...., qN , q̇1 , ....., q̇N ) = q̇i − L = constante. (2.16)
i
∂ q̇i
h(q1 , ..., qN , q̇1 , ..., q̇N ) s’appelle la fonction hamiltonienne. Sa valeur correspond à l’énergie.
Exemple 2.2.1 : Supposons que V ne dépende pas des vitesses, et que l’énergie cinétique
dépende du carré des vitesses.
X ∂ X ∂T
q̇i = q̇i = 2T
i
∂ q̇i i
∂ q̇i
⇒ h = 2T − L = 2T − T + V = T + V.
⇒E =T +V est conservé
.
• L ne dépend pas explicitement de φ
⇒ Lz conservé.
1
V = k(x + y∗ − y0 )2 + mg(x + y∗ )
2
1 1
= k(y∗ − y0 )2 + kx(y∗ − y0 ) + kx2 + mg(x + y∗ )
2 2
1 mg 2 1
= k + x (k(y∗ − y0 ) + mg) + mgy∗ + kx2
2 k 2
(mg)2 1 2
= mgy0 − + kx (2.18)
2k 2
(mg)2
A la constante mgy0 − près, qu’on peut laisser tomber puisque les équations de Lagrange
2k
ne font intervenir que les dérivées du lagrangien, on a :
1 1
L = mẋ2 − kx2
2 2
d’où l’équation du mouvement
mẍ + kx = 0
Cherchons une solution complexe z(t) sous la forme :
z = z0 eiωt .
Il vient :
(−mω 2 + k)z0 eiωt = 0,
d’où r
k
ω= , z0 quelconque
m
Mais si z(t) ∈ C est solution, sa partie réelle est solution puisque les coefficients de l’équation
différentielle sont réels. La solution générale s’écrit donc :
x(t) = Re(z0 ) cos ωt − Im(z0 ) sin ωt
Les coefficients de cos ωt (Re(z0 )) et de sin ωt (−Im(z0 )) sont des réels qui sont déterminés par
les conditions initiales x(t = 0) et ẋ(t = 0).
Nous allons voir que ce calcul peut être généralisé au problème des oscillations dans les
systèmes à N degrés de libertés, et que de tels systèmes peuvent se ramener à une collection
d’oscillateurs harmoniques découplés.
∂ 2V
Si on définit xi = qi − qi∗ , et si on note kij = |q~ , l’énergie potentielle s’écrit, à une
∂qi ∂qj ∗
constante près,
1X
V (x1 , ...., xN ) = kij xi xj . (2.20)
2 i,j
Par ailleurs, l’énergie cinétique peut en général s’écrire
1X
T (ẋ1 , ..., ẋN ) = mij ẋi ẋj . (2.21)
2 i,j
Dans le cas de particules de masses m1 , ..., mN , on a bien sûr mij = mi δij , mais l’étude d’oscilla-
tions dans d’autres systèmes peut conduire à une forme quadratique qu’on suppose symétrique
(mij = mji ).
Les petites oscillations sont donc décrites par le lagrangien
L(x1 , ..., xN , ẋ1 , ..., ẋN ) = T (ẋ1 , ..., ẋN ) − V (x1 , ..., xN ). (2.22)
Pour déterminer les équations de Lagrange, regroupons les termes contenant un indice l donné :
1X 1X 1
T : mlj ẋl ẋj + mil ẋi ẋl + mll ẋ2l (2.23)
2 j6=l 2 i6=l 2
1X 1X 1
V : kjl xl xj + kil xi xj kll x2l (2.24)
2 j6=l 2 i6=l 2
∂L 1X 1X
⇒ = mlj ẋj + mil ẋi + mll ẋl
∂ ẋl 2 j6=l 2 i6=l
X
= mjl ẋj (mij = mji ) (2.25)
j
∂L P
De même, = − j kjl xj (kij = kji car c’est la dérivée seconde du potentiel). Les équations
∂xl
de Lagrange s’écrivent donc :
X X
mjl ẍj + kjl xj = 0 (l = 1, ..., N ) (2.26)
j j
Vu que le membre de droite est nul, ce système linéaire n’a de solution non nulle que si son
déterminant est nul, soit :
det −ω 2 M + K = 0,
(2.29)
où M et K sont des matrices (n × n) définies par Mij = mij , Kij = kij . Par ailleurs ω sera réel
si ω 2 est réel et positif.
Démonstration 2.3.1 ~q∗ minimal ⇒ sumi,j kij ai aj est une forme quadratique définie positive.
De même, l’énergie cinétique est une forme quadratique définie positive. Mais
X
−mjl ω 2 + kjl Aj = 0,
j
X
A∗l −mjl ω 2 + kjl Aj = 0
⇒
j
X
−mjl ω 2 + kjl A∗l Aj = 0
⇒
j,l
∗
P
jl kjl Al Aj
2
⇒ω = P ∗
.
j,l mjl Al Aj
De même, X
mij A∗i Aj > 0. C.Q.F.D
ij
−
→
2
Soient ω12 , ..., ωN les solutions de det (−M ω 2 + K) = 0, et désignons par Ai une solution réelle
−
→
associée à ωi2 . Ai peut être choisi réel car tous les coefficients du système sont réels. La solution
générale dans CN peut donc être écrite
X − →
~z = ci Ai eiωt . (2.30)
i
Coordonnées normales
On va maintenant démontrer que, si les fréquences sont toutes différentes, le système est
équivalent à une collection d’oscillateurs harmoniques indépendants de fréquence ωi . D’après
les équations du mouvement, on a :
X −
→
−mjl ωi2 + kjl Ai = 0, l = 1, ...., N
j
j
−
→
Posons ∆ij = Aj . Pour deux fréquences ωp et ωq (p 6= q), on peut donc écrire :
i
X
2
−ωp mij + kij ∆ip = 0, j = 1, ..., N
i
X (2.32)
−ωq2 mji + kji ∆jq = 0
i = 1, ..., N.
j
En multipliant la première (resp. la seconde) par ∆jq (resp. ∆ip ) et en faisant la somme sur j
(resp. i), il vient
X X
2
∆ jq × −ω p mij + kij ∆ip = 0
j i
X X (2.33)
−ωq2 mji + kji ∆jq = 0.
∆ip ×
i j
puisque les fréquences sont par hypothèse toutes différentes. Sous forme matricielle, cette
équation s’écrit :
t
∆M ∆ pq = 0 (p 6= q). (2.35)
−
→p
Par ailleurs, on peut encore choisirX
une condition de normalisation sur les vecteursX . Si on im-
A
−
→p −
→p
pose la condition de normalisation Ai mij Aj = 1, cela conduit à la condition ∆ip mij ∆jp = 1
i,j i,j
sur la matrice ∆, qui s’écrit sous forme matricielle
t
∆M ∆ pp = 1. (2.36)
Autrement dit, la matrice ∆ satisfait la relation :
t
∆M ∆ = 1 (2.37)
X
L’équation ∆jq (−mij ωp2 + kij )∆ip = 0 conduit à
i,j
X X
∆jq kij ∆ip = ωp2 ∆jq mij ∆ip (2.38)
i,j i,j
Les équations de Lagrange ont la même forme que les équations d’Euler établies par Euler
dans le cadre plus général du calcul des variations. Cette remarque est à l’origine d’une nouvelle
formulation de la mécanique. Commençons donc par établir cette propriété.
Considérons le problème suivant : soit une fonctionnelle I[y], c’est-à-dire une fonction de
l’espace des fonctions dérivables dans R, qui à une fonction y(x) associe le nombre réel
Z x2
I[y] = dxF (y, y 0 , x) (2.43)
x1
dy
où x1 , x2 sont des bornes d’intégration fixées une fois pour toutes, et y 0 ≡ . On cherche la
dx
fonction y(x) qui rend I[y] extremumsl avec les contraintes
(
y(x1 ) = y1
y1 , y2 donnés. (2.44)
y(x2 ) = y2
On définit par ailleurs ∂1 F = dérivée par rapport à la première variable et ∂2 F = dérivée par
rapport à la seconde.
Supposons que y(x) soit la solution du problème, et considérons la famille de fonctions
z(x, α) = y(x) + αη(x) où η(x) est une fonction dérivable quelconque de x qui satisfait η(x1 ) =
η(x2 ) = 0.
Définissons par ailleurs
Z x2
˜ ∂z
I(α) = I[z(x, α)] = dxF z(x, α), (x, α), x . (2.45)
x1 ∂x
Or,
dI˜ x2
Z
∂z ∂z ∂z ∂ ∂z
= dx ∂1 F z(x, α), (x, α), x + ∂2 F z, (x, α), x . (2.47)
dα x1 ∂x ∂α ∂x ∂α ∂x
Pris en α = 0, on obtient donc :
dI˜
Z x2
|α=0 = dx [∂1 F (y, y 0 , x)η(x) + ∂2 F (y, y 0 , x)η 0 (x)] . (2.48)
∂α x1
La longueur du chemin le long de la courbe y(x) peut donc se mettre sous la forme
Z x2 p Z x2 p
I[y] = 0 2
dx 1 + y (x) = dxF (y, y 0 , x) avec F (y, y 0 , x) = 1 + y 0 2
x1 x1
∂F ∂F y0
−→ = 0, 0 = p
∂y ∂y 1 + y 02
L’équation d’Euler conduit à la condition
∂F y0
= = c = constante
∂y 0
p
1 + y 02
±c
⇒ y0 = √ = a = constante
1 − c2
⇒ y = ax + b. C’est une droite !
Formulation locale : la lumière se propage de façon rectiligne dans un milieu d’indice ho-
mogènee. A la séparation entre 2 milieux d’indices n1 et n2 , les angles d’incidence satisfont la
loi de Descartes, n1 sin i1 = n2 sin i2
Dans la formulation locale, on compare toutes les trajectoires issues de A, et on cherche celle
qui passe par B
Formulation globale : On calcule le chemin optique le long de toutes des trajectoires passant
par A et B. La trajectoire physique est celle qui minimise le chemin optique :
On démontre aisément que celle qui minimise le chemin optique satisfait à la loi de Descartes.
L’équivalent du chemin optique en mécanique s’appelle l’action. Elle est définie de la façon
suivante.
Rt
Définition 2.5.1 L’action est une fonctionnelle des trajectoires définie par S[qi (t)] = t12 L(q1 , ..., qN , q̇1 , ...,
Cette fonctionnelle permet de formuler les lois de la mécanique à l’aide d’un principe du même
type que le principe de Fermat en optique.
Principe de moindre action : dans l’ensemble des trajectoires possibles allant d’une configu-
1
ration donnée q11 , ...., qN 2
à l’instant t1 à une configuration donnée q12 , ..., qN à l’instant t2 , l’action
est extremumsle pour la trajectoire physique.
Remarque 2.5.1 Il peut en principe y avoir plusieurs trajectoires qui rendent l’action extre-
mumsle, mais en pratique il n’y en a en général qu’une. Par ailleurs, l’extrémum est en général
un minimum, d’où le nom de principe de moindre action.
Équivalence avec les autres formulations : d’après les résultats de la section précédente
relatifs au calcul des variations, la fonctionnelle S[qi (t)] sera extremumsle si les trajectoires qi (t)
satisfont les équations d’Euler correspondantes. Or, le lagrangien L joue le rôle de la fonction F ,
le temps t celui de la variable x, et les trajectoires qi (t) celui des fonctions yi (x). Les équations
d’Euler s’écrivent donc :
d ∂L ∂L
− = 0, 1, ..., N.
dt ∂ q̇i ∂qi
On reconnaı̂t bien sûr les équations de Lagrange. Le principe de moindre action est donc bien
équivalent aux équations de Lagrange, donc à la formulation newtonienne de la mécanique.
Bien qu’il ait été introduit pour des raisons plus philosophiques que scientifiques, le principe
de moindre action s’est révélé être une formulation très utile de la mécanique dans un certain
nombre de circonstances (contraintes, transformations canoniques,....).
Considérons une fonction à 2 variables F (x, y) dont on cherche le minimum sous la contrainte
f (x, y) = 0. Quelles sont les équations qui conduisent au minimum ?
Réponse : Il suffit de minimiser la fonction de 3 variables
Les valeurs xmin , ymin sont la solution du problème, λ s’appelle un multiplicateur de Lagrange.
Démonstration 2.6.1 Minimiser H veut dire qu’il faut satisfaire les équations
∂H ∂F
=0⇔ + λ ∂f
∂x
=0
∂x
∂H ∂x
∂F
=0⇔ + λ ∂f
∂y
=0 (2.55)
∂y ∂y
∂H = 0 ⇔ f (x, y) = 0
∂∂
La troisième équation n’est rien d’autre que la contrainte. Il faut donc démontrer qu’il existe λ
tel que les 2 premières conditions soient vérifiées.
Première méthode :
Supposons que la contrainte, qui définit une courbe dans le plan (x, y), conduit à une courbe
paramétrée (z) zt y(z). On doit minimiser F (x(z), y(z)). Alors
dF ∂F dx ∂F dy
≡ + = 0. (2.56)
dz dx dz ∂y dz
Mais f (x(z), y(z) = 0. En dérivant par rapport à z, il vient :
∂f dx ∂f dy
+ =0
∂x dz ∂y dz
−1
dy dx ∂f ∂f
⇒ =− (2.57)
dz dz ∂x ∂y
−1 !
dF ∂F dx ∂F dx ∂f ∂f
=0⇒ + − (2.58)
dz ∂x dz ∂y dz ∂x ∂y
dx
Si dz
6= 0 (si x = constante, c’est trivial !), on en déduit
∂F ∂F
∂x ∂y
∂f
= ∂f
. (2.59)
∂x ∂y
Par ailleurs, d’après le calcul des variations, si l’on ajoute un petit déplacement δxi (t) tel que
δxi (t1 ) = δxi (t2 ) = 0 à une trajectoire xi (t) donnée, la variation de l’action au premier ordre
en δxi est donnée par
Z t2 X3N
∂L d ∂L
δS = δxi − dt. (2.70)
t1 i=1 ∂xi dt ∂ ẋi
On en déduit que δS ≡ S̃(α1 , ..., α3N ) − S̃(0, ..., 0) est donné par
Z 3N
t2 X
∂L d ∂L
δS = αi ηi (t) − dt. C.Q.F.D.
t1 i=1
∂xi dt ∂ ẋi
Mais comme on a 3N − k degrés de liberté, on peut faire varier les δxi indépendamment les
uns des autres. On en déduit
X
∂L d ∂L ∂fj
− + λj = 0, i = 1, ..., 3N − k. (2.74)
∂xi dt ∂ ẋi j
∂xi
En effet, comme L̃ ne dépend pas explicitement de λ̇j , les équations pour xi redonnent les 3N
premières équations, et les équations pour λj redonnent les k dernières.
Remarque 2.7.1 • Les λj sont des fonctions de t, et non des constantes comme dans le
problème des extremums liés.
• Ces équations sont valables dans dans tout système de coordonnées, et non pas simple-
ment en coordonnées cartésiennes.
Au début de ce chapitre, nous avons établi les équations de Lagrange avec l’objectif de
se débarasser des forces de contraintes. Il peut néanmoins être nécessaire de déterminer ces
forces de contraintes, par exemple pour évaluer la résistance d’un dispositif lors du mouvement
→
−
d’un système contraint. Mais si l’on décrit les contraintes par un champ de force R i , on peut
reproduire le raisonnement qui conduit aux équations de La grange à condition de garder 3N
coordonnées. Si les forces autres que les forces de contrainte dérivent d’un potentiel V , on en
déduit :
d ∂L ∂L
− = Rix
dt ∂ ẋi ∂xi
d ∂L ∂L
− = Riy (2.76)
dt ∂ ẏi ∂yi
d ∂L ∂L
− = Riz
dt ∂ żi ∂zi
La détermination des forces de contrainte peut se faire de deux façons, suivant que l’on peut
ou non inverser les k contraintes holonômes.
1er cas : supposons qu’on puisse inverser les k contraintes holonômes. Il existe donc un
changement de variables qj , j = 1,..., 3N , tel que qj , j = 1, ...., 3N − k soient les coordonnées
∂L ∂L
généralisées. Dans ce cas, dtd − = 0 pour j = 1, ..., 3N − k, et les seules composantes
∂ q̇j ∂qj
non nulles des forces de contraintes généralisées sont les Rj , j = 3N −k +1, ..., 3N . Pour calculer
ces composantes, il suffit alors de procéder de la façon suivante :
1. Calculer le lagrangien L(q1 , ..., q3N −k , t) en fonction des coordonnées généralisées. Résoudre
le problème en termes des 3N − k coordonnées généralisées qj (t), j = 1, ..., 3N − k.
2. Déterminer l’expression L̃(q1 , ..., q3N , t) du lagrangien en fonction de toutes les variables
qj , j = 1, ..., 3N .
!
d ∂ L̃ ∂ L̃
3. Calculer Rj = − pour j = 1, ..., 3N en utilisant la solution qj (t), j =
dt ∂ q̇j ∂qj
1, ..., 3N − k et les contraintes.
Exemple 2.8.1 Considérons un point matériel qui glisse à la surface d’un cylindre. Si le mou-
vement a lieu dans un plan perpendiculaire à l’axe Oz du cylindre, les coordonnées polaires
(r, θ) sont bien adaptées : la contrainte s’écrit r = a, et la seule coordonnées généralisées est θ.
1
1. L = ma2 θ̇2 − mga cos θ est indépendant du temps ⇒ T + V = constante.
2
1 1
2. L = mr2 θ̇2 + mṙ2 − mgr cos θ.
2 2
d ∂L ∂L
3. Rr = − = mr̈ − mrθ̇2 + mg cos θ
dt ∂ ṙ ∂r
= −maθ̇2 + mg cos θ car r̈ = 0.
Si à t = 0, θ = 0 et θ̇ = 0, on a
1 2 2
ma θ̇ + mga cos θ = mga,
2
⇒ Rr = −maθ̇2 + mg cos θ
= 2mg (cos θ − 1) + mg cos θ
2
= mg (3 cos θ − 2) Rr > 0 tant que cos θ > .
3
2
Au delà de θ = arccos la bille n’est plus en contact avec la sphère.
3
2eme cas :si l’on ne peut pas inverser les contraintes holonômes, il faut introduire des mul-
tiplicateurs de Lagrange. Les seconds membres des équations de Lagrange écrites à l’aide des
multiplicateurs de Lagrange correspondent aux composantes des forces de contrainte :
X ∂fj
Ri = λj .
j
∂qi
2.9
Principe de moindre action et contraintes plus générales Une contrainte holonôme
Dans certains cas, les contraintes s’écrivent directement comme des relations entre les vitesses,
mais sans que les coefficients soient reliés entre eux par le fait d’être des dérivées partielles.
Exemple 2.9.1 Une roue verticale roule sans glisser dans le plan horizontal.
(
ẋ − R cos φθ̇ = 0
La vitesse du point de contact doit être nulle : Un tel problème ne peut pas
ẏ − R sin φθ̇ = 0
se décrire à l’aide de fonctions fj . En effet, comme il n’y a pas de terme en φ̇, les fj devraient
être indépendantes de φ. Mais le coefficient de θ̇ dépend de φ.
ou encore
3N
X dxi
aji + aj0 = 0,
i=1
dt
soit
3N
X
aji dxi + aj0 dt = 0. (2.80)
i=1
Pour résoudre ce problème, il est traditionnel d’introduire des déplacements virtuels satisfaisant
3N
X
aji δxi = 0, (2.81)
i=1
l’idée étant que ces déplacements virtuels se font à temps constant (dt = 0), et de faire l’hy-
pothèse que l’action est extrémale vis-à-vis de ces déplacements virtuels. Le calcul fait pour les
contraintes holonômes se transpose sans aucune modification, et on obtient les équations :
d ∂L − ∂L = P λ aj , i = 1, ..., 3N
j j i
dt ∂ ẋi ∂xi (2.82)
3N j
P j
a ẋ
i=1 i i + a 0 = 0, j = 1, ..., k.
Contrainte : rθ̇ = ẋ
Remarque : Cette contrainte est intégrable et on pourrait aisément se débarrasser d’une va-
riable.
1 1
T = mẋ2 + mr2 θ̇2
2 2
V = mg(l − x) sin φ, l = longueur du plan incliné.
La contrainte se réécrit :rθ̇ − ẋ = 0 ⇒ aθ = r, ax = −1
L=T −V
∂L 2 d ∂L
= mr θ̇ ⇒ = mr2 θ̈
∂ θ̇
dt ∂ θ̇
∂L
=0
∂θ
∂L d ∂L
= mẋ ⇒ = mẍ
∂ ẋ
dt ∂ ẋ
∂L
= mg sin φ
∂x
rθ̇ = ẋ ⇒ rθ̈ = ẍ
(2.83) ⇒ mẍ = λ
g sin φ mg sin φ
(2.84) ⇒ ẍ = , λ=
2 2
g sin φ
θ̈ =
2r
( Calcul direct : rθ + C = x ⇒ on élimine θ.
2
T = mẋ g sin φ
⇒ 2mẍ = mg sin φ ⇒ ẍ = .
V = mg(l − x) sin φ 2
Les contraintes rencontrées dans le contexte des équations de Lagrange sont en général
du type précédemment évoqué. Mais on rencontre souvent des contraintes plus générales dans
d’autres contextes. En particulier, on doit souvent résoudre des problèmes qui consistent à
extrémaliser Z x2
F (x, y, y 0 )dx, (y(x1 ) = y1 , y(x2 ) = y2 )
x1
Sous la contrainte Z x2
f (x, y, y 0 )dx = c.
x1
Solution : Il suffit de résoudre le problème plus général de l’extrémalisation de l’intégrale de
G = F + λf où λ est une constante, puis de choisir λ tel que la contrainte soit satisfaite.
Démonstration 2.10.1 Considérons deux fonctions d’essai η1 (x) et η2 (x). La condition d’extrémalité
implique que la fonction
Z x2
φ(α1 , α2 ) = F (x, y + α1 η1 + α2 η2 , y 0 + α1 η10 + α2 η20 )dx (2.87)
x1
pour α1 = α2 = 0.
D’après le théorème des extrémums liés, cela implique qu’il existe λ tel que
∂φ ∂ψ
|α1 +0 + λ |α1 +0 = 0
∂α1 α2 =0 ∂α1 α2 =0 (2.89)
∂φ ∂ψ
|α1 +0 + λ |α1 +0 = 0
∂α2 α2 =0 ∂α2 α2 =0
R x2 d ∂F d ∂f ∂f
x1 0
+λ 0
− η1 (x)dx = 0
dx ∂y dx ∂y ∂y
soit (2.90)
R x2 d ∂F d ∂f ∂f
−
x +λ η2 (x)dx = 0.
1 dx ∂y 0 dx ∂y 0 ∂y
La première équation fixe λ. Comme η2 (x) est indépendant de η1 (x), la deuxième
R x2 implique que
G = F + λf satisfait l’équation d’Euler. Autrement dit, il existe λ tel que x1 G(x, y, y 0 )dx est
extrémal. La valeur de λ doit par ailleurs être ajustée pour que la contrainte soit satisfaite.
Exemple 2.10.1 Trouver la configuration d’un fil de masse linéique ρ et de longueur l fixé
entre deux points de même hauteur.
Solution :
Il faut minimiser l’énergie potentielle
Z x2 p
I[y] = ρ dxy 1 + y 02
x1
sous la contrainte Z x2 p
dx 1 + y 02 = l = 0.
x1
∂L y0
= (y + λ) .
∂y 0
p
1 + y 02
∂L
Remarque 2.10.1 Le lagrangien ne dépend pas de x. Du coup y 0 − L est une intégrale
∂y 0
première
y 02 1 + y 02
⇒ (y + λ) p − (y + λ) p = cste
1 + y 02 1 + y 02
y+λ
soit p =c
1 + y 02
(y + λ)2 = c2 (1 + y 02 )
(y + λ)2
⇒ y 02 = −1
x c2
⇒ y + λ = c cosh + c1 ”chaı̂nette”
c
En effet
x
y 0 = sinh + c1
c
2 x
⇒ y 02 = sinh + c1
cx
= cosh2 + c1 − 1
c
2
(y + λ)
= − 1.
c2
λ, c et c1 sont déterminés par les équations
y(x1 ) = y1
y(x ) = y
R x2 2 p 2
dx 1 + y 02 = l
x1
⇔ y + λ = c cosh xc + c1 .
˙ {2 1
1 z 0 }| 1
L(x , ẋ ) = m(x + v0 t) = mẋ02 + mẋ0 v0 + mv02 .
0 0
2 2 2
Heureusement, ces deux lagrangiens conduisent aux mêmes équations. C’est un cas particulier
de la remarque générale faite plus haut selon laquelle on peut ajouter une fonction du type
dF
(q, t) au lagrangien sans changer les équations du mouvement. En effet,
dt
1
L(x0 , ẋ0 ) − L0 (x0 , ẋ0 ) = mẋ0 v0 + mv02
2
d 0 1 2
= mv0 x + mv0 t .
dt 2
| {z }
F (x0 ,t)
Si l’on préfère travailler dans un système de coordonnées qui se rapportent à un référentiel non
galiléen, on peut procéder de deux façons :
1. Se placer dans ce référentiel, et inclure les forces d’inertie d’entraı̂nement et de Coriolis
dans le second membre des équations de Lagrange.
2. Écrire le lagrangien dans un référentiel inertiel, faire un changement de variables par
rapport aux nouvelles coordonnées, et écrire les équations de Lagrange habituelles. Les
forces d’inertie apparaissent automatiquement comme une conséquence du changement
de variables.
Le théorème de Noether, publié en 1918, peut être résumé en disant que pour chaque symétrie
continue du Lagrangien il y a une quantité conservée. Soit un système donné à N degrés de
liberté, associés aux coordonnées généralisées qi avec i = 1, ..., N . Le système est caractérisé par
un lagrangien L(qi , q̇i , t). Supposons que le lagrangien ne change pas après une transformation
des coordonnées qi −→ qi (s) qui dépende d’un seul paramètre s :
Autrement dit,
d
L(qi (s), q̇i (s), t) = 0 (2.92)
ds
En utilisant les équations de Lagrange, on peut réécrire cette dernière équation sous la forme
N
X ∂L ∂qi (s) ∂L ∂ q̇i (s) dL
Ċ = + = =0 (2.95)
i=1
∂qi ∂s ∂ q̇i ∂s ds
Ce que nous avons vu du formalisme lagrangien suffit amplement à traiter l’ensemble des
problèmes de la mécanique classique ( et relativiste). L’approche de Hamilton, que nous allons
développer dans la suite du cours, n’apporte rien de nouveau du point de vue contenu physique
. Mais elle offre un cadre théorique puissant permettant une interprétation géométrique de la
mécanique. C’est dans ce cadre que s’est développée la mécanique quantique et la physique
moderne (en particulier la théorie des champs) et c’est dans ce cadre également que s’étudient
tous les phénomènes de chaos.
Nous savons modéliser tout système à n degrés de liberté qk soumis à des forces conservatives,
grâce à un lagrangien L(qk , q̇k , t) = T − V . Dans cette formulation, q̇k = dq dt
et donc dépend à
∂L
priori de qk , de même que l’impulsion généralisée pk = .
∂ q̇k
Mais en fait, l’expression q̇k (t) dépend de sa valeur initiale qui est indépendante des qk .
L’état complet d’un système dépend ainsi des positions ~q(t = 0) et des vitesses
dotvecq(t = 0) initiales qui sont, elles, totalement indépendantes les unes des autres. C’est notre
formalisme de la mécanique qui a créé ce lien, les qk et les pk étant, en définitive, deux jeux de
coordonnées indépendantes.
Imaginons par exemple que nous voudrions connaı̂tre tous les comportements possibles d’un
système dynamique : il suffit pour cela de spécifier de façon indépendante les positions et les
vitesses initiales. Cela peut se faire aisément dans le formalisme lagrangien, mais n’aurait-on pas
plutôt intérêt à formuler la mécanique de telle sorte que qk et pk soient d’emblée indépendants ?
Travailler sur certaines variables puis en changer pour d’autres plus pertinente ( tout en
conservant la notion de différentielle totale) est une démarche courante en thermodynamique :
on appelle cela faire une transformée de Legendre. On cherche ainsi à obtenir une fonction
g(q, p, t) construite à partir de L(q, q̇, t). La façon la plus simple est de chercher une fonction h
triviale, telle que
g(q, p, t) = L(q, q̇, t) + h(q, q̇, p, t)
40
3.2. ÉQUATIONS CANONIQUES DE HAMILTON Mécanique Analytique
On reconnaı̂t alors, au signe près, l’intégrale première obtenue dans le formalisme lagrangien et
associée à la translation dans le temps. On choisit donc pour nouvelle fonction, l’expression
X
H(q, p, t) = pk q̇k − L (3.1)
k
dH X ∂L ∂L
∂L
= ṗk q̇k + pk q̈k − q̇k − q̈k −
dt k
∂qk ∂ q̇k ∂t
X ∂L ∂L
= − q̇k + q̇k ṗk −
k
∂qk ∂t
∂L
ce qui, par identification et puisque ṗk = ( équations de Lagrange), donne les équations
∂qk
suivantes
∂H
q̇k =
∂pk (3.2)
∂H
ṗk = −
∂qk
Ce jeu d’équations est appelé équations canoniques de Hamilton (canoniques car simples
et symétriques). Elles découlent directement des équations de Lagrange et de la définition du
hamiltonien. Nous avons remplacé N équations différentielles du second ordre (Lagrange) par
2N équations différentielles du premier ordre (Hamilton), ce qui est un gain appréciable en
termes de résolution mathématique ! On peut donc choisir de résoudre un problème mécanique
en utilisant le formalisme hamiltonien. Pour cela, il faut
1. Établir le lagrangien L(q, q̇, t) = T (q, q̇, t) − V (q, q̇, t)
∂L
2. Calculer les moments conjugués pk =
∂ q̇
Xk
3. Calculer le hamiltonien H(q, p, t) = pk q̇k − L
k
4. Résoudre les 2N équations canoniques de Hamilton.
L’ensemble des propriétés de symétrie et des lois de conservation vérifiées par le lagrangien se
retrouvent dans le hamiltonien. Le formalisme hamiltonien apparaı̂t cependant particulièrement
∂H
adapté au traitement des coordonnées cycliques : si qi est cyclique, c’est-à-dire si = 0, alors
∂qi
pi est intégrale première.
Enfin, le hamiltonien obéit à l’équation suivante
dH ∂H ∂L
= =− (3.3)
dt ∂t ∂t
et, on l’a vu, se confond avec l’énergie (pertinente) totale du système H = E = T + V pour des
systèmes fermés (autonomes) et V (q).
Le principe de Hamilton stipule que l’action est stationnaire (δS = 0) lors d’une variation des
chemins δq et δp entre deux points fixes. La variation d’action est (pour N = 1 pour alléger
l’écriture)
Z Z
dq
dS = δ (pq̇ − H)dt = δpq̇ + pδ − δH dt
dt
Z
d(δq) ∂H ∂H
= q̇δp + p − δq − δp dt
dt ∂q ∂p
Z
∂H ∂H
= q̇ − δp − ṗ + δq dt + [pδq]21
∂p ∂q
où le dernier terme est nul puisque tous les chemins passent par les extrémités. Ainsi, une action
extrémale pour des variations δq et δp indépendantes correspond aux équations suivantes
∂H
q̇ =
∂p
∂H
ṗ = −
∂q
qui sont bien les équations de Hamilton. On remarque accessoirement que les termes ”coor-
données” et ”moments” sont trompeurs car ils semblent donner plus d’importance aux coor-
données, alors que dans le formalisme hamiltonien les q et les p jouent un rôle équivalent.
Nous avons tout d’abord montré (chapitre 1) que tout système mécanique ayant N degrés de
liberté q, soumis ou non à des contraintes holonômes, sur lequel s’exercent des forces conserva-
tives peut être décrit par un lagrangien L(q; q̇, t). Les équations de la dynamique sont constituées
de N équations différentielles du second ordre, les équations de Lagrange. L’état du système à un
instant donné t est décrit par un point dans l’espace des configurations (dim N ). On vient de voir
que l’on peut remplacer ces équations par les équations canoniques de Hamilton, 2N équations
différentielles du premier ordre seulement, portant sur le hamiltonien H(q, p, t) = pq̇ − L. L’état
complet du système à un instant donné t est alors défini par un point dans l’espace des phases
(dim 2N ). Ces deux approches sont parfaitement équivalentes, elles découlent toutes deux du
même principe variationnel (chapitre 2). Mais la simplicité même des équations canoniques de
Hamilton
∂H
q̇k =
∂pk
∂H
ṗk = −
∂qk
suggère une méthode générale de résolution des problèmes mécaniques pour des systèmes dont
les forces dérivent d’un potentiel (même généralisé).
En effet, rechercher l’évolution temporelle d’un système est équivalent, dans
le formalisme hamiltonien, à faire un changement de coordonnées (p, q) −→ (P, Q)
dans l’espace des phases. Envisageons deux cas pour se convaincre de ceci. Soit H 0 (Q, P, t) le
nouvel hamiltonien exprimé avec les nouvelles variables. Supposons que l’on trouve des variables
telles que H 0 = 0 (alors que H(q, p, t) 6= 0). D’après les équations canoniques de Hamilton on
aurait alors
∂H 0
Q̇k = =0
∂Pk
∂H 0
Ṗk = − =0
∂Qk
ce qui implique que toutes les Q ainsi que les P sont des invariants. Un système à N degrés
de liberté aurait ainsi 2N invariants ! Cela paraı̂tre étrange mais c’est effectivement toujours le
cas : ce sont les 2N conditions initiales. Ainsi, notre changement de variable (p, q) −→ (P, Q)
permet, après inversion, d’exprimer
qk (t) = qk (Q, P, t) = qk (q1 (0), ..., qN (0), p1 (0), ..., pN (0), t)
pk (t) = pk (Q, P, t) = pk (q1 (0), ..., qN (0), p1 (0), ..., pN (0), t)
D’un point de vue géométrique, cela signifie que nous avons fait un changement de coordonnées
qui, à un point de l’espace des phases caractérisé par le paramètre t = 0, associe un nouveau
point de paramètre t. Le problème consiste à trouver ce fameux changement de variables...
Dans l’exemple ci-dessus, le hamiltonien peut dépendre explicitement du temps. Considérons
maintenant le cas plus simple d’un système conservatif H = H(q, p). Si l’on trouve de nouvelles
variables (Q, P ) telles que H 0 = H 0 (P ), autrement dit telles que les Q soient toutes cycliques,
alors les équations de Hamilton donnent
∂H 0
Ṗk = − =0
∂Qk
∂H 0
Q̇k = = ωk (P )
∂Pk
Cela signifie que les N nouveaux moments Pk spnt des invariants tandis que l’évolution tem-
porelle des Qk est triviale
Qk = ωk (P )t + Qk,0
Il suffit ensuite d’exprimer (q, p) en fonction de (Q, P ) pour avoir l’évolution temporelle des
anciennes coordonnées.
Cette approche géométrique est connue sous le nom de théorie de Hamilton-Jacobi. Nous
verrons au chapitre suivant sur les systèmes hamiltoniens que chercher un changement de va-
riables tel que
i. H 0 = 0, nous conduit à l’équation de Hamilton-Jacobi ;
ii. toutes les Q sont cycliques, nous conduit aux variables canoniques d’angles et
d’action. Mais le raisonnement que nous avons suivi ne tient que si, avec les
nouvelles variables, on peut encore écrire
∂H 0
Q̇k =
∂Pk
∂H 0
Ṗk = −
∂Qk
autrement dit, qu’à la seule condition que la structure formelle des équations
de Hamilton soit conservée. Avant donc d’aborder la manière de rechercher les
”bons” changements de variables, il faut nous munir d’outils permettant de ma-
nipuler des grandeurs quelconques dans l’espace des phases : transformations
canoniques et crochets de poisson.
Qi = Qi (qk , pk , t)
Pi = Pi (qk , pk , t)
Avec ne nouveau jeu de variables, on doit pouvoir écrire de nouvelles équations de Hamilton,
portant sur un nouvel hamiltonien H 0 (P, Q, t). Or, cet hamiltonien décrit le même système
physique que H(q, p, t) et donc, obéit au même principe variationnel,
Z Z Z
δS = δ Ldt = δ (pk q̇k − H)dt = δ (Pk Q̇k − H 0 )dt
H et H 0 viennent donc du même lagrangien, à une dérivée totale par rapport au temps près,
c’est-à-dire
dG
H 0 = H + Pk Q̇k − pk q̇k + (3.6)
dt
Définition 3.6.1 Une transformation canonique est une transformation de contact satisfaisant
la condition (3.6). On appelle G la fonction génératrice de la transformation canonique, définie
sur l’espace des phases du système.
Or, ici nous sommes supposés savoir exprimer Q en fonction de (q, P, t), on peut donc en théorie
éliminer le terme P dQ. Pour cela, il suffit de prendre pour fonction génératrice la fonction
G = G2 − P Q, ce qui revient à prendre la transformée de Legendre de G2 . On obtient alors
∂G2
p =
∂q
∂G2
Q =
∂P
∂G2
H0 = H +
∂t
pour G3 (p, Q, t) + pq,
∂G3
P = −
∂Q
∂G3
q = −
∂p
∂G3
H0 = H +
∂t
et pour G4 (p, P, t) + pq − P Q
∂G4
q = −
∂p
∂G4
Q =
∂P
0 ∂G4
H = H+
∂t
Remarque 3.6.1 1. Si l’on désire que H 0 soit un invariant, on choisira des fonctions
∂G
génératrices telles que = 0.
∂t
2. Même si l’on ne trouve pas des nouvelles coordonnées où toutes les Qi sont cycliques, il
est avantageux de rechercher celles qui en offrent le maximum.
fournit
∂G2 X ∂fi
pk = = Pi
∂qk i
∂qk
∂G2
Qk = = fk (q, t)
∂Pk
∂G2
H0 = H +
∂T
engendre une transformation ponctuelle puisque les nouvelles coordonnées Qk ne dépendent
pas des moments. Les fi étant arbitraires, on en déduit que toute transformation ponctuelle est
canonique (ce qui n’était pas évident).
Échange du rôle
Soit la transformation X
G1 = qi Qi (3.9)
i
3.7.1 Définition
Une nouvelle opération
Soit une fonction f (q, p, t) définie dans l’espace des phases. Sa dérivée par rapport au temps
est
df X ∂f ∂f
∂f
= q̇k + ṗk +
dt k
∂qk ∂pk ∂t
Remplaçant q̇k et ṗk par les équations de Hamilton, on obtient une nouvelle expression qui peut
se mettre sous la forme compacte
df ∂f
= {f, H} + (3.10)
dt ∂t
où l’on a introduit la notation suivante, appelée crochet de Poisson pour H et f ,
X ∂f ∂H ∂f ∂H
{f, H} = − (3.11)
k
∂q k ∂pk ∂pk ∂qk
Établie à partir des équations de Hamilton, l’équation (3.10) porte en elle la même information
sur la dynamique d’un système. Mais l’intérêt essentiel de l’équation (3.10) réside dans le calcul
df
des intégrales premières. En effet, si f est une intégrale première, = 0 et f doit donc vérifier
dt
∂f
{f, H} + =0 (3.12)
∂t
Si f = f (q, p) ne dépend pas explicitement du temps (ce qui est toujours vrai pour des systèmes
autonomes), alors la condition pour être une intégrale première se ramène à
{f, H} = 0 (3.13)
Ainsi, une façon de vérifier si une expression quelconque des variables dynamiques est un
invariant est de calculer son crochet de Poisson avec le hamiltonien. Les crochets de Poisson nous
offrent donc un test général pour la recherche et l’identification des constantes du mouvement.
Définition générale
Soient deux fonctions f (q, p) et g(q, p) quelconques définies dans l’espace des phases, les crochets
de Poisson sont par définition
X ∂f ∂g ∂f ∂g
{f, g} = − (3.14)
k
∂qk ∂pk ∂pk qk
A partir de cette définition générale, on peut construire des crochets dits fondamentaux, en
prenant pour fonctions f et g les variables qk et pk . On obtient alors les relations suivantes
P ∂pi ∂pj ∂pi ∂pj
{pi , pj } = k − =0
∂qk ∂pk ∂pk ∂qk
{qi , qj } = 0
(3.15)
∂q ∂p ∂q ∂p
P i j i j P
{qi , pj } = k −
= k δik δjk = δij
∂qk ∂pk ∂pk ∂qk
3.7.2 Propriétés
Tout un ensemble de propriétés découlent de la définition même des crochets de Poisson :
{f, g} − {g, f }
= (3.16)
{f, c} =
0 où c est une constante (3.17)
{f1 + f2 , g} {f1 , g} + {f2 , g}
= (3.18)
{f1 f2 , g} f1 {f2 , g} + f2 {f1 , g}
= (3.19)
∂ ∂f ∂g
{f, g} = , g + f, (3.20)
∂t ∂t ∂t
∂f
{f, qi } = − (3.21)
∂pi
∂f
{f, pi } = (3.22)
∂qi
Enfin, il est aisé (bien que pénible) de vérifier que les crochets de Poisson satisfont l’identité de
Jacobi
{f, {g, h}} + {h, {f, g}} + {g, {h, f }} = 0 (3.23)
Une application importante résulte directement de cette identité. En effet, soient deux fonctions
quelconques f et g définies dans l’espace des phases. on a d’après (3.10)
d ∂
{f, g} = {{f, g} , H} + {f, g}
dt ∂t
∂
= {f, {g, H}} + {g, {H, f }} + {f, g}
∂t
dg ∂g df ∂f ∂
= f, − − g, − + {f, g}
dt ∂t dt ∂t ∂t
df dg
= , g + f,
dt dt
Théorème 3.7.1 (Théorème de Poisson) Le crochet de Poisson de deux invariants est lui-
même un invariant.
La démonstration est au-dessus : si f et g sont des invariants alors
df dg d
= = 0 et donc {f, g} = 0.
dt dt dt
Note : Cette méthode pour trouver de nouveaux invariants a cependant ses limitations, car on
tombe souvent sur des fonctions triviales sans intérêt.
démontre (3.24) pour des grandeurs ne dépendant pas explicitement du temps, le théorème sera
également vrai dans le cas général (puisqu’il s’agit d’une propriété indépendante du temps).
Par ailleurs, on peut toujours considérer que g est formellement le hamiltonien d’un système
fictif. En vertu de l’équation (3.10) on obtient alors
(pour g = H)
df
= {f, H}q,p
dt
Or, le taux de variation de f ne peut dépendre du système de coordonnées choisi. Cela implique
donc {f, g}q,p = {f, g}Q,P . On ne mettra donc plus les indice q, p aux crochets.
Regardons ce que cela implique. Soit une transformation canonique
q = q(Q, P ) et p = p(Q, P ). Les crochets de Poisson de deux fonctions quelconques s’écrivent
X ∂f ∂g ∂f ∂g
{f, g}q,p = −
k
∂q k ∂pk ∂pk ∂qk
X ∂f X ∂g ∂Qi !
∂g ∂Pi ∂f X ∂g ∂Qi ∂g ∂Pi
= + − +
k
∂q k i ∂Q i ∂pk ∂P i ∂pk ∂p k i ∂Q i ∂qk ∂Pi ∂qk
X ∂g X ∂f ∂Qi
∂f ∂Qi X ∂g X ∂f ∂Pi ∂f ∂Pi
= − + −
i
∂Q i
k
∂q k ∂p k ∂p k ∂q k i
∂P i
k
∂q k ∂p k ∂pk ∂qk
X ∂g X ∂g
= {f, Qi }q,p + {f, Pi }q,p
i
∂Q i i
∂P i
Cette dernière relation va nous être très utile. En remplaçant f par Qi et g par f , on obtient
X ∂f X ∂f
{f, Qi }q,p = − {Qi , f }q,p = − {Qi , Qj }q,p − {Qi , Pj }q,p
j
∂Q j j
∂P j
où l’on reconnaı̂t des crochets fondamentaux. La condition (3.24) s’applique évidemment aux
crochets fondamentaux, ce qui fournit
On obtient ainsi
∂f
{f, Qi }q,p = −
∂Pi
∂f
{f, Pi }q,p =
∂Qi
ce qui nous fournit bien
X ∂g ∂f X ∂g ∂f
{f, g}q,p = − + = {f, g}Q,P
i
∂Qi ∂Pi i
∂Pi ∂Qi
Ainsi, on voit qu’il suffit que les crochets fondamentaux de Poissons soient des invariants cano-
niques (ie. laissés invariants lors d’une transformation canonique) pour que cela reste vrai pour
des fonctions f et g quelconques. On peut donc ériger en théorème la proposition suivante.
Théorème 3.7.3 Une transformation sera canonique si elle vérifie (3.24) pour des fonctions
f et g quelconques ou si, de manière équivalente, les relations (3.25) sont satisfaites.
où les δqi et δpi ne sont pas des variations au sens du calcul variationnel mais des modifications
élémentaires. Soit la transformation canonique infinitésimale
Qi = qi + δqi
Pi = pi + δpi
où est un petit paramètre et F une fonction encore inconnue. Or, G doit être une transfor-
mation canonique, elle vérifie donc (en posant G̃ = G − P Q)
quelles que soient les variations des Pi et des qi . On obtient ainsi les relations
∂G ∂F
pi = = Pi +
∂qi ∂qi
∂G ∂F
Qi = = qi +
∂Pi ∂Pi
H0 = H
d’où
∂F
δpi = Pi − pi = −
∂qi
∂F ∂F
δqi = Q i − qi = ' (3.27)
∂Pi ∂pi
1. Ce faisant, nous allons généraliser le théorème de Noether de la même manière q’une transformation de
contact généralise la notion de transformation ponctuelle
Ces expressions doivent être toutes du premier ordre en , ce qui était bien le cas pour δpi , alors
que δqi mettait en jeu une dérivation par rapport à Pi . On voit donc qu’il suffit de se donner
une fonction F (q, p), dépendant des anciennes variables, pour engendrer une transformation
canonique infinitésimale de paramètre . Fort de ce résultat, on obtient que au premier ordre
X ∂f ∂F ∂f ∂F
δf = −
i
∂qi ∂pi ∂pi ∂qi
= {f, F }
L’opération {f, F } a donc une signification précise : δf est la modification apportée à la fonc-
tion f lors d’un changement infinitésimal de coordonnées canoniques, de fonction génératrice
F . Cette transformation infinitésimale est caractérisée par un unique paramètre .
Relation avec les invariants d’un système
Théorème 3.7.4 Les constantes du mouvement d’un système autonome sont les fonctions
génératrices des transformations canoniques infinitésimales qui laissent H invariant.
Soit G une transformation canonique quelconque (ne dépendant pas explicitement du temps).
Si on a
{H, G} = 0 (3.28)
alors, cela signifie d’après l’équation (3.10) que G est une intégrale première. Mais en vertu de
la relation précédente, cela signifie aussi que δH = 0, autrement dit, que G laisse H invariant.
Ce que nous savions déjà grâce à Lagrange apparaı̂t ici comme un cas particulier d’un
ensemble très vaste de transformations canoniques possibles.
Exemple 3.7.1 translation dans le temps
Nous avons vu que le hamiltonien H d’un système est invariant si ce dernier est symétrique par
translation dans le temps. Prenons donc F = H et regardons ce que cela implique. les relations
(3.27) deviennent
∂H
δpi = − = ṗi
∂qi
∂H
δqi = = q̇i
∂pi
ce qui indique que = dt. Ainsi, le hamiltonien d’un système est bien le générateur d’une
translation infinitésimale dans le temps, faisant passer celui-ci de l’instant t à l’instant t + dt.
En conséquence, le mouvement d’un système entre deux instants t1 et t2 peut être
décrit par une succession de transformations canoniques infinitésimales dont le
générateur est H.
Exemple 3.7.2 translation d’un qi
Nous avons vu aussi que si une variables qk est cyclique (ex : invariance par translation dans
une direction, rotation autour d’un axe, mais cela peut être plus général), alors le moment
conjugué pi est un invariant.
Prenons F = pk , les relations (3.27) deviennent
∂pk
δpi = − =0
∂qi
∂pk
δqi = = δik
∂pi
ce qui montre que pk est bien le générateur d’une translation dans la direction qk d’une quantité
L’impulsion est le générateur du mouvement de translation du système, tandis que le moment
cinétique celui de rotation.
Nous avons vu que l’état complet d’un système à un instant donné t est un oint x(q1 , ..., qN , p1 , ..., pN )
dans un esoace ) 2N dimensions appelé l’espace des phases. Cet espace n’a pas la structure d’un
espace vectoriel (c’est une variété différentiables, une classe d’équivalence d’atlas). L’espace des
phases va nous permettre d’appréhender tout un ensemble de propriétés formelles des systèmes
dynamiques et d’en tirer des interprétations géométriques simples.
où le vecteur
∂H
= ∂~
t p
gH ∂H
−
∂~q
représente le ”champ de vitesses” au point x. En résolvant les équations de Hamilton, on dessine
une trajectoire dans l’espace des phase, de la même manière qu’on le ferait en suivant de proche
t
en proche le vecteur vitesse dans un espace euclidien. On appelle gH le flot hamiltonien, par
analogie avec la mécanique des fluides. Le flot hamiltonien a une structure de groupe (loi interne,
associativité, élément neutre, inverse).
Théorème 3.8.1 Théorème de Cauchy (non démontré) Pour des conditions initiales données
ẋ0 = ẋ(t = t0 ), la solution ẋ(t) de l’équation (3.29) existe et est unique pour un temps t fini.
Ce théorème n’est valable que pour des positions dites ” non singuliers” de l’espace des phases.
Un point hyperbolique est un exemple de point singulier.
Conséquences :
1. Deux trajectoires dans l’espace des phases ne peuvent se couper. Attention : un point
commun à deux trajectoires signifie le même point de l’espace des phases au même
instant. Si c’était le cas, alors cela signifierait que deux conditions initiales différentes
conduiraient à un même état commun, ce qui est en contradiction avec l’unicité des
solutions. A noter que cela ne concerne pas les trajectoires associées à des temps de
parcours infinis.
2. Il est difficile de représenter un espace à plus de 2 dimensions (n = 1). Lorsqu’on le fait,
on fait une projection et on peut alors y observer des trajectoires qui se coupent.
Théorème 3.8.2 Un volume V quelconque de l’espace des phases est conservé par le flot ha-
t
miltonien gH , c’est-à-dire
dV
=0 (3.30)
dt
Soit un point quelconque de V . Lors d’une évolution temporelle, ce point va suivre une tra-
jectoire précise dans l’espace des phases, imposée par les équations canoniques de Hamilton. Il
en va de même pour tous les autres points appartenant à V . On va donc assister , entre les
instants initial et final, à une déformation de V , analogue à celle d’un élément de fluide pris
dans un écoulement. Le théorème ci-dessus stipule simplement que la déformation due au flot
hamiltonien conserve le volume (écoulement incompressible).
Nous avons déjà vu que la variation de p et q au cours du mouvement peut être considéré
comme une transformation canonique. Donc, montrer que le volume V reste invariant par le
flot hamiltonien,revient à montrer que le volume est un invariant canonique.
L’espace des phases étant un espace à 2N dimensions, le produit de différentielles
peut
R Rêtre considéré comme un élément infinitésimale de volume et le volume V s’écrit V =
··· dq1 ...dqN dp1 ...dpN . Pour N = 1, V est en fait une surface, tandis que pour N ≥ 2, v est
un hypervolume. C’est un invariant canonique si
Z Z Z Z
V = · · · dq1 ...dqN dp1 ...dpN = · · · dQ1 ...dQN dP1 ...dPN
Z Z
= · · · Jdq1 ...dqN dp1 ...dpN
où
∂Q1 ∂QN ∂P1 ∂PN
... ...
∂q1 ∂q1 ∂q1 ∂q1
∂ (Q1 , ..., QN , P1 , ..., PN ) . .. .. ..
J= = .. . . . . . ... .
∂ (q1 , ..., qN ; p1 , ..., pN )
∂Q1 ∂QN ∂P1 ∂PN
... ...
∂pN ∂pN ∂pN ∂pN
est le déterminant de Jacobi ou jacobien. La démonstration du théorème revient à démontrer
J = 1 pour toute transformation canonique. La manipulation des jacobiens jouit de certaines
propriétés. On peut en particulier réécrire J sous la forme
∂(x, y, a) ∂(x, y)
Par ailleurs, on peut réduire le rang d’un jacobien si = est vérifié. Dans notre
∂(u, v, a) ∂(u, v)
cas, on obtient
∂ (Q1 , ..., QN )
|P =cst
∂ (q1 , ..., qN ) J1
J= =
∂ (p1 , ...,N ) J2
|q=cst
∂ (P1 , ..., PN )
où J1 = det (A) et J2 = det (B), les matrices A et B étant définies par
∂Qi ∂pi
Aij = et Bij =
∂qj ∂Pj
Si on choisit comme fonction génératrice de la transformation canonique G2 (q, P ), on a les
relations suivantes
∂G2
Qi =
∂Pi
∂G2
pi =
∂qi
ce qui fournit
∂ 2 G2 ∂ 2 G2
Aij = et Bij =
∂qj ∂Pi ∂Pj ∂qi
Ainsi, B = t A est la matrice transposée de A et det(B) = det(A), autrement dit J = 1.
Invariants intégraux de Poincaré
Soit la grandeur suivante ZZ X
I1 = dqi dpi
i
où l’intégration s’effectue sur une surface à 2 dimensions S quelconque (en fait une variété) de
l’espace des phases. On peut démontrer très facilement que I1 est un invariant canonique. Soient
deux coordonnée u et v indépendantes, permettant de caractériser tout point appartenant à
la surface S. Pour tous indices i et k nous sommes capables d’effectuer les changements de
variables suivants
qi = qi (u, v)
pi = pi (u, v)
Qk = Qk (u; v)
Pk = Pk (u, v)
où les variables (Q, P ) sont reliés aux (q, p) par une transformation canonique. L’invariance
canonique de I1 est assurée dès lors que
ZZ X ZZ X
I1 = dqi dpi = Ji dudv
i
ZZ X Z Z iX
= dQk dPk = J0k dudv
k k
où l’intégration s’effectue sur une hypersurface S de dimension 4 (ce qui suppose un espace des
phases de dimension 2N avec N ≥ 2). Dans ce cas, il faut 4 coordonnées indépendantes pour
caractériser un point de S et on reproduit la même démonstration que ci-dessus.
D’une façon générale, Poincaré a montré que toutes les intégrales de la forme
Z Z Z Z X
Is = ··· dqi dpi (3.31)
i
étendues à des variétés S à 2s dimensions sont des invariants canoniques, dans un espace des
phases à 2N dimensions (n ≥ s).
Remarque 3.8.1 La conservation du volume n’est qu’un cas particulier, obtenu pour s = n.
Ce n’est d’ailleurs que pour ce cas là que l’on n’est pas obligé de passer par des variables
intermédiaires (comme u et v), puisque tous les qi et pi sont mis en jeu (ce qui simplifie la
démonstration comme on l’a vue).
Soit dN le nombre d’états contenus dans le volume dV de l’espace des phases. Nous avons vu
que dV est un invariant canonique, ce qui signifie qu’il reste constant lors de l’évolution du
système. Par ailleurs, le nombre d’états dN reste également constant, car aucune trajectoire
ne peut traverser la surface frontière définissant le volume dV . En effet, si c’était le cas, alors
deux conditions initiales différentes mèneraient au même état (celui situé à la frontière), ce qui
dN
est en contradiction avec l’unité des solutions. Le quotient est donc une constante.
dV
Le théorème de Liouville a surtout une importance en physique statistique, où le nombre de
particules N est très grand. L’évolution temporelle de la densité d’états (i.e densité de particules
dans un état donné) s’écrit
∂D dD
= − {D, H} = {H, D}
∂t dt
c Vincent MONWANOU 58 IMSP / DANGBO
3.9. SYSTÈMES INTÉGRALES Mécanique Analytique
A l’équilibre statistique, le nombre de particules dans un état donné doit être constant. Comme
∂D
dV reste également constant, on obtient = 0 c’est-à-dire
∂t
{H, D} = 0 (3.32)
Pour assurer alors l’équilibre statistique, il suffit de choisir D comme fonction des constantes
du mouvement.
Exemple 3.8.1 Ainsi l’ensemble microcanonique est obtenu pour D = D0 δE0 , c’est-à-dire une
constante pour une énergie donnée E0 , nulle sinon.
Définition 3.9.1 Un système est dit intégrable si l’on peut caractériser qualitativement son
comportement (les trajectoires) dans l’espace des phases.
La troisième propriété est assez contraignante. Les intégrales premières sont en involution
si
{Ii , Ij } = 0 ∀i, j ≤ N (3.33)
autrement dit si Ii reste constante le long du flot gItj . Cela fournit N (N − 1)/2 relations en
tout, ce qui pour N > 2 est plus contraignant que les N − 1 relations. Pour N = 2, la condition
d’involution est équivalente à celle d’indépendance.
Une conséquence immédiate de ce théorème est que tout système conservatif à 1 degré de
liberté est intégrable. A plus de dimensions, les systèmes intégrables sont l’exception plutôt que
la règle.
61
4.1. L’ÉQUATION DE HAMILTON-JACOBI Mécanique Analytique
Remarque 4.1.1 Cette approche reste valable même si le hamiltonien de départ H(p, q, t)
dépend explicitement du temps.
où L est le lagrangien du système, lui même étant la dérivée totale de l’action S par rapport au
temps. La fonction principale de Hamilton n’est autre que l’action hamiltonienne, définie par
Z t2
S(q, t; P ) = Ldt (4.3)
t1
L’action hamiltonienne n’est pas tout à fait l’action S(q) que nous avions introduit avec le
principe variationnel, à savoir Z t2
S(q) = Ldt
t1
Au chapitre 2, l’action était vue comme une fonctionnelle des chemins q, rendue extrémale
par la trajectoire réelle entre deux points fixes q1 (t1 ) et q2 (t2 ). Ici, l’action hamiltonienne S =
S(q, P ; t) dépend aussi du temps (et des conditions initiales). On peut donc la voir comme une
fonctionnelle des chemins q où seul le point de départ est maintenu fixe.
Mais si on laisse le point d’arrivée libre, on perd une contrainte par rapport au calcul varia-
tionnel effectué au chapitre 2. Il faut donc la remplacer par une autre. Dans notre dérivation de
l’équation de Hamilton-Jacobi, nous avions imposé que notre changement de variables conser-
vait les équations de Hamilton. Or celles-ci sont équivalentes aux équations de Lagrange. Il est
donc normal d’être obligé de réutiliser cette information.On va donc exiger que chaque chemin
suivi soit une trajectoire possible mais aboutissant à un point d’arrivée laissé libre.
Principe variationnel
Démontrons cette conjecture, à savoir que l’équation de Hamilton-Jacobi découle bien d’un
principe variationnel, mais construit avec l’action hamiltonienne.
Soit l’action écrite sous la forme suivante
Z t2
S(q, t, q1 , t1 ) = L(q, q̇, t)dt
t1
On part d’un point fixe dans l’espace des configurations, mais le point d’arrivée est laissé libre.
Par contre, on suit la trajectoire réelle (et pas des chemins virtuels), ce qui signifie que qi (t)
doit obéir aux équations de Lagrange. La différentielle totale de l’action est par définition
X ∂S ∂S
dS = dqi + dt = Ldt (4.4)
i
∂qi ∂t
Le premier terme correspond à une variation δSt de l’action à t constant, donc ce dont nous
avons déjà l’habitude. Évaluons-le en faisant une variation des trajectoires δ~q = ~η , telles que
δ~η (t1 ) = ~0. La variation δSt associée est alors
X ∂S Z t
∂St = |t δqi = δLdt
i
∂q i t1
Z tX Z tX
∂L ∂L d ∂L
= δqi + δ q̇i dt = δqi dt
t1 i ∂qi ∂ q̇i t1 i dt ∂ q̇i
X ∂L X
= δqi = pi δqi
i
∂ q̇ i i
∂S
= pi (4.5)
∂qi
Repartant de la différentielle totale de l’action, on obtient
X ∂S
dS = pi dqi + dt = Ldt
i
∂t
X ∂S
L = pi q̇i +
i
∂t
∂S ∂S
0 = H(qi , , t) + (4.6)
∂qi ∂t
qui est bien l’équation de Hamilton-Jacobi.
∂S
pk = (4.7)
∂qk
∂S
Qk = (4.8)
∂Pk
Les équations (4.7) sont valables à tout instant. Ces N équations fournissent à t = 0 un lien
entre les conditions initiales et les Pk . On connaı̂t donc, en principe, la valeur des Pk et par
∂S
conséquent de . Par construction les Qk sont aussi des invariants. Les N équations (4.8)
∂Pk
fournissent également à t = 0 un lien entre les Qk et les conditions initiales, permettant à
connaı̂tre ces Qk . On a presque fini : les expressions entre pk (t) sont alors fournies par (4.7)
tandis que les qk (t) sont obtenues en inversant le système des N équations (4.8). En pratique
cependant, on utilise une autre façon de calculer des qk (t), mettant en jeu la résolution de N
ODE du premier ordre (voir les applications). On a remplacé les 2N ODE du premier ordre
de Hamilton par la résolution d’une PDE (équation aux dérivées partielles) du premier ordre
en temps, non linéaires (si S1 et S2 sont solutions, S1 + S2 ne l’est pas), suivie ensuite par la
résolution de N ODE du premier ordre et N inversions. Ce n’est pas forcément un gain, car la
résolution d’une PDE est en général très difficile mathématiquement. Concrètement, seuls les
systèmes séparables seront intéressants pour cette méthode.
∂S 0 ∂S 0
dS1
Φn qi , , t, , F1 q1 , =0
∂qi ∂t dq1
qui doit être vérifiée quel que soit q1 . Cela implique que les termes ne dépendant que de q1 sont
constants, cest-à-dire
dS1
F1 q 1 , = α1
dq1
∂S 0
Φn−1 qi , , t; α1 = 0
∂qi
La première équation se résout sans problème (ODE du premier ordre), tandis que nous avons
diminué de un le nombre de variables intervenant dans la seconde. Il faut espérer pouvoir
continuer cette tactique le plus longtemps possible.
Dans le cas particulier où le système est conservatif, le temps n’intervient pas explicitement
∂S
dans le hamiltonien, H = E et l’équation de Hamilton-Jacobi peut se lire = −E, qui
∂t
s’intègre facilement et fournit
S(q, t; P ) = S0 (q; P ) − Et (4.11)
La nouvelle fonction S0 (q; P ) est parfois appelée fonction caractéristique de Hamilton.
Elle est déterminée par
∂S0
H(qi , )=E
∂qi
√
c’est-à-dire S(q; P ) = ± 2mEq − Et. La fonction principale engendre une transformation
canonique où toutes les variétés sont cycliques,c’est-à-dire Ṗ = 0, Q̇ = 0, donc des invariants.
L’invariant évident ici est E. Si on choisi P = E, alors la nouvelle coordonnées est
r
∂S m
Q= =± q−t
∂E 2E
ce qui, par inversion, fournit r
2E
q= (q ± Q)
m
Le signe ± est imposé par les conditions initiales.
Une deuxième méthode, plus rapide, consiste à utiliser le lagrangien. En effet,
∂L ∂S dS0 √
p= = mq̇ = = = ± 2mE
∂ q̇ ∂q dq
r
2E
ce qui fournit immédiatement q(t) = ± t + q0 . Cette méthode est préférable, car elle évite
m
dS0 ∂S
d’intégrer pour l’expression de S0 , puis de calculer pour avoir Q(q) et enfin de l’inverser.
dq ∂E
Mais elle nécessite la connaissance du lagrangien, ce qui peut ne pas être le cas.
La chute libre 1D
Soit une particule de masse m soumise à un potentiel gravitationnel constant. l’hamiltonien
s’écrit
p2
H(q, p) = + mgq
2m
et fournit donc l’équation de Hamilton-Jacobi (HJ)
2
1 ∂S ∂S
+ mgq + =0
2m ∂q ∂t
L’hamiltonien ne dépendant pas explicitement du temps, on a H = E conservé et la fonction
principale s’écrit S(q, t) = S0 (q) − Et. L’équation (HJ) devient
dS0 p
= ± 2m(E − mgq)
dq
On a deux méthodes possibles de résolution pour obtenir q(t).
(a) Dans la première, on intègre cette équation et on obtient
r
2 2 3
S0 (q) = ± (E − mgq) 2
3g m
La fonction génératrice S étant maintenant connue, on choisi P = E (par exemple),
et la nouvelle coordonnée est obtenue en calculant
r
∂S 1 2 1
Q= =± (E − mgq) 2 − t
∂E g m
ce qui, après inversion, donne
E g
q= − (t + Q)2
mg 2
S(x1 , x2 , x3 , t) = S0 (x1 , x2 , x3 ) = Et
3
X
On cherche donc une solution de la forme S0 = Si (xi ). On obtient alors
i=1
qui doit être satisfaite quels que soient les xi . Cela n’est possible que si Fi (xi ) = αi avec
X3
αi = E, les αi étant des invariants fixés par les conditions initiales. On obtient alors
i=1
s
x2i
dSi
= ± 2m αi − ki
dxi 2
A ce stade, les deux méthodes s’offrent à nous. Soit on intègre cette équation et on obtient ainsi
la fonction S0 , soit on repart du lagrangien.
r
ki
(a) La première donne en posant u = xi = sin θ,
2αi
αi
Si = ± (2θ + sin 2θ)
2ωi
ki
où ωi2 = m
. En choisissant ensuite pour valeurs des nouveaux moments Pi = αi , on
obtient
∂S ∂Si ∂E
Qi = = − t
∂αi ∂αi ∂αi
r
1 ki
= ± arcsin xi − t
ωi 2αi
qui, par inversion,nous fourniront la trajectoire r(φ) et la loi horaire r(t) (Qφ et Qr
sont des invariants).
(b) La méthode du lagrangien fournit
s
∂L ∂S ∂Sr p2φ
pr = = mṙ = = =± 2m(E − V ) − 2
∂ ṙ ∂r ∂r r
qui s’intègre par rapport au temps et donnera t(r) puis r(t) après inversion. De même,
on a
∂L
pφ = = mr2 φ̇
∂φ
dφ φ̇
et donc un lien φ(r) : = . On obtient ainsi une intégrale identique à celle pour
dr ṙ
Qφ .
S(q, t; P ) = S0 (q; P ) − Et
A une constante sans importance près, ces deux expressions sont égales et on obtient comme
expression générale de la fonction caractéristique de Hamilton
Z q~ X
S0 (q; P ) = pi dqi (4.14)
q~1 i
appelée plus couramment ”action réduite”. Le paramètre temps a évidemment disparu, l’intégration
se faisant le long d’une trajectoire définie par les points ~q1 et ~q dans l’espace des configurations.
Principe de Maupertuis : La trajectoire d’un système conservatif est déterminée par l’extrémisation
de l’action réduite. Il suffit en effet d’exprimer les impulsions en fonction des coordonnées
∂L
(pi = ) puis d’utiliser les techniques de calcul variationnel pour l’expression S0 . Prenons un
∂ q̇i
système soumis à un potentiel V (q). Dans ce cas, H = T + V = E et on a
X X ∂L XX X
pi dqi = dqi = mij q̇j dqi = q̇j q̇i dt
i i
∂ q̇i i j i,j
= 2(E − V )dt
Exprimer l’intégrale de S0 en fonction du temps n’est pas habile car E est constant tandis que
V = V (q). Il vaut mieux exprimer dt en fonction des dqi . Utilisant la conservation de l’énergie,
on obtient
X mij dqi dqj
dt2 =
i,j
2(E − V )
d’où Z q~ s Z q~ p
X
S0 (~q) = 2(E − V ) mij dqi dqj = 2(E − V )ds (4.15)
q~1 i,j q~1
où le temps a disparu, remplacé par l’énergie E du système et où l’on a posé
X
ds2 = mij dqi dqj
i,j
et dont l’interprétation est le carré de l’élément de distance infinitésimale entre deux points de
l’espace des configurations (variété différentielle). Ainsi, pour un système à 1 degré de liberté
ds2 = mdl2 où dl est l’élément infinitésimal de longueur le long de la trajectoire.
Remarque 4.1.3 Il faut comprendre que l’intégrale est définie sur l’espace des configurations,
c’est-à-dire d’un point ~q1 = ~q(t1 ) vers un point ~q(t). L’action réduite dans un cas à N degrés
de liberté est
Z tX Z t Z t Z q~ Z q~
S0 (~q) = pi q̇i dt = p1 q̇1 dt + ... + pN q̇N dt = p1 dq1 + ... + pN dqN
t1 i t1 t1 q~1 q~1
Ainsi, prenons la surface S(q, t) = a où a est une constante. A t = 0 cette surface coincide
avec la surface S0 (q) = a, définissant ainsi un lieu dans l’espace des configurations. Un instant
dt plus tard, la surface S(q, t + dt) = a coincide avec une autre surface, celle définie par
S0 (q) = a + Edt. Autrement dit, les surfaces d’égale action se déplacent dans l’espace des
configurations. Ces surfaces peuvent être considérés comme des fronts d’ondes se propageant
dans l’espace des configurations.
Par ailleurs, nous avons déjà rencontré une propriété urieuse de l’équation de HJ que nous
n’avions pas expliqué. En effet, elle provient bien d’un principe variationnel mais avec l’action
hamiltonienne S(q, t) : le point d’arrivée est laissé libre. En fait, ce point d’arrivée dépend des
∂S
conditions initiales, en particulier des valeurs des pi = . Ceci peut s’écrire vectoriellement
∂qi
∂S
p~ = = ∇S0 (4.16)
∂~q
Or, rien n’a été imposé aux pi au niveau du point de départ. Tout se passerait donc comme
si le point d’arrivée (autrement dit la trajectoire réelle suivie par le système) dépendait de la
direction initiale choisie. Et cette direction est orthogonale à la surface S(q, t) = a.
Ces deux éléments, propagation de surface d’ondes et trajectoires orthogonales, ressemblent
à s’y méprendre à la construction de Huygens pour l’optique géométrique. Quelles seraient alors
les propriétés des rayons lumineux que l’on pourrait rapprocher des propriétés des systèmes
mécaniques ?
• Les surfaces d’ondes lumineuses sont décrites par une phase constante ϕ(~r, t) = ~k·~r−ωt, ~k
étant le vecteur d’onde (k = 2πλ
) et ω sa pulsation.
• Dans un milieu d’indice de réfraction n(~r) inhomogène, la vitesse de phase u = nc des
ondes lumineuses dépend de la position, c étant la vitesse de la lumière dans le vide. En
conséquence les surfaces d’ondes sont déformées lorsqu’elles se propagent dans un milieu
inhomogène.
• En optique géomètrique, la trajectoire des rayons lumineux est orthogonale aux surfaces
d’onde. Elle obéit au principe de Fermat
Z Z
δ cdt = δ nds = 0 (4.17)
où u = ds
dt
est la vitesse de phase de l’onde, ds étant une distance infinitésimale dans la
direction normale aux surfaces d’ondes.
Pour suivre l’analogie jusqu’au bout, regardons ce qui se passe pour une particule de masse m,
dans un potentiel V (q). Nous avons vu que les surfaces S(q, t) = constante seraient l’équivalent
des surfaces d’onde. Cela signifie une analogie entre action et phase. On y reviendra plus loin,
pour l’instant abordons des questions simples :
A quelle vitesse de phase u se déplace la surface S = cste ?
La variation dS0 due à un déplacement ds dans la direction orthogonale à cette surface est
donnée par son gradient
−−−→
dS0 = ∇S0 · M M 0 = |∇S0 | ds
Or, le gradient est fourni par l’équation de HJ
1
(∇S0 )2 + V = E (4.18)
2m
tandis que dS0 = Edt. On obtient donc une vitesse de déplacement de la surface
ds E E
u= = =p (4.19)
dt |∇S0 | 2m(E − V )
Puisque cette vitesse dépend de V (q) donc la position, cela signifie que la surface va se déformer.
En mécanique, l’espace des configurations (milieu de propagation de l’onde) est inhomogène....
r Cetter vitesse ne correspond pas à la vitesse v de la particule. En effet, celle-ci serait v =
2T 2(E − V )
= , ce qui donne une relation
m m
E
uv = (4.20)
m
analogue reliant vitesse de phase u et vitesse de groupe v pour une onde. Si on pousse l’analogie
à terme, c’est-à-dire si on exige que la mécanique se comporte comme l’électromagnétisme, on
obtient
E = mc2 (4.21)
Quel est l’indice de réfraction du ”milieu” mécanique ?
Nous venons de voir que la vitesse de phase u de la surface d’onde S = cste dépend de la
position. Cela implique un indice de réfraction inhomogène. En optique géométrique, une onde
se propageant dans un milieu d’indice de réfraction n est caractérisé par une longueur de chemin
optique L vérifiant l’équation iconale (de icône, du grec image)
(∇L)2 = n2 (4.22)
Ici, l’équation maı̂tresse est évidemment l’équation de HJ, qui peut se mettre sous la forme
(∇S0 )2 = 2m(E − V ) (4.23)
Puisqu’elle possède la même structure formelle, on peut associer
L ←→ S0 (4.24)
p
n ←→ 2m(E − V ) (4.25)
Du coup, on ”comprend” enfin l’analogie entre le principe de Fermat et le principe de Hamilton.
Ils sont en effet équivalents dans le cas qui nous intéresse ici puisque ce dernier se ramène au
principe de Maupertuis
Z p
δ nds = 0 ←→ δS0 = δ 2m(E − V )ds = 0 (4.26)
où la constante h est appelée maintenant la constante de Planck 3 . La longueur d’onde étant
E h
λ = u/ν = , on obtient
mv E
h
p = = ~k (4.28)
λ
puisque p = mv pour une particule. cette dernière relation est connue sous le nom de relation
de De Brooglie.
Vers une mécanique ondulatoire ?
Nous avons vu, grâce à l’équation de HJ, l’analogie profonde de la mécanique avec l’optique
géométrique. Mais il se trouve que l’optique géométrique n’est vu qu’une approximation des
ondes électromagnétiques, décrites par les équations de Maxwell 4 . En particulier, tous les
phénomènes ondulatoires, tels que la diffraction ou les interférences, ne peuvent être décrits
dans le cadre de l’optique géométrique. Cela impliquerait-il alors que la mécanique classique
ne soit qu’une approximation ( du type optique géométrique) d’une réalité plus vaste (du type
ondulatoire) ?
L’équation d’onde générale, issue des équations de Maxwell, s’écrit
n2 d2
2
∆ − 2 2 Φ=0 (4.29)
c dt
~
et devient pour des ondes planes de la forme Φ = Φ0 ei(k·~r−ωt)
ω2
2
∆ + 2 Φ=0
u
Si l’on suppose (comme nous l’avons déjà fait) que l’équation ondulatoire (donc fondamentale)
de la mécanique est équivalente à celle de l’électromagnétisme, alors on obtient qu’une fonction
3. En conséquence, l’action normalisée S/~ où ~ = h/2π a la dimension d’une phase.
4. Dans les milieux inhomogènes, une onde plane n’est pas une solution car le front d’onde se déforme. En
posant k0 = 2π/λ0 où λ0 est la longueur d’onde dans le vide, on recherche des solutions de la forme
pour des ondes se propageant dans une direction donnée, A(r) étant une mesure de l’amplitude de l’onde
(constante pour une onde plane) et L(r) du chemin optique (égal à nr pour un indice n constant). L’équation
d’onde se ramène alors à un système de deux équations
∇2 L + 2∇A · ∇L = 0
Soit l l’échelle spatiale de variation de l’amplitude A, donc celle de l’indice n (puisqu’il en est la cause). La
deuxième équation montre que le chemin otique varie alors sur la même échelle. L’approximation de l’optique
géométrique consiste à supposer que l λ0 . Cela signifie alors que le 3ème terme de la première équation est
dominant, ce qui implique
(∇L)2 = n2
et qui est l’équation iconale. L’analogue en mécanique serait une longueur d’onde beaucoup plus petite que
l’échelle de variation du potentiel.
ω2
2
∆ + 2 Ψ=0
u
p2
∆2 Ψ + 2 Ψ = 0
~
~2 2
∆ Ψ + (E − V )Ψ = 0
2m
~2 2
− ∆ + V Ψ = EΨ
2m
HΨ = EΨ
Pour un système à n degrés de liberté, le point représentatif du système va décrire une trajectoire
compliquée dans l’espace des phases, notre représentation se limitant à une projection dans un
plan (qi , pi ) par exemple.
Définition 4.2.1 Le mouvement d’un système à n degrés de liberté sera dit périodique si la
projection de la trajectoire sur chaque plan (qi , pi ) est périodique dans le sens défini pour un
mouvement à 1 degré de liberté.
Définition 4.2.2 Si la période Ti associée à un degré de liberté qi est la même pour tous les qi ,
le mouvement du système sera dit simplement périodique. Si ce n’est pas le cas, le mouvement
sera dit multiplement périodique ou quasi-périodique.
La conséquence essentielle ici, c’est que de tels systèmes ont un espace des phases borné. Par
ailleurs, le mouvement étant périodique, cela signifie que le système est invariant par translation
dans le temps et donc que l’hamiltonien H est une intégrale première.
Dans la suite, on ne considère que des systèmes de ce type.
où ωi sont également des invariants, puisque toutes les Qi seront alors cycliques et que H ,e
dépende pas explicitement du temps. La dépendance temporelle des Qi est alors excessivement
simple
Qi (t) = ωi t + Qi0
La question qui se pose est alors la suivante : comment choisir les nouveaux moments Pi (Ik )
(on suppose évidemment connues les n intégrales Ik ) ? Dit autrement, existe-t-il un choix plus
naturel que d’autres ?
Puisque les intégrales premières restent constantes tout au long du mouvement, celui-ci a
lieu dans un sous-espace de l’espace des phases, de dimension n, noté Tn , et qui est l’intersection
des surfaces Ik (qi , pi ) = cste.
Nous avons vu que les Qi varient linéairement avec le temps. Si ces nouvelles coordonnées
sont du type ”distance”, alors elles peuvent prendre des valeurs qui croissent indéfiniment
jusqu’à l’infini. C’est ce qui se passerait si Tn était un hyperplan. Mais nous ne traitions ici
que le cas de systèmes (quasi-)périodiques, c’est-à-dire n’explorant qu’une partie finie (bornée)
de l’espace des phases. Cela implique donc que les Qi sont dut type ”angle”, variant de 0 à 2π.
L’espace des phases est de dimension 2 et l’on cherche la transformation canonique telle que
les nouvelles variables vérifient.
α(t) = ωt + α+
J(t) = J
c’est-à-dire, soient respectivement un angle α variant linéairement dans le temps et une action
J constante. l’hamiltonien d’un tel système s’écrit toujours
p2
H= + V (q)
2m
5. Ce cercle correspond à un lacet irréductible sur le tore, c’est à dire à un contour fermé non assimilable
par déformation continue à un point.
Puisque nous ne nous intéressons qu’à des systèmes périodiques, cela signifie que l’espace des
phases est borné et donc, que le portrait de phase engendré par l’ensemble des contours
p
p(q) = ± 2m(E − V (q))
dessine une aire A(E) pour une énergie E donnée du système. Or, cette aire est précisément
un invariant canonique de Poincaré, pour lequel on a
ZZ ZZ
dqdp = dQdP
ZZ A I
dqdp = pdq
A Γ
où Γ est un contour fermé de l’espace des phases, orienté dans le sens gauche ou indirect
(important) 6 Utilisant ces propriétés et le fait que α est un angle variant entre 0 et 2π tandis
que J doit être un invariant, on obtient
I I Z 2π
A(E) = pdq = Jdα = J dα = J2π
Γ Γ 0
où Σ est une surface délimitée par un contour fermé Γ orienté dans le sens direct. Prenons le cas 2D où
−
→ →
− →
− →
− → −
dS = dxdy~k, dl = dx~i + dy~j et A = (−y; x; 0)/2. Alors ∇ ∧ A = (0; 0; 1) et on obtient
→
− → − − →
ZZ ZZ
∇ ∧ A · dS = dxdy
Σ
I Σ
− →
→ − xdy − ydx
I
= A · dl =
Γ Γ 2
Par ailleurs, sur un contour fermé, c’est-à-dire. partant d’un point M pour y revenir, on a
I
M
d(xy) = [xy]M = 0
Γ
.
et donc ne dépend que de la variable conjuguée qi (et des n invariants). Cela signifie que chaque
paire de variables canoniquement conjuguées (qi , pi ) est indépendante des autres, l’action réduite
étant la somme de n termes indépendants.
Dans chaque plan (qi , pi ), le mouvement est borné (système périodique) et l’aire Ai (Ik )
formée par la projection du mouvement sur ce plan est conservée. Il est donc naturel d’introduire
la grandeur définie par I
1
Ji = pi dqi (4.31)
2π Γi
où l’intégration s’effectue sur un contour fermé de ce plan, parcouru dans le sens gauche. On
aura ainsi Ji = Ji (Kk ) uniquement, puisque la variable qi n’intervient que comme variable
d’intégration. Cela signifie donc que Ji est un invariant du mouvement. Et comme chaque paire
(qi , pi ) est indépendante des autres, les n Ji forment également n invariants indépendants.
La transformation canonique complète est alors
∂H
J˙i = − =0
∂αi
∂H
α̇i = = ωi (Ji )
∂Ji
ce qui est la transformation recherchée, les ωi (Ji ) étant bien de la dimension d’une pulsation. 1
Cas général (non démontré)
En effet, c’est une fonction génératrice du type G2 (q, P, t) donnant les relations générales sui-
vantes
∂S0
p=i =
∂qi
∂S0
Qi =
∂Pi
∂S0
H0 = H +
∂t
Dans notre cas le système est conservatif, Qi ≡ αi et Pi ≡ Ji . On a donc bien H 0 = H et les
n Ji étant n invariants indépendants, on peut exprimer pi = pi (qk , Jk ). Avec ces notations on
obtient
∂S0
pi =
∂qi
∂S0
αi =
∂Ji
Si on montre que, les αi étant des angles, les Ji sont alors des variables d’action, alors on aura
montré que S0 est bien la bonne fonction génératrice.
On suppose donc que αi est un angle recevant un accroissement ∆αi = 2π entre t et t + Ti
2π
où Ti = est l’une des périodes du système. On a alors
ωi (Jk )
∂S0 ∂S0 ∂∆S0
∆αi = αi (t + Ti ) = (t + Ti ) − (t) = = 2π
∂Ji ∂Ji ∂Ji
Z t+Ti X Z tX ! Z Ti X ! I X !
∂ ∂ ∂
= pk dqk − pk dqk = pk dqk = pk dqk
∂Ji 0 k 0 k
∂Ji 0 k
∂Ji Γi k
∂
= (2πJi )
∂Ji
ce qui démontre que S0 est bien la fonction génératrice de notre transformation canonique.
Si l’on veut exprimer les variables angles-actions en fonction des anciennes variables (qi , pi ),
il ”suffit” de remplacer des invariants par leur expression en fonction des (qi , pi ). Regardons le
cas à 1 degré de liberté. On remplace E par H(q, p) ce qui fournit
Exprimer (q, p) en fonction des (α, J) est plus laborieux et plusieurs méthodes sont disponibles.
On peut tout d’abord essayer d’inverser les relations ci-dessus. Si ce n’est pas facile, il suffit de
rechercher q = q(α, J) puisque nous avons déjà exprimé p = p(p, E) à partir de l’hamiltonien.
Deux méthodes s’offrent à nous :
∂
1. Si l’on connaı̂t S0 (q; E), on l’exprime en fonction de S0 (q; J) et on peut ainsi calculer.
∂J
Cela nous fournit une relation α = α(q; J) qui, après inversion, nous donnera q = q(α; J).
2. Sans calculer la fonction génératrice, on peut utiliser les équations canoniques, cela donne
Z t Z q
dq
α − α0 = ωt = ω dt = ω
q0 dq̇
Z q0
dq
= ω(J)
q0 ∂H
∂p
qui, par inversion, nous fournira q = q(α; J).
4.2.5 Applications
Méthode
La méthode est assez simple, une fois que l’on connaı̂t n invariants Ij satisfaisant les conditions
du théorème de Arnold-Liouville (indépendance, involution) :
1. On exprime les pi en fonction des qi et des invariants ;
2. On choisit n contours irréductibles Γi , puis on calcule les variables actions Ji ;
3. On exprime H = H(J) ;
4. On calcule ensuite les variables angles par
∂H
αi (t) = ωi t + αi0 avec ωi = (4.33)
∂Ji
On a donc ainsi accès aux n pulsations propres ωi d’un système périodique à n degrés de
liberté sans même avoir eu recours à la résolution d’équations différentielles. Nous avons fait
des inversions de formules (étapes 1 et 3), des intégrations (étape 2) et des dérivations (étape
4). On appelle cela résoudre les équations du mouvement par quadratures.
Exemple 4.2.1 Chute libre 1D
Soit une particule de masse m en chute libre dans un champ de gravitation g, rebondissant sur
le sol de façon élastique. Le hamiltonien s’écrit
p2
H= + mgq
2m
et le portrait de phase est décrit par les courbes
p
p(q; E) = ± 2m(E − mgq)
E
La solution négative correspond à la chute depuis une altitude q0 = , la solution positive
mg
au rebond depuis q = 0 jusqu’à q0 , formant ainsi un contour fermé Γ parcouru dans le sens
gauche. La variable action est alors
I Z q0 p
1 2
J = p(q)dq = 2m(E − mgq)dq
2π Γ 2π 0
r
2 2 3
= E
3πg m
∂H
La variable angle est α(t) = ωt + α0 , où la pulsation est donnée par ω = . Il faut donc
∂J
exprimer d’abord H(J). Par inversion de l’expression de J, on obtient
1/3
9π 2 mg 2
H(j) = J 2/3
8
r
∂H m
ω= = πg
∂J 2E
Si l’on veut α(q, p) et J(q, p) il suffit de remplacer E par H(q, p) dans leurs expressions. Inver-
sement, pour revenir aux variables (q, p), il suffit de connaı̂tre q(α, J) puisqu’on a déjà p(q; E)
∂H
et E(j). L’équation canonique de Hamilton q̇ = , peut se réécrire
∂p
√
Z t Z q Z t
π u u du
Z Z
dq dq
α − α0 = ωdt = ω =ω = √ =π 1−u−1
0 q=0 q̇ q=0 ∂H 2 0 0 1−u
∂p
mgq
avec u = = q/q0 . On obtient ainsi la relation recherchée
E
" 2 #
E(J) α − α0
q(α, J) = 1− 1+
mg π
Plus usuellement, cette expression est équivalente à q(t) = − 21 gt2 + at + b, a et b devant être
déterminées par les conditions initiales (ici on a arbitrairement choisi q(t = 0) = 0).
Exemple 4.2.2 Le portrait de phase est décrit par les courbes d’équation
r
k
p(q; E) = ± 2m(E − q 2 )
2
√
r
2E
c’est-à-dire une ellipse, de valeur maximale a = sur q et b = 2mE sur p. Cette ellipse
k
est parcourue dans le sens gauche. La variable action est
I r
1 A(E) πab m
J= p(q)dq = = =E
2π Γ 2π 2π k
L’expression J(q, p) est immédiate puisqu’il suffit de remplacer E par H(q, p). On peut obtenir
α(q, p) en procédant comme suit :
Z Z Z Z r
dq dq dq du m
α = ω =ω = mω = √ = arcsin qω
q̇ ∂H p 1 − u2 2E
∂p
qω
= arcsin r
p2
+ ω2q2
m2
r
2E
On a ainsi à la fois α(q, p) mais aussi q(α; E) = sin(ωt + α0 ).
k
Systèmes quasi-périodiques
Prenons l’exemple simple de l’oscillateur harmonique 3D. Dans ce type de problème, on considère
généralement que les trois directions sont découpées et qu’on a donc affaire à un système
complètement séparable. La projection du mouvement dans chaque plan (qi , pi ) de l’espace des
phases est donnée par
p2 ki
Ii = i + qi2
2m 2
où ki est la constante de raideur dans cette direction et Ii une constante du mouvement telle
X3
que E = Ii . La variable action est alors
i=1
r
m
Ji = Ii
ki
où les Ck1 ...kn sont des nombres complexes. Exprimée en fonction du temps, cette expression
devient X X
F (t) = ... Ak1 ...kn eit(k1 ω1 +...kn ωn )
k1 kn
8. Cette condition est équivalente à k1 ω1 + k2 ω2 = 0 où k1 et k2 sont des nombres entiers relatifs.
Exercice 1 Un pendule sphérique est formé d’une tige rigide de longueur l et de masse négligeable.
A l’une de ses extrémités est fixé une masse ponctuelle m. L’autre extrémité de la tige est fixée
et est immobile. Le pendule peut ainsi osciller dans n’importe quelle direction de l’espace tridi-
mensionnel. Le système est soumis à un champ de gravité ~g .
1. Dans le système de coordonnées le mieux adapté, écrire le lagrangien du système et
trouver les équations du mouvement.
2. Montrer à partir du lagrangien que le hamiltonien de ce système se conserve.
3. Il existe une coordonnée cyclique, laquelle ? Justifier la réponse. A partir de ce constat,
dire quelle autre grandeur est conservée.
Exercice 2 Le hamiltonien d’une particule de masse m et de charge électrique q est donné par
1
(px + qBy)2 + p2y où B = cste est un champ magnétique imposé à ce
H(px , py , x, y) =
2m
système.
1. Écrire les équations de Hamilton du mouvement.
2. En déduire l’accélération de cette particule en fonction de sa vitesse et de la constante
qB
ω=− .
m
3. Écrire les équations du mouvement en terme de la variable complexe z = x + iy et en
donner la solution z(t) correspondant aux conditions initiales z(0) = z0 et ż(0) = ż0 .
Exercice 3 On considère un système décrit par le hamiltonien H(q, p, t) = ω 2 p(q + t)2 où ω
est un paramètre. Pour déterminer le mouvement, on introduit la transformation suivante :
Q = q + t, P = p.
1. En utilisant les crochets de Poisson, démontrer que cette transformation est caninique.
2. Déterminer une fonction génératrice F2 (q, P, t) qui conduit à cette transformation.
3. Écrire le nouvel hamiltonien K(Q, P, t).
4. Résoudre les équations du mouvement pour Q et P .
5. En déduire la solution pour q(t) p(t).
84
Mécanique Analytique
Exercice 4 Dans un plan, une particule de masse m est repérée par ses coordonnées polaires.
Le hamiltonien d’un oscillateur dit isotrope est donné par :
p2ρ p2φ 1
H(ρ, φ, pρ , pφ , ) = + 2
+ mω 2 ρ2 .
2m 2mρ 2
ρ2
On fait la transformation ponctuelle Q = , la longueur l est arbitraire mais constante et son
l
rôle est de donner à la quantité Q la dimension d’une longueur comme ρ.
1. Quelle doit être l’expression de la nouvelle impulsion P pour que la transformation soit
canonique ?
2. Une transformation ponctuelle est forcément canonique à condition de prendre comme
∂L
impulsion l’expression P = . Vérifier cette propriété dans notre cas particulier.
∂ Q̇
3. Donner le nouvel hamiltonien K(Q, φ, P, pφ ).
Figure 1