Vous êtes sur la page 1sur 49

Symétries en mécanique quantique

Nathalie Debergh

Docteur en Sciences Mathématiques

Haute Ecole Charlemagne

Département d’agronomie

nathalie.debergh@hech.be

Avertissement : ce portfolio a pour unique but d’expliquer, de la manière la plus pédagogique possible, les fondements de la
mécanique quantique ; en aucun cas, il ne prétend être une présentation exhaustive de la physique quantique ; il reprend
certains standards qui sont entrés dans l’histoire de la physique quantique depuis si longtemps et à de si fréquentes reprises
que nous n’avons volontairement pas cité de références précises, hormis quand un élément original apparaissait.

Bonne lecture à tous !

Table des matières


Symétries en mécanique quantique........................................................................................................ 1
Groupes de symétrie ........................................................................................................................... 2
Groupes isomorphes – groupes homomorphes.................................................................................. 5
Représentations d’un groupe .............................................................................................................. 6
Groupes continus ou groupes de Lie – L’exemple de SO(2).............................................................. 10
Algèbres de Lie – L’exemple de so(2) ................................................................................................ 12
Le groupe des translations ................................................................................................................ 14
Le groupe des rotations..................................................................................................................... 17
Le groupe de Lie SU(2,C) – L’algèbre de Lie su(2,C) .......................................................................... 23
Les transformations propres de Lorentz ........................................................................................... 28
Le groupe de Lorentz ......................................................................................................................... 30
Le groupe SL(2,C) ............................................................................................................................... 36
Le groupe de Poincaré ....................................................................................................................... 40
Les opérateurs de Casimir de l’algèbre de Poincaré ..................................................................... 42
Annexe : les représentations irréductibles de so(1,3) ...................................................................... 46

1
Avant d’aborder la notion de symétrie en mécanique quantique, définissons ce qu’on entend par
symétrie.

Groupes de symétrie
Une symétrie est l’action d’une transformation (rotations, translations,...) sur un objet, une figure, ...
qui laissent cet objet, cette figure invariants.
Par exemple, si on fait subir à ce cristal de glace une rotation de 60° autour de
son centre, que ce soit dans le sens trigonométrique ou le sens horlogique, il
n’y aura aucune différence entre le cristal avant rotation et le cristal après
rotation, ni au niveau de sa forme ni au niveau de sa position.

C’est vrai aussi pour toute autre rotation de même centre et d’amplitude égale
à 120°, 180°, 240° et 300°.

Mathématiquement, on dira que le cristal de glace est invariant sous les


rotations autour de son centre et d’amplitudes égales à n 60°, n étant entier.

Par contre, des rotations d’amplitudes différentes (45° ou 90°, par exemple)
ou de centre différent vont déplacer le cristal par rapport à sa position initiale :
ce ne sont plus des symétries au sens mathématique du terme. Ce sont des
isométries : la forme du cristal est la même, la position a changé.

 L’interprétation de l’invariance, de la symétrie change selon que l’on soit mathématicien ou


physicien :

- Pour le mathématicien, c’est donc la figure, l’objet subissant les transformations, en elle-
même qui est invariante. Par exemple, le cristal de glace dont il est question ci-dessus.
- Pour le physicien, l’objet en lui-même peut s’être déplacé sous l’effet des transformations mais
les équations qui le régissent ne sont, elles, pas modifiées. On peut, par exemple, étudier le
mouvement d’une balle que l’on lance en l’air dans un wagon à l’arrêt, puis réitérer la même
expérience lorsque le wagon, toujours à l’arrêt pour la seconde expérience, s’est déplacé de
quelques mètres. Le physicien demande que les deux expériences aient le même résultat. Par
contre, le wagon s’étant déplacé, la symétrie n’est plus mathématique.

Quand on regroupe toutes les transformations qui ne modifient pas l’objet (ou les équations qui
décrivent l’objet), elles forment un ensemble qu’on appelle groupe de symétrie.

Un groupe de symétrie G est un ensemble de transformations notées gi (i = 1,..., n) muni d’une loi de
composition gj o gi (lire que l’on prend d’abord gi et ensuite gj) possédant les propriétés suivantes :

• La loi est interne et partout définie : gj o gi = gk


• Il existe un neutre I : gi o I = I o gi = gi
• Il existe un symétrique gi-1 : gi o gi-1 = gi-1 o gi = I
• La loi est associative : gl o (gj o gi) = (gl o gj) o gi

Pour que ce soit plus clair : un considère l’objet « triangle équilatéral » :

2
Un triangle est déterminé par ses trois
sommets. Il suffit donc d’appliquer les
transformations sur ces trois points (et
puis de relier les trois points images
par des segments pour obtenir le
triangle image).

Celui-ci possède un groupe de symétrie constitué des transformations suivantes :

g1 = la transformation identité (= le neutre) (A →A, B → B, C → C)

g2 = la rotation autour du centre G du triangle et d’amplitude 120° (sens trigonométrique) (A →B, B


→ C, C → A)

g3 = la rotation autour du centre G du triangle et d’amplitude 240° (sens trigonométrique) (A →C, B


→ A, C → B)

g4 = la symétrie orthogonale d’axe AE (A →A, B → C, C → B)

g5 = la symétrie orthogonale d’axe BD (A →C, B → B, C → A)

g6 = la symétrie orthogonale d’axe CF (A →B, B → A, C → C)

Chacune de ces transformations est une symétrie dans le sens que chacune d’entre elles, appliquée au
triangle, redonne exactement le même triangle à exactement la même place. La seule différence
éventuelle est le nom des sommets qui pourrait avoir changé...mais cela n’affecte pas l’objet matériel
qu’est le triangle.

Ces transformations sont munies de la loi de composition « j’effectue une transformation et puis
l’autre » (composition = succession en mathématique), dont tous les résultats sont donnés dans le
tableau suivant appelé tableau de multiplication du groupe :

o g1 g2 g3 g4 g5 g6 Il faut lire le tableau ainsi : première colonne, je vois, par exemple, g3, que
g1 g1 g2 g3 g4 g5 g6 j’applique en premier lieu, puis j’applique g4, par exemple, en deuxième lieu. Les
transformations successives sont :
g2 g2 g3 g1 g5 g6 g4
g3 g3 g1 g2 g6 g4 g5 A → C →B ; B → A →A ; C → B →C, soit A → B ; B → A ; C → C
g4 g4 g6 g5 g1 g3 g2 Ce sont les actions de g6, soit la transformation à l’intersection de la ligne g3 et
g5 g5 g4 g6 g2 g1 g3 de la colonne g4.
g6 g6 g5 g4 g3 g2 g1

La loi est bien interne et partout définie : n’importe quelle transformation suivie de n’importe quelle
transformation donne une des six transformations ;

Le neutre est clairement la transformation g1 ;

Chaque transformation possède un symétrique (g1 → g1, g2 → g3, g3 → g2, g4 → g4, g5 → g5, g6 →
g6)

L’associativité se vérifie aussi.

Nous avons donc bien un groupe de symétrie (ce groupe est connu sous le nom de S3 ou de P3, selon
que l’on privilégie le terme « symétrique » ou « permutation »). Ce sera notre exemple de référence.

3
Ce groupe est un groupe discret dans le sens que toutes les valeurs des paramètres des
transformations ne sont pas permises : par exemple, les rotations sont de 120° et 240° ; aucune
rotation de 90° ne conserve la position du triangle.
Si on avait considéré un disque à la place du triangle, les rotations de n’importe quelle amplitude autour du centre du disque
aurait conservé ce disque et sa position. Dans ce cas-là, on parle de groupes continus1 et on introduit souvent un paramètre
supplémentaire. Par exemple, on parlera de la transformation g(ϑ) pour parler des rotations d’amplitude ϑ, en sachant que
ce paramètre va pouvoir prendre toutes les valeurs entre 0° et 360° (contrairement au cas du triangle où il était limité à deux
valeurs et pour lequel g(ϑ) se réduisait aux deux transformations g2 et g3).

Pour continuer dans le vocabulaire, le nombre d’éléments du groupe (= 6 pour S3) est appelé l’ordre
du groupe.

Un sous-groupe d’un groupe G est un sous-ensemble H de G tel que toutes les caractéristiques (loi
interne, neutre,...) d’un groupe sont respectées.

Dans le cas de S3, on voit, par exemple, que H = {g1, g2, g3} est un sous-groupe.

Le sous-groupe est dit invariant si2

𝑔𝑖 𝐻 𝑔𝑖 −1 = 𝐻
pour tous les gi du groupe.

On vérifie que H = {g1, g2, g3} est invariant pour S3 (en se limitant à g2 et g3 puisque, pour g1, c’est
évident) :

𝑔1 𝑔2 𝑔1−1 = 𝑔1 𝑔2 𝑔1 = 𝑔2 ; 𝑔1 𝑔3 𝑔1−1 = 𝑔1 𝑔3 𝑔1 = 𝑔3

𝑔2 𝑔2 𝑔2−1 = 𝑔2 𝑔2 𝑔3 = 𝑔2 ; 𝑔2 𝑔3 𝑔2−1 = 𝑔2 𝑔3 𝑔3 = 𝑔3

𝑔3 𝑔2 𝑔3−1 = 𝑔3 𝑔2 𝑔2 = 𝑔2 ; 𝑔3 𝑔3 𝑔3−1 = 𝑔3 𝑔3 𝑔2 = 𝑔3

𝑔4 𝑔2 𝑔4−1 = 𝑔4 𝑔2 𝑔4 = 𝑔3 ; 𝑔4 𝑔3 𝑔4−1 = 𝑔4 𝑔3 𝑔4 = 𝑔2

𝑔5 𝑔2 𝑔5−1 = 𝑔5 𝑔2 𝑔5 = 𝑔3 ; 𝑔5 𝑔3 𝑔5−1 = 𝑔5 𝑔3 𝑔5 = 𝑔2

𝑔6 𝑔2 𝑔6−1 = 𝑔6 𝑔2 𝑔6 = 𝑔3 ; 𝑔6 𝑔3 𝑔6−1 = 𝑔6 𝑔3 𝑔6 = 𝑔2

On dira que G est un groupe simple si le seul sous-groupe invariant de G est limité au neutre.

On dira que G est un groupe semi-simple si le seul groupe invariant abélien (entendre par là que la loi
de composition est commutative : gi gj = gj gi) de G est limité au neutre.

Dans le cas de S3, comme on a un sous-groupe invariant, non abélien, différent du neutre, on peut
dire que S3 n’est ni simple ni semi-simple.

1
Etant entendu que les symétries axiales restent, elles, discrètes quel que soit l’objet auquel elles s’appliquent.
Voir une symétrie continue comme un mouvement doux, progressif et une symétrie discrète comme un
mouvement plus brusque peut aider...
2
Dorénavant, on ne notera plus la loi de composition par o ... c’est à l’image de ce qu’on fait en algèbre
élémentaire où le produit de a par b devrait être noté a.b mais est noté par tout le monde comme a b.

4
Groupes isomorphes – groupes homomorphes
Deux groupes sont isomorphes quand ils ont le même nombre d’éléments et que ceux-ci vérifient les
mêmes tableaux de multiplication.

Nous avons vu ci-dessus que le groupe de symétrie S3 d’un triangle équilatéral a six éléments et que
ces transformations se composent selon le tableau donné en page 2.

Un groupe qui lui est isomorphe est celui des matrices suivantes :
1 √3 1 √3 √3 1 √3 1
1 0 − − − 0 1 − − −
M1 = ( ), M2 = ( 2 2
), M3 = ( 2 2
), M4 = ( ), M5 = ( 2 2
),M6 = ( 2 2
)
0 1 √3 1 √3 1 1 0 1 √3 1 √3
2
−2 − 2 −2 −2 2
−2 −2

On a bien six éléments (même si leur nature est complétement différente...qu’importe : c’est le
nombre qui compte). Et quand on multiplie ces matrices, on obtient
1
. M1 M2 M3 M4 M5 M6 −
√3
0 1
M1 M1 M2 M3 M4 M5 M6 Exemple : M3 . M4 = ( 2 2
)( )=

√3

1 1 0
M2 M2 M3 M1 M5 M6 M4 2 2

M3 M3 M1 M2 M6 M4 M5 √3

1

M4 M4 M6 M5 M1 M3 M2 ( 2 2
) = M6
1 √3
− −
M5 M5 M4 M6 M2 M1 M3 2 2

M6 M6 M5 M4 M3 M2 M1

A comparer avec le tableau du groupe de symétrie du triangle équilatéral :

o g1 g2 g3 g4 g5 g6
g1 g1 g2 g3 g4 g5 g6
g2 g2 g3 g1 g5 g6 g4
g3 g3 g1 g2 g6 g4 g5
g4 g4 g6 g5 g1 g3 g2
g5 g5 g4 g6 g2 g1 g3
g6 g6 g5 g4 g3 g2 g1

Même nombre d’éléments, même tableau de multiplication : les deux groupes sont isomorphes...et
qu’importe si la nature des éléments ainsi que la nature des lois de composition sont très différentes.

A l’homomorphisme à présent ! Soit G, un groupe constitué des éléments gi et G’, un autre groupe
constitué des éléments g’i. On dira que G est homomorphe à G’ si à chaque gi correspond un et un seul
g’i tandis que plusieurs gi pourront correspondre à l’unique g’i (deux groupes homomorphes n’ont
donc pas le même nombre d’éléments). De plus, la loi de composition dans G doit être respectée dans
G’ mais la réciproque n’est pas vraie.

Pour prendre un exemple très clair : G est le groupe S3 des six transformations qui laissent le triangle
équilatéral invariant. On considère G’, groupe formé de deux éléments : les nombres 1 et -1. La
première condition pour avoir un homomorphisme est satisfaite via :

𝑔1, 𝑔2, 𝑔3 → 𝑔′ 1 = 1 ; 𝑔4, 𝑔5, 𝑔6 → 𝑔′ 2 = −1


Comprendre cela comme ceci : on peut remplacer les trois transformations g1, g2 et g3 par le même nombre, à savoir 1.

5
La deuxième condition l’est tout autant :

o g1 g2 g3 g4 g5 g6 le tableau est en accord avec les associations ci-dessus et avec la loi de


g1 g1 g2 g3 g4 g5 g6 composition qui se résume à la simple multiplication de nombres (par exemple :
g3 o g2 = g’1 . g’1 = 1 . 1 = 1 = g1).
g2 g2 g3 g1 g5 g6 g4
g3 g3 g1 g2 g6 g4 g5 Par contre, g’1 . g’1 = g’1 peut impliquer des relations vraies comme g3 o g2 = g1
g4 g4 g6 g5 g1 g3 g2 mais aussi des relations fausses dans G, comme g2 o g2 = g2 puisque cette
dernière peut aussi s’écrire g’1 . g’1 = g’1
g5 g5 g4 g6 g2 g1 g3
g6 g6 g5 g4 g3 g2 g1

Un autre exemple tout aussi clair : G est le groupe S3 des six transformations qui laissent le triangle
équilatéral invariant. On considère G’, groupe formé d’un seul élément : le nombre 1. La première
condition pour avoir un homomorphisme est satisfaite via :

𝑔1, 𝑔2, 𝑔3, 𝑔4, 𝑔5, 𝑔6 → 𝑔′ 1 = 1


Le tableau ci-dessus assure une nouvelle fois la deuxième condition.

Représentations d’un groupe


Représenter un groupe, c’est le concrétiser à travers un autre groupe qui lui soit isomorphe ou
homomorphe, ce dernier groupe étant (habituellement mais pas que) constitué de matrices carrées
de dimension N. On parle alors de représentation de dimension N.

Par exemple, les matrices de la page 4 sont une représentation de dimension 2 du groupe de symétrie
du triangle équilatéral. Les nombres 1 et -1 sont une représentation de dimension 1 de ce même
groupe, tout comme l’unique nombre 1. On a coutume de noter ces représentations par 𝐷 (2) , 𝐷 (1) et
𝐷′(1) respectivement.

De par l’isomorphisme ou l’homomorphisme entre le groupe et ses représentations, on doit assurer


d’avoir les mêmes tableaux de multiplication dans les représentations du groupe. Autrement dit :

𝑔𝑖 𝑔𝑗 = 𝑔𝑘 ⇒ 𝐷(𝑔𝑖)𝐷(𝑔𝑗) = 𝐷(𝑔𝑘)
si D(gi) fait référence à la représentation de l’élément gi.

A partir de représentations d’un groupe, on peut toujours en construire de nouvelles par une opération
que l’on appelle « somme directe » et que l’on note ⊕. Concrètement, cela signifie mettre des blocs
sur la diagonale d’une matrice plus grande :
(2)
𝐷 (2) ⊕ 𝐷 (1) = (𝐷 0 )
0 𝐷 (1)
On a donc ici des matrices de dimension 3 qui sont une représentation du groupe de symétrie du
triangle équilatéral. Ce n’est pas pour autant que l’on va noter cette représentation 𝐷 (3) . En effet, la
matrice ci-dessus est, au vu de sa forme diagonale, dite réductible. Par contre, une représentation 𝐷 (3)
serait liée à des matrices de dimension 3 qui ne seraient pas et ne pourraient pas être diagonales. On
dirait alors que 𝐷 (3) est une représentation irréductible du groupe de symétrie du triangle équilatéral.

Nous avons mis le conditionnel car, en fait, il n’existe aucune représentation irréductible de S3 de
dimension 3. La seule façon d’avoir une représentation de dimension 3 de ce groupe est de former la
somme directe et donc d’avoir une représentation réductible.

6
Comment le sait-on ?

Grâce à un théorème (qui n’est pas démontré ici) qui assure une contrainte sur les dimensions Ni des
matrices de représentations irréductibles associées à un groupe discret d’ordre N :

∑ 𝑁𝑖 2 = 𝑁
𝑖

Pour S3, cette condition est

∑ 𝑁𝑖 2 = 6
𝑖

et c’est incompatible avec un Ni égal à 3...

En revanche, on pourra avoir N1 = 1, N2 = 1, N3 = 2, soient les dimensions des représentations


𝐷 (1) , 𝐷′(1) , 𝐷 (2) déjà mentionnées.

Si on n’est pas convaincu, on peut toujours tenter ! L’intérêt de ce qui va suivre est aussi de voir
comment on peut construire, concrètement des représentations...

Quel est l’effet de g1 ? Il transforme les sommets A, B et C du triangle en eux –mêmes...


Matriciellement, cela donne :
𝐴 𝐴 1 0 0
𝑔1 (𝐵) = (𝐵) → 𝑔1 = (0 1 0)
𝐶 𝐶 0 0 1
Quel est l’effet de g2 ? Il transforme les sommets A, B et C du triangle en B, C et A, respectivement. Du
point de vue matriciel, cela s’écrit :
𝐴 𝐵 0 1 0
𝑔2 (𝐵) = (𝐶 ) → 𝑔2 = (0 0 1)
𝐶 𝐴 1 0 0
De la même façon, on va avoir
0 0 1 1 0 0 0 0 1 0 1 0
𝑔3 = (1 0 0) , 𝑔4 = (0 0 1) , 𝑔5 = (0 1 0) , 𝑔6 = (1 0 0)
0 1 0 0 1 0 1 0 0 0 0 1
A priori, elles n’ont pas l’air spécialement diagonales...et, pourtant, elles se réduisent toutes à des
matrices en blocs sur la diagonale via la transformation associée à S :
(2)
𝑆 𝑔𝑖 𝑆 −1 = (𝐷 0 )
′(1)
0 𝐷
si

1 √3 1 √3
1 − + − −
2 2 2 2
𝑆= 1 √3 1 √3
1 − − − +
2 2 2 2
(1 1 1 )
Cela montre bien, en accord avec le théorème, que la représentation de dimension 3 est réductible.

7
Cela montre aussi comment mettre en évidence les représentations matricielles, qu’elles soient
irréductibles ou non ! La clé, c’est la relation

𝐷(𝑔𝑖)|𝑥 > = |𝑥𝑖 ′ >


Ne pas s’effrayer de la notation dite de Dirac avec les kets |𝑥 > et |𝑥′𝑖 > !

En fait, en cas de représentation matricielle, il s’agit juste de matrices-colonnes :


𝐴 𝐴 𝐵
|𝑥 > = (𝐵) , |𝑥′1 > = (𝐵 ) , |𝑥′2 > = (𝐶 ) , …
𝐶 𝐶 𝐴
La matrice D(gi) représente, quant à elle, la façon dont gi agit sur le ket de départ (c’est-à-dire les trois
sommets du triangle) pour transformer l’ordre de ces sommets (ce qui donne les kets d’arrivée).

On pourrait aussi justifier de cette façon la mise en évidence des représentations irréductibles de S3
et leur associer une grandeur physique/géométrique conservée.

En fait, c’est même là tout l’intérêt des représentations ! Non seulement c’est plus facile à manipuler
(le calcul matriciel, c’est facile par rapport à certaines transformations...) mais, en plus, les
représentations irréductibles vont cerner la physique/géométrie du problème.

Comment le faire ? En se concentrant sur les kets. Ceux-ci sont des grandeurs
physiques/géométriques, faisant partie de l’objet qui subit les transformations, qui sont soit
conservées soit modifiées d’une certaine façon. Comme les transformations sont des matrices de
dimension N, il y a N kets linéairement indépendants.

Par exemple, avec 𝐷 ′(1) : 𝐷 ′(1) , c’est l’unique nombre 1, c’est donc « j’agis six fois de la même façon
en ne modifiant rien, à chacune des six fois »... Donc là, on a
(1)
𝐷′ (𝑔𝑖)|𝑥 > = |𝑥 > ; 𝑖 = 1, … ,6

Le ket |x> est ici ce qu’on appelle, en formalisme tensoriel3, un scalaire. Géométriquement, cela
correspond, par exemple, au périmètre du triangle, c’est-à-dire une grandeur géométrique à un
nombre qui n’est modifiée en rien par les transformations puisque l’action de celles-ci est d’amener le
triangle sur lui-même.

Avec 𝐷 (1) : cette représentation amène deux types de comportement ; soit je multiplie par 1, soit je
multiplie par -1

𝐷 (1) (𝑔𝑖)|𝑥 > = |𝑥 > ; 𝑖 = 1,2,3 𝑒𝑡 𝐷 (1) (𝑔𝑖)|𝑥 > = −|𝑥 > ; 𝑖 = 4,5,6
Ici, on parle de pseudo-scalaire et la grandeur géométrique est le périmètre orienté (selon la
transformation, on conserve l’orientation ou on l’inverse).

Avec 𝐷 (2) : ici, puisqu’on a des matrices de dimension 2, on a des kets qui sont des matrices-colonnes
à deux composantes. Et il en faut deux qui soient linéairement indépendantes. Autrement dit, on doit
avoir deux vecteurs linéairement indépendants à deux composantes. On les choisit comme deux

3
Le formalisme tensoriel est basé sur cette maxime : dis-moi comment tu te transformes et je te dirai qui tu
es... Quelque chose qui ne se transforme pas sous l’action d’un changement de coordonnées est appelé un
scalaire.

8
⃗⃗⃗⃗⃗ et 𝐴𝐶
vecteurs portés par deux des côtés du triangle : soient 𝐴𝐵 ⃗⃗⃗⃗⃗ . Si le triangle est choisi comme étant
1
2 1
de côté de longueur 1, on a : |𝑥1 >= |𝐴𝐶 > = (√3) , |𝑥2 > = |𝐴𝐵 >= ( )
0
2

Si on prend la transformation g3, par exemple, soit la rotation de


centre G et d’amplitude 240° dans le sens trigonométrique...

Elle amène ici A sur C, B sur A et C sur B et donc ⃗⃗⃗⃗⃗


𝐴𝐶 (en vert)
⃗⃗⃗⃗⃗ . Ce vecteur est équipollent (identique du point de vue
sur 𝐶𝐵
des vecteurs libres, car même direction, même sens et même
longueur) à l’autre vecteur vert, en bas.

Idem pour le deuxième vecteur ⃗⃗⃗⃗⃗ 𝐴𝐵 , en orange, qui est


⃗⃗⃗⃗⃗ ou sur le vecteur orange du bas.
envoyé sur 𝐶𝐴

Les composantes des vecteurs images sont facilement


déterminables puisque tous ces vecteurs sont liés à l’origine.

Par conséquent, connaissant les composantes des vecteurs de départ et celles de ceux qui sont les
images, on va pouvoir déterminer la forme de la matrice de dimension 2 associée à g3 :

1 1 −1 1 √3

2 2 1 2 2 2
𝐷(𝑔3) = , 𝐷(𝑔3) ( ) = → 𝐷(𝑔3) =
√3 −√3 0 √3 √3 1
− − −
(2) ( 2 ) ( 2)
( 2 2)

On retrouve donc bien la matrice M3 de la page 4.

De la même façon, en se basant sur les mêmes deux vecteurs, on retrouverait4 la forme matricielle des
transformations g2, g4, g5 et g6.

Chacune de ces transformations laisse le triangle invariant mais va transformer certaines parties du
triangle.

Le groupe S3 laisse le triangle invariant mais chacune de ces représentations irréductibles va chercher
un élément physique/géométrique concret du triangle et soit le conserver soit le modifier.

Ainsi la représentation D’(1) va chercher le périmètre (scalaire) et le conserver. La représentation D(1)


va chercher le périmètre orienté (pseudo-scalaire) et soit le conserve, soit change son sens. La

4
Un autre choix de vecteurs aurait conduit à une autre représentation matricielle...unitairement équivalente à
celle-ci. Donc le choix des vecteurs n’est pas un problème.

9
représentation D(2) va chercher deux vecteurs (vrais vecteurs) portés par deux côtés du triangle et les
amène sur deux autres côtés du triangle.

Terminons par ce qu’on appelle la représentation adjointe. Celle-ci est caractérisée par le fait que la
dimension des matrices est égale à l’ordre du groupe.

Ainsi, pour S3, la représentation adjointe est de dimension 6. Ces matrices de dimension 6 ne sauraient
être associées à une représentation irréductibles à cause de ∑𝑖 𝑁𝑖 2 = 6. En fait ces matrices seront
réductibles à la somme directe

𝐷 (2) ⊕ 𝐷 (2) ⊕ 𝐷 (1) ⊕ 𝐷 ′(1)

Groupes continus ou groupes de Lie – L’exemple de SO(2)


Les groupes de symétrie qui intéressent le physicien quantique sont continus : chaque transformation
dépend d’un paramètre qui n’est pas limité à un nombre fini de valeurs mais qui peut prendre une
infinité de valeurs appartenant à un intervalle délimité ou non. Ces groupes sont aussi appelés des
groupes de Lie (du nom du mathématicien norvégien Sophus Lie).

Dans le cas où le paramètre appartient à un domaine délimité ou fini (comme [0, 2π], par exemple),
on dit que le groupe est compact.

Nous avons ainsi vu dans la section précédente que les matrices de dimension 2 associées aux rotations
de 120° et 240° sont respectivement :
1 √3 1 √3
− − −
M2 = ( 2 2
), M3 = ( 2 2
)
√3 1 √3 1
2
−2 − 2 −2

Elles peuvent également s’écrire


cos 120° − sin 120° cos 240° − sin 240°
𝑀2 = ( ) , 𝑀3 = ( )
sin 120° cos 120° sin 240° cos 240°
Lorsque l’angle de rotation n’est plus limité à ces deux valeurs mais peut prendre toutes les valeurs
comprises entre 0° et 360°, on réunit ces deux matrices en une, dépendant du paramètre ϑ qui marque
l’angle de rotation :
cos 𝜗 − sin 𝜗
𝑀(𝜗) = ( )
sin 𝜗 cos 𝜗
Cette matrice est la représentation en terme de matrice de dimension 2 d’un groupe de Lie appelé
SO(2).

Il est appelé ainsi à cause des caractéristiques de la matrice :

• S signifie que le déterminant de la matrice est égal à 1


• O signifie que la matrice est orthogonale, c’est-à-dire que MT M = M MT = I
• 2 pour la dimension de la matrice.

Ses éléments doivent être réels.

La vérification des caractéristiques du groupe est immédiate :

10
cos 𝜃 − sin 𝜃 cos 𝜃′ − sin 𝜃′ cos(𝜃 + 𝜃′) − sin(𝜃 + 𝜃 ′ )
M(θ)M(θ’) = ( )( )=( ) = M(θ+θ’)
sin 𝜃 cos 𝜃 sin 𝜃 ′ cos 𝜃′ sin(𝜃 + 𝜃 ′ ) cos(𝜃 + 𝜃′)
La loi interne est donc assurée ainsi que l’existence du neutre (θ = 0°) et de l’inverse (θ’ = - θ).

Au niveau des transformations, SO(2) correspond donc à

𝑥 ′ = cos 𝜗 𝑥 − sin 𝜗 𝑦 ; 𝑦 ′ = sin 𝜗 𝑥 + cos 𝜗 𝑦


soit une rotation de centre 0, de sens trigonométrique et d’amplitude ϑ.

Ce changement de coordonnées est particulièrement parlant pour constater que le triangle invariant
du groupe discret a fait place au cercle invariant :

𝑥 ′2 + 𝑦 ′2 = 𝑥 2 + 𝑦 2
L’action de la rotation est
d’envoyer un point du
cercle sur un autre point
du cercle.

Au total, la totalité du
cercle est reconstituée.

Note : il peut être important de distinguer une rotation active d’une rotation passive... Késako ?

Une rotation est active quand le système d’axes ne bouge pas et le point subit activement la rotation.

Le point de coordonnées (5,2) est amené au point de coordonnées


(0.77,5.33) par une rotation de centre 0, de sens trigonométrique et
d’amplitude d’angle égale à 60°.

On a effectivement

0,77 = cos(60°) 5-sin(60°) 2

5,33 = sin(60°) 5+ cos(60°) 2

La matrice que nous avons écrite ci-dessus est donc relative à une rotation
active.

Une rotation est passive quand c’est le système d’axes qui subit la rotation tandis que le point est immobile. Ses coordonnées
subissent alors la transformation du fait du changement d’axes.

11
Cette fois, c’est le système d’axes qui a subi
la rotation de centre O, dans le sens
trigonométrique avec un angle de 60°. Les
axes noirs ont fait place aux axes roses.

Les coordonnées (5,2) du point ont donc subi


cette transformation : elles sont maintenant
4,23 et -3,33.

Cela s’explique par

4,23 = cos(60°) 5+sin(60°) 2

-3,33 = -sin(60°) 5+ cos(60°) 2

Donc, en résumé :
cos 𝜗 − sin 𝜗
𝑀(𝜗) = ( ) → 𝑟𝑜𝑡𝑎𝑡𝑖𝑜𝑛 𝑎𝑐𝑡𝑖𝑣𝑒
sin 𝜗 cos 𝜗
cos 𝜗 sin 𝜗
𝑀(𝜗) = ( ) → 𝑟𝑜𝑡𝑎𝑡𝑖𝑜𝑛 𝑝𝑎𝑠𝑠𝑖𝑣𝑒
−sin 𝜗 cos 𝜗
En général, pour une transformation T, on aura
−1
𝑇𝑝𝑎𝑠𝑠𝑖𝑓 = 𝑇𝑎𝑐𝑡𝑖𝑓

On peut donc décider d’aborder le caractère actif comme le caractère passif d’un moment à l’autre.
L’essentiel est d’envisager alors, au gré, la transformation ou son inverse (ici, un angle ou son opposé).

Algèbres de Lie – L’exemple de so(2)


Le physicien quantique va privilégier, en lieu et place du groupe de Lie, l’algèbre de Lie qui lui est
associée.

L’algèbre de Lie est l’équivalent infinitésimal du groupe : pour fixer les idées, imaginer, par exemple,
un disque à qui l’on va faire subir une rotation, mais au lieu de faire un mouvement complet, on se
contente de partir de l’immobilité (= de l’identité) et d’imprimer un tout petit mouvement, donc une
rotation d’angle très petit. Comme la rotation est continue, on se dit, en quelque sorte, qu’il suffit
d’initier le mouvement et, sur la lancée, on sait comment il va se poursuivre...

C’est l’avantage de l’algèbre : le mouvement est initié, donc il est connu, et le fait de se limiter à son
« début » permet de faciliter les calculs....

En pratique, pour chaque paramètre d’un groupe de Lie, on va définir un générateur d’algèbre. Celui-
ci correspond à la variation du paramètre par incréments infinitésimaux. C’est donc typique des
transformations continues.

Par définition, si ϑ est le paramètre du groupe, le générateur correspondant est donné par5

5
en langage mathématique, on dit qu’on calcule le vecteur tangent au groupe SO(2) dans l’espace tangent à
l’identité (θ = 0°). En analyse classique, la pente d’une tangente à une fonction est donnée par la dérivée de
1
cette fonction et la dérivée est définie par 𝑓 ′ (𝑥) = lim ((𝑓(𝑥 + ℎ) − 𝑓(𝑥)). Remarquer l’analogie entre la
ℎ→0 ℎ
définition du générateur X et la définition de cette dérivée : si x = 0 et la fonction f remplacée par la matrice
g...on y est !

12
𝑔(𝜗) − 𝑔(0)
𝑋 = lim
𝜗→0 𝜗
Donc le générateur associé à SO(2) sera
1 cos 𝜗 − 1 − sin 𝜗
𝑋 = lim ( )
𝜗→0 𝜗 sin 𝜗 cos 𝜗 − 1
En se rappelant les développements en série des fonctions sinus et cosinus :

𝜗2 𝜗4 𝜗3 𝜗5
cos 𝜗 = 1 − + − ⋯ ; sin 𝜗 = 𝜗 − + −⋯
2 24 6 120
on a
0 −1
𝑋= ( )
1 0
Cette matrice est celle d’une algèbre de Lie (un espace vectoriel muni d’une loi « commutateur » qui
n’a pas lieu d’être ici puisqu’il y a un seul générateur) : l’algèbre so(2).

Explication :

• s signifie que la trace de la matrice est nulle


• o signifie que la matrice est telle que sa transposée est son opposée
• 2 car c’est la dimension de la matrice.

A nouveau, les éléments de cette matrice doivent être réels.

On dit que groupe de Lie et algèbre de Lie se correspondent par exponentiation :

cos 𝜗 − sin 𝜗 1 0 0 −1 1 −1 0
𝑀(𝜗) = ( ) = 𝑒𝜗 𝑋 = ( )+ 𝜗 ( ) + 𝜗2 ( )…
sin 𝜗 cos 𝜗 0 1 1 0 2 0 −1
La différence entre les caractéristiques S et s est alors claire puisqu’on a cette propriété (admise ici) :

det 𝑒 𝑋 = 𝑒 𝑡𝑟 𝑋
Une trace nulle au niveau de l’algèbre correspond donc bien à un déterminant égal à 1 au niveau du
groupe.

Quant aux caractéristiques respectives O et o, elles s’expliquent via


𝑇 𝑇 +𝑋)
𝑒 𝜗 𝑋 𝑒 𝜗 𝑋 = 𝑒 𝜗( 𝑋 = 1 ⇒ 𝑋𝑇 + 𝑋 = 0

Le générateur X peut aussi s’écrire comme un opérateur différentiel en lieu et place de la matrice de
dimension 2. En effet, les transformations

𝑥 ′ = cos 𝜗 𝑥 − sin 𝜗 𝑦 ; 𝑦 ′ = sin 𝜗 𝑥 + cos 𝜗 𝑦


prises sous forme infinitésimale (caractéristique de l’algèbre, rappelons-le) s’écrivent

𝑥′ = 𝑥 − 𝜗 𝑦 ; 𝑦′ = 𝜗 𝑥 + 𝑦

Cela devrait être l’action de M(ϑ) = 𝑒 𝜗 𝑋 prise sous forme infinitésimale, c’est-à-dire (1 + ϑ X).

Or si l’on prend

13
𝜕 𝜕
𝑋=𝑥 −𝑦
𝜕𝑦 𝜕𝑥
on aura

(1 + 𝜗 𝑋 )𝑥 = 𝑥 − 𝜗 𝑦 ; (1 + 𝜗 𝑋)𝑦 = 𝑦 + 𝜗 𝑥

Soit ce que l’on voulait.

On retiendra donc que le générateur de l’algèbre so(2) peut s’écrire sous deux formes différentes :

0 −1 𝜕 𝜕
𝑋= ( ) 𝑒𝑡 𝑋 = 𝑥 −𝑦
1 0 𝜕𝑦 𝜕𝑥
Après cette mise en bouche, on va passer à des plats plus consistants pour le physicien.

Le groupe des translations


Une translation, en géométrie plane, est un glissement selon un vecteur :
Ici, le triangle, c’est-à-dire chacun de ses trois sommets, a été
translaté selon la règle : je descends de deux unités et je pars vers
la gauche de quatre unités.

La première des coordonnées a donc chaque fois perdu quatre


unités tandis que la deuxième des coordonnées en a perdu deux.

Si 𝑟 désigne les deux coordonnées de chacun des sommets du


⃗⃗ désigne les coordonnées de chacun des sommets
triangle rose et 𝑟′
du triangle bleu, on aura ainsi :

⃗⃗ = 𝑟 + 𝑎
𝑟′ 𝑎 étant le vecteur de translation, (-4,-2) ici

Comme deux translations successives équivalent à une seule translation (dont le vecteur est la somme
des deux autres), que l’identité peut être vue comme une translation de vecteur nul et que revenir en
arrière, c’est appliquer une translation de vecteur opposé au premier, on peut affirmer que les
translations forment un groupe. Ce groupe est noté T(n), n étant la dimension de l’espace considéré.

On peut même ajouter que ce groupe est abélien (ou commutatif) : l’ordre des translations n’a en effet
aucune importance.

⃗⃗ = 𝑟 + 𝑎 est l’action classique des translations sur des coordonnées, ou de


La loi de transformation 𝑟′
manière équivalente, sur un vecteur position.

Mais comment agissent les translations sur une fonction ?

14
Ici, on a pris l’exemple très simple de la fonction f(x) = x2 (en
vert). Elle a été translatée par le vecteur de composantes
(3,0) (on a privilégié un seul axe pour simplifier). On
constate que son image, la fonction en orange, est la
fonction f(x) =(x-3)2.

L’effet de la translation (le long de l’axe x) est donc :

x’ = x + 3

Mais

f’(x) = f(x-3)

Donc,

⃗⃗ = 𝑟 + 𝑎 𝑚𝑎𝑖𝑠 𝑇(𝑎)𝑓(𝑟) = 𝑓(𝑟 − 𝑎)


𝑟′
En mécanique quantique, la translation est un opérateur qui agit sur une fonction : la fonction d’onde.

On va ainsi imposer

𝜓 ′ (𝑟) = 𝑇(𝑎)𝜓(𝑟) = 𝜓 (𝑟 − 𝑎)
Cela entraine

𝜓 ′ (𝑟′) = 𝜓 (𝑟⃗⃗⃗′ − 𝑎) = 𝜓 (𝑟)

Autrement dit, l’état transformé à la position transformée est identique à l’état initial à la position
initiale...ce qui traduit l’invariance, et donc la symétrie, recherchée. En effet, la symétrie en physique
quantique, c’est la conservation de la densité de probabilité :

|𝜓 ′ (𝑟′)|2 = | 𝜓 (𝑟)|2

Mais quelle est la forme précise de l’opérateur translation 𝑇(𝑎) ?

Pour la mettre en évidence, on se simplifie momentanément la vie en considérant une seule dimension
d’espace. On a donc

𝑇(𝑎)𝜓(𝑥) = 𝜓(𝑥 − 𝑎)
Or, il existe un développement, que l’on appelle le développement de Taylor, d’une fonction f(x+c) en
général. En appliquant ce développement de Taylor, on a
𝑑𝜓(𝑥) (−1)𝑛 𝑎𝑛 𝑑𝑛 𝜓(𝑥)
𝜓(𝑥 − 𝑎) = 𝜓(𝑥) − 𝑎 + ⋯+ +⋯
𝑑𝑥 𝑛! 𝑑𝑥 𝑛
𝑑
En se rappelant que 𝑝 = −𝑖 ℎ̅ 𝑑𝑥
, on écrit encore

𝑖 𝑖
− 𝑎𝑝
𝜓(𝑥 − 𝑎) = 𝜓(𝑥) − 𝑎 𝑝 𝜓(𝑥) + ⋯ = 𝑒 ℎ̅ 𝜓(𝑥) = 𝑇(𝑎) 𝜓(𝑥)
ℎ̅

15
On en déduit donc la forme de l’opérateur translation (généralisation immédiate au contexte de trois
dimensions spatiales) :
𝑖
− ̅ 𝑎⃗ .𝑝
⃗⃗⃗ ) = 𝑒
𝑇(𝑎 ℎ

Notons qu’on retrouve bien tout ce qu’on attend d’une translation :

• Deux translations successives forment une translation dont le vecteur est la somme des deux
précédents :
𝑇(𝑎)𝑇(𝑏⃗) = 𝑇(𝑎 + 𝑏⃗)
Ceci est dû au caractère additif de l’argument d’une exponentielle lorsqu’on multiplie deux
exponentielles.

• La translation neutre est celle correspondant au vecteur nul. Ceci est dû au fait que
l’exponentielle d’un argument nul vaut 1.
• La translation inverse est celle dont le vecteur est l’opposé de la première. A nouveau, c’est
assuré par l’exponentielle.

Comment agit cet opérateur sur un autre opérateur O ? On fait là appel à la loi de transformation des
opérateurs :

𝑂′ = 𝑇 † (𝑎
⃗⃗⃗ ) 𝑂 𝑇(𝑎
⃗⃗⃗ )
Si cet opérateur O est le Hamiltonien, cela donnera

𝐻 ′ = 𝑇 † (𝑎
⃗⃗⃗ ) 𝐻 𝑇(𝑎
⃗⃗⃗ )
Constater qu’un Hamiltonien est invariant sous les translations, c’est constater que

𝐻 = 𝑇 † (𝑎
⃗⃗⃗ ) 𝐻 𝑇(𝑎
⃗⃗⃗ )
Cette relation peut aussi s’écrire de manière plus simple, en utilisant le fait que l’opérateur translation
est unitaire

𝑇(𝑎 ⃗⃗⃗ ) ⇒ [𝐻, 𝑇(𝑎


⃗⃗⃗ ) 𝐻 = 𝐻 𝑇(𝑎 ⃗⃗⃗ )] = 0

Mais il y a encore plus simple !

Ecrire
𝑖
− ̅ 𝑎⃗ .𝑝
⃗⃗⃗ ) = 𝑒
𝑇(𝑎 ℎ

c’est écrire que les trois impulsions sont les générateurs de l’algèbre des translations correspondant
aux trois paramètres 𝑎1, 𝑎2, 𝑎3 du groupe (cf. passer de l’algèbre au groupe, c’est exponentier)...

Or, il existe une formule dite de Baker-Campbell-Haussdorf qui stipule que


1
𝑒 𝑋 𝑌 𝑒 −𝑋 = 𝑌 + [𝑋 , 𝑌] + [𝑋, [𝑋 , 𝑌]] …
2
𝑖
Appliquée au contexte développé ici où Y = H et X =− ℎ̅ 𝑎. 𝑝 , cela entraine que commuter avec
l’opérateur translation, c’est commuter avec chacune des trois impulsions.

16
On retiendra donc de tout ceci que l’invariance d’un Hamiltonien par rapport aux translations se traduit
par
[𝐻, 𝑝 ] = 0

Le Hamiltonien de Schrödinger libre étant

𝑝2
𝐻=
2𝑚
on est alors assuré de l’invariance de l’équation de Schrödinger libre par rapport aux translations. En
fait, cela revient à dire que les dérivées partielles (donc les impulsions) commutent, ce qui est garanti
par le théorème de Schwartz.

En ce qui concerne d’autres opérateurs que le Hamiltonien, on a les lois de transformation suivantes :

⃗⃗⃗ 𝑖
𝑝′ = 𝑇 † (𝑎 ⃗⃗⃗ ) = 𝑝 + 𝑎𝑗 [𝑝𝑗, 𝑝 ] … = 𝑝
⃗⃗⃗ ) 𝑝 𝑇(𝑎
ℎ̅

⃗⃗ = 𝑇 † (𝑎 𝑖
𝑟′ ⃗⃗⃗ ) = 𝑟 + 𝑎𝑗 [𝑝𝑗, 𝑟 ] … = 𝑟 + 𝑎
⃗⃗⃗ ) 𝑟 𝑇(𝑎
̅

𝜕
puisque [𝑝𝑗, 𝑥𝑘] = [−𝑖 ℎ̅ 𝜕𝑥𝑗
, 𝑥𝑘] = −𝑖 ℎ̅ 𝛿𝑗𝑘 .

La première de ces relations permet de se convaincre une nouvelle fois de l’invariance du Hamiltonien
libre de Schrödinger sous les translations :

⃗⃗⃗
𝑝′2 𝑝2
𝐻′ = = =𝐻
2𝑚 2𝑚
A noter que tout ceci est généralisable à un espace de n’importe quelle dimension : seul le produit
scalaire 𝑎𝑝 est impacté et devient, par exemple, une somme de quatre termes si on passe à un espace
à quatre dimensions.

Le groupe des rotations


Nous avons déjà abordé les rotations dans le paragraphe de SO(2) en nous limitant au plan.

Cette fois, nous étudions les rotations dans un espace à trois dimensions.

Cette fois, c’est la sphère qui est invariante sous ces transformations.

Ici, il y a des difficultés techniques. Elles sont notamment liées au fait qu’il existe différentes
paramétrisations des rotations dans un espace 3D.

(cf. https://fr.wikipedia.org/wiki/Matrice_de_rotation )

Par exemple :

17
Toute rotation peut être décomposée selon les trois rotations suivantes :

- Rotation d’angle γ1 des deux axes x et y autour de z : x1, y1 et z1 = z


- Rotation d’angle γ2 des deux axes x1 et z1 autour de y1 : x2, z2 et y2 = y1
- Rotation d’angle γ3 des deux axes x2 et y2 autour de z2 = x’, y’ et z’ = z2

C’est la paramétrisation selon les trois angles d’Euler. Ce n’est cependant pas la plus
simple pour mettre en évidence l’algèbre des rotations...

Autre paramétrisation possible : un angle γ et un vecteur unitaire 𝑢


⃗ . Il y a encore trois paramètres :
l’angle et les trois composantes du vecteur moins la contrainte de l’unitarité, donc 1 + 3 – 1 = 3.

Au lieu d’avoir le système d’axes habituel ⃗⃗⃗⃗


𝑒𝑥 , ⃗⃗⃗⃗
𝑒𝑦 , ⃗⃗⃗
𝑒𝑧 , on va passer par un système de trois autres
⃗⃗⃗⃗ , 𝑣2
vecteurs 𝑣1 ⃗⃗⃗⃗ , 𝑣3
⃗⃗⃗⃗ = 𝑢
⃗.

Loi de passage d’un système à un autre :

⃗⃗⃗⃗
𝑣1 𝑎1 𝑏1 𝑐1 𝑒𝑥
⃗⃗⃗⃗
(⃗⃗⃗⃗
𝑣2 ) = (𝑎2 𝑏2 𝑐2) (⃗⃗⃗⃗
𝑒𝑦 )
⃗⃗⃗⃗
𝑣3 𝑎3 𝑏3 𝑐3 ⃗⃗⃗
𝑒𝑧
C’est une relation qui est, plus simplement, équivalente à demander que les vecteurs ci-dessous aient
les composantes suivantes dans le repère initial :

⃗⃗⃗⃗ (𝑎1, 𝑏1, 𝑐1), 𝑣2


𝑣1 ⃗⃗⃗⃗ (𝑎2, 𝑏2, 𝑐2), 𝑣3
⃗⃗⃗⃗ (𝑎3, 𝑏3, 𝑐3)

Il y a des contraintes sur ces composantes. On va, en effet, demander que le nouveau système des
trois axes soit un système orthonormé. Donc, en détails :

𝑣12 = 1 ⇒ 𝑎12 + 𝑏12 + 𝑐12 = 1

𝑣22 = 1 ⇒ 𝑎22 + 𝑏22 + 𝑐22 = 1

𝑣32 = 1 ⇒ 𝑎32 + 𝑏32 + 𝑐32 = 1


⃗⃗⃗⃗ . 𝑣2
𝑣1 ⃗⃗⃗⃗ = 0 ⇒ 𝑎1 𝑎2 + 𝑏1 𝑏2 + 𝑐1 𝑐2 = 0

⃗⃗⃗⃗ = 𝑣1
𝑣3 ⃗⃗⃗⃗ ∧ 𝑣2
⃗⃗⃗⃗ ⇒ 𝑎3 = 𝑏1 𝑐2 − 𝑏2 𝑐1 , 𝑏3 = 𝑎2 𝑐1 − 𝑎1 𝑐2 , 𝑐3 = 𝑎1 𝑏2 − 𝑎2 𝑏1

Nous allons à présent écrire la matrice générale de rotation en réalisant les trois transformations
successives suivantes :

{𝑒⃗⃗⃗⃗𝑥 , ⃗⃗⃗⃗
𝑒𝑦 , ⃗⃗⃗ ⃗⃗⃗⃗ , ⃗⃗⃗⃗
𝑒𝑧 } → {𝑣1 𝑣2, ⃗⃗⃗⃗ ⃗⃗⃗⃗⃗⃗ , ⃗⃗⃗⃗⃗⃗
𝑣3} → {𝑣′1 𝑣′2, ⃗⃗⃗⃗⃗⃗ ⃗⃗⃗⃗⃗𝑥 , 𝑒′
𝑣′3} → {𝑒′ ⃗⃗⃗⃗⃗𝑦 , ⃗⃗⃗⃗⃗
𝑒′𝑧 }

La première de ces transformations a déjà été évoquée ci-dessus. La deuxième est la rotation
proprement dite : une rotation d’angle γ autour de l’axe 𝑣3⃗⃗⃗⃗ . La dernière transformation est l’inverse
de la première. La matrice qui la caractérise est, caractère orthogonal oblige, l’inverse, c’est-à-dire la
transposée de la première. Donc :

⃗⃗⃗⃗⃗
𝑒′𝑥 ⃗⃗⃗⃗⃗⃗
𝑎1 𝑎2 𝑎3 𝑣′1
⃗⃗⃗⃗⃗
(𝑒′𝑦 ) = (𝑏1 𝑏2 𝑏3) (⃗⃗⃗⃗⃗⃗
𝑣′2)
⃗⃗⃗⃗⃗ 𝑐1 𝑐2 𝑐3 ⃗⃗⃗⃗⃗⃗
𝑣′3
𝑒′𝑧

18
Comme le système d’axes final doit rester orthogonal, de manière à former une base, on aura des
contraintes supplémentaires sur les composantes :

𝑎12 + 𝑎22 + 𝑎32 = 1 , 𝑏12 + 𝑏22 + 𝑏32 = 1 , 𝑐12 + 𝑐22 + 𝑐32 = 1


𝑎1 𝑏1 + 𝑎2 𝑏2 + 𝑎3 𝑏3 = 0, 𝑎1 𝑐1 + 𝑎2 𝑐2 + 𝑎3 𝑐3 = 0, 𝑏1 𝑐1 + 𝑏2 𝑐2 + 𝑏3 𝑐3 = 0
On va garder à l’esprit l’ensemble de ces contraintes pour développer la matrice finale de rotation :

⃗⃗⃗⃗⃗
𝑒′𝑥 𝑒𝑥
⃗⃗⃗⃗
⃗⃗⃗⃗⃗ 𝑒
⃗⃗⃗⃗
(𝑒′𝑦 ) = 𝑅 ( 𝑦 )
⃗⃗⃗⃗⃗
𝑒′ ⃗⃗⃗
𝑒𝑧
𝑧

⃗⃗⃗⃗⃗
𝑒′𝑥 𝑒𝑥
⃗⃗⃗⃗
𝑎1 𝑎2 𝑎3 cos 𝛾 sin 𝛾 0 𝑎1 𝑏1 𝑐1
⃗⃗⃗⃗⃗𝑦 ) = (𝑏1
(𝑒′ 𝑏2 𝑏3) (− sin 𝛾 cos 𝛾 0) (𝑎2 𝑒
⃗⃗⃗⃗
𝑏2 𝑐2) ( 𝑦 )
⃗⃗⃗⃗⃗ 𝑐1 𝑐2 𝑐3 0 0 1 𝑎3 𝑏3 𝑐3 ⃗⃗⃗
𝑒𝑧
𝑒′𝑧
⃗⃗⃗⃗⃗
𝑒′𝑥 𝑒𝑥
⃗⃗⃗⃗
𝑎1 cos 𝛾 − 𝑎2 sin 𝛾 𝑎1 sin 𝛾 + 𝑎2 cos 𝛾 𝑎3 𝑎1 𝑏1 𝑐1
⃗⃗⃗⃗⃗𝑦 ) = (𝑏1 cos 𝛾 − 𝑏2 sin 𝛾
(𝑒′ 𝑏1 sin 𝛾 + 𝑏2 cos 𝛾 𝑏3) (𝑎2 𝑏2 𝑐2) (⃗⃗⃗⃗
𝑒𝑦 )
⃗⃗⃗⃗⃗ 𝑐1 cos 𝛾 − 𝑐2 sin 𝛾 𝑐1 sin 𝛾 + 𝑐2 cos 𝛾 𝑐3 𝑎3 𝑏3 𝑐3 𝑒⃗⃗⃗𝑧
𝑒′𝑧
Les éléments de la matrice R sont ainsi :

𝑅11 = (𝑎12 + 𝑎22 ) cos 𝛾 + 𝑎32 = 𝑎32 (1 − cos 𝛾) + cos 𝛾

𝑅22 = (𝑏12 + 𝑏22 ) cos 𝛾 + 𝑏32 = 𝑏32 (1 − cos 𝛾) + cos 𝛾

𝑅33 = (𝑐12 + 𝑐22 ) cos 𝛾 + 𝑐32 = 𝑐32 (1 − cos 𝛾) + cos 𝛾


𝑅12 = (𝑎1𝑏1 + 𝑎2𝑏2) cos 𝛾 + (𝑎1𝑏2 − 𝑎2𝑏1) sin 𝛾 + 𝑎3𝑏3 = 𝑎3𝑏3(1 − cos 𝛾) + 𝑐3 sin 𝛾
𝑅21 = (𝑎1𝑏1 + 𝑎2𝑏2) cos 𝛾 − (𝑎1𝑏2 − 𝑎2𝑏1) sin 𝛾 + 𝑎3𝑏3 = 𝑎3𝑏3(1 − cos 𝛾) − 𝑐3 sin 𝛾
𝑅13 = (𝑎1𝑐1 + 𝑎2𝑐2) cos 𝛾 + (𝑎1𝑐2 − 𝑎2𝑐1) sin 𝛾 + 𝑎3𝑐3 = 𝑎3𝑐3(1 − cos 𝛾) − 𝑏3 sin 𝛾
𝑅31 = (𝑎1𝑐1 + 𝑎2𝑐2) cos 𝛾 − (𝑎1𝑐2 − 𝑎2𝑐1) sin 𝛾 + 𝑎3𝑐3 = 𝑎3𝑐3(1 − cos 𝛾) + 𝑏3 sin 𝛾
𝑅23 = (𝑏1𝑐1 + 𝑏2𝑐2) cos 𝛾 + (𝑏1𝑐2 − 𝑏2𝑐1) sin 𝛾 + 𝑏3𝑐3 = 𝑏3𝑐3(1 − cos 𝛾) + 𝑎3 sin 𝛾
𝑅32 = (𝑏1𝑐1 + 𝑏2𝑐2) cos 𝛾 − (𝑏1𝑐2 − 𝑏2𝑐1) sin 𝛾 + 𝑏3𝑐3 = 𝑏3𝑐3(1 − cos 𝛾) − 𝑎3 sin 𝛾
La matrice de rotation est ainsi exprimée en terme de quatre nombres : a3, b3, c3 et γ.

En se rappelant la contrainte sur a3, b3 et c3, a32 + b32 + c32 =1, on a, finalement, trois paramètres
pour caractériser la matrice de rotation. Ces trois paramètres peuvent être γ, ϑ et 𝜑 si on pose

𝑎3 = sin 𝜗 cos 𝜑 ; 𝑏3 = sin 𝜗 sin 𝜑 ; 𝑐3 = cos 𝜗

La matrice R de transformation est de déterminant égal à 1 et est aussi orthogonale.

La vérification ne présente aucune complication même si c’est assez fastidieux. Par exemple,
l’orthogonalité passe par la vérification de
2 2 2
𝑅11 + 𝑅21 + 𝑅31 =1
19
Avec les expressions données à la page précédente, on obtient

𝑎34 (1 − cos 𝛾) 2 + 2 𝑎32 cos 𝛾(1 − cos 𝛾) + cos 2 𝛾 + 𝑎32 (𝑏32 + 𝑐32 )(1 − cos 𝛾) 2 + (𝑏32 + 𝑐32 ) sin2 𝛾

= 𝑎34 (1 − cos 𝛾) 2 + 2 𝑎32 cos 𝛾(1 − cos 𝛾) + cos 2 𝛾 + 𝑎32 (1 − 𝑎32 )(1 − cos 𝛾) 2 + (1 − 𝑎32 ) sin2 𝛾

= 1 + 𝑎32 (2 cos 𝛾 − 2 cos 2 𝛾 + 1 − 2 cos 𝛾 + cos2 𝛾 − sin2 𝛾) = 1

R est la matrice générique de SO(3) puisque le groupe SO(3) est représenté par les matrices ayant les
caractéristiques suivantes :

• S donc déterminant égal à 1


• O signifie que les matrices sont orthogonales
• 3 pour la dimension des matrices

De plus, les éléments de la matrice sont réels.

Les générateurs ne sont pas obtenus comme dans le cas de SO(2), hormis celui correspondant à γ :
cos 𝛾 sin 𝛾 0 0 1 0
𝑅(𝛾, 0,0) = (− sin 𝛾 cos 𝛾 0) → 𝑋1 = (−1 0 0)
0 0 1 0 0 0
Les autres angles mènent en effet à la matrice identité.

Cela fait partie des difficultés techniques de SO(3).

Nous allons les surpasser en procédant comme suit.

Nous développons les éléments de la matrice R de SO(3) mais en passant au contexte infinitésimal6
pour lequel cos 𝛾 = 1, sin 𝛾 = 𝛾 :
1 𝛾 𝑐3 −𝛾 𝑏3
𝑅 = (−𝛾 𝑐3 1 𝛾 𝑎3 )
𝛾 𝑏3 −𝛾 𝑎3 1
Hormis l’identité, on reconnait donc trois matrices :
0 1 0 0 0 −1 0 0 0
𝑋1 = (−1 0 0) , 𝑋2 = (0 0 0 ) , 𝑋3 = (0 0 1)
0 0 0 1 0 0 0 −1 0

Les générateurs X1, X2 et X3 sont des matrices menant à l’algèbre de Lie so(3)

• s pour la trace nulle


• o pour le caractère transposée = opposée
• 3 pour la dimension de la matrice

A nouveau, les éléments sont réels.

Les relations de commutation satisfaites par ces matrices sont

6
Contexte de l’algèbre : l’algèbre est la version infinitésimale du groupe

20
[𝑋1 , 𝑋2] = 𝑋3 ; [𝑋3 , 𝑋1] = 𝑋2 ; [𝑋2 , 𝑋3] = 𝑋1

Comme pour les translations, il est aussi possible de mettre en évidence une autre réalisation de cette
algèbre.

On revient à la matrice R écrite sous forme infinitésimale et on la transpose pour marquer la


transformation inverse :
𝑥 1 −𝛾 𝑐3 𝛾 𝑏3 𝑥′
𝑦
( )= ( 𝛾 𝑐3 1 −𝛾 𝑎3) (𝑦′)
𝑧 −𝛾 𝑏3 𝛾 𝑎3 1 𝑧′
En détails, cette transformation inverse s’écrit

𝑥 = 𝑥 ′ − 𝛾 𝑐3 𝑦 ′ + 𝛾 𝑏3 𝑧′
{𝑦 = 𝑦 ′ + 𝛾 𝑐3 𝑥 ′ − 𝛾 𝑎3 𝑧′
𝑧 = 𝑧 ′ − 𝛾 𝑏3 𝑥 ′ + 𝛾 𝑎3 𝑦′

Comme pour les translations, l’invariance se marque par demander que la fonction d’onde ayant subi
la rotation et s’exprimant en terme de coordonnées elles-mêmes transformées soit la fonction d’onde
de départ où les variables sont celles d’origine :

𝜓 ′ (𝑥 ′ , 𝑦 ′ , 𝑧 ′ ) = 𝜓(𝑥, 𝑦, 𝑧)
Or, les coordonnées initiales sont écrites en fonction des coordonnées finales. Donc

𝜓 ′ (𝑥 ′ , 𝑦 ′ , 𝑧 ′ ) = 𝜓(𝑥, 𝑦, 𝑧) = 𝜓(𝑥 ′ + 𝛿𝑥 ′ , 𝑦 ′ + 𝛿𝑦 ′ , 𝑧 ′ + 𝛿𝑧′)


avec 𝛿𝑥 ′ = − 𝛾 𝑐3 𝑦 ′ + 𝛾 𝑏3 𝑧 ′ , 𝛿𝑦 ′ = 𝛾 𝑐3 𝑥 ′ − 𝛾 𝑎3 𝑧 ′ , 𝛿𝑧 ′ = − 𝛾 𝑏3 𝑥 ′ + 𝛾 𝑎3 𝑦 ′ .

Nous développons ensuite le dernier membre de cette équation selon le développement de Taylor :
𝜕𝜓(𝑥 ′ ,𝑦 ′ ,𝑧 ′ )
𝜓(𝑥 ′ + 𝛿𝑥 ′ , 𝑦 ′ + 𝛿𝑦 ′ , 𝑧 ′ + 𝛿𝑧 ′ ) = 𝜓(𝑥 ′ , 𝑦 ′ , 𝑧 ′ ) + 𝛾 ((𝑏3 𝑧 ′ − 𝑐3𝑦 ′ ) + (𝑐3 𝑥 ′ −
𝜕𝑥 ′
𝜕𝜓(𝑥 ′ ,𝑦′ ,𝑧 ′ ) 𝜕𝜓(𝑥 ′ ,𝑦 ′ ,𝑧 ′ ) 𝜕 𝜕 𝜕
𝑎3 𝑧 ′ ) + (𝑎3 𝑦 ′ − 𝑏3 𝑥 ′ ) = 𝜓(𝑥 ′ , 𝑦 ′ , 𝑧 ′ ) + 𝛾 (𝑎3 (𝑦 ′ 𝜕𝑧′ − 𝑧 ′ 𝜕𝑦′ ) + 𝑏3 (𝑧 ′ 𝜕𝑥 ′ −
𝜕𝑦 ′ 𝜕𝑧 ′
𝜕 𝜕 𝜕
𝑥 ′ 𝜕𝑧′ ) + 𝑐3 (𝑥 ′ 𝜕𝑦′ − 𝑦′ 𝜕𝑥 ′ )) 𝜓(𝑥 ′ , 𝑦 ′ , 𝑧 ′ )

On a donc au total
𝑖
𝜓 ′ (𝑥 ′ , 𝑦 ′ , 𝑧 ′ ) = (1 + 𝛾𝑢 ⃗⃗⃗ )𝜓(𝑥 ′ , 𝑦 ′ , 𝑧 ′ )
⃗ 𝐿
̅

ou, de manière équivalente (en repassant aux coordonnées d’origine et donc à la transformation inverse) :
𝑖
𝜓 ′ (𝑥, 𝑦, 𝑧) = (1 − ⃗ ⃗⃗𝐿⃗ )𝜓(𝑥, 𝑦, 𝑧)
𝛾𝑢
̅

Les composantes du vecteur opérateur 𝐿⃗ sont ici :
𝜕 𝜕
𝐿1 = −𝑖 ℎ̅ (𝑦 −𝑧 )
𝜕𝑧 𝜕𝑦
𝜕 𝜕
𝐿2 = −𝑖 ℎ̅ (𝑧 −𝑥 )
𝜕𝑥 𝜕𝑧

21
𝜕 𝜕
𝐿3 = −𝑖 ℎ̅ (𝑥 −𝑦 )
𝜕𝑦 𝜕𝑥
Ce sont les composantes du moment angulaire orbital quantifié (= devenu opérateur) :

𝐿⃗ = 𝑟 ∧ 𝑝
Elles satisfont les relations de commutation :

[𝐿1 , 𝐿2] = 𝑖 ℎ̅ 𝐿3 , [𝐿3 , 𝐿1] = 𝑖 ℎ̅ 𝐿2 , [𝐿2 , 𝐿3] = 𝑖 ℎ̅ 𝐿1

soit, à un 𝑖 ℎ̅ près, les relations de so(3), que l’on retrouve donc via
𝑖 𝑖 𝑖
𝑋1 = − 𝐿1, 𝑋2 = − 𝐿2, 𝑋3 = − 𝐿3
ℎ̅ ℎ̅ ℎ̅
La matrice R de SO(3) peut ainsi s’écrire
𝑖 ⃗
⃗ 𝐿
−̅ 𝛾 𝑢
𝑅= 𝑒 ℎ

Comme pour les translations, l’invariance du Hamiltonien de Schrödinger par rapport aux rotations va se
tester en vérifiant que ce Hamiltonien commute avec les opérateurs de moment angulaire :

𝜕2 𝜕2 𝜕2 𝜕 𝜕 𝜕 𝜕 𝜕 𝜕
[𝐻, 𝐿1] ⇒ [ 2 + + , 𝑦 −𝑧 ]=2 −2 =0
𝜕𝑥 𝜕𝑦 2 𝜕𝑧 2 𝜕𝑧 𝜕𝑦 𝜕𝑦 𝜕𝑧 𝜕𝑧 𝜕𝑦

𝜕2 𝜕2 𝜕2 𝜕 𝜕 𝜕 𝜕 𝜕 𝜕
[𝐻, 𝐿2] ⇒ [ 2 + + , 𝑧 −𝑥 ]=2 −2 =0
𝜕𝑥 𝜕𝑦 2 𝜕𝑧 2 𝜕𝑥 𝜕𝑧 𝜕𝑧 𝜕𝑥 𝜕𝑥 𝜕𝑧

𝜕2 𝜕2 𝜕2 𝜕 𝜕 𝜕 𝜕 𝜕 𝜕
[𝐻, 𝐿3] ⇒ [ 2 + + , 𝑥 −𝑦 ]=2 −2 =0
𝜕𝑥 𝜕𝑦 2 𝜕𝑧 2 𝜕𝑦 𝜕𝑥 𝜕𝑥 𝜕𝑦 𝜕𝑦 𝜕𝑥

On est alors assuré de l’invariance de l’équation de Schrödinger libre par rapport aux rotations

A noter que l’on peut également réaliser les opérateurs de moment angulaire orbital via les
coordonnées sphériques

𝑥 = 𝑟 sin 𝜗 cos 𝜑, 𝑦 = 𝑟 sin 𝜗 sin 𝜑, 𝑧 = 𝑟 cos 𝜗


On aura, en effet,
𝜕 𝜕𝑥 𝜕 𝜕𝑦 𝜕 𝜕 𝜕 𝜕 𝜕
= + = −𝑟 sin 𝜗 sin 𝜑 + 𝑟 sin 𝜗 cos 𝜑 = −𝑦 +𝑥
𝜕𝜑 𝜕𝜑 𝜕𝑥 𝜕𝜑 𝜕𝑦 𝜕𝑥 𝜕𝑦 𝜕𝑥 𝜕𝑦
et, donc,
𝜕
𝐿3 = −𝑖 ℎ̅
𝜕𝜑
Pour les deux autres composantes, il faut ajouter
𝜕 𝜕𝑥 𝜕 𝜕𝑦 𝜕 𝜕𝑧 𝜕 𝜕 𝜕 𝜕
= + + = 𝑟 cos 𝜗 cos 𝜑 + 𝑟 cos 𝜗 sin 𝜑 − 𝑟 sin 𝜗
𝜕𝜗 𝜕𝜗 𝜕𝑥 𝜕𝜗 𝜕𝑦 𝜕𝜗 𝜕𝑧 𝜕𝑥 𝜕𝑦 𝜕𝑧
On obtient alors

22
𝜕 𝜕 𝜕 𝜕 𝜕 𝜕
sin 𝜑 + 𝑐𝑜𝑡𝑔 𝜗 cos 𝜑 = 𝑟 cos 𝜗 − 𝑟 sin 𝜗 sin 𝜑 =𝑧 −𝑦
𝜕𝜗 𝜕𝜑 𝜕𝑦 𝜕𝑧 𝜕𝑦 𝜕𝑧
Donc,
𝜕 𝜕
𝐿1 = 𝑖 ℎ̅ (sin 𝜑 + 𝑐𝑜𝑡𝑔 𝜗 cos 𝜑 )
𝜕𝜗 𝜕𝜑
De la même façon, on a
𝜕 𝜕 𝜕 𝜕 𝜕 𝜕
− cos 𝜑 + 𝑐𝑜𝑡𝑔 𝜗 sin 𝜑 = − 𝑟 cos 𝜗 + 𝑟 sin 𝜗 cos 𝜑 =𝑥 −𝑧
𝜕𝜗 𝜕𝜑 𝜕𝑥 𝜕𝑧 𝜕𝑧 𝜕𝑥
Donc,
𝜕 𝜕
𝐿2 = − 𝑖 ℎ̅ (−cos 𝜑 + 𝑐𝑜𝑡𝑔 𝜗 sin 𝜑 )
𝜕𝜗 𝜕𝜑
Le Casimir de SO(3) s’écrit alors, en coordonnées sphériques :

1 𝜕 𝜕 1 𝜕2
𝐿2 = 𝐿12 + 𝐿22 + 𝐿32 = − ℎ̅2 ( (sin 𝜗 )+ 2 )
sin 𝜗 𝜕𝜗 𝜕𝜗 sin 𝜗 𝜕𝜑 2
On reconnaît l’opérateur qui était apparu dans l’étude de l’atome d’hydrogène (cf. le premier portfolio,
page 48).

A noter aussi, et c’est important, que le so(3) qui sous-tend l’équation de Schrödinger n’est constitué
que d’un seul moment angulaire : le moment angulaire orbital 𝐿⃗. Nulle présence d’un moment typique
du spin ! C’est une des raisons qui va faire en sorte que l’on abandonne l’équation de Schrödinger pour
celle de Dirac.

Ce spin va être lié à su(2,C) plutôt qu’à so(3). Aussi, nous disons quelques mots de cette algèbre et du
groupe qui lui est associé.

Le groupe de Lie SU(2,C) – L’algèbre de Lie su(2,C)


Le groupe SU(2,C) est représenté par les matrices ayant les caractéristiques suivantes :

• S donc déterminant égal à 1


• U signifie que les matrices sont unitaires (U U† = U† U = I)
• 2 pour la dimension des matrices
• C parce qu’elles sont constituées de nombres complexes

Ces matrices sont donc du type :

𝑀 = (𝑎̅ −𝑏̅) , |𝑎|2 + |𝑏|2 = 1


𝑏 𝑎
Avec la contrainte du déterminant, on a donc trois paramètres réels (deux pour chaque nombre
complexe a et b, donc quatre, moins un pour le déterminant).

L’ordre du groupe est donc 3.

Trois paramètres réels que l’on peut aussi faire apparaître à travers cette autre écriture de M :

23
𝑒 𝑖 𝜗 cos 𝜂 𝑒 𝑖 𝜑 sin 𝜂
𝑀(𝜗, 𝜂, 𝜑) = ( )
−𝑒 −𝑖 𝜑 sin 𝜂 𝑒 −𝑖 𝜗 cos 𝜂

On peut ainsi mettre en évidence chacun des trois générateurs associés aux paramètres.

Pour celui qui correspond à ϑ (on égale à 0 les deux autres paramètres) :
1 𝑒 𝑖𝜗 − 1 0 𝑖 0
𝑋1 = lim ( −𝑖𝜗
)= ( )
𝜗→0 𝜗 0 𝑒 −1 0 −𝑖
Pour celui qui correspond à η :
1 cos 𝜂 − 1 sin 𝜂 0 1
𝑋2 = lim ( )=( )
𝜂→0 𝜂 − sin 𝜂 cos 𝜂 − 1 −1 0

Pour celui qui correspond à 𝜑, on ne peut annuler η sinon la dépendance en 𝜑 disparait... On se


contente alors de prendre un η infinitésimal et on a :
1 0 𝑖𝜑 0 𝑖
𝑋3 = 𝜂 lim ( ) = 𝜂( )
𝜑→0 𝜑 𝑖𝜑 0 𝑖 0

Comme les générateurs sont définis à un facteur constant près (cf. espace vectoriel), on aura les trois
générateurs de l’algèbre su(2,C) :
𝑖 0 0 1 0 𝑖
𝑋1 = ( ) , 𝑋2 = ( ) , 𝑋3 = ( )
0 −𝑖 −1 0 𝑖 0
• s car les matrices sont de trace nulle
• u car les matrices sont anti-hermitiennes (𝑋 † = −𝑋)
• 2 car la dimension est deux et C car les éléments des matrices sont complexes.

L’algèbre su(2,C) est caractérisée par les relations de commutation suivantes :

[𝑋1 , 𝑋2] = 2 𝑋3 , [𝑋3 , 𝑋1] = 2 𝑋2 , [𝑋2 , 𝑋3] = 2 𝑋1

Ce sont, à un facteur 2 près, les relations de so(3) ! Ce facteur 2 est facilement éliminé en divisant par
2 chacune des matrices ci-dessus.

L’algèbre su(2,C) est donc isomorphe (identique) à so(3).

Il y aura cependant une légère différence au niveau du groupe...on la verra d’ici peu.

Il est également possible d’avoir une version différentielle. Pour cela, on écrit les lois de transformation
du groupe7 :

𝑥 ′ = 𝑒 𝑖 𝜗 cos 𝜂 𝑥 + 𝑒 𝑖 𝜑 sin 𝜂 𝑦 ; 𝑦 ′ = −𝑒 −𝑖 𝜑 sin 𝜂 𝑥 + 𝑒 −𝑖 𝜗 cos 𝜂 𝑦


Ensuite, on annule deux des trois paramètres et on prend le troisième infinitésimal. Par exemple :

𝑥 ′ = (1 + 𝑖 𝜗)𝑥; 𝑦 ′ = (1 − 𝑖 𝜗)𝑦
Cela doit représenter l’action de (1 + 𝜗 𝑋1). Le générateur correspondant à ϑ est alors
𝜕 𝜕
𝑋1 = 𝑖 (𝑥 −𝑦 )
𝜕𝑥 𝜕𝑦

7
Lois qui nous permettent d’affirmer que c’est la quantité |𝑥|2 + |𝑦|2 qui est conservée ici.

24
De la même façon, on aura
𝜕 𝜕 𝜕 𝜕
𝑋2 = −𝑦 +𝑥 ; 𝑋3 = 𝑖 (𝑦 +𝑥 )
𝜕𝑥 𝜕𝑦 𝜕𝑥 𝜕𝑦
A noter que les coordonnées x et y sont ici complexes...

Que ce soit via la représentation matricielle ou la représentation différentielle, ces générateurs


satisfont :

[𝑋1 , 𝑋2] = 2 𝑋3 ; [𝑋3 , 𝑋1] = 2 𝑋2 ; [𝑋2 , 𝑋3] = 2 𝑋1

Les algèbres su(2,C) et so(3) sont isomorphes...Mais qu’en est-il des groupes ?

Deux types de raisonnement pour le voir (selon ce qu’on préfère...)

Première approche

Considérons une matrice M de SU(2) et une matrice X, hermitienne de trace nulle.

Faisons ensuite le changement : X’ = M X M+.

X’ est encore hermitienne et de trace nulle puisque

X’+ = M X+ M+ = M X M+ = X’ et Tr(X’) = Tr(M X M+) = Tr (X M M+) = Tr (X) = 0.

Or, toute matrice hermitienne, de trace nulle et de dimension 2 peut s’écrire comme une combinaison
linéaire des matrices de Pauli
0 1 0 −𝑖 1 0
𝜎1 = ( ) , 𝜎2 = ( ) , 𝜎3 = ( )
1 0 𝑖 0 0 −1

Donc

X’ = ∑𝑖 𝑥′𝑖 σi = M X M+ = M (∑𝑖 𝑥𝑖 σi) M+ = ∑𝑖 𝑥𝑖 M σi M+.

Par ailleurs, comme la transformation X → X’ est linéaire, la linéarité doit être présente aussi sur les
coordonnées xi. Autrement dit : x’i = ∑𝑗 𝑅𝑖𝑗 xj. On a donc

X’ = ∑𝑖 𝑥′𝑖 σi = ∑𝑖𝑗 𝑅𝑖𝑗 xj σi.

En égalant ces deux expressions pour X’, on obtient

M σi M+ = ∑𝑗 𝑅𝑗𝑖 σj

Cette relation va permettre de construire les éléments de la matrice R à partir de M !


𝑖𝜃
Prenons une matrice simplifiée de SU(2) (seul le paramètre ϑ est gardé) : M = (𝑒 0 )
−𝑖𝜃
0 𝑒
On a alors pour i = 3
𝑖𝜃
(𝑒 0 ) (1 0 ) (𝑒 −𝑖𝜃 0 ) = 𝑅13 (0 1) + 𝑅23 (0 −𝑖 ) + 𝑅33 (1 0
)
0 𝑒 −𝑖𝜃 0 −1 0 𝑒 𝑖𝜃 1 0 𝑖 0 0 −1
1 0 𝑅33 𝑅13 − 𝑖𝑅23
⇒( )= ( )
0 −1 𝑅13 + 𝑖𝑅23 −𝑅33
25
On a donc R33 = 1 et R13 = R23 = 0.
𝑖𝜃
On construit ainsi tous les éléments de la matrice R. Finalement, à la matrice M = (𝑒 0 ), on aura
0 𝑒 −𝑖𝜃
associé la matrice
cos 2𝜃 sin 2𝜃 0
R = (− sin 2𝜃 cos 2𝜃 0)
0 0 1
qui n’est rien d‘autre qu’une matrice de SO(3) !

La relation M σi M+ = ∑𝑗 𝑅𝑗𝑖 σj met donc en évidence l’homomorphisme entre SU(2,C) et SO(3) : à partir
des matrices de l’un, on peut construire les matrices de l’autre.

Pourquoi homomorphisme et pas isomorphisme ? Parce que l’angle θ a été multiplié par deux ! Donc,
si dans R, on remplace θ par θ + π, R reste inchangé. Par contre, si on opère le même remplacement
dans M, elle se transforme en –M. C’est totalement logique avec la relation M σi M+ = ∑𝑗 𝑅𝑗𝑖 σj qui
met en évidence deux M pour un R...donc le signe de M est sans importance : il va donner lieu au
même R.

Deuxième approche

On reprend la matrice générique de SU(2,C) :

𝑀 = (𝑎̅ −𝑏̅) , |𝑎|2 + |𝑏|2 = 1


𝑏 𝑎
Les lois de transformation respectives sont donc
′ ̅ ′ ̅
{𝑣 ′ = 𝑎̅ 𝑣 − 𝑏 𝑢 ↔ { 𝑣 = 𝑎 𝑣 + 𝑏 𝑢′
𝑢 =𝑏𝑣+𝑎𝑢 𝑢 = −𝑏 𝑣′ + 𝑎̅ 𝑢′
On introduit alors à partir de u et v, trois nombres x, y et z :

𝑣 2 − 𝑢2 𝑖(𝑣 2 + 𝑢2 )
𝑥= ;𝑦 = ; 𝑧 = −𝑢 𝑣
2 2
Ils se transforment dès lors selon
1
𝑥′ = ((𝑎̅2 + 𝑎2 − 𝑏 2 − 𝑏̅ 2 ) 𝑥 + 𝑖 (−𝑎̅2 + 𝑎2 + 𝑏 2 − 𝑏̅ 2 ) 𝑦 + 2 (𝑎 𝑏 + 𝑎̅𝑏̅ ) 𝑧
2
1
𝑦 ′ = (𝑖 (𝑎̅2 − 𝑎2 + 𝑏 2 − 𝑏̅ 2 ) 𝑥 + (𝑎̅2 + 𝑎2 + 𝑏 2 + 𝑏̅ 2 ) 𝑦 + 2 𝑖 (−𝑎 𝑏 + 𝑎̅𝑏̅ ) 𝑧
2
{ 𝑧 ′ = −(𝑎 𝑏̅ + 𝑎̅ 𝑏)𝑥 + 𝑖 (𝑎̅ 𝑏 − 𝑎 𝑏̅)𝑦 + (𝑎 𝑎̅ − 𝑏 𝑏̅)𝑧

Et là, on remarque que tous les coefficients de cette transformation sont réels...

On va donc construire, à partir de cette transformation, une matrice de dimension 3 d’éléments réels :

𝑎̅2 + 𝑎2 − 𝑏 2 − 𝑏̅ 2 𝑖 (−𝑎̅2 + 𝑎2 + 𝑏 2 − 𝑏̅ 2 ) 2 (𝑎 𝑏 + 𝑎̅𝑏̅ )


1
𝑅 = (𝑖 (𝑎̅2 − 𝑎2 + 𝑏 2 − 𝑏̅ 2 ) (𝑎̅2 + 𝑎2 + 𝑏 2 + 𝑏̅ 2 ) 2 𝑖 (−𝑎 𝑏 + 𝑎̅𝑏̅ ))
2
−2 (𝑎 𝑏̅ + 𝑎̅ 𝑏) 2 𝑖 (𝑎̅ 𝑏 − 𝑎 𝑏̅) 2 (𝑎 𝑎̅ − 𝑏 𝑏̅)

Si, par exemple, b = 0 et a = e-iϑ, cette matrice devient

26
cos 2𝜗 sin 2𝜗 0
𝑅 = (−sin 2𝜗 cos 2𝜗 0)
0 0 1
On a donc bien une matrice de rotation, en l’occurrence d’angle 2ϑ autour de l’axe z (rotation passive).
Elle correspond à la matrice générale donnée en page 17 avec

𝑎3 = 0, 𝑏3 = 0, 𝑐3 = 1 , 𝛾 = 2 𝜗
On retrouve donc bien la matrice des rotations 3D et elle a été construite à partir d’une matrice de
SU(2,C).

L’homomorphisme est présent de par le fait que les éléments de la matrice R sont du second degré en
ceux de la matrice M. Par conséquent, -M va donner lieu à la même matrice R.

Dit avec les angles,

𝑖𝜗 cos 2𝜗 sin 2𝜗 0
𝑀(𝜗) = (𝑒 0 ) ↔ 𝑅 (𝜗) = (−
sin 2𝜗 cos 2𝜗 0)
0 𝑒 −𝑖 𝜗 0 0 1
La matrice M est une matrice de SU(2,C), la matrice R son homologue générant SO(3).

Or, si on effectue la transformation 𝜗 → 𝜗 + 𝜋, on aura

𝑀(𝜗 + 𝜋) = −𝑀(𝜗); 𝑅(𝜗 + 𝜋) = 𝑅 (𝜗)


On a donc bien deux matrices différentes pour SU(2,C), M et – M , qui correspondent à la même
matrice R de SO(3). C’est l’essence même d’un homomorphisme.

Puisque, que ce soit par une approche ou l’autre, deux matrices M et –M de SU(2,C) correspondent à
une seule matrice R de SO(3), on dit qu’il y a homomorphisme entre SU(2,C) et SO(3). De manière
équivalente, on dit que SU(2,C) est un double revêtement de SO(3). Pour cette raison, on référera aussi
à SU(2,C) sous le nom de Spin(2) (Spin(n) est défini comme le double revêtement de SO(n)).

C’est cette légère différence qui va permettre au spin d’exister. On y reviendra dans l’étude de
l’équation de Dirac mais signalons déjà ceci :

Dans le premier portfolio, aux pages 41-43, nous avions déjà signalé les algèbres so(3) et su(2,C)
(identiques) et nous avions mis en évidence leurs représentations

[𝐿3, 𝐿+ ] = ℎ̅ 𝐿+ ; [𝐿3, 𝐿− ] = − ℎ̅ 𝐿− ; [𝐿+ , 𝐿− ] = 2 ℎ̅ 𝐿3

𝐿3 |𝑙, 𝑚 > = ℎ̅ 𝑚 |𝑙, 𝑚 >

𝐿+ |𝑙, 𝑚 > = ℎ̅ √(𝑙 − 𝑚)(𝑙 + 𝑚 + 1) |𝑙, 𝑚 + 1 >

𝐿− |𝑙, 𝑚 > = ℎ̅ √(𝑙 + 𝑚)(𝑙 − 𝑚 + 1) |𝑙, 𝑚 − 1 >

avec

𝑚 = −𝑙, −𝑙 + 1, … . , 𝑙 − 1, 𝑙 ; 𝑙 = 0, 1, 2, 3, ….
Nous avions aussi signalé que la représentation permettait en fait les valeurs entières de l comme les
valeurs demi-entières.

Nous sommes maintenant en mesure de préciser cela.

27
En effet, cf. page 20, on a en toute généralité
𝑖 ⃗
⃗ 𝐿
−̅ 𝛾 𝑢
𝑅= 𝑒 ℎ

Donc
𝑖
− ̅ 2 𝜋 𝐿3
𝑅3 (2𝜋) = 𝑒 ℎ

On aura ainsi

𝑅3 (2 𝜋)|𝑙, 𝑚 > = 𝑒 −𝑖 2 𝜋 𝑚 |𝑙, 𝑚 > = |𝑙, 𝑚 > 𝑠𝑖 𝑚 𝑒𝑠𝑡 𝑒𝑛𝑡𝑖𝑒𝑟 ; = −|𝑙, 𝑚 > 𝑠𝑖𝑛𝑜𝑛
Donc, on voit bien que m, et par conséquent l, entier est réservé à SO(3) tandis que SU(2,C) avec sa
double possibilité peut être satisfait avec l entier ou demi-entier.

Si on préfère jouer avec les matrices


0 1
𝜎1 = ( )
1 0
est une des matrices générant so(3) ou, de manière équivalente, su(2,C). Mais le passage à
l’exponentiation :
1 2 𝑖 3 cos 𝜗 𝑖 sin 𝜗
𝑒 𝑖 𝜗 𝜎1 = 1 + 𝑖 𝜗 𝜎1 − 𝜗 − 𝜗 …= ( )
2 6 𝑖 sin 𝜗 cos 𝜗
montre que la matrice obtenue est une matrice de SU(2,C) mais non de SO(3) (ne serait-ce qu’au
regard de ses éléments complexes...).

On a vu que l’équation de Schrödinger était invariante sous les rotations : on dit que son groupe de
symétrie correspondant est SO(3). Quand on montera à Dirac et qu’on devra ajouter un moment de
spin au moment angulaire orbital pour assurer son invariance et que cela impliquera des valeurs demi-
entières de l (qu’on notera d’ailleurs j à ce moment), on dira que l’équation de Dirac est invariante
sous les rotations et que son groupe de symétrie correspondant est SU(2,C).

Les transformations propres de Lorentz


Nous avons déjà remarqué que l’invariance du Hamiltonien de Schrödinger par rapport aux rotations
supposait l’absence du spin.

Il y a un autre défaut majeur à l’équation de Schrödinger : elle n’est pas relativiste !

En effet, si elle est invariante par rapport aux translations et aux rotations, elle n’est pas invariante
sous les transformations propres de Lorentz.

Les transformations de Lorentz s’écrivent en effet :


𝑣
𝑥 ′ = 𝛾 (𝑥 − 𝑣 𝑡); 𝑦 ′ = 𝑦 ; 𝑧 ′ = 𝑧 ; 𝑡 ′ = 𝛾 (𝑡 − 𝑥)
𝑐2
lorsque le système se déplace à la vitesse v le long de l’axe x et avec

1 𝑣
= √1 − ( )2
𝛾 𝑐
Comment se transforment les opérateurs différentiels selon ces lois ?

28
𝜕 𝜕 𝜕𝑥′ 𝜕 𝜕𝑡′ 𝜕 𝛾𝑣 𝜕
= + = 𝛾 − 2
𝜕𝑥 𝜕𝑥′ 𝜕𝑥 𝜕𝑡′ 𝜕𝑥 𝜕𝑥′ 𝑐 𝜕𝑡′
On a alors

𝜕2 𝜕 𝛾𝑣 𝜕 𝜕 𝛾𝑣 𝜕 2
𝜕2 2
𝑣 𝜕 𝜕 𝛾2 𝑣 2 𝜕2
= (𝛾 − ) (𝛾 − ) = 𝛾 − 2 𝛾 +
𝜕𝑥 2 𝜕𝑥 ′ 𝑐 2 𝜕𝑡 ′ 𝜕𝑥 ′ 𝑐 2 𝜕𝑡 ′ 𝜕𝑥′2 𝑐 2 𝜕𝑥 ′ 𝜕𝑡 ′ 𝑐 4 𝜕𝑡′2
tandis que

𝜕 𝜕 𝜕𝑥′ 𝜕 𝜕𝑡′ 𝜕 𝜕
= + =−𝛾𝑣 ′
+ 𝛾
𝜕𝑡 𝜕𝑥′ 𝜕𝑡 𝜕𝑡′ 𝜕𝑡 𝜕𝑥 𝜕𝑡′
𝜕 ̅2 𝜕2

On n’a alors clairement pas l’invariance de l’opérateur de Schrödinger : 𝑖 ℎ̅ 𝜕𝑡
+ 2𝑚 𝜕𝑥 2 !

Nous verrons dans un prochain portfolio que l’équation de Dirac va être invariante sous ces
transformations de Lorentz.

Ici, nous étudions simplement ces transformations. Elles peuvent se mettre sous forme matricielle de
la façon suivante :
𝛾𝑣
𝑐 𝑡′ 𝛾 − 0 0 𝑐𝑡
𝑐
𝑥′ 𝛾𝑣 𝑥
( )= − 𝛾 0 0 ( )
𝑦′ 𝑐 𝑦
𝑧′ 0 0 1 0 𝑧
( 0 0 0 1)
On remarque qu’on a multiplié le temps par c afin de symétriser la matrice.

On a coutume d’introduire
𝛾𝑣
𝑐ℎ 𝜑 = 𝛾 , 𝑠ℎ 𝜑 =
𝑐
de façon à écrire la transformation précédente comme :

𝑐 𝑡′ 𝑐ℎ 𝜑 −𝑠ℎ 𝜑 0 0 𝑐𝑡
𝑥′ −𝑠ℎ 𝜑 𝑐ℎ 𝜑 0 0 𝑥
( )= ( )( )
𝑦′ 0 0 1 0 𝑦
𝑧′ 0 0 0 1 𝑧
Cela se justifie par le fait que

𝑣2 1 𝑣2
𝑐ℎ2 𝜑 − 𝑠ℎ2 𝜑 = 𝛾 2 − 𝛾 2 = (1 − )=1
𝑐2 𝑣2 𝑐2
1−
𝑐2
Comme il n’y a aucune raison de privilégier l’axe x plutôt qu’un autre, il faut, en fait, ajouter deux
autres matrices à celle qui a déjà été mise en évidence pour obtenir les trois matrices
𝑐ℎ 𝜑 −𝑠ℎ 𝜑 0 0 𝑐ℎ𝜃 0 −𝑠ℎ𝜃 0 𝑐ℎ𝛼 0 0 −𝑠ℎ𝛼
−𝑠ℎ 𝜑 𝑐ℎ 𝜑 0 0 0 1 0 0 0 1 0 0
( ),( ),( )
0 0 1 0 −𝑠ℎ𝜃 0 𝑐ℎ𝜃 0 0 0 1 0
0 0 0 1 0 0 0 1 −𝑠ℎ𝛼 0 0 𝑐ℎ𝛼

29
Ces trois matrices ne forment pas un groupe : la multiplication de deux d’entre elles ne forme en effet
pas une d’entre elles. C’est un constat que l’on retrouve au niveau de l’algèbre. En effet, en se
rappelant les développements en série des cosinus et sinus hyperboliques :
1 1 4 1 1
𝑐ℎ 𝑥 = 1 + 𝑥 2 + 𝑥 + ⋯ ; 𝑠ℎ 𝑥 = 𝑥 + 𝑥 3 + 𝑥5 + ⋯
2 24 6 120
on obtient les matrices correspondantes de l’algèbre
0 −1 0 0 0 0 −1 0 0 0 0 −1
−1 0 0 0 0 0 0 0 0 0 0 0
( ) ,( ),( )
0 0 0 0 −1 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 −1 0 0 0
qui ne ferment pas sous le commutateur.

L’invariance relativiste, qui, rappelons-le, n’est pas présente dans l’équation de Schrödinger mais qui
le sera au niveau de l’équation de Dirac, exige donc de compléter les transformations de Lorentz par
d’autres transformations, de façon à former un groupe, et puis, au niveau infinitésimal, une algèbre.
Ces transformations, ce sont les rotations.

Seules les six transformations, trois rotations et trois transformations de Lorentz ou « boosts », vont
fermer pour former la symétrie relativiste. On a alors un groupe d’ordre six qui est appelé « groupe de
Lorentz ».

Le groupe de Lorentz
Voir, par exemple :

https://www.math.u-psud.fr/~paulin/notescours/cours_centrale.pdf

http://physique-univ.fr/onewebmedia/Lagrangien-c5-site.pdf

L’invariance relativiste implique de considérer, en plus des trois coordonnées spatiales, la coordonnée
temporelle. On considère donc, dès à présent, des quadrivecteurs. Par exemple, le quadrivecteur
position est

𝑥 = (𝑥0, 𝑥1, 𝑥2, 𝑥3) = (𝑐 𝑡, 𝑥 , 𝑦, 𝑧)


La métrique de l’espace-temps de Minkowski est

𝑑𝑠 2 = 𝑑𝑥02 − 𝑑𝑥12 − 𝑑𝑥22 − 𝑑𝑥32


Le carré de la norme de cet espace s’écrit :
2 2 2 2
𝐴2 = ∑ 𝐴𝜇 𝐴𝜇 = 𝐴𝜇 𝑔𝜇𝜈 𝐴𝜈 = 𝐴0 − 𝐴1 − 𝐴2 − 𝐴3
𝜇

où la matrice g typique de la métrique ( = diag (1, -1, -1, -1)) a été utilisée pour passer d’un tenseur
covariant à son homologue contravariant. Notons aussi que nous adoptons ici (et dans la suite) la
convention de sommer implicitement sur un indice répété.

N.B. : Puisqu’en général, 𝐴𝜇 = 𝜂𝜇𝜈 𝐴𝜈 , on a aussi 𝐴𝜇 = 𝜂 𝜇 𝜈 𝐴𝜈 , et par là, 𝜂 𝜇 𝜈 = 𝛿𝜇 𝜈 .

Imposer la conservation de la métrique, c’est demander que

30
𝑑𝑠′2 = 𝑑𝑠 2
Autrement dit, en considérant la métrique de manière explicite :

𝑔𝛼𝛽 𝑑𝑥′𝛼 𝑑𝑥′𝛽 = 𝑔𝜇𝜈 𝑑𝑥 𝜇 𝑑𝑥 𝜈

Ce que l’on peut encore écrire en faisant apparaître les jacobiens

𝜕𝑥′𝛼 𝜕𝑥′𝛽 𝜇 𝜈
𝑔𝛼𝛽 𝑑𝑥 𝑑𝑥 = 𝑔𝜇𝜈 𝑑𝑥 𝜇 𝑑𝑥 𝜈
𝜕𝑥 𝜇 𝜕𝑥 𝜈
et donc

𝜕𝑥′𝛼 𝜕𝑥′𝛽
𝑔𝛼𝛽 = 𝑔𝜇𝜈 (∗)
𝜕𝑥 𝜇 𝜕𝑥 𝜈
Si l’on dérive cette dernière relation par rapport à 𝑥  , on obtient
𝜕𝑥′𝛼 𝜕𝑥′𝛽 𝜕𝑥′𝛽 𝜕𝑥′𝛼
𝑔𝛼𝛽 𝜕𝑥 𝜇 𝜕𝑥  𝜕𝑥 𝜈
+𝑔 𝜕𝑥 𝜈 𝜕𝑥  𝜕𝑥 𝜇
= 0 que l’on écrit 𝐴(𝜇)𝜈 + 𝐴(𝜈)𝜇 = 0.

En permutant μ et , puis ν et  dans cette relation, on a successivement

𝐴(𝜇)𝜈 + 𝐴(𝜈𝜇) = 0,

𝐴(𝜇𝜈) + 𝐴(𝜈)𝜇 = 0.

En additionnant les deux premières équations et en leur soustrayant la troisième, on obtient


𝜕𝑥′𝛼 𝜕𝑥′𝛽 𝜕𝑥′𝛼
𝐴(𝜇)𝜈 = 0 = 𝑔𝛼𝛽 𝜕𝑥 𝜇 𝜕𝑥  𝜕𝑥 𝜈
impliquant 𝜕𝑥 𝜇 𝜕𝑥 
= 0.

Autrement dit, les transformations préservant la métrique sont nécessairement linéaires en x, ce que
l’on écrit de manière générale :

𝑥′𝛼 = ∧𝛼𝛽 𝑥 𝛽 + 𝑎𝛼

Que sont précisément les matrices ∧ ? (on reviendra à « a » ensuite...)

De l’équation (*), il découle

𝑔𝛼𝛽 ∧𝛼𝜇 ∧𝛽 𝜈 = 𝑔𝜇𝜈 ou encore ∧𝑇 𝑔 ∧ = 𝑔

Cette dernière relation traduit le fait, par définition de ce groupe, que la matrice ∧ génère un groupe
de Lie.

On vérifie la loi de groupe via

(∧ 1 ∧ 2)𝑇 𝑔 (∧ 1 ∧ 2) = ∧ 2𝑇 ∧ 1𝑇 𝑔 ∧ 1 ∧ 2 = ∧ 2𝑇 𝑔 ∧ 2 = 𝑔
Autrement dit, si ∧1 et ∧2 sont des éléments du groupe, ∧1 ∧2 est aussi un élément du groupe.

Le neutre du groupe est ∧ = I (matrice identité).

L’inverse d’un élément ∧ du groupe est ∧T. Cet élément appartient aussi au groupe. En effet, pour en
être convaincu, il faut se persuader que

∧ 𝑔 ∧𝑇 = 𝑔
Or, en prenant l’inverse de la loi du groupe :

31
∧−1 𝑔−1 (∧𝑇 )−1 = 𝑔−1
on obtient successivement

∧−1 𝑔 (∧𝑇 )−1 = 𝑔 ↔ 𝑔 = ∧ 𝑔 ∧𝑇


Soit ce que l’on voulait montrer.

Les matrices ∧ telles que

∧𝑇 𝑔 ∧ = 𝑔
génèrent donc bien un groupe.

Ce groupe est appelé O(1,3).

Cette relation implique aussi (en prenant le déterminant des deux membres) que (det ∧)2 = 1 et donc
det ∧ = 1 ou det ∧ = -1. Si on se limite aux matrices de déterminant égal à 1, on a un sous-groupe de
O(1,3) : c’est SO(1,3), appelé groupe propre de Lorentz.

Elle implique enfin (en prenant μ = ν = 0) que (∧00 )2 = 1 + (∧10 )2 + (∧20 )2 + (∧30 )2 ≥ 1. Si (∧00 ) ≥ 1, on dit
qu’il n’y a pas renversement du temps (transformations orthochrones), si (∧00 ) ≤ -1, on dit qu’il y a
renversement du temps (transformations antichrones).
La condition det ∧ = 1 signifie que l’on préserve l’orientation globale de l’espace-
temps.

La condition ∧00 positive indique qu’on envoie un vecteur de type temps (norme
de Minkowski négative) orienté vers le futur sur un vecteur de type temps
orienté vers le futur.

Si ∧00 est négatif, alors un vecteur orienté vers le futur va être envoyé sur un
vecteur orienté vers le passé.

Les ouvrages se limitent généralement à l’étude du groupe de Lorentz propre restreint (det ∧ = 1 et
(∧00 ) ≥ 1) noté SO↑(1,3).

Il existe cependant quatre nappes dites connexes8:

• L +↑= SO↑(1,3) : ∧00 ≥ 1 et det ∧ = 1 ;


• L -↑ : ∧00 ≥ 1 et det ∧ = -1 ;
• L +↓ : ∧00 ≤ - 1 et det ∧ = 1 ;
• L -↓ : ∧00 ≤ - 1 et det ∧ = - 1

8
Cela signifie qu’on ne peut séparer chacun de ces ensembles de transformation en deux sous-ensembles non
vides et ayant une intersection vide. Par exemple, l’ensemble des entiers positifs n’est pas connexe car il peut
être vu comme la somme des ensembles des nombres pairs et des nombres impairs.

32
Parmi ces quatre nappes, certaines, ou l’union de certaines, forment des groupes :

• L +↑ = SO↑(1,3)
• L +↑ U L - ↑
• L +↑ U L +↓ = SO(1,3)
• L +↑ U L -↓
• L +↑ U L +↓ U L -↑ U L -↓ = O(1,3)

On s’en persuade en remarquant qu’on peut passer d’une nappe à une autre en multipliant les
matrices de L +↑ par des matrices qui vont soit changer le signe du premier élément, soit changer le
signe du déterminant. Concrètement :
1 0 0 0 −1 0 0 0 −1 0 0 0
0 −1 0 0 0 −1 0 0 0 1 0 0 ↑
𝐿↑− = ( ) 𝐿↑+ ; 𝐿↓+ = ( ) 𝐿↑+ ; 𝐿↓− = ( )𝐿
0 0 −1 0 0 0 −1 0 0 0 1 0 +
0 0 0 −1 0 0 0 −1 0 0 0 1
La première de ces matrices (que l’on note souvent P) ne modifie pas le signe du premier élément mais
modifie le signe du déterminant. La troisième matrice (que l’on note souvent T) modifie à la fois le
signe du premier élément et celui du déterminant. La deuxième matrice (produit de P et de T) modifie
le signe du premier élément mais pas celui du déterminant.

Ces nappes découlent du fait que la loi de groupe est du second degré en les paramètres, laissant ainsi
des libertés supplémentaires quant aux signes de ces paramètres.

En effet, si
𝑎1 𝑎2 𝑎3 𝑎4
𝑏1 𝑏2 𝑏3 𝑏4
∧= ( )
𝑐1 𝑐2 𝑐3 𝑐4
𝑑1 𝑑2 𝑑3 𝑑4
la loi de groupe ∧𝑇 𝑔 ∧ = 𝑔 implique

𝑎12 − 𝑏12 − 𝑐12 − 𝑑12 = 1

𝑎22 − 𝑏22 − 𝑐22 − 𝑑22 = −1

𝑎32 − 𝑏32 − 𝑐32 − 𝑑32 = −1


𝑎42 − 𝑏42 − 𝑐42 − 𝑑42 = −1
𝑎1 𝑎2 − 𝑏1 𝑏2 − 𝑐1 𝑐2 − 𝑑1 𝑑2 = 0
𝑎1 𝑎3 − 𝑏1 𝑏3 − 𝑐1 𝑐3 − 𝑑1 𝑑3 = 0
𝑎1 𝑎4 − 𝑏1 𝑏4 − 𝑐1 𝑐4 − 𝑑1 𝑑4 = 0
𝑎2 𝑎3 − 𝑏2 𝑏3 − 𝑐2 𝑐3 − 𝑑2 𝑑3 = 0
𝑎2 𝑎4 − 𝑏2 𝑏4 − 𝑐2 𝑐4 − 𝑑2 𝑑4 = 0
𝑎3 𝑎4 − 𝑏3 𝑏4 − 𝑐3 𝑐4 − 𝑑3 𝑑4 = 0

33
Soit dix contraintes pour seize paramètres au départ...Il reste donc une liberté (hormis les signes) de
six paramètres.

Ceux-ci peuvent être traduits par9 :

𝑎1 = 1 ; 𝑏2 = cos 𝜗 ; 𝑏3 = − sin 𝜗 ; 𝑐2 = sin 𝜗 ; 𝑐3 = cos 𝜗 ; 𝑑4 = 1


Le premier élément (a1) est manifestement positif et le déterminant est égal à 1. Il s’agit d’une matrice
de la première nappe (plus précisément, d’une rotation d’angle ϑ autour de l’axe des z). Les matrices
correspondantes des autres nappes s’obtiennent via l’application de P, T ou PT.

De la même façon, on a

𝑎1 = 1 ; 𝑏2 = 1 ; 𝑐3 = cos 𝜑 ; 𝑐4 = − sin 𝜑 ; 𝑑3 = sin 𝜑 ; 𝑑4 = cos 𝜑


𝑎1 = 1 ; 𝑏2 = cos 𝛼 ; 𝑏4 = − sin 𝛼 ; 𝑐3 = 1 ; 𝑑2 = sin 𝛼 ; 𝑑4 = cos 𝛼
Les trois paramètres ϑ, 𝜑, α sont les paramètres des rotations dans l’espace euclidien de dimension 3 ;
ils sont associés au groupe SO(3), sous-groupe de SO(1,3).

Ces trois paramètres sont complétés par les trois relatifs aux boosts :

𝑎1 = 𝑐ℎ 𝜒 ; 𝑎2 = 𝑠ℎ 𝜒 ; 𝑏1 = 𝑠ℎ 𝜒 ; 𝑏2 = 𝑐ℎ 𝜒 ; 𝑐3 = 1 ; 𝑑4 = 1
𝑎1 = 𝑐ℎ 𝜂 ; 𝑎3 = 𝑠ℎ 𝜂 ; 𝑏2 = 1 ; 𝑐1 = 𝑠ℎ 𝜂 ; 𝑐3 = 𝑐ℎ 𝜂 ; 𝑑4 = 1
𝑎1 = 𝑐ℎ 𝛾 ; 𝑎4 = 𝑠ℎ 𝛾 ; 𝑏2 = 1 ; 𝑐3 = 1 ; 𝑑1 = 𝑠ℎ 𝛾 ; 𝑑4 = 𝑐ℎ𝛾
On note à nouveau le fait d’avoir a1 positif et le déterminant égal à 1, faisant de ces trois nouvelles
matrices des éléments de la première nappe.

Notons que l’apparition des fonctions hyperboliques n’est pas sans conséquence. En effet, les
fonctions hyperboliques, contrairement aux trigonométriques, tendent vers l’infini quand leur
argument tend vers l’infini. Et cela entraine, par définition, que le groupe de Lorentz, contrairement à
celui des rotations, n’est pas compact.

Les matrices de l’algèbre correspondant à ces six transformations s’obtiennent, comme d’habitude,
via un comportement infinitésimalement proche de l’identité :
𝑔(𝜗) − 𝑔(0)
lim
𝜗→0 𝜗
(en cas de paramètre ϑ). On a ainsi:
0 0 0 0 0 0 0 0 0 0 0 0
0 0 −1 0 0 0 0 0 0 0 0 −1
( ),( ),( )
0 1 0 0 0 0 0 −1 0 0 0 0
0 0 0 0 0 0 1 0 0 1 0 0
0 1 0 0 0 0 1 0 0 0 0 1
1 0 0 0 0 0 0 0 0 0 0 0
( ),( ),( )
0 0 0 0 1 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 1 0 0 0

9
je ne note que les paramètres non nuls...

34
Ces matrices génèrent l’algèbre de Lie so(1,3) qui est l’ensemble des matrices M de dimension 4, à
éléments réels, telles que

𝑀𝑇 𝑔 + 𝑔 𝑀 = 0
Les physiciens préfèrent utiliser ces matrices multipliées par l’imaginaire i (ou – i), ils se situent en fait
dans i so(1,3). Les matrices qu’ils considèrent sont donc10
0 0 0 0 0 0 0 0 0 0 0 0
23 0 0 0 0 31 0 0 0 −𝑖 12 0 0 𝑖 0
𝑀 =( ),𝑀 = ( ),𝑀 = ( )
0 0 0 𝑖 0 0 0 0 0 −𝑖 0 0
0 0 −𝑖 0 0 𝑖 0 0 0 0 0 0
0 𝑖 0 0 0 0 𝑖 0 0 0 0 𝑖
𝑖 0 0 0 0 0 0 0 0 0 0 0
𝑀01 = ( ) , 𝑀02 = ( ) , 𝑀03 = ( )
0 0 0 0 𝑖 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 𝑖 0 0 0
Les relations de commutation de l’algèbre sont alors résumées par
[𝑀𝜇𝜈 , 𝑀𝛼𝜎 ] = −𝑖(𝑔𝜈𝛼 𝑀𝜇𝜎 − 𝑔𝜇𝛼 𝑀𝜈𝜎 − 𝑔𝜎𝜇 𝑀𝛼𝜈 + 𝑔𝜎𝜈 𝑀𝛼𝜇 )

Elles peuvent être satisfaites, de manière équivalente, par


𝜕 𝜕 𝜕 𝜕 𝜕 𝜕
𝑀01 = −𝑖 𝑥 −𝑖𝑡 , 𝑀02 = −𝑖 𝑦 −𝑖𝑡 , 𝑀03 = −𝑖 𝑧 −𝑖𝑡
𝜕𝑡 𝜕𝑥 𝜕𝑡 𝜕𝑦 𝜕𝑡 𝜕𝑧
𝜕 𝜕 𝜕 𝜕 𝜕 𝜕
𝑀12 = 𝑖 𝑥 −𝑖𝑦 , 𝑀31 = 𝑖 𝑧 −𝑖𝑥 , 𝑀23 = 𝑖 𝑦 −𝑖𝑧
𝜕𝑦 𝜕𝑥 𝜕𝑥 𝜕𝑧 𝜕𝑧 𝜕𝑦
On a aussi coutume de réécrire les relations de commutation de so(1,3) en redéfinissant les
générateurs de l’algèbre complexifiée avec
1 1 1
𝑁1 = (𝑀23 − 𝑖 𝑀01 ), 𝑁2 = (−𝑀31 + 𝑖 𝑀02 ), 𝑁3 = (𝑀12 − 𝑖 𝑀03 )
2 2 2
1 1 1
𝑄1 = (𝑀23 + 𝑖 𝑀01 ), 𝑄2 = (−𝑀31 − 𝑖 𝑀02 ), 𝑄3 = (𝑀12 + 𝑖 𝑀03 )
2 2 2
Elles deviennent alors
[𝑁𝑗, 𝑁𝑘] = 𝑖 𝜀𝑗𝑘𝑙 𝑁𝑙 ; [𝑄𝑗, 𝑄𝑘] = 𝑖 𝜀𝑗𝑘𝑙 𝑄𝑙 ; [𝑁𝑗, 𝑄𝑘] = 0

Sous cette forme, on voit donc l’isomorphisme de l’algèbre so(1,3) (ou de sa complexification) avec
deux so(3) (ou de leurs complexifications) en somme directe (cette dernière étant traduite par le fait
que tous les générateurs du premier so(3) commutent avec tous les générateurs du deuxième so(3)).
On pourra donc réaliser les représentations de l’algèbre de Lorentz via la « superposition » de deux
représentations de so(3) ou su(2,C).

C’est particulièrement visible avec la représentation de la page précédente qui mène à

10
Malgré la multiplication par i ou –i, les matrices ne sont pas toutes hermitiennes. Seules les matrices de
rotation le sont. C’est dû au caractère non compact du groupe de Lorentz.

35
0 1 0 0 0 0 −1 0 0 0 0 1
1 1 0 0 0 1 0 0 0 𝑖 1 0 0 𝑖 0
𝑁1 = ( ) , 𝑁2 = ( ) , 𝑁3 = ( )
2 0 0 0 𝑖 2 −1 0 0 0 2 0 −𝑖 0 0
0 0 −𝑖 0 0 −𝑖 0 0 1 0 0 0
0 −1 0 0 0 0 1 0 0 0 0 −1
1 −1 0 0 0 1 0 0 0 𝑖 1 0 0 𝑖 0
𝑄1 = ( ) , 𝑄2 = ( ) , 𝑄3 = ( )
2 0 0 0 𝑖 2 1 0 0 0 2 0 −𝑖 0 0
0 0 −𝑖 0 0 −𝑖 0 0 −1 0 0 0

Les représentations de l’algèbre de Lorentz sont notées D(m,n), en relation avec le Casimir de chacun
des su(2,C). Elles sont de dimension (2m+1)+(2n+1) = 2m+ 2n + 2.

Ici :
3 1 1 1
𝑁12 + 𝑁22 + 𝑁32 = 𝐼 = ( + 1) 𝐼 → 𝑚 =
4 2 2 2
3 1 1 1
𝑄12 + 𝑄22 + 𝑄32 = 𝐼 = ( + 1) 𝐼 → 𝑛 =
4 2 2 2
La représentation est donc
1 1
𝐷( , )
2 2
de dimension 4.

⃗ 2.
⃗ 2 et 𝑄
A noter qu’il existe donc deux Casimir pour SL(2,C) : 𝑁

Le fait que so(1,3) soit la somme de deux so(3) et donc de deux su(2,C) suggère une relation entre
l’algèbre/le groupe à éléments réels so(1,3)/SO(1,3) et un homologue à éléments complexes. Et de fait,
le groupe O(1,3) est intimement lié à un autre groupe : SL(2,C). Nous allons le montrer dans la section
suivante.

Le groupe SL(2,C)
La première étape est d’établir une correspondance 1-1 entre un quadrivecteur réel et une matrice
de dimension 2, complexe.

• A tout quadrivecteur, on associe une matrice de dimension 2 :


𝑥0 + 𝑥3 𝑥1 − 𝑖𝑥2
(𝑥0, 𝑥1, 𝑥2, 𝑥3) → 𝑋 = ( ) = 𝑥0 𝜎0 + 𝑥1 𝜎1 + 𝑥2 𝜎2 + 𝑥3 𝜎3
𝑥1 + 𝑖𝑥2 𝑥0 − 𝑥3
On remarque trois choses :

➢ Le déterminant de X est la métrique de Minkowski : 𝑥02 − 𝑥12 − 𝑥22 − 𝑥32


➢ La matrice X est hermitienne
➢ La matrice X fait intervenir des matrices de base : 𝜎0, 𝜎1, 𝜎2, 𝜎3

Pour que ces matrices constituent une véritable base, on va définir le produit scalaire suivant sur les
matrices de dimension 2 :

36
1
< 𝐴, 𝐵 > = 𝑇𝑟 (𝐴† 𝐵)
2
On peut alors facilement vérifier des relations telles que
1 1 1 1
< 𝜎1, 𝜎1 > = 𝑇𝑟 (𝜎12 ) = 𝑇𝑟 (𝐼) = 1 ; < 𝜎1, 𝜎2 > = 𝑇𝑟 (𝜎1 𝜎2) = 𝑇𝑟 (𝑖 𝜎3) = 0
2 2 2 2
et, en général,

< 𝜎𝜇, 𝜎𝜈 > = 𝛿𝜇𝜈


Cette dernière relation garantit effectivement aux matrices σμ d’être les éléments d’une base
orthonormée.

• A toute matrice de dimension 2, on associe un quadrivecteur dont les composantes sont


données par
1
𝑋 → 𝑥𝜇 = < 𝜎𝜇, 𝑋 > = 𝑇𝑟 (𝜎𝜇 𝑋)
2
Ces deux associations définissent la correspondance 1-1 entre quadrivecteur et matrice de dimension
2.

Par exemple,

(0,1,0,0) ↔ (0 1
) ; (0,0,1,0) ↔ (
0 −𝑖
)
1 0 𝑖 0
Passons à la deuxième étape !

Elle consiste à prouver que tout matrice de dimension 2 qui commute avec deux des matrices σj
(j=1,2,3) est nécessairement un multiple de l’identité.
𝑎 𝑏
Soit 𝐴 = ( ), cette matrice.
𝑐 𝑑
Si elle commute avec σ1, cela implique : b = c , a = d.

Si elle commute avec σ2, cela implique : b = - c , a = d

Si elle commute avec σ3, cela implique : b = 0, c = 0.

Donc, commuter avec deux matrices implique forcément b = c = 0 et a = d, soit A multiple de l’identité.

Troisième étape : donner la transformation des quadrivecteurs via les matrices de SL(2,C).

Le groupe SL(2,C) est constitué des matrices de dimension 2, à éléments complexes, et dont le
déterminant vaut 1.

On considère alors un quadrivecteur écrit sous forme matricielle, X, et sa version transformée, X’.

On tente de relier les deux via des matrices A et B de SL(2,C) :

𝑋′ = 𝐴 𝑋 𝐵
On l’a vu : un quadrivecteur se traduit par une matrice hermitienne. On va donc demander que X’ soit
hermitienne :

37
𝐵 † 𝑋 𝐴† = 𝐴 𝑋 𝐵
Autrement dit,
−1
𝑋 𝐴† 𝐵−1 = 𝐵† 𝐴𝑋
Cette relation est valable pour tout X, en particulier pour X = σ0 (= I), auquel cas, on demande que
−1
𝑇 ≡ 𝐵† 𝐴
soit hermitien. On aura donc

𝑋𝑇=𝑇𝑋
La matrice T doit donc commuter avec n’importe quel X ; on l’a vu en étape préliminaire numéro 2,
cela implique que T est un multiple de l’identité. Soit 𝑇 = 𝑎 𝐼.

On va à présent demander que le déterminant de X’ soit le même que le déterminant de X. Cela revient
en effet à demander l’invariance de la métrique de Minkowski puisque cette métrique n’est autre que
le déterminant de X.

Cela implique que det(𝑇) = 1 → 𝑎2 = 1. Autrement dit, 𝑎 = ±1.

On aura ainsi : 𝑇 = ± 𝐼 et 𝐵† = ± 𝐴 ou 𝐵 = ± 𝐴† .

La loi de transformation sur les quadrivecteurs traduite en termes de matrices s’écrit dès lors

𝑋 ′ = ± 𝐴 𝑋 𝐴†

C’est la loi de transformation sur les quadrivecteurs ; elle doit donc être équivalente aux
transformations de Lorentz mises sous forme matricielle11

𝑋 ′ = ∧ 𝑋 ↔ 𝑋 ′ = ± 𝐴 𝑋 𝐴†
Pour obtenir la forme explicite, on se sert des différentes étapes ci-dessus et principalement
1
𝑋 → 𝑥𝜇 = < 𝜎𝜇, 𝑋 > = 𝑇𝑟 (𝜎𝜇 𝑋)
2
En effet,

∧𝜇𝜈 𝑥𝜈 = (∧ 𝑥)𝜇 = < 𝜎𝜇 ,∧ 𝑋 > = ± < 𝜎𝜇 , 𝐴 𝑋 𝐴† > = ± < 𝜎𝜇 , 𝐴 𝜎𝜈 𝐴† > 𝑥𝜈

On tire donc finalement


1
∧𝜇𝜈 = ± < 𝜎𝜇 , 𝐴 𝜎𝜈 𝐴† > = ± 𝑇𝑟 (𝜎𝜇 𝐴 𝜎𝜈 𝐴† )
2
Remarquons que le signe « moins » est typique d’une inversion temporelle puisque
1 1
∧00 = ± < 𝜎0 , 𝐴 𝜎0 𝐴† > = ± 𝑇𝑟 (𝜎0 𝐴 𝜎0 𝐴† ) = ± 𝑇𝑟 (𝐴 𝐴† )
2 2
Avec le signe « plus », on a donc ∧00 > 0 tandis qu’avec le signe « moins », on a ∧00 < 0.

11
On remarquera que A et –A satisfont cette relation. Il s’agit donc d’un double recouvrement, à l’instar de
SU(2,C) et SO(3).

38
A noter que les auteurs se consacrent exclusivement au signe « plus » ...mais que l’autre signe est tout
aussi valable d’un point de vue mathématique. De nouveau, l’inversion temporelle est donc
naturellement présente dans la théorie des groupes...

En général, la matrice à éléments complexes


𝑎 𝑏
𝐴=( ) ; 𝑎𝑑 − 𝑏𝑐 = 1
𝑐 𝑑
va mener à la matrice à éléments réels
|𝑎|2 + |𝑏|2 + |𝑐|2 + |𝑑|2 𝑎𝑏̅ + 𝑎̅𝑏 + 𝑐𝑑̅ + 𝑐̅𝑑 −𝑖𝑎𝑏̅ + 𝑖 𝑎̅𝑏 − 𝑖𝑐𝑑̅ + 𝑖 𝑐̅𝑑 |𝑎|2 − |𝑏|2 + |𝑐|2 − |𝑑|2
1 𝑎𝑐̅ + 𝑎̅𝑐 + 𝑏𝑑̅ + 𝑏̅𝑑 𝑎𝑑̅ + 𝑎̅𝑑 + 𝑏𝑐̅ + 𝑏̅𝑐 −𝑖𝑎𝑑̅ + 𝑖 𝑎̅𝑑 + 𝑖𝑏𝑐̅ − 𝑖 𝑏̅ 𝑐 𝑎𝑐̅ + 𝑎̅𝑐 − 𝑏𝑑̅ − 𝑏̅𝑑
∧= ±
2 𝑖𝑎𝑐̅ − 𝑖 𝑎̅𝑐 + 𝑖𝑏𝑑̅ − 𝑖 𝑏̅𝑑 𝑖𝑎𝑑̅ − 𝑖 𝑎̅𝑑 + 𝑖𝑏𝑐̅ − 𝑖 𝑏̅𝑐 𝑎𝑑̅ + 𝑎̅𝑑 − 𝑏𝑐̅ − 𝑏̅𝑐 𝑖𝑎𝑐̅ − 𝑖 𝑎̅𝑐 − 𝑖𝑏𝑑̅ + 𝑖 𝑏̅𝑑
(|𝑎|2 + |𝑏|2 − |𝑐|2 − |𝑑|2 𝑎𝑏̅ + 𝑎̅𝑏 − 𝑐𝑑̅ − 𝑐̅𝑑 −𝑖𝑎𝑏̅ + 𝑖 𝑎̅𝑏 + 𝑖𝑐𝑑̅ − 𝑖 𝑐̅𝑑 |𝑎|2 − |𝑏|2 − |𝑐|2 + |𝑑|2 )

Ainsi si on prend
𝑖𝜗 𝑖𝜗
𝑎 = 𝑒− 2 ; 𝑑 = 𝑒 2 ; 𝑏 = 𝑐 = 0
et le signe « plus », on aura
1 0 0 0
0 𝑐𝑜𝑠𝜃 −𝑠𝑖𝑛𝜃 0
∧=( )
0 𝑠𝑖𝑛𝜃 𝑐𝑜𝑠𝜃 0
0 0 0 1
soit la matrice typique d’une rotation d’angle ϑ autour du troisième axe spatial, comme en page 32.

Plus généralement, le sous-groupe SU(2,C) de SL(2,C) (𝑐 = −𝑏̅, 𝑑 = 𝑎̅ ) conduit au sous-groupe des


rotations.

Les boosts s’obtiennent à partir des autres possibilités. Par exemple,


𝜒 𝜒
𝑎 = 𝑐ℎ = 𝑑 ; 𝑏 = 𝑠ℎ = 𝑐
2 2
mène à
𝑐ℎ 𝜒 𝑠ℎ 𝜒 0 0
𝑠ℎ 𝜒 𝑐ℎ 𝜒 0 0
∧=±( )
0 0 1 0
0 0 0 1

L’ambigüité de signe au niveau de la matrice ∧ permet de modifier le signe du premier élément, sans
modifier le signe du déterminant (la matrice étant de dimension 4).

En toute généralité, SL(2,C) permet donc de mettre en évidence les matrices de 𝐿↑+ (le signe
« plus »)mais aussi, et de manière très naturelle, celles de 𝐿↓+ (le signe « moins »).

C’est on ne peut plus normal puisque SO(1,3) contenait déjà ces deux informations !

Le groupe SL(2,C), tout comme le groupe SO(1,3), contient donc deux sous-groupes du groupe complet
de Lorentz : le groupe propre restreint de Lorentz 𝐿↑+ (considéré exclusivement par les physiciens) et
le groupe propre restreint auquel on applique PT, 𝐿↓+ . Ces deux sous-groupes engendrent le groupe
propre de Lorentz.

39
Ignorer la version PT du groupe propre restreint de Lorentz revient à ignorer la moitié des possibilités
contenues dans les groupes SO(1,3) ou SL(2,C) !

Une remarque pour terminer cette longue section.

Puisque les éléments, tant des matrices de SU(2,C) que celles de SL(2,C), sont complexes, ces deux
groupes admettent ce qu’on appelle une représentation complexe. Elle deviendra importante par la
suite puisqu’elle concerne les antiparticules.

Cette représentation consiste à prendre les conjugués complexes des matrices originales.

Par exemple, pour SU(2,C) :


𝑎
𝑀=( ̅
𝑏 ̅ = ( 𝑎̅
) → 𝑀 𝑏̅ )
−𝑏 𝑎̅ −𝑏 𝑎
En détails :
𝑖 0 0 𝑖 0 1 −𝑖 0 0 −𝑖 0 1
( ),( ),( )→( ),( ),( )
0 −𝑖 𝑖 0 −1 0 0 𝑖 −𝑖 0 −1 0

Cependant, quand il ne s’agit que de SU(2,C), le deuxième ensemble de matrices est, en fait,
unitairement équivalent au premier.

La matrice unitaire qui permet de passer d’un ensemble à l’autre est


0 −𝑖
( )
𝑖 0
La représentation complexe de SU(2,C) n’apporte donc rien de plus.

Il n’en est pas de même pour SL(2,C) !

En effet, si c’était le cas, on aurait

𝑇𝑟 (𝐴̅ ) = 𝑇𝑟 (𝑈 𝐴 𝑈 † ) = 𝑇𝑟 (𝑈𝑈 † 𝐴) = 𝑇𝑟 (𝐴)

Or, on sait que


̅̅̅̅̅̅̅̅
𝑇𝑟(𝐴) = 𝑇𝑟 (𝐴̅ )
Les deux combinés impliqueraient que la trace d’une matrice de SL(2,C) serait automatiquement réelle,
ce qui n’est pas le cas.

Il n’existe donc aucune équivalence unitaire entre la représentation de SL(2,C) et sa complexe. Cette
dernière est donc libre d’usage et elle servira pour décrire les antiparticules.

Le groupe de Poincaré
Comme déjà vu en page 30, il n’y a pas que les matrices ∧ qui traduisent l’invariance relativiste : elles
sont complétées par quatre paramètres supplémentaires : 𝑎𝜇 .

Avec les six paramètres contenus dans ∧, cela fait donc un total de dix paramètres. Ces dix paramètres
sont ceux du groupe de Poincaré.

40
On étend donc les matrices ∧ de dimension 4 à des matrices de dimension 5 lorsqu’on considère, en
plus des six transformations ci-dessus, les quatre paramètres 𝑎𝛼 de la relation 𝑥′𝛼 = ∧𝛼𝛽 𝑥 𝛽 + 𝑎𝛼 . On
a alors (a est un vecteur colonne de quatre composantes) :
∧ 𝑎
𝑇(∧, 𝑎) = ( )
0 1
Ce sont les matrices du groupe de Poincaré. Ce n’est pas un groupe compact, puisque Lorentz ne l’est
déjà pas...

Le groupe de Poincaré contient, à l’instar de Lorentz, quatre composantes connexes :

• P +↑ : 𝑇00 ≥ 1 et det T = 1 ;
• P -↑ = P P +↑ : 𝑇00 ≥ 1 et det T = -1 ;
• P+↓ = PT P +↑ : 𝑇 ≤ - 1 et det T = 1 ;
• P -↓= T P +↑ : 𝑇 ≤ - 1 et det T = - 1

La loi de composition de ce groupe est :

𝑇(∧, 𝑎)𝑇(∧ ′, 𝑎′) = (


∧ 𝑎 ∧′
)( 𝑎′) = (∧ ∧ ′ ∧ 𝑎′ + 𝑎) = 𝑇(∧ ∧′ , 𝑎 + ∧ 𝑎′ )
0 1 0 1 0 1
d’où l’on tire facilement l’inverse de 𝑇(∧, 𝑎) à savoir 𝑇(∧−1 , − ∧−1 𝑎).

Les dix matrices de l’algèbre correspondante s’obtiennent de manière habituelle, c’est-à-dire en se


limitant aux transformations infinitésimales. Après multiplication par i (toujours cette marotte des
physiciens...), on a

0 0 0 0 𝑖 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 𝑖 0 0 0 0 0 0 0 0 0 0
𝑃0 = 0 0 0 0 0 , 𝑃1 = 0 0 0 0 0 , 𝑃2 = 0 0 0 0 𝑖 , 𝑃3 = 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 𝑖
(0 0 0 0 0) (0 0 0 0 0) (0 0 0 0 0) (0 0 0 0 0)
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 −𝑖 0 0 0 𝑖 0 0
𝑀23 = 0 0 0 𝑖 0 , 𝑀31 = 0 0 0 0 0 , 𝑀12 = 0 −𝑖 0 0 0
0 0 −𝑖 0 0 0 𝑖 0 0 0 0 0 0 0 0
(0 0 0 0 0) (0 0 0 0 0) (0 0 0 0 0)
0 𝑖 0 0 0 0 0 𝑖 0 0 0 0 0 𝑖 0
𝑖 0 0 0 0 0 0 0 0 0 0 0 0 0 0
𝑀01 = 0 0 0 0 02
0 ,𝑀 = 𝑖 0 0 0 03
0 ,𝑀 = 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 𝑖 0 0 0 0
(0 0 0 0 0) (0 0 0 0 0) (0 0 0 0 0)
Les relations de commutation satisfaites par ces matrices et donc caractéristiques de l’algèbre sont
alors 12

[𝑃𝜇 , 𝑃𝜈 ] = 0
[ 𝑀𝛼𝜈 , 𝑃𝜇 ] = 𝑖 𝑔𝜇𝛼 𝑃𝜈 − 𝑖 𝑔𝜇𝜈 𝑃𝛼

12
On peut les mettre en évidence de manière beaucoup plus rigoureuse (= en ne se limitant pas à des matrices
mais de manière générale)...C’est un parti pris, ici, de se simplifier la vie pour ne garder que les résultats
(rigoureux...) quand on peut le faire...

41
[𝑀𝜇𝜈 , 𝑀𝛼𝜎 ] = −𝑖(𝑔𝜈𝛼 𝑀𝜇𝜎 − 𝑔𝜇𝛼 𝑀𝜈𝜎 − 𝑔𝜎𝜇 𝑀𝛼𝜈 + 𝑔𝜎𝜈 𝑀𝛼𝜇 )

Elles peuvent être satisfaites, de manière équivalente, par


𝜕 𝜕 𝜕 𝜕 𝜕 𝜕
𝑀01 = −𝑖 𝑥 −𝑖𝑡 , 𝑀02 = −𝑖 𝑦 −𝑖𝑡 , 𝑀03 = −𝑖 𝑧 −𝑖𝑡
𝜕𝑡 𝜕𝑥 𝜕𝑡 𝜕𝑦 𝜕𝑡 𝜕𝑧
𝜕 𝜕 𝜕 𝜕 𝜕 𝜕
𝑀12 = 𝑖 𝑥 −𝑖𝑦 , 𝑀31 = 𝑖 𝑧 −𝑖𝑥 , 𝑀23 = 𝑖 𝑦 −𝑖𝑧
𝜕𝑦 𝜕𝑥 𝜕𝑥 𝜕𝑧 𝜕𝑧 𝜕𝑦
𝜕 𝜕 𝜕 𝜕
𝑃0 = 𝑖 , 𝑃1 = 𝑖 , 𝑃2 = 𝑖 , 𝑃3 = 𝑖
𝜕𝑡 𝜕𝑥 𝜕𝑦 𝜕𝑧

Les opérateurs de Casimir de l’algèbre de Poincaré


L’algèbre de Poincaré admet deux Casimirs, c’est-à-dire deux opérateurs qui commutent avec
l’ensemble des dix générateurs de l’algèbre.

Le premier Casimir est :

𝑃2 = 𝜂 𝜇𝜈 𝑃𝜇 𝑃𝜈 = 𝑃02 − 𝑃12 − 𝑃22 − 𝑃32

N.B. Avec la réalisation via les opérateurs différentiels, cela se réduit à

𝜕2 𝜕2 𝜕2 𝜕2
𝑃2 = − + + +
𝜕𝑡 2 𝜕𝑥 2 𝜕𝑦 2 𝜕𝑧 2
qui n’est autre que le premier membre de l’équation de Klein-Gordon comme on le
rappellera dans un portfolio suivant.

En effet :

[𝑃2 , 𝑃𝜇 ] = 0

pour des raisons évidentes et

[𝑃2 , 𝑀𝛼𝛽 ] = 𝜂𝜇𝜈 [𝑃𝜇 , 𝑀𝛼𝛽 ]𝑃𝜈 + 𝜂𝜇𝜈 𝑃𝜇 [𝑃𝜈 , 𝑀𝛼𝛽 ]


= 𝜂𝜇𝜈 (−𝑖 𝑔𝜇𝛼 𝑃𝛽 + 𝑖 𝑔𝜇𝛽 𝑃𝛼 )𝑃𝜈 + 𝜂𝜇𝜈 𝑃𝜇 (−𝑖 𝑔𝜈𝛼 𝑃𝛽 + 𝑖 𝑔𝜈𝛽 𝑃𝛼 )
= −𝑖 𝑃𝛽 𝑃𝛼 + 𝑖 𝑃𝛼 𝑃𝛽 − 𝑖 𝑃𝛼 𝑃𝛽 + 𝑖 𝑃𝛽 𝑃𝛼 = 0
Le lemme de Schur assure que, pour des représentations irréductibles, un opérateur qui commute avec
tous les autres est nécessairement multiple de l’identité.

Or, le carré du quadrivecteur impulsion est conservé (conservation de la norme...), que la particule soit
en mouvement ou au repos

𝑝2 = 𝐸 2 − 𝑝2 = 𝐸02 = 𝑚2.

On sait donc que le carré du quadrivecteur impulsion 𝑝 = (𝐸, 𝑝) est le carré de la masse.

Les valeurs propres du Casimir 𝑃2 seront donc associées à 𝑚2 . La masse de la particule élémentaire
est donc définie à travers la valeur propre du premier Casimir qui en est le carré.

N.B. On retrouve ainsi le deuxième membre de l’équation de Klein-Gordon.

42
Comme les quanticiens demandent que les opérateurs 𝑃𝜇 soient hermitiens13, il en est de même de
𝑃2 . Cela implique que ses valeurs propres sont réelles, autrement dit 𝑚2 ∊ 𝑅.

𝑃2 ↔ 𝑚2 ∊ 𝑅

C’est la seule contrainte sur la masse ! En fait, rien n’empêche la masse d’être négative...voire
imaginaire !

Pour le deuxième casimir, on introduit le vecteur de Pauli-Lubanski, soit


1 𝜇𝜈𝛼𝛽
𝑊𝜇 = 𝜀 𝑃𝜈 𝑀𝛼𝛽
2
ou, en détails

𝑊0 = 𝑃1 𝑀23 + 𝑃2 𝑀31 + 𝑃3 𝑀12


𝑊1 = −𝑃0 𝑀23 + 𝑃2 𝑀03 − 𝑃3 𝑀02
𝑊2 = −𝑃0 𝑀31 − 𝑃1 𝑀03 + 𝑃3 𝑀01
𝑊3 = −𝑃0 𝑀12 + 𝑃1 𝑀02 − 𝑃2 𝑀01
Avec du courage, on montre que

[𝑃𝜇 , 𝑊𝜈 ] = 0 ; [ 𝑀𝛼𝛽 , 𝑊𝜈 ] = 𝑖( 𝑔𝛽𝜈 𝑊𝛼 − 𝑔𝛼𝜈 𝑊𝛽 )

entraînant la commutation de tous les générateurs de l’algèbre avec

le deuxième Casimir : 𝑊 2 = 𝜂 𝜇𝜈 𝑊𝜇 𝑊𝜈 = 𝑊02 − 𝑊12 − 𝑊22 − 𝑊32

Sa valeur propre est associée au spin de la particule. On verra cela plus loin.

Signalons aussi les relations de commutation entre les 𝑊𝜈 ∶

[𝑊𝜇 , 𝑊𝜈 ] = 𝑖 𝜀𝜇𝜈𝛼𝛽 𝑃𝛼 𝑊𝛽 .

D’où vient ce vecteur de Pauli-Lubanski ?

D’un concept qui s’appelle groupe d’isotropie ou, de manière équivalente, petit groupe.

Le groupe d’isotropie d’un quadrivecteur est, par définition, l’ensemble des éléments du groupe qui
laissent invariant ce quadrivecteur. Ainsi une transformation de Lorentz caractérisée par ∧ appartient
au petit groupe d’un quadrivecteur η ssi

∧ 𝜂= 𝜂

Puisque ∧ = 𝑒 𝐴 où A est élément de l’algèbre, cela revient à dire que, pour l’algèbre :

𝐴𝜂 =0

13
On a bien compris que cette demande est incompatible avec la représentation matricielle de dimension 5. Cela
est dû au caractère non compact du groupe de Poincaré. Il faut aller vers des représentations de dimension
infinie pour constater l’hermiticité des opérateurs. Seules ces représentations permettent d’avoir des valeurs
propres des Casimirs de l’algèbre de Poincaré physiquement significatives.

43
Or, un élément de l’algèbre peut toujours s’écrire (au i près habituel près) :
𝑖
𝐴= 𝑤 𝑀𝜇𝜈
2 𝜇𝜈
Les six paramètres (antisymétriques) 𝑤𝜇𝜈 sont ceux du groupe et sont notés ainsi pour faciliter les
notations.

La matrice A sera donc14


0 −𝑤01 −𝑤02 −𝑤03
−𝑤01 0 −𝑤12 𝑤13
𝐴=( )
−𝑤02 𝑤12 0 −𝑤23
−𝑤03 −𝑤13 𝑤23 0
Elle sera génératrice de l’algèbre du petit groupe de
𝜂0
𝜂1
𝜂=( )
𝜂2
𝜂3
ssi A η = 0, autrement dit
𝑤01 𝜂1 + 𝑤02 𝜂2 + 𝑤03 𝜂3 = 0
−𝑤01 𝜂0 − 𝑤12 𝜂2 + 𝑤13 𝜂3 = 0
{
−𝑤02 𝜂0 + 𝑤12 𝜂1 − 𝑤23 𝜂3 = 0
−𝑤03 𝜂0 − 𝑤13 𝜂1 + 𝑤23 𝜂2 = 0
On peut réaliser ces contraintes en prenant

𝑤01 = 𝑐2 𝜂3 − 𝑐3 𝜂2 ; 𝑤02 = 𝑐3 𝜂1 − 𝑐1 𝜂3 ; 𝑤03 = 𝑐1 𝜂2 − 𝑐2 𝜂1


𝑤12 = 𝑐3 𝜂0 − 𝑐0 𝜂3 ; 𝑤13 = 𝑐2 𝜂0 − 𝑐0 𝜂2 ; 𝑤23 = 𝑐1 𝜂0 − 𝑐0 𝜂1
On aura alors

𝐴 = 𝑖 𝑐0 (−𝜂3 𝑀12 − 𝜂2 𝑀13 − 𝜂1 𝑀23 ) + 𝑖 𝑐1 (−𝜂3 𝑀02 + 𝜂2 𝑀03 + 𝜂0 𝑀23 )


+ 𝑖 𝑐2 (𝜂3 𝑀01 − 𝜂1 𝑀03 + 𝜂0 𝑀13 ) + 𝑖 𝑐3 (−𝜂2 𝑀01 + 𝜂1 𝑀02 + 𝜂0 𝑀12 )
Si η est le quadrivecteur impulsion, on obtient finalement

𝐴 = 𝑖 𝑐0 (−𝑊0 ) + 𝑖 𝑐1 (−𝑊1 ) + 𝑖 𝑐2 (−𝑊2 ) + 𝑖 𝑐3 (−𝑊3 )


Les quatre composantes du vecteur de Pauli-Lubanski sont donc les éléments de l’algèbre associée au
petit groupe du quadrivecteur impulsion.

Les impulsions jouent un rôle privilégié du fait de la relation [𝑃𝜇 , 𝑊𝜈 ] = 0.

On peut préciser quels sont les petits groupes relatifs à des impulsions particulières. Il suffit d’en
prendre des représentants particuliers15.

Comme les représentations physiquement significatives de l’algèbre de Poincaré sont de dimension


infinie, sans parler de leurs difficultés intrinsèques, les quanticiens les éludent la plupart du temps pour

14
On vérifie sans peine que 𝐴𝑇 𝑔 + 𝑔 𝐴 = 0, soit que A est effectivement matrice de so(1,3).
15
Il est entendu que des représentants plus généraux peuvent s’obtenir en appliquant une transformation de
Lorentz sur ces représentants particuliers.

44
se consacrer exclusivement à ces petits groupes dont les représentations contiennent tout ce dont ils
ont besoin.

Ainsi, on a déjà vu que le premier Casimir de l’algèbre de Poincaré menait à définir la masse d’une
particule (et, soulignons-le encore une fois, la seule contrainte mathématico-physique est d’assurer un
caractère réel au carré de cette masse).

Les petits groupes vont nous permettre de donner l’interprétation physique du deuxième Casimir.

Ainsi, si on a un quadrivecteur impulsion du genre temps, orienté vers le futur16 :

𝜂0 = 𝑚, 𝜂1 = 0 , 𝜂2 = 0, 𝜂3 = 0
Les générateurs de l’algèbre du petit groupe se réduisent à (𝑊0 = 0)

𝑊1 = 𝑚 𝑀23 ; 𝑊2 = 𝑚 𝑀13 ; 𝑊3 = 𝑚 𝑀12


Les relations de commutation de ces trois générateurs sont

[𝑊1 , 𝑊2 ] = 𝑖 𝑚2 𝑀12 = 𝑖 𝑚 𝑊3
[𝑊3 , 𝑊1 ] = 𝑖 𝑚2 𝑀13 = 𝑖 𝑚 𝑊2

[𝑊2 , 𝑊3 ] = 𝑖 𝑚2 𝑀23 = 𝑖 𝑚 𝑊1

Ce sont les relations typiques (à une complexification près, due à cette sempiternelle présence du i)
de l’algèbre su(2,C).

Les valeurs propres du deuxième Casimir sont alors

𝑊02 − 𝑊12 − 𝑊22 − 𝑊32 = −𝑚2 𝑀2 → −𝑚2 𝑠(𝑠 + 1)


(cf. pages 41-43 du premier portfolio).

Et là, on tient l’interprétation physique du deuxième Casimir : il permet de définir le spin de la particule.

Donc :

𝑃𝑟𝑒𝑚𝑖𝑒𝑟 𝐶𝑎𝑠𝑖𝑚𝑖𝑟 → 𝑚𝑎𝑠𝑠𝑒 𝑑𝑒 𝑙𝑎 𝑝𝑎𝑟𝑡𝑖𝑐𝑢𝑙𝑒 ; 𝑑𝑒𝑢𝑥𝑖è𝑚𝑒 𝐶𝑎𝑠𝑖𝑚𝑖𝑟 → 𝑠𝑝𝑖𝑛 𝑑𝑒 𝑙𝑎 𝑝𝑎𝑟𝑡𝑖𝑐𝑢𝑙𝑒

Les autres petits groupes ont moins d’importance pour ce que l’on veut en faire.

Signalons simplement ceci.

Ainsi, si on a un quadrivecteur impulsion du genre lumière, orienté vers le futur17 :

𝜂0 = 𝑘, 𝜂1 = 0 , 𝜂2 = 0, 𝜂3 = 𝑘
Les générateurs de l’algèbre du petit groupe sont alors

𝑊0 = −𝑊3 = 𝑘 𝑀12 ; 𝑊1 = 𝑘 (𝑀02 − 𝑀23 ); 𝑊2 = −𝑘 (𝑀01 + 𝑀13 )


Les relations de commutation satisfaites par ces opérateurs sont

[𝑊0 , 𝑊1 ] = 𝑖 𝑘 2 (𝑀01 − 𝑀13 )

16
Cela implique que m > 0.
17
Cela implique à nouveau que m > 0.

45
[𝑊0 , 𝑊2 ] = 𝑖 𝑘 2 (𝑀02 + 𝑀23 )
[𝑊1 , 𝑊2 ] = 2 𝑖 𝑘 𝑊0

On constate que cela ne ferme pas. Qu’à cela ne tienne, pour une raison que j’ignore, les physiciens
ne s’encombrent pas de ce genre de « détails » et choisissent d’ignorer 𝑊1 et 𝑊2 , en se concentrant
sur les seuls 𝑊0 ou 𝑊3 qui se réduisent en fait à 𝑀12 , c’est-à-dire à une rotation. Ils disent alors que le
petit groupe d’un quadrivecteur du genre lumière est SO(2) (ce qui est correct si on ignore
effectivement 𝑊1 et 𝑊2 ).

Comme SO(2) est caractérisé par des représentations irréductibles de dimension 1, ils libellent ces
représentations par un nombre λ qui jouera le rôle de l’hélicité ( = ±1 pour le photon et ½ pour le
neutrino, - ½ pour son antiparticule).

Enfin, si on a un quadrivecteur impulsion du genre espace,

𝜂0 = 0, 𝜂1 = 0 , 𝜂2 = 0, 𝜂3 = 𝑘
Les générateurs de l’algèbre du petit groupe sont alors

𝑊0 = 𝑘 𝑀12 ; 𝑊1 = 𝑘 𝑀02 ; 𝑊2 = −𝑘 𝑀01


Les relations de commutation satisfaites par ces opérateurs sont

[𝑊0 , 𝑊1 ] = −𝑖 𝑘 𝑊2 ; [𝑊2 , 𝑊0 ] = −𝑖 𝑘 𝑊1 ; [𝑊1 , 𝑊2 ] = 𝑖 𝑘 𝑊0

Ce sont presque les relations de so(3) : il y a juste un changement de signe dans une des relations. Cela
entraîne que c’est l’algèbre so(2,1) qui est sous-tendue par ces trois opérateurs. Le dernier petit groupe
est donc SO(2,1).

Annexe : les représentations irréductibles de so(1,3)


On a vu, en étudiant l’algèbre so(1,3), qu’elle était réalisée par les matrices suivantes (rappelons-le,
mathématiquement, c’est en fait i so(1,3)) :
0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 −𝑖 0 0 𝑖 0
𝑀23 =( ) , 𝑀31 = ( ) , 𝑀12 = ( )
0 0 0 𝑖 0 0 0 0 0 −𝑖 0 0
0 0 −𝑖 0 0 𝑖 0 0 0 0 0 0
0 𝑖 0 0 0 0 𝑖 0 0 0 0 𝑖
01 𝑖 0 0 0 02 0 0 0 0 03 0 0 0 0
𝑀 = ( ),𝑀 = ( ),𝑀 = ( )
0 0 0 0 𝑖 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 𝑖 0 0 0

Ce n’est pas la seule représentation de dimension finie de l’algèbre de Lorentz.

Il serait fastidieux (et improductif) de mettre en évidence les autres représentations de dimension finie
de cette algèbre. On se contentera de donner les résultats.

Nous devons d’abord introduire les matrices suivantes, génératrices de su(2,C) :

[𝐽𝑘 (𝑗) , 𝐽𝑙 (𝑗) ] = 𝑖 𝜀𝑘𝑙𝑚 𝐽𝑚(𝑗)

46
1
𝐽1(𝑗) 𝑎′𝑎 = (√(𝑗 − 𝑎)(𝑗 + 𝑎 + 1) 𝛿𝑎′ ,𝑎+1 + √(𝑗 + 𝑎)(𝑗 − 𝑎 + 1) 𝛿𝑎′ ,𝑎−1 )
2
1
𝐽2(𝑗) 𝑎′𝑎 = (√(𝑗 − 𝑎)(𝑗 + 𝑎 + 1) 𝛿𝑎′ ,𝑎+1 − √(𝑗 + 𝑎)(𝑗 − 𝑎 + 1) 𝛿𝑎′ ,𝑎−1 )
2𝑖
𝐽3(𝑗) 𝑎′𝑎 = 𝑎 𝛿𝑎′ ,𝑎

avec

−𝑗 ≤ 𝑎, 𝑎′ ≤ 𝑗
Prenons quelques exemples particuliers pour être très clair.

Si 𝑗 = 0 : chacun des Jk vaut 0.


1
Si 𝑗 = 2 :

1 1 ′ 1 1
𝑎=− , ;𝑎 = − ,
2 2 2 2
1 0 1 1 0 −𝑖 1 1 0
𝐽1 = ( ) ; 𝐽2 = ( ) ; 𝐽3 = ( )
2 1 0 2 𝑖 0 2 0 −1
Si 𝑗 = 1 :

𝑎 = −1, 0, 1 ; 𝑎′ = −1, 0, 1

1 0 1 0 1 0 −𝑖 0 1 0 0
𝐽1 = (1 0 1) ; 𝐽2 = (𝑖 0 −𝑖 ) ; 𝐽3 = (0 0 0)
√2 0 1 0 √2 0 𝑖 0 0 0 −1

Les matrices de so(1,3) sont alors données par18

𝐽𝑗 = 𝐼2𝑚+1 ⊗ 𝐽𝑗 (𝑛) + 𝐽𝑗 (𝑚) ⊗ 𝐼2𝑛+1

𝐾𝑗 = 𝑖(𝐼2𝑚+1 ⊗ 𝐽𝑗 (𝑛) − 𝐽𝑗 (𝑚) ⊗ 𝐼2𝑛+1 )


1
Ainsi pour la représentation 𝐷(2 , 0) :
1
( )
1
( )
1
( ) 1
𝐽𝑗 = 𝐼2 ⊗ 𝐽𝑗 (0) + 𝐽𝑗 2 ⊗ 𝐼1 = 𝐽𝑗 2 ⊗ 𝐼1 = 𝐽𝑗 2 = 𝜎𝑗
2
1
( )
1
( )
1
( ) 𝑖
𝐾𝑗 = 𝑖 (𝐼2 ⊗ 𝐽𝑗 (0) − 𝐽𝑗 2 ⊗ 𝐼1 ) = −𝑖 𝐽𝑗 2 ⊗ 𝐼1 = −𝑖 𝐽𝑗 2 = − 𝜎𝑗
2
Cette représentation est appelée représentation spinorielle de Weyl gauchère.
1
Pour la représentation 𝐷(0, 2) :
1
( )
1
( )
1
( ) 1
𝐽𝑗 = 𝐼1 ⊗ 𝐽𝑗 2 + 𝐽𝑗 (0) ⊗ 𝐼2 = 𝐼1 ⊗ 𝐽𝑗 2 = 𝐽𝑗 2 = 𝜎𝑗
2
1
( )
1
( )
1
( ) 𝑖
𝐾𝑗 = 𝑖 (𝐼1 ⊗ 𝐽𝑗 2 − 𝐽𝑗 (0) ⊗ 𝐼2 ) = 𝑖 𝐼1 ⊗ 𝐽𝑗 2 = 𝑖 𝐽𝑗 2 = 𝜎𝑗
2

18
En ayant rebaptisé M12 =- J3, M31 = -J2, M23 = -J1, M01 = K1, M02 =K2, M03 = K3

47
Cette représentation est appelée représentation spinorielle de Weyl droitière.

En réunissant les deux représentations spinorielles, on obtient la représentation bispinorielle


1 1
𝐷 (2 , 0) ⊕ 𝐷(0, 2) :

−1 0 0 0 0 𝑖 0 0 0 −1 0 0
1 0 1 0 0 1 −𝑖 0 0 0 1 −1 0 0 0
𝑀12 = ( ) , 𝑀31 = ( ) , 𝑀23 = ( )
2 0 0 −1 0 2 0 0 0 𝑖 2 0 0 0 −1
0 0 0 1 0 0 −𝑖 0 0 0 −1 0
𝑖 0 0 0 0 1 0 0 0 𝑖 0 0
03
1 0 −𝑖 0 0 02
1 −1 0 0 0 01
1 𝑖 0 0 0
𝑀 = ( ),𝑀 = ( ),𝑀 = ( )
2 0 0 −𝑖 0 2 0 0 0 −1 2 0 0 0 −𝑖
0 0 0 𝑖 0 0 1 0 0 0 −𝑖 0
C’est une représentation réductible. Elle ne doit pas être confondue avec la représentation
1 1
quadrivectorielle 𝐷(2 , 2 ), également de dimension 4 mais irréductible.

Celle-ci est obtenue via


1 1
( ) ( )
𝐽𝑗 = 𝐼2 ⊗ 𝐽𝑗 2 + 𝐽𝑗 2 ⊗ 𝐼2
1 1
( ) ( )
𝐾𝑗 = 𝑖(𝐼2 ⊗ 𝐽𝑗 2 − 𝐽𝑗 2 ⊗ 𝐼2 )
Explicitement :
−1 0 0 0
1 1 𝐼2 + 𝜎3 0 0 0 0 0
𝑀12 = − (𝐼2 ⊗ 𝜎3 + 𝜎3 ⊗ 𝐼2 ) = − ( )=( )
2 2 0 −𝐼2 + 𝜎3 0 0 0 0
0 0 0 1
0 𝑖 𝑖 0
1 1 𝜎2 −𝑖 𝐼2 1 −𝑖 0 0 𝑖
𝑀31 = − (𝐼2 ⊗ 𝜎2 + 𝜎2 ⊗ 𝐼2 ) = − ( )= ( )
2 2 𝑖 𝐼2 𝜎2 2 −𝑖 0 0 𝑖
0 −𝑖 −𝑖 0
0 −1 −1 0
1 1 𝜎1 𝐼2 1 −1 0 0 −1
𝑀23 = − (𝐼2 ⊗ 𝜎1 + 𝜎1 ⊗ 𝐼2 ) = − ( )= ( )
2 2 𝐼2 𝜎1 2 −1 0 0 −1
0 −1 −1 0
0 0 0 0
𝑖 𝑖 𝐼2 − 𝜎3 0 0 𝑖 0 0
𝑀03 = (𝐼2 ⊗ 𝜎3 − 𝜎3 ⊗ 𝐼2 ) = ( )=( )
2 2 0 −𝐼2 − 𝜎3 0 0 −𝑖 0
0 0 0 0
0 −1 1 0
02
𝑖 𝑖 −𝜎2 −𝑖 𝐼2 1 1 0 0 1
𝑀 = (𝐼2 ⊗ 𝜎2 − 𝜎2 ⊗ 𝐼2 ) = ( )= ( )
2 2 𝑖 𝐼2 −𝜎2 2 −1 0 0 −1
0 −1 1 0
0 −𝑖 𝑖 0
𝑖 𝑖 −𝜎1 𝐼2 1 −𝑖 0 0 𝑖
𝑀01 = (𝐼2 ⊗ 𝜎1 − 𝜎1 ⊗ 𝐼2 ) = ( )= ( )
2 2 𝐼2 −𝜎1 2 𝑖 0 0 −𝑖
0 𝑖 −𝑖 0
Ces matrices sont unitairement équivalentes à celles de ce début d’annexe via la matrice

48
0 −1 1 0
11 0 0 −1
𝑈= ( )
√2 𝑖 0 0 𝑖
0 −1 −1 0
confirmant ainsi que les matrices que nous avons mises en évidence dans l’étude de l’algèbre de
1 1
Lorentz sont celles de la représentation 𝐷( , ).
2 2

49

Vous aimerez peut-être aussi