Vous êtes sur la page 1sur 17

Christophe Bertault — Mathématiques en MPSI

DÉTERMINANTS
Dans tout ce chapitre, K est l’un des corps R ou C. Les résultats présentés, sauf un ou deux, demeurent vrais dans un
contexte plus général, mais nous ne nous en préoccuperons pas ici.

1 AIRES ET VOLUMES ORIENTÉS RELATIVEMENT À UNE BASE


Il est difficile de définir proprement les notions d’« aire » dans le plan et de « volume » dans l’espace. Nous n’y arriverons
pas pour des surfaces ou des volumes quelconques, mais ce que nous allons faire n’est pas rien. Point de départ de nos
investigations : la donnée d’une « unité d’aire orientée » dans le plan et d’une « unité de volume orienté » dans l’espace.

— Une unité d’aire orientée dans le plan, ce sera pour nous un parallélogramme e2
orienté, i.e. une base B = (e1 , e2 ) du plan que nous décrétons directe. e2

— Une unité de volume orienté dans l’espace, ce sera pour nous un parallélépipède b e1
orienté, i.e. une base B = (e1 , e2 , e3 ) de l’espace que nous décrétons directe. b e1 e3

À partir de cette brique élémentaire, nous pouvons donner une aire (resp. un volume) à n’importe quel parallélogramme
(resp. parallélépipède) du plan (resp. de l’espace). Nous noterons detB (x 1 , x 2 ) l’aire orientée du parallélogramme engendré
par une famille (x 1 , x 2 ) de vecteurs dans le plan et detB (x 1 , x 2 , x 3 ) le volume orienté du parallélépipède engendré par une
famille (x 1 , x 2 , x 3 ) de vecteurs de l’espace. L’indice « B » indique que ces aires/volumes orientés sont calculés relativement
à l’unité d’aire/volume orienté que B représente en tant que brique élémentaire. En particulier : detB (B ) = 1.

Quant à l’orientation d’une aire dans le plan, que signifie-t-elle ? Simplement qu’on comptera positivement l’aire d’un
parallélogramme engendré par une base directe et négativement l’aire d’un parallélogramme engendré par une base indirecte.
Même principe pour les volumes orientés. Par exemple, dans le plan : detB (e2 , e1 ) = −detB (B ) = −1 car la base (e2 , e1 )
est indirecte.
2v
2e2
v v
v

b
2u
3e1 b
u
b
w
b b
u′
2 2w u
 ‹
3e1 3
detB 2e2 , = 2 × detB (e2 , e1 ) detB (2u, 2v, 2w) = 23 detB (u, v, w) detB (u + u′ , v)
2 2
= detB (u, v) + detB (u′ , v)
= −3detB (B ) = −3

Ces figures nous permettent de comprendre quelques propriétés des aires et des volumes orientés. Plus précisément :

(u, v) est une base du plan ⇐⇒ detB (u, v) 6= 0.


— Caractérisation des bases :
(u, v, w) est une base de l’espace ⇐⇒ detB (u, v, w) 6= 0.

En d’autres termes, la colinéarité de deux vecteurs est caractérisée dans le plan par le caractère aplati du parallélo-
gramme qu’ils engendrent. Même principe dans l’espace.
En particulier, dans le plan : detB (u, u) = 0 et dans l’espace, dès que deux des trois vecteurs u, v et w sont égaux :
detB (u, v, w) = 0 — c’est ce qu’on appelle le caractère alterné de l’application detB .

— Antisymétrie : Le signe de detB (u, v) et detB (u, v, w) est changé chaque fois qu’on permute deux vecteurs.

— Multilinéarité : L’application detB est linéaire par rapport à chacune de ses variables.

(u, v) est une base directe du plan ⇐⇒ detB (u, v) > 0.


— Caractérisation de l’orientation :
(u, v, w) est une base directe de l’espace ⇐⇒ detB (u, v, w) > 0.

1
Christophe Bertault — Mathématiques en MPSI

2 FORMES MULTILINÉAIRES ALTERNÉES


Nous allons dans ce paragraphe tâcher de prendre de la hauteur par rapport au précédent en abandonnant le strict
point de vue d’une géométrie du plan et de l’espace. Par quoi les notions d’aire et volume orientés pourraient-elles bien être
remplacées en dimension finie quelconque ?

Définition (Application multilinéaire) Soient E1 , . . . , En et F des K-espaces vectoriels et f : E1 × . . . × En −→ F une


application. On dit que f est n-linéaire si :

pour tout k ∈ ¹1, nº et pour tous x 1 ∈ E1 , . . . , x k−1 ∈ Ek−1 , x k+1 ∈ Ek+1 , . . . , x n ∈ En fixés,

l’application x 7−→ f (x 1 , . . . , x k−1 , x, x k+1 , . . . , x n ) est linéaire de Ek dans F.

On dit que f est bilinéaire si : n = 2, trilinéaire si : n = 3, et si : F = K, que f est une forme n-linéaire.

 Explication 
• En résumé, pour tout k ∈ ¹1, nº, f est linéaire par rapport à sa kème variable quand on fixe les n−1 variables restantes.
• Une application 1-linéaire n’est rien d’autre qu’une application linéaire.

Exemple
• Dans l’espace, le produit scalaire et le produit vectoriel sont bilinéaires.
• Pour tout K-espace vectoriel E, la multiplication par un scalaire (λ, x) 7−→ λx est bilinéaire de K × E dans E.
• Le produit matriciel (A, B) 7−→ AB est bilinéaire de M p,q (K) × Mq,r (K) dans M p,r (K).
• Le produit fonctionnel ( f , g) 7−→ f g est bilinéaire de RR × RR dans RR .
• Pour tous K-espaces vectoriels E, E ′ et E ′′ , la composition ( f , g) 7−→ g ◦ f est bilinéaire de L (E, E ′ ) × L (E ′ , E ′′ ) dans
L (E, E ′′ ).

Définition (Forme multilinéaire alternée) Soient E un K-espace vectoriel et f une forme n-linéaire de E n . On dit que
f est alternée si f est nulle sur toute famille de vecteurs dont au moins deux sont égaux.

Théorème (Propriétés des formes multilinéaires alternées) Soient E un K-espace vectoriel et f une forme n-linéaire
alternée de E n .
(i) f est nulle sur toute famille liée.
(ii) On ne change pas la valeur de f quand on ajoute à l’une de ses variables une combinaison linéaire des autres.
(iii) f est antisymétrique — cela revient à dire que pour tous x 1 , . . . , x n ∈ E et i, j ∈ ¹1, nº avec i < j :

f (. . . , x j , . . . , x i , . . .) = − f (. . . , x i , . . . , x j , . . .).

Démonstration
X
(i) Soit (x 1 , . . . , x n ) une famille liée de E, avec disons : xk = λi x i pour un certain k ∈ ¹1, nº et pour
1¶i¶n
i6=k
certains λ1 , . . . , λk−1 , λk+1 , . . . , λ ∈ K.
  x i apparaît deux fois
X Linéarité
X z }| {
f (x 1 , . . . , x n ) = f . . . , x k−1 , λi x i , x k+1 , . . . = λi f (. . . , x k−1 , x i , x k+1 , . . .) = 0.
1¶i¶n k ème variable 1¶i¶n
i6=k i6=k

(ii) Soient x 1 , . . . , x n ∈ E et λ1 , . . . , λk−1 , λk+1 , . . . , λn ∈ K. Seule la kème variable est explicitée ci-après :
 X  X
Linéarité
f . . . , xk + λi x i , . . . = f (. . . , x k , . . .) + λi f (. . . , x i , . . .) = f (. . . , x k , . . .).
k ème variable | {z }
1¶i¶n 1¶i¶n
i6=k i6=k x i apparaît
deux fois

2
Christophe Bertault — Mathématiques en MPSI

(iii) Seules les i ème et j ème variables sont explicitées ci-après. Par n-linéarité et caractère alternée de f :
f (. . . , x i + x j , . . . , x i + x j , . . .) = f (. . . , x i , . . . , x i , . . .) + f (. . . , x i , . . . , x j , . . .)+ f (. . . , x j , . . . , x i , . . .)+ f (. . . , x j , . . . , x j , . . .),
| {z } | {z } | {z }
=0 =0 =0

donc en effet : f (. . . , x j , . . . , x i , . . .) = − f (. . . , x i , . . . , x j , . . .). „

À présent, afin de généraliser les notions d’aire orientée dans le plan et de volume orienté dans l’espace, nous allons
tâcher de déterminer toutes les formes n -linéaires alternées d’un K-espace vectoriel E de dimension finie n .

Soient donc E 6= 0 E un K-espace vectoriel de dimension n, f une forme n-linéaire alternée de E n , B = (e1 , . . . , en ) une
base de E et (x 1 , . . . , x n ) une famille de n vecteurs de E de matrice A dans B . Par n-linéarité de f :
!
X
n X
n X 
f (x 1 , . . . , x n ) = f a k1 1 e k1 , . . . , akn n ekn = a k1 1 . . . a k n n f e k1 , . . . , e k n .
k1 =1 kn =1 (k1 ,...,kn )∈¹1,nºn

Dans cette somme : f ek1 , . . . , ekn = 0 dès que deux des vecteurs eki sont égaux, donc nous pouvons n’y conserver
que les n-listes (k1 , . . . , kn ) d’éléments DISTINCTS, i.e. les n-arrangements de ¹1, nº. Par ailleurs, nous savons bien que la
donnée d’un n-arrangement (k1 , . . . , kn ) de ¹1, nº est équivalente à la donnée d’une permutation σ de ¹1, nº, avec pour tout
i ∈ ¹1, nº : σ(i) = ki . Finalement, si nous notons Sn le groupe symétrique de ¹1, nº, dit groupe symétrique de degré n :
‚ n Œ
X Y 
f (x 1 , . . . , x n ) = aσ(i)i f eσ(1) , . . . , eσ(n) .
σ∈Sn i=1

Pour aller plus loin, nous allons devoir étudier davantage les quantités f eσ(1) , . . . , eσ(n) qui viennent d’apparaître. Donnons-
en deux exemples dans le cas : n = 4. L’outil majeur des calculs qui suivent, c’est l’ANTISYMÉTRIE de f .
— Si σ est définie par les relations : σ(1) = 3, σ(2) = 4, σ(3) = 1 et σ(4) = 2, alors :
 e1 ↔e3 e2 ↔e4
f eσ(1) , eσ(2) , eσ(3) , eσ(4) = f (e3 , e4 , e1 , e2 ) = − f (e1 , e4 , e3 , e2 ) = + f (e1 , e2 , e3 , e4 ).

— Si σ est définie par les relations : σ(1) = 2, σ(2) = 4, σ(3) = 1 et σ(4) = 3, alors :
 e1 ↔e2 e2 ↔e4 e3 ↔e4
f eσ(1) , eσ(2) , eσ(3) , eσ(4) = f (e2 , e4 , e1 , e3 ) = − f (e1 , e4 , e2 , e3 ) = f (e1 , e2 , e4 , e3 ) = − f (e1 , e2 , e3 , e4 ).
Deux questions s’imposent après ces exemples. Peut-on « défaire » TOUTE permutation par des échanges successifs de
deux valeurs ? Que dire de général sur ces signes « + » et « − » qui en résultent en facteur ?

3 GROUPES SYMÉTRIQUES
On peut représenter
 de plusieurs façons
‹ une permutation σ de ¹1, nº. La première consiste à écrire σ sous la forme
1 2 ··· n
d’une matrice . Par exemple, la permutation σ de ¹1, 4º définie par les égalités : σ(1) = 2,
σ(1) σ(2) · · · σ(n)
 ‹
1 2 3 4
σ(2) = 4, σ(3) = 1 et σ(4) = 3 peut être représentée par la matrice .
2 4 1 3
Le produit de deux permutations est facile à effectuer à partir de cette représentation. Par exemple, dans S5 :
 ‹  ‹  ‹
1 2 3 4 5 1 2 3 4 5 1 2 3 4 5
= .
1 4 2 5 3 2 1 4 5 3 4 1 5 3 2
 ‹
1 2 3 4
L’inverse d’une permutation est tout aussi facile à calculer. Par exemple, l’inverse de σ = dans S4 est
3 4 2 1
 ‹
1 2 3 4
σ−1 = — lisez simplement la matrice de σ du bas vers le haut au lieu de la lire du haut vers le bas.
4 3 1 2

Définition-théorème (Support d’une permutation, permutations disjointes)



• Soit σ ∈ Sn . On appelle support de σ l’ensemble : supp(σ) = x ∈ ¹1, nº/ σ(x) 6= x des éléments de ¹1, nº
qui NE sont PAS fixés par σ.
• Deux permutations de ¹1, nº sont dites disjointes si leurs supports sont disjoints.
Propriété remarquable : Deux permutations disjointes commutent.

3
Christophe Bertault — Mathématiques en MPSI

Démonstration Soient σ, σ′ ∈ Sn disjointes et x ∈ ¹1, nº. Montrons que σ et σ′ commutent.


— Si : x∈
/ supp(σ) et / supp(σ′ ), :
x∈ σσ′ (x) = σ(x) = x = σ′ (x) = σ′ σ(x).
— Supposons maintenant que : x ∈ supp(σ) — on traiterait de même le cas où : x ∈ supp(σ′ ).
′ ′ ′ ′
Comme σ et σ sont disjointes : x ∈ / supp(σ ), donc :  σ (x) = x, et enfin : σσ (x) = σ(x).
Ensuite : σ(x) 6= x et σ est injective, donc : σ σ(x) 6= σ(x), i.e. : σ(x) ∈ supp(σ). Or σ et
σ′ sont disjointes, donc : σ′ σ(x) = σ(x), et finalement : σσ′ (x) = σ(x) = σ′ σ(x).
Dans tous les cas : σσ′ (x) = σ′ σ(x), donc comme c’est vrai pour tout x ∈ ¹1, nº : σσ′ = σ′ σ. „
 ‹ 
1 2 3 4 5
Exemple La permutation admet 1, 2, 4 pour support.
2 4 3 1 5

Définition (Cycle, transposition)


• Soit p ∈ ¹2, nº. On appelle p-cycle de ¹1, nº ou cycle de longueur p de ¹1, nº toute permutation σ de ¹1, nº pour
laquelle il existe des éléments distincts x 1 , . . . , x p de ¹1, nº tels que :

σ(x 1 ) = x 2 , σ(x 2 ) = x 3 , ... σ(x p−1 ) = x p et σ(x p ) = x 1

et σ(x) = x si x n’est aucun des éléments x 1 , . . . , x p .


Un tel p-cycle est alors noté (x 1 x 2 . . . x p ), ou (x 2 x 3 . . . x p x 1 ), ou (x 3 x 4 . . . x p x 1 x 2 ), etc.
• Un 2-cycle de ¹1, nº est aussi appelé une transposition de ¹1, nº.

Exemple On peut bien sûr composer des cycles pour obtenir de nouvelles permutations.
 ‹
1 2 3 4
Dans S4 : (2 3)(4 3 1)(4 2 3) = .
4 1 2 3
€ Š € Š € Š
Démonstration (2 3) ◦ (4 3 1) ◦ (4 2 3) (1) = (2 3) ◦ (4 3 1) (1) = (2 3) (4) = 4
€ Š € Š € Š
et : (2 3) ◦ (4 3 1) ◦ (4 2 3) (2) = (2 3) ◦ (4 3 1) (3) = (2 3) (1) = 1, etc.

Théorème (Décomposition d’une permutation en produit de cycles disjoints) Toute permutation de ¹1, nº peut
être décomposée d’une et une seule manière — à l’ordre des facteurs près — comme un produit de cycles disjoints.

 Explication  Les cycles du théorème étant disjoints, ils commutent comme on l’a vu plus haut, donc l’ordre dans
lequel on les écrit est sans importance.

Démonstration Nous prouverons seulement l’existence d’une telle décomposition. Soit σ ∈ Sn . On définit une
relation ∼ sur ¹1, nº de la manière suivante — pour tous x, y ∈ ¹1, nº : x ∼ y ⇐⇒ ∃ k ∈ Z/ y = σk (x).

• La relation ∼ ainsi définie est une relation d’équivalence. En effet, soient x, y, z ∈ ¹1, nº.
— Réflexivité : x = Id(x) avec Id ∈ Sn , donc : x ∼ x.
— Symétrie : Si x ∼ y, disons : y = σ (x) pour un certain k ∈ Z, alors : x = σ−k (x), donc y ∼ x.
k

— Transitivité : Si x ∼ y et y ∼ z, disons : y = σk (x) et z = σl ( y) pour certains k, l ∈ Z, alors :


z = σk+l (x), donc x ∼ z.
Notons alors X 1 , . . . , X r les classes d’équivalence de ¹1, nº pour ∼ et choisissons x 1 dans X 1 , . . . , x r dans
X r . Par définition, pour tout i ∈ ¹1, nº : X i = σk (x i ) k∈Z .
• Soit i ∈ ¹1, rº. Comme X i est un ensemble fini : σk (x i ) = σl (x i ) pour certains k, l ∈ N avec k < l,
et donc : σl−k (x i ) = x i . Nous pouvons dès lors noter pi le plus entier naturel non nul pour lequel :
σ pi (x¦i ) = x i . Il n’est alors ©pas trop dur de se convaincre — petite division euclidienne par pi — que :
X i = x i , σ(x i ), . . . , σ pi −1 (x i ) avec : |X i | = pi .

• Pour tout i ∈ ¹1, rº, notons finalement σi le pi -cycle x i σ(x i ) . . . σ pi −1 (x i ) de support X i . Ce sont
là r cycles disjoints et pour tout i ∈ ¹1, rº : σi X = σ X et σi X = IdX i . Il en découle que :
i i i
σ = σ1 . . . σ r et c’est bien une telle décomposition qu’on cherchait. „

4
Christophe Bertault — Mathématiques en MPSI

 ‹
1 2 3 4 5 6
Exemple admet (1 5 4)(3 6) = (3 6)(1 5 4) pour décomposition en produit de cycles disjoints.
5 2 6 1 4 3
Démonstration La forme de gauche agit circulairement sur certains paquets d’éléments : elle envoie 1 sur 5,
5 sur 4 et 4 sur 1 ; elle fixe 2 ; et elle envoie 3 sur 6 et 6 sur 3. C’est exactement ce que fait aussi la permutation
(1 5 4)(3 6) = (3 6)(1 5 4) — d’où l’égalité.

Exemple Quelques exemples sur lesquels vous pouvez vous entraîner : (1 2 3 4 5 6)(1 2 4 6)(1 3 5) = (1 4)(2 5 3 6),

(1 2 4 6)(2 5)(3 4 1) = (1 3 6)(2 5 4), (1 3)(3 2 1 4)(3 1 4)(2 1 4) = (1 2)(3 4), (4 5 1 2)(3 4 1 6)(5 4 1 6)(4 2) = (1 3 5 2 6).

Théorème (Le groupe symétrique est engendré par ses transpositions) Toute permutation de ¹1, nº peut être
décomposée comme un produit de transpositions.

 Explication  En d’autres termes, quand on doit permuter n objets — quelle que soit la complexité apparente de
la permutation — on peut TOUJOURS le faire progressivement par des échanges de deux objets.

$ ATTENTION ! $ Une telle décomposition n’est en aucun cas unique. Par exemple : (1 2 3) = (1 2)(2 3) = (1 3)(1 2).

Démonstration Grâce au théorème précédent, il nous suffit d’établir le résultat dans le seul cas des cycles. Or
tout simplement, pour tous x 1 , . . . , x p ∈ ¹1, nº distincts : (x 1 . . . x p ) = (x 1 x 2 )(x 2 x 3 ) . . . (x p−1 x p ), donc en
effet tout cycle est un produit de transpositions. „

L’intégralité de ce chapitre repose sur le théorème suivant.

Définition-théorème (Signature)

• Il existe une et une seule application ǫ : Sn −→ − 1, 1 , appelée signature, qui donne à toute transposition la
valeur −1 et telle que pour tous σ, σ′ ∈ Sn : ǫ(σσ′ ) = ǫ(σ) ǫ(σ′ ).
• Pour tout σ ∈ Sn , on dit que σ est paire si : ǫ(σ) = 1 et impaire si : ǫ(σ) = −1.

 Explication  Sans nous garantir d’unicité, l’existence de la signature nous garantit une certaine ressemblance des
différentes décompositions possibles d’une même permutation comme produit de transpositions. Deux décompositions ne
font pas forcément intervenir les mêmes nombres p et p′ de transpositions, mais en tout cas p et p′ ont la même parité.

Démonstration

• Notons P l’ensemble des paires i, j d’entiers i, j ∈ ¹1, nº distincts, et pour toute permutation σ ∈ Sn ,

µσ l’application  P −→  P Il est facile de vérifier que µ est bijective de réciproque
σ
i, j 7−→ σ(i), σ( j) .
Y Y Y
µ −1 . Du coup : σ( j) − σ(i) = |v − u| = | j − i| après le changement d’indice :
σ
{i, j}∈P {u,v}∈P {i, j}∈P
 € Š Y σ( j) − σ(i)
u, v = µσ i, j . Ce calcul prouve que le produit vaut ±1. Notons-le ǫ(σ).
{i, j}∈P
j−i
Y σσ′ ( j) − σσ′ (i) Y σσ′ ( j) − σσ′ (i) Y σ′ ( j) − σ′ (i)
• Pour tous σ, σ′ ∈ Sn : ǫ(σσ′ ) = = ×
{i, j}∈P
j−i {i, j}∈P
σ′ ( j) − σ′ (i) {i, j}∈P
j−i

Y σ(v) − σ(u) Y σ′ ( j) − σ′ (i)  € Š


= × = ǫ(σ) ǫ(σ′ ) après le changement d’indice u, v = µσ′ i, j .
{u,v}∈P
v−u {i, j}∈P
j−i

• Soit τ = (a b) ∈ Sn une transposition avec : Nous voulons montrer que : ǫ(τ) = −1.
a < b. Nous
Y τ( j) − τ(i)
allons simplement passer en revue les termes du produit : ǫ(τ) = .
{i, j}∈P
j−i

5
Christophe Bertault — Mathématiques en MPSI

 τ( j) − τ(i) j−i
— Si i, j ∈ P ne contient ni a ni b, alors : = = 1.
j−i j−i
 
— Pour tout i ∈ ¹1, nº distinct de a et b, regroupons les termes d’indices i, a et i, b . Leur contribution
τ(a) − τ(i) τ(b) − τ(i) b−i a−i
au produit vaut : × = × = 1.
a−i b−i a−i b−i
 τ(b) − τ(a) a−b
— Pour finir, le terme d’indice a, b vaut −1 car : = = −1.
b−a b−a
Conclusion : ǫ(τ) = −1 par produit.

• Montrons
 enfin
l’unicité de la signature sur Sn . Donnons-nous pour cela deux applications η et η′ de Sn

dans − 1, 1 qui satisfont la conclusion du théorème et montrons qu’alors : η = η . Soit σ ∈ Sn . Nous
avons vu que σ est un produit de transpositions τ1 , . . . , τ p : σ = τ1 . . . τ p . Comme voulu :

η(σ) = η(τ1 . . . τ p ) = η(τ1 ) . . . η(τ p ) = (−1) p = η′ (τ1 ) . . . η′ (τ p ) = η′ (τ1 . . . τ p ) = η′ (σ). „

Théorème (Signature d’un cycle) Soit p ∈ ¹2, nº. La signature d’un p-cycle de ¹1, nº est (−1) p−1 .

Démonstration On a vu que pour tous x 1 , . . . , x p ∈ ¹1, nº distincts :


(x 1 . . . x p ) = (x 1 x 2 )(x 2 x 3 ) . . . (x p−1 x p ).
€ Š
Cette décomposition fait intervenir p − 1 transpositions, donc en effet : ǫ (x 1 . . . x p ) = (−1) p−1 . „

Exemple (1 5 3)(2 4 6 1)(3 4) est une permutation paire.


€ Š € Š € Š € Š
Démonstration ǫ (1 5 3)(2 4 6 1)(3 4) = ǫ (1 5 3) ǫ (2 4 6 1) ǫ (3 4) = (−1)3−1 (−1)4−1 (−1)2−1 = 1.

Théorème (Caractérisation des formes multilinéaires alternées par la signature) Soient E un K-espace vectoriel et
f une forme n-linéaire de E n . Alors f est alternée si et seulement si pour tous x 1 , . . . , x n ∈ E et σ ∈ Sn :

f x σ(1) , . . . , x σ(n) = ǫ(σ) f (x 1 , . . . , x n ).


 Explication  Ce résultat nous permet de conclure le calcul savant que nous avons amorcé plus haut. Si E 6= 0 E
est un K-espace vectoriel de dimension n, f une forme n-linéaire alternée de E n , B = (e1 , . . . , en ) une base de E et enfin
(x 1 , . . . , x n ) une famille de n vecteurs de E de matrice A dans B , alors :
‚ n Œ !
X Y  X Y
n
f (x 1 , . . . , x n ) = aσ(i)i f eσ(1) , . . . , eσ(n) = ǫ(σ) aσ(i)i f (e1 , . . . , en ).
σ∈Sn i=1 σ∈Sn i=1

Démonstration
• Faisons l’hypothèse que pour tous x 1 , . . . , x n ∈ E et σ ∈ Sn : f (x σ(1) , . . . , x σ(n) ) = ǫ(σ) f (x 1 , . . . , x n ).
Soit alors x 1 , . . . , x n ∈ E. On suppose que : x i = x j pour certains i, j ∈ ¹1, nº avec : i < j et on
note τ la transposition (i j). Dans ces conditions :
x i =x j
f (x 1 , . . . , x n ) = f (. . . , x i−1 , x j , x i+1 , . . . , x j−1 , x i , x j+1 , . . .) = f (x τ(1) , . . . , x τ(n) ) = ǫ(τ) f (x 1 , . . . , x n ) = − f (x 1 , . . . , x n ).

Conclusion : f (x 1 , . . . , x n ) = 0, et donc f est alternée.


• Réciproquement, supposons f alternée. Comme Sn est engendré par ses transpositions et comme la signa-
ture d’un produit de p transpositions vaut (−1) p , il nous suffit d’établir le résultat dans le seul cas où σ est
une transposition. Or nous l’avons déjà fait, c’est la propriété d’antisymétrie de f . „

6
Christophe Bertault — Mathématiques en MPSI

4 DÉTERMINANT D’UNE FAMILLE DE VECTEURS DANS UNE BASE


Définition-théorème (Déterminant d’une famille de vecteurs dans une base) Soient E 6= 0 E un K-espace vectoriel
de dimension n et B une base de E.
• Pour toute famille X de n vecteurs de E de matrice A dans B , on appelle déterminant de X dans B le scalaire :
X Y
n
detB (X ) = ǫ(σ) aσ(i)i .
σ∈Sn i=1

• L’application detB ainsi définie sur E n est une forme n-linéaire alternée de E n et : detB (B ) = 1.

$ ATTENTION ! $ Seul le déterminant d’une famille de n vecteurs dans un espace vectoriel de dimension n se trouve
ainsi défini.

Démonstration
• Multilinéarité : Vous la démontrerez seuls si vous voulez vous en convaincre.
• Caractère alterné : Soient x 1 , . . . , x n ∈ E et ϕ ∈ Sn . Dans le calcul suivant, on effectue le changement
d’indice : j = ϕ(i) associé à la bijection ϕ, puis le changement d’indice : θ = σϕ −1 associé à la
bijection σ 7−→ σϕ −1 de Sn sur lui-même.
 X Y
n
j=ϕ(i)
X Y
n
θ =σϕ −1
X Y
n
detB x ϕ(1) , . . . , x ϕ(n) = ǫ(σ) aσ(i)ϕ(i) = ǫ(σ) aσϕ−1 ( j) j = ǫ(θ ϕ) aθ ( j) j
σ∈Sn i=1 σ∈Sn j=1 θ ∈Sn j=1
X Y
n X Y
n
= ǫ(θ )ǫ(ϕ) aθ (i)i = ǫ(ϕ) ǫ(θ ) aθ (i)i = ǫ(ϕ) detB (x 1 , . . . , x n ).
θ ∈Sn i=1 θ ∈Sn i=1

Y
n
• Calcul de detB (B ) : La matrice B de B dans B est I n , donc : bσ(i)i = 0 pour toute permutation
i=1
X Yn Y
n
σ ∈ Sn distincte de l’identité. Conclusion : detB (B ) = ǫ(σ) bσ(i)i = ǫ(Id) bId(i)i = 1. „
σ∈Sn i=1 i=1

Théorème (Toute
forme multilinéaire alternée est un multiple du déterminant dans une base donnée)
Soient E 6= 0 E un K-espace vectoriel de dimension n, B une base de E et f une forme n-alternée de E n .
Alors : f = f (B ) detB .

!
X Y
n
Démonstration Résultat déjà prouvé : f (x 1 , . . . , x n ) = ǫ(σ) aσ(i)i f (e1 , . . . , en ). „
σ∈Sn i=1

Théorème (Déterminants en dimensions 2 et 3)


(i) Soient E un K-espace vectoriel de dimension 2 de base B et x, y ∈ E de coordonnées respectives (x 1 , x 2 ) et
( y1 , y2 ) dans B . Alors :
x y1

detB (x, y) = x 1 y2 − x 2 y1 , quantité que l’on note aussi : 1
.
x 2 y2
(ii) Soient E un K-espace vectoriel de dimension 3 de base B et x, y, z ∈ E de coordonnées respectives (x 1 , x 2 , x 3 ),
( y1 , y2 , y3 ) et (z1 , z2 , z3 ) dans B . Alors :

detB (x, y, z) = x 1 y2 z3 + x 2 y3 z1 + x 3 y1 z2 − x 3 y2 z1 − x 2 y1 z3 − x 1 y3 z2 (règle de Sarrus),



x
1 y1 z1

quantité que l’on note aussi : x 2 y2 z2 .
x 3 y3 z3

7
Christophe Bertault — Mathématiques en MPSI

Démonstration
X ¦ ©
(i) detB (x, y) = ǫ(σ)x σ(1) yσ(2) , donc comme S2 = Id, (1 2) : detB (x, y) = x 1 y2 − x 2 y1 .
|{z} |{z}
σ∈S2
Id (1 2)
X ¦ ©
(ii) detB (x, y, z) = ǫ(σ)x σ(1) yσ(2) zσ(3) , donc comme S3 = Id, (1 2 3), (1 3 2), (1 3), (1 2), (2 3) :
σ∈S3

detB (x, y, z) = x 1 y2 z3 + x 2 y3 z1 + x 3 y1 z2 − x 3 y2 z1 − x 2 y1 z3 − x 1 y3 z2 . „
| {z } | {z } | {z } | {z } | {z } | {z }
Id (1 2 3) (1 3 2) (1 3) (1 2) (2 3)

 Explication  Nous avons motivé l’introduction des déterminants par les notions d’aire orientée en dimension 2
et de volume orienté en dimension 3. La notion abstraite de déterminant que nous venons d’introduire est-elle a posteriori
satisfaisante ? Notons B2 la base canonique de R2 . Le petit carré élémentaire que B2 engendre est à nos yeux, dans le monde
physique, d’aire orientée 1. Nous nous attendons donc à ce que l’application detB2 soit une mesure de l’aire orientée des
parallélogrammes au sens le plus intuitif du terme. Les figures ci-dessous sont particulièrement convaincantes. Rappelons au
passage que l’aire d’un parallélogramme peut être calculée selon le principe « base × hauteur » — et au pire, vous pouvez
toujours utiliser les petits carreaux du grillage !

v
v
u

2
v u

u θ u
b b b b


0 1
2 2 0 2 cos θ −2 sin θ 2

3 = −3

1 =2 =4 2 = 15
0 1 2 sin θ 2 cos θ 1 4
2 2 2
2


Théorème (Propriétés du déterminant d’une famille de vecteurs dans une base) Soient E 6= 0 E un K-espace
vectoriel de dimension n, B et B ′ deux bases de E et X une famille de n vecteurs de E.
(i) Formule de changement de base : detB (X ) = detB (B ′ ) detB ′ (X ).
(ii) Caractérisation des bases : X est une base de E si et seulement si : detB (X ) 6= 0.
1
Dans ce cas : detX (B ) = .
detB (X )

Démonstration
(i) L’application detB est n-linéaire alternée, donc de la forme : detB = detB (B ′ ) detB ′ d’après un théo-
rème précédent. Pour conclure, évaluer en X .
(ii) Si X est une base de E, alors d’après (i) : 1 = detB (B ) = detB (X ) detX (B ), donc detB (X ) est non
nul d’inverse detX (B ).
Réciproquement, par contraposition, si X n’est pas une base de E, alors X est liée — car de cardinal n en
dimension n. Or detB est n-linéaire alternée, donc : detB (X ) = 0. „

8
Christophe Bertault — Mathématiques en MPSI

$ ATTENTION ! $ Dans la définition suivante, on travaille seulement avec le corps K = R.


Définition-théorème (Orientation d’un R-espace vectoriel réel de dimension finie) Soit E 6= 0 E un R-espace
vectoriel de dimension finie. On définit sur l’ensemble des bases de E une relation « avoir la même orientation que » de la
façon suivante — pour toutes bases B et B ′ de E :

B ′ a la même orientation que B si et seulement si : detB (B ′ ) > 0.

La relation ainsi définie est une relation d’équivalence. Il existe exactement deux orientations possibles : si B n’a pas la
même orientation que B ′ et B ′′ , alors B ′ et B ′′ ont la même orientation.
Orienter E, c’est par définition décréter arbitrairement qu’une certaine base fixée B de E est directe. Toutes les bases de
E de même orientation que B sont alors aussi qualifiées de directes et les autres d’indirectes.

 Explication  Jusqu’ici, personne n’a pu vous définir proprement le concept d’orientation — et pour cause, c’est
compliqué. À présent, l’orientation d’un R-espace vectoriel repose sur l’idée que ses bases sont de deux sortes et que le
choix d’une orientation est totalement arbitraire — certaines sont dites « directes » et les autres « indirectes ». Cet arbitraire
n’est pas vraiment surprenant cela dit, vous n’appréciez pas l’orientation d’un plan de la même façon selon que vous vous
placez au-dessus ou au-dessous de lui — les bases qui paraissent directes d’un côté paraissent indirectes de l’autre. La notion
d’orientation ne s’en trouve pas ruinée car l’essentiel c’est ceci — deux bases qui ont la même orientation quand on regarde
le plan d’en haut ont aussi la même orientation quand on le regarde d’en bas.

Démonstration Soient B , B ′ et B ′′ trois bases de E.


• Réflexivité : detB (B ) = 1 > 0.
1
• Symétrie : Si B ′ a la même orientation que B : detB (B ′ ) > 0 donc : detB ′ (B ) = > 0, et
detB (B ′ )
ainsi B a bien la même orientation que B ′ .
• Transitivité : Si B ′ a la même orientation que B et si B ′′ a la même orientation que B ′ , alors :
detB (B ′ ) > 0 et detB ′ (B ′′ ) > 0, donc : detB (B ′′ ) = detB (B ′ ) detB ′ (B ′′ ) > 0, et ainsi B ′′ a
la même orientation que B .
• Exactement deux orientations : Il s’agit de montrer que si B n’a pas la même orientation que B ′ et
B ′′ , alors B ′ et B ′′ ont la même. Dans ce contexte : detB (B ′ ) < 0 et detB (B ′′ ) < 0, donc :
detB (B ′′ )
detB ′ (B ′′ ) = detB ′ (B ) detB (B ′′ ) = > 0, et ainsi B ′ et B ′′ ont la même orientation. „
detB (B ′ )

5 DÉTERMINANT D’UNE MATRICE CARRÉE

5.1 DÉFINITION ET PREMIÈRES PROPRIÉTÉS

Définition (Déterminant d’une matrice carrée) Soit A ∈ Mn (K). On appelle déterminant de A le déterminant de la
a · · · a a · · · a
11 1n 11 1n
n . . . . . .
famille des colonnes de A dans la base canonique de K , noté : det(A) ou .. .. .. ou .. .. .. .

an1 · · · ann an1 · · · ann
X Yn [n]
Par définition, donc : det(A) = ǫ(σ) aσ(i)i .
σ∈Sn i=1

$ ATTENTION ! $ Seul le déterminant d’une matrice CARRÉE est ainsi défini.


Exemple det(I n ) = detBn Bn = 1 si on note Bn la base canonique de Kn .

9
Christophe Bertault — Mathématiques en MPSI

Théorème (Lien entre


 le déterminant d’une matrice carrée et le déterminant d’une famille de vecteurs dans une
base) Soient E 6= 0 E un K-espace vectoriel de dimension n, B une base de E et X une famille de n vecteurs de E.
€ Š
Alors : detB (X ) = det MatB (X ) .

Démonstration Évident, les colonnes de MatB (X ) sont exactement les coordonnées des vecteurs de X dans
B et les déterminants sont définis par la même formule. „

Théorème (Premières propriétés du déterminant d’une matrice carrée) Soient A, B ∈ Mn (K).


(i) Multilinéarité par rapport aux colonnes : L’application A 7−→ det(A) sur Mn (K) est n-linéaire par rapport aux
colonnes de A.
AT TENTION !
En particulier, pour tout λ ∈ K : det(λA) = λn det(A).
(ii) Déterminant d’un produit : det(AB) = det(A) det(B).
(iii) Caractérisation de l’inversibilité : A est inversible si et seulement si : det(A) 6= 0.
 1
En outre, dans ce cas : det A−1 = .
det(A)
(iv) Invariance par similitude : Deux matrices semblables de Mn (K) ont même déterminant.

(v) Invariance par transposition : det t A = det(A).
A fortiori, l’application A 7−→ det(A) sur Mn (K) est également n-linéaire par rapport aux lignes de A.

X Y
n
 Explication  L’invariance du déterminant par transposition signifie que dans l’expression : ǫ(σ) aσ(i)i ,
σ∈Sn i=1
on peut si on le souhaite remplacer aσ(i)i par aiσ(i) , c’est indolore.

$ ATTENTION ! $ Le déterminant n’est pas linéaire. En général, si λ, µ ∈ K : det(λA + µB) = λdet(A) + µdet(B).

Démonstration
(i) Tout simplement, si on note Bn la base canonique de Kn , l’application detBn est n-linéaire.
n
 B, Bn désigne la base canonique de K et ϕ
(ii) Notons A1 , . . . , An les colonnes de A, B1 , . . . , Bn celles de
n n
l’application (C1 , . . . , Cn ) 7−→ detBn AC1 , . . . , ACn de K dans K.
• Multilinéarité : Pour tous k ∈ ¹1, nº, Ck , Ck′ ∈ Kn et λ, λ′ ∈ K — les autres variables étant fixées :
  
ϕ . . . , λCk + λ′ Ck′ , . . . = detBn . . . , A(λCk + λ′ Ck′ ), . . . = detBn . . . , λACk + λ′ ACk′ , . . .
   
= λdetBn . . . , ACk , . . . + λ′ detBn . . . , ACk′ , . . . = λϕ . . . , Ck , . . . + λ′ ϕ . . . , Ck′ , . . . .
• Caractère alterné : Si deux des colonnes C1 , . . . , Cn au moins sont égales : ϕ(C1 , . . . , Cn ) = 0
puisque detBn est alterné.

Conclusion : ϕ = ϕ Bn detBn = detBn (A1 , . . . , An ) detBn = det(A) detBn , donc :

det(AB) = detBn AB1 , . . . , ABn = ϕ(B1 , . . . , Bn ) = det(A) detBn (B1 , . . . , Bn ) = det(A) det(B).
(iii) Pour les familles de vecteurs, le résultat a été démontré dans les paragraphes précédents, or la matrice A
est inversible si et seulement si la famille de ses colonnes est une base de Kn .

(iv) Pour tous A ∈ Mn (K) et P ∈ GLn (K), d’après (ii) et (iii) : det P −1 AP = det(P)−1 det(A)det(P) = det(A).
X Y
n X Y
n
(v) Nous devons montrer l’égalité : ǫ(σ) aσ(i)i = ǫ(σ) aiσ(i) . Dans le calcul qui suit, on
σ∈Sn i=1 σ∈Sn i=1
effectue le changement d’indice : j = σ(i) associé à la bijection σ, puis le changement d’indice :
ϕ = σ−1 associé à la bijection σ 7−→ σ−1 de Sn sur Sn (de réciproque elle-même). Remarquons par
ailleurs que pour tout ϕ ∈ Sn : ǫ(ϕ) = ±1 donc : ǫ ϕ −1 = ǫ(ϕ)−1 = ǫ(ϕ).
X Y
n
j=σ(i)
X Y
n
ϕ=σ−1
X Y
n X Y
n X Y
n
ǫ(σ) aσ(i)i = ǫ(σ) a jσ−1 ( j) = ǫ ϕ −1 a jϕ( j) = ǫ(ϕ) a jϕ( j) = ǫ(σ) aiσ(i) . „
σ∈Sn i=1 σ∈Sn j=1 ϕ∈Sn j=1 ϕ∈Sn j=1 σ∈Sn i=1

10
Christophe Bertault — Mathématiques en MPSI

La notion de polynôme caractéristique n’est pas au programme de MPSI mais je tiens à ce que vous la connaissiez déjà, et
vous l’étudierez de toute façon en deuxième année.

Théorème (Polynôme caractéristique d’une matrice carrée) Soit A ∈ Mn (C).


(i) Pour tout x ∈ C, on pose : χA(x) = det(x I n − A). La fonction x 7−→ χA(x) est alors polynomiale unitaire de
degré n et le polynôme associé, noté aussi χA, est appelé le polynôme caractéristique de A.
(ii) Les valeurs propres (complexes) de A sont exactement les racines (complexes) de χA.

Démonstration
X Y
n

(i) Pour tout x ∈ C : χA(x) = ǫ(σ) xδiσ(i) − aiσ(i) , donc χA est polynomiale. Ensuite, pour tout
σ∈Sn i=1
Y
n

σ ∈ Sn , la quantité : ǫ(σ) xδiσ(i) − aiσ(i) est de degré inférieur ou égal à n puisque chaque terme
i=1
du produit est de degré au plus 1. Son degré peut-il être n ? Oui, mais seulement si : σ(i) = i pour tout
Yn
 Yn
i ∈ ¹1, nº, i.e. si : σ = Id, et dans ce cas : ǫ(σ) xδiσ(i) − aiσ(i) = (x − aii ). Conclusion :
i=1 i=1
χA est une fonction polynomiale unitaire de degré n.

(ii) Pour tout λ ∈ C : λ est valeur propre de A ⇐⇒ Ker (A−λI n ) 6= 0 ⇐⇒ A−λI n est NON inversible

⇐⇒ det(λI n − A) = 0 ⇐⇒ χA(λ) = 0 ⇐⇒ λ est racine de χA. „

5.2 DÉTERMINANT D’UNE MATRICE TRIANGULAIRE PAR BLOCS

Théorème (Déterminant d’une matrice triangulaire par blocs) Soient A1 ∈ M p1 (K), . . . , A r ∈ M pr (K).

A A
1 × × 1
.. ..
Alors : . × = × . = det(A1 ) . . . det(A r ).

Ap × × Ar

 Explication  En particulier, le déterminant d’une matrice triangulaire est le produit de ses coefficients diagonaux.

Démonstration L’invariance par transposition permet de ne travailler qu’avec des matrices triangulaires supé-
rieures par blocs.
• Cas d’une matrice « vraiment » triangulaire : Soit A ∈ Mn (K) triangulaire supérieure. Dans la relation :
X Y n
det(A) = ǫ(σ) aσ(i)i , si le terme associé à une permutation σ est non nul, alors : aσ(i)i 6= 0
σ∈Sn i=1
pour tout i ∈ ¹1, nº, donc : σ(i) ¶ i, mais nous allons montrer qu’en fait : σ(i) = i par récurrence
forte.
Initialisation : σ(1) ¶ 1 et σ(1) ∈ ¹1, nº, donc : σ(1) = 1.
Hérédité : Soit i ∈ ¹1, n − 1º. On suppose que : σ( j) = j pour tous j ∈ ¹1, iº. Que vaut σ(i + 1) ?
Par hypothèse de récurrence et injectivité de σ : σ(i + 1) ¶ i + 1, mais nous savons par hypothèse de
récurrence et injectivité que : σ(i + 1) ∈/ ¹1, iº — d’où l’égalité comme voulu.
Conclusion : si le terme associé à une permutation σ est non nul dans la définition de det(A), forcément :
Yn
σ = Id. En retour, finalement : det(A) = ǫ(Id) aId(i)i = a1 . . . an .
i=1

11
Christophe Bertault — Mathématiques en MPSI

• Cas d’une matrice triangulaire par blocs : Nous prouverons seulement le résultat pour : r = 2, le
cas général s’obtient ensuite aisément par récurrence. Fixons A ∈ M p (K), B∈ Mq (K) et X ∈ M p,q (K), et
A X
notons B p (resp. Bq ) la base canonique de K p (resp. Kq ). Objectif : = det(A) det(B).
0 B

ϕ M X p
Il n’est pas trop dur de vérifier que l’application (M1 , . . . , M p ) 7−→ de K p dans K — où M est la
0 B

matrice de colonnes M1 , . . . , M p — est linéaire alternée, donc : ϕ = ϕ B p detBp . A fortiori, si nous
notons C1 , . . . , C p les colonnes de A :

A X 
= ϕ(C , . . . , C ) = det (C , . . . , C ) ϕ B = det(A) I p X .
0 B 1 p Bp 1 p p 0 B

ψ Ip X q
De la même manière, il n’est pas trop dur de vérifier que l’application (N1 , . . . , Nq ) 7−→ de Kq
0 N

dans K — où N est la matrice de lignes N1 , . . . , Nq — est linéaire alternée, donc : ψ = ψ Bq detBq , et
si nous notons L1 , . . . , Lq les lignes de B :

A X 
= det(A) I p X = det(A) ψ(L , . . . , L ) = det(A) det (L , . . . , L ) ψ B = det(A) det(B) I p X ,
0 B 0 B 1 q Bq 1 q q 0 Iq
 ‹
Ip X A X
et donc comme la matrice est « vraiment » triangulaire : = det(A)det(B). „
0 Iq 0 B


2 4 −2 3 2
4 7
3 −1 2 5 2 4 4 1
0
Exemple = × = (−14) × (−1) = 14 et 1 3 = 2 × 1 × (−1) = −2.
0 0 4 1 3 −1 1 0
0
0 0 −1
0 1 0

5.3 CALCUL DE DÉTERMINANTS PAR LA MÉTHODE DU PIVOT

Théorème (Déterminant d’une matrice et opérations élémentaires) Soient i, j ∈ ¹1, nº avec i 6= j et λ ∈ K.


(i) Les opérations élémentaires de la forme L i ← L i +λL j et C j ← C j +λCi ne modifient pas les déterminants.
(ii) Les opérations élémentaires L i ← λL i et C j ← λC j multiplient les déterminants par λ.
(iii) Les opérations élémentaires Li ↔ L j et C j ↔ Ci multiplient les déterminants par −1.

Démonstration Montrons le résultat sur les colonnes, cela suffira car le déterminant est invariant par transpo-
sition. Soit A ∈ Mn (K) de colonnes C1 , . . . , Cn . Notons Bn la base canonique de Kn .
(i) Par linéarité par rapport à la j ème variable et caractère alterné :
detBn (. . . , C j + λCi , . . .) = detBn (C1 , . . . , Cn ) + λdetBn (. . . , Ci , . . .) = det(A) + 0 = det(A).

(ii) Par linéarité par rapport à la j ème variable : detBn (. . . , λC j , . . .) = λdetBn (C1 , . . . , Cn ) = λdet(A).
(iii) Par caractère alterné — on fait agir la transposition (i j) avec i < j :
detBn (. . . , C j , . . . , Ci , . . .) = −detBn (. . . , Ci , . . . , C j , . . .) = −det(A). „


1 5 0 −1 1 5 0 −1 −16 2 5

4 4 2 1 0 −16 2 5 L 2 ← L 2 − 4L 1
Exemple = = 1 × −6 4 3
3 9 4 0 0 −6 4 3 L 3 ← L 3 − 3L 1
−10 1 3
2 0 1 1 0 −10 1 3 L 4 ← L 4 − 2L 1

1 −10 3 1 −10 3

= (−1)2 × 4 −6 3 C1 ↔ C2 = 0 34 −9 L2 ← L2 − 4L1
2 −16 5 L1 ↔ L3 0 4 −1 L3 ← L3 − 2L1

34 −9
= 1× = 2.
4 −1

12
Christophe Bertault — Mathématiques en MPSI


a b b a b b a b b

Exemple Pour tous a, b ∈ C : b a b = b − a a−b 0 L2 ← L2 − L1 = 2
(b − a) 1 −1 0

b b a b − a 0 a − b L 3 ← L 3 − L 1 1 0 −1

a + 2b 0 0

2
= (b − a) 1 −1 0 L1 ← L1 + b L2 + b L3 = (b − a)2 (a + 2b).
1 0 −1

5.4 DÉVELOPPEMENT PAR RAPPORT À UNE LIGNE OU UNE COLONNE


ET FORMULE D ’INVERSION

On développe à présent une nouvelle stratégie de calcul des déterminants matriciels. Si nous notons Bn = (E1 , . . . , En )
la base canonique de Kn , alors pour tous A ∈ Mn (K) et j ∈ ¹1, nº :
‚ Œ
X
n
n-linéarité
X
n
det(A) = detBn (C1 , . . . Cn ) = detBn . . . , C j−1 , ai j Ei , C j+1 , . . . = ai j detBn (. . . , C j−1 , Ei , C j+1 , . . .)
i=1 i=1

.. .. .. .. .. ..
. . . . . .

X · · ·
n ai−1, j−1 0 ai−1, j+1 · · ·
Xn 0 ···

ai−1, j−1 ai−1, j+1 · · ·

j−1
= ai j · · · ai, j−1 1 ai, j+1 · · · = (−1) ai j 1 · · · ai, j−1 ai, j+1 · · ·

i=1 ··· ai+1, j−1 0 ai+1, j+1 · · · i=1 0 ··· ai+1, j−1 ai+1, j+1 · · ·
.. .. .. . .. ..
.
. . . [n]
. . . [n]
On échange la j ème colonne avec la ( j − 1)ème ,
puis la ( j − 1)ème avec la ( j − 2)ème , etc.
Au total, j − 1 échanges de colonnes, d’où le (−1) j−1 .

1 ··· ai, j−1 ai, j+1 · · · .. ..
. .. ..
. . .
Xn . . . Xn
···
ai−1, j−1 ai−1, j+1 · · ·
= i−1 j−1
(−1) (−1) ai j 0 · · · ai−1, j−1 ai−1, j+1 · · · = (−1)i+ j ai j
.
i=1

0 ··· ai+1, j−1 ai+1, j+1 · · ·

i=1 ··· ai+1, j−1 ai+1, j+1 · · ·
. .. ..
. .. .. . .
. . . [n]
[n−1]

Même chose sur les lignes.


La matrice obtenue est triangulaire par blocs.

Morale de l’histoire, un déterminant de taille n peut être calculé comme une combinaison linéaire de déterminants de
taille n − 1. Plus précisément, les déterminants de taille n − 1 auxquels nous avons permis d’apparaître ne sont jamais que
des déterminants de la matrice A à laquelle on a supprimé une ligne et une colonne.

Définition (Mineurs, cofacteurs, comatrice) Soient A ∈ Mn (K) et i, j ∈ ¹1, nº.


• On appelle mineur de A de position (i, j) le déterminant de la matrice extraite de A par suppression de la i ème ligne
et de la j ème colonne. Nous le noterons ∆i j (A) dans ce cours mais la notation n’est pas universelle.

• On appelle cofacteur de A de position (i, j) le scalaire : (−1)i+ j ∆i j (A).


€ Š
• On appelle comatrice de A, notée com(A), la matrice des cofacteurs de A : com(A) = (−1)i+ j ∆i j (A) .
1¶i, j¶n

 Explication  Le cofacteur de position (i, j) est égal, au signe près, au mineur de même posi-  
+ − + ...
tion — mais comment ces signes sont-ils distribués ? La matrice ci-contre schématise leur distribution. − + − . . .
 
+ − + . . .
   
1 0 0 −1 3 2 .. .. .. ..
. . . .
Exemple La comatrice de  1 1 −1 est la matrice  0 −1 0. Vérifiez de tête !
−2 0 −1 0 1 1

13
Christophe Bertault — Mathématiques en MPSI

Finalement, nous avons démontré en introduction de ce paragraphe le théorème suivant.

Théorème (Développement par rapport à une ligne ou une colonne) Soit A ∈ Mn (K).
X
n
(i) Développement par rapport à une ligne : Pour tout i ∈ ¹1, nº : det(A) = (−1)i+ j ai j ∆i j (A).
j=1
X
n
(ii) Développement par rapport à une colonne : Pour tout j ∈ ¹1, nº : det(A) = (−1)i+ j ai j ∆i j (A).
i=1

 Explication  Ces formules se comprennent sur des exemples simples. En voici un, où l’on développe par rapport
à la première colonne :
Ceci ne doit pas figurer sur vos copies, c’est juste pour vous expliquer.
z }| {
1 4 7 1 4 7 1 4 7 1 4 7
5 8 4 7 4 7
2 5 8 = + 1 2 5 8 − 2 2 5 8 + 3 2 5 8 = − 2 + 3 = 0.
6 9 6 9 5 8
3 6 9 3 6 9 3 6 9 3 6 9

Ici, la nullité du déterminant montre que la matrice 3 × 3 considérée n’est pas inversible.

 En pratique  Le développement par rapport à une ligne/colonne est souvent utile, mais dans la mesure du pos-
sible, il faut choisir de développer par rapport à une ligne/colonne contenant beaucoup de zéros. En règle générale, je vous
conseille de privilégier la méthode du pivot, qui fournit davantage des résultats sous forme factorisée — car après tout, ce
que l’on veut savoir d’un déterminant, c’est souvent s’il est nul ou non.


0 2 −1 1 −1
0 2 0 2 1 
2
  
−1 0 0 2 −1 0 2 2 1
Exemple = (−1) 2 2 −1 + −1 0 2 = (−1) (−1)
−2 + −(−1) = 4.
2 2 1 −1 0 1 2 1 2 1 2
1 2 0 1 2
0 1 0 2
(3ème colonne) (1ère colonne) (1ère colonne)


3 2 0 ··· 0

1 3 2 ··· 0

Exemple Pour tout n ∈ N∗ : 0 1 3 = 2n+1 − 1.
. .. ..
. .
. . 2
0 0 1 3 [n]

Démonstration Pour tout n ∈ N∗ , notons Dn le déterminant de taille n étudié. Un développement par rapport à
la première colonne fournit aisément la relation de récurrence suivante, vraie pour n ¾ 3 : Dn = 3Dn−1 − 2Dn−2
— il faut l’écrire soi-même pour s’en convaincre. La suite (Dn )n∈N∗ est donc récurrente linéaire d’ordre 2 de
polynôme caractéristique : X 2 − 3X + 2 = (X − 1)(X − 2), polynôme dont les racines sont 1 et 2, distinctes.
Il existe ainsi λ, µ ∈ R tels que pour tout n ∈ N∗ : Dn = λ2n + µ1n . Or : D1 = 3 et D2 = 7, donc :
λ = 2 et µ = −1, et finalement : Dn = 2n+1 − 1.

Théorème (Formule d’inversion) Soit A ∈ Mn (K). Alors : A t com(A) = t com(A) A = det(A) I n .


1 t
En particulier, si A est inversible : A−1 = com(A).
det(A)

Démonstration Nous montrerons seulement que : A t com(A) = det(A) I n , i.e. que pour tous i, j ∈ ¹1, nº :
Xn
aik (−1) j+k ∆ jk (A) = det(A)δi j . Soient i, j ∈ ¹1, nº.
k=1
• Pour : i = j, le résultat n’est qu’un développement par rapport à la i ème ligne.
• Et pour : i 6= j ? Remplaçons dans A la j ème ligne par la i ème et notons B la matrice obtenue. Les i ème et
j ème lignes de B étant égales : det(B) = 0. Développons par ailleurs det(B) par rapport à sa j ème ligne.
Les mineurs ∆ jk (A) de A et ∆ jk (B) de B associés à cette ligne étant égaux :
X
n X
n
aik (−1) j+k ∆ jk (A) = b jk (−1) j+k ∆ jk (B) = det(B) = 0. „
k=1 k=1

14
Christophe Bertault — Mathématiques en MPSI

 ‹  ‹
a c 1 t 1 d −c
Exemple Pour tout A = ∈ M2 (K) : A−1 = com(A) = si : det(A) = ad − bc 6= 0.
b d det(A) ad − bc −b a
Résultat bien connu !

$ ATTENTION ! $ La formule d’inversion est fondamentale mais seulement dans des contextes théoriques, il ne faut
pas s’en servir a priori pour inverser une matrice concrète ! Elle ramène en effet le calcul de A−1 au calcul de det(A) et com(A),
c’est-à-dire au calcul d’un déterminant de taille n et de n2 déterminants de taille n − 1 — ce qui est fort coûteux.
 
1 x 1 x 12 · · · x 1n−1
. .. .. .. 
Exemple Soient x 1 , . . . , x n ∈ C. Nous savons déjà que la matrice de Vandermonde  .. . . . de x 1 , . . . , x n
2 n−1
1 xn xn · · · xn

est inversible si et seulement si x 1 , . . . , x n sont distincts. 1 x x 2
· · · x n−1
1 1 1 Y
. .. .. ..
Nous allons retrouver ce résultat en calculant son déterminant : .. . . . = (x j − x i ).

1 x n x 2 · · · x n−1 1¶i< j¶n
n n
Soyons honnêtes cependant, s’il s’agit seulement d’établir la condition nécessaire et suffisante d’inversibilité des matrices de
Vandermonde, la preuve qui suit est inutilement compliquée. Elle n’en demeure pas moins un grand classique et un modèle
de calcul de certains autres déterminants.
Démonstration Pour tous x 1 , . . . , x n ∈ C, notons Vn (x 1 , . . . , x n ) le déterminant de Vandermonde de x 1 , . . . , x n .
• Fixons x 1 , . . . , x n ∈ C DISTINCTS et notons P la fonction x 7−→ Vn+1 (x 1 , . . . , x n , x) de C dans C.
Xn
— Pour tout x ∈ C, après développement par rapport à la (n + 1)ème ligne : P(x) = aj x j pour
j=0
certains a0 , . . . , an ∈ C dépendant de x 1 , . . . , x n MAIS PAS DE x. La fonction P est ainsi polynomiale de
degré au plus n. De plus : an = Vn (x 1 , . . . , x n ).
— Pour tout i ∈ ¹1, nº : P(x i ) = 0 — mêmes lignes i ème et (n+ 1)ème — donc P admet x 1 , . . . , x n pour
racines DISTINCTES. Du coup, d’après le point précédent, pour tout x ∈ C :
Y
n Y
n
P(x) = Vn (x 1 , . . . , x n ) (x − x i ), i.e. Vn+1 (x 1 , . . . , x n , x) = Vn (x 1 , . . . , x n ) (x − x i ).
i=1 i=1

Cette égalité est encore vraie si l’on ne suppose pas x 1 , . . . , x n distincts car elle s’écrit alors : 0 = 0.
• Il n’est finalement pas très dur de montrer par récurrence que pour tous x 1 , . . . , x n ∈ C :
Y
Vn (x 1 , . . . , x n ) = (x j − x i ).
1¶i< j¶n

Comme voulu, Vn (x 1 , . . . , x n ) est donc nul si et seulement si deux des x i au moins sont égaux.

6 DÉTERMINANT D’UN ENDOMORPHISME


Nous sommes maintenant au point sur la notion généralisée de volume orienté, mais une question subsiste — comment
les applications linéaires se comportent-elles vis-à-vis d’un volume orienté ? Sur la figure suivante, on a noté B2 la base
canonique de R2 .

f (v)
v f (x, y) = (x + y, y − x)
u
 ‹ b

1 1
MatB2 ( f ) =
b
−1 1
f (u)


2 −1
‹ € Š 3 0
‹
MatB2 (u, v) = MatB2 f (u), f (v) =
1 1 −1 2

15
Christophe Bertault — Mathématiques en MPSI

€ Š
L’égalité : MatB2 f (u), f (v) = MatB2 ( f ) × MatB2 (u, v) donne en termes de déterminants :
€ Š € Š
detB2 f (u), f (v) = det MatB2 ( f ) × detB2 (u, v),
| {z } | {z }
=6 =3

€ Š
ce qui montre que l’application f agit sur les volumes orientés en les multipliant par : det MatB2 ( f ) = 2. C’est ce
facteur 2 que nous appelons ci-après le déterminant de f .


Définition-théorème (Déterminant d’un endomorphisme) Soient E 6= 0 E un K-espace vectoriel de dimension finie
 € Š
et f ∈ L (E). Le scalaire detB f (B ) = det MatB ( f ) ne dépend pas de la base B choisie. On l’appelle déterminant de
f et on le note det( f ).

$ ATTENTION ! $ Pour commencer, seul le déterminant d’un ENDOmorphisme est ainsi défini. Ensuite, le déterminant
d’une famille de vecteurs était relatif à une base, mais ce n’est plus le cas pour celui d’un endomorphisme.

Démonstration Pour toutes bases B et B ′ de E :


€ Š €  Š  € Š  € Š
B ′ −1 B′ B ′ −1 B′
det MatB ′ ( f ) = det PB MatB ( f )PB = det PB det MatB ( f ) det PB = det MatB ( f ) . „

Exemple Soit A ∈ Mn (K). On a défini le déterminant de A comme le déterminant de la famille de ses colonnes dans la
base canonique de Kn . Il coïncide aussi avec le déterminant de l’endomorphisme canoniquement associé à A.
Démonstration Notons A b l’endomorphisme canoniquement associé à A, C1 , . . . , Cn les colonnes de A ainsi que
Bn = (Ei )1¶i¶n la base canonique de Kn . Comme voulu :
 € Š € Š 
b 1 ), . . . , A(E
det(A) = detBn (C1 , . . . , Cn ) = detBn AE1 , . . . , AEn = detBn A(E b n ) = detB A(Bb n ) = det A
b .
n


Théorème (Propriétés du déterminant d’un endomorphisme) Soient E 6= 0 E un K-espace vectoriel de dimension
n et f , g ∈ L (E).
(i) Effet d’un endomorphisme sur un déterminant
 de famille de vecteurs : Pour toute base B de E et pour toute
famille X de n vecteurs de E : detB f (X ) = det( f ) detB (X ).
(ii) Déterminant d’une composée : det(g ◦ f ) = det(g) det( f ).
AT TENTION !
En particulier, pour tout λ ∈ K : det(λ f ) = λn det( f ).
(iii) Caractérisation des automorphismes : f est un automorphisme de E si et seulement si : det( f ) 6= 0.
 1
Dans ce cas : det f −1 = .
det( f )

$ ATTENTION ! $ Le déterminant n’est pas linéaire. En général, si λ, µ ∈ K : det(λ f + µg) = λdet( f ) + µdet(g).

Démonstration Fixons B une base de E.


 € Š € Š € Š € Š
(i) detB f (X ) = det MatB f (X ) = det MatB ( f ) × MatB (X ) = det MatB ( f ) det MatB (X )
€ Š = det( f ) detB (X ).
(iii) det(g ◦ f ) = det MatB (g ◦ f )
€ Š Š € Š € Š
= det MatB (g) × MatB ( f ) = det MatB (g) det MatB ( f ) = det(g)det( f ).

(ii) f est un automorphisme


 de E si et seulement si f (B ) est une base de E, autrement dit si et seulement si :
detB f (B ) 6= 0, ou encore : det( f ) 6= 0. „

16
Christophe Bertault — Mathématiques en MPSI

$ ATTENTION ! $ Dans le theorème suivant, on travaille seulement avec le corps K = R.


Théorème (Signe du déterminant d’un endomorphisme) Soient E 6= 0 E un R-espace vectoriel orienté de dimension
finie et f ∈ GL(E).
• Si : det( f ) > 0, alors l’image de toute base directe (resp. indirecte) de E est une base directe (resp. indirecte)
de E. On dit que f préserve l’orientation de E.
• Si : det( f ) < 0, alors l’image de toute base directe (resp. indirecte) de E est une base indirecte (resp. directe)
de E. On dit que f renverse l’orientation de E.

 Explication  Le point frappant dans ce résultat, c’est qu’un endomorphisme se comporte de la même manière
vis-à-vis de TOUTE base — soit il préserve l’orientation de TOUTES, soit il la renverse pour TOUTES.


Démonstration Simplement, pour toutes bases B et B ′ de E : detB f (B ′ ) = det( f ) detB (B ′ ). „

17

Vous aimerez peut-être aussi