Académique Documents
Professionnel Documents
Culture Documents
Déterminant
Dans tout ce chapitre, K est l’un des corps R ou C. Tous les résultats présentés dans ce chapitre, sauf un ou deux, demeurent
vrais dans un contexte plus général, mais nous ne nous en préoccuperons pas ici.
Les lettres n, p, q . . . désignent des entiers naturels non nuls.
1 Groupe symétrique
1.1 Permutation
En pratique
• On peut représenter commodément
de plusieurs
façons une permutation σ de J1, nK. La première consiste à écrire σ sous
1 2 ··· n
la forme d’une matrice . Par exemple, si σ est la permutation de S4 définie par les égalités :
σ(1) σ(2) · · · σ(n)
1 2 3 4
σ(1) = 2, σ(2) = 4, σ(3) = 1 et σ(4) = 3, alors σ peut être représentée par la matrice .
2 4 1 3
• Le produit de deux permutations est facile à effectuer à partir de cette représentation. Notez bien que « produit » signifie
ici « composition », mais généralement on omet le symbole ◦. Par exemple, dans S5 :
σ θ
z }| {
z }| {
1 2 3 4 5 1 2 3 4 5 1 2 3 4 5
= .
1 4 2 5 3 2 1 4 5 3 4 1 5 3 2
Pour calculer σθ(1), on observe que θ(1) = 2 dans la première colonne de θ, puis que σ(2) = 4 dans la deuxième colonne
de σ, de sorte que σθ(1) = 4. Et cetera.
1 2 3 4
• L’inverse d’une permutation est tout aussi facile à calculer. Par exemple, l’inverse de σ = dans S4 est
3 4 2 1
1 2 3 4
σ −1 = . On détermine σ −1 (1) en cherchant l’antécédent unique de 1 par σ ; c’est 4, car σ(4) = 1 ; etc.
4 3 1 2
En pratique
• Nous avons déjà introduit une première façon de noter les permutations de J1, nK. Nous en présentons ici une autre, plus
usitée que la précédente en mathématiques.
On commence par décider de noter (x1 x2 . . . xp ) le p-cycle de J1, nK qui envoie x1 sur x2 , x2 sur x3 , . . . xp−1 sur xp et
xp sur x1 , et qui fixe x si x n’est aucun des éléments x1 , x2 , . . . , xp . Puisque les cycles sont des sortes de boucles, le p-cycle
(x1 x2 . . . xp ) peut aussi s’écrire (x2 x3 . . . xp x2 ), ou encore (x3 x4 . . . xp x1 x2 ), etc.
1
c Christophe Bertault - MPSI
• Partant de là, on peut composer les cycles pour obtenir de nouvelles permutations. Par exemple, on écrira (1 2 4 6)(2 5)(3 4 1)
pour désigner la permutation (1 2 4 6) ◦ (2 5) ◦ (3 4 1). Attention : l’ordre des cycles compte, la composition n’est pas
commutative.
Une telle permutation peut être réécrite aisément comme un produit de cycles disjoints — deux cycles (x1 x2 . . . xp ) et
(y1 y2 . . . yq ) sont dits disjoints si aucun xi , i ∈ J1, pK, n’est égal à aucun yj , j ∈ J1, qK. Par exemple :
On remarquera que deux cycles disjoints commutent, car ils agissent sur des éléments distincts.
• Nous disposons maintenant de deux systèmes d’écriture des permutations. Mais comment passe-t-on concrètement d’un
système d’écriture à l’autre ? Voyons cela sur des exemples.
1 2 3 4 5 6
Partons tout d’abord de la permutation σ = . Elle envoie 1 sur 5, 5 sur 4 et 4 sur 1 ; 2 sur 2 ; 3 sur
5 2 6 1 4 3
6 et 6 sur 3. On peut alors vérifier que σ = (1 5 4)(3 6) = (3 6)(1 5 4). On peut montrer que cette méthode s’adapte à
tous les cas.
Partons au contraire d’unepermutation θ de
J1, 5K donnée sous la forme θ = (2 3)(4 3 1)(5 2 3). Cette permutation n’est
1 2 3 4 5
autre que la permutation , car :
4 1 5 2 3
h i h i h i
θ(1) = (2 3)(4 3 1)(5 2 3) (1) = (2 3)(4 3 1) (1) = (2 3) (4) = 4,
h i h i h i
θ(2) = (2 3)(4 3 1)(5 2 3) (2) = (2 3)(4 3 1) (3) = (2 3) (1) = 1,
h i h i h i
θ(3) = (2 3)(4 3 1)(5 2 3) (3) = (2 3)(4 3 1) (5) = (2 3) (5) = 5,
h i h i h i
θ(4) = (2 3)(4 3 1)(5 2 3) (4) = (2 3)(4 3 1) (4) = (2 3) (3) = 2,
h i h i h i
θ(5) = (2 3)(4 3 1)(5 2 3) (5) = (2 3)(4 3 1) (2) = (2 3) (2) = 3.
Exemple Voici quelques décompositions en produit de cycles disjoints (membres de droite) — entraînez-vous :
Théorème (Sn est engendré par ses transpositions) Toute permutation de J1, nK peut être décomposée comme un
produit de transpositions.
$ $ $ Attention ! Une telle décomposition n’est en aucun unique. Par exemple : (1 2 3) = (1 2)(2 3) = (1 3)(1 2).
2
c Christophe Bertault - MPSI
1.3 Signature
Le résultat suivant est qualifié de « lemme », mais c’est sur lui que repose tout le présent paragraphe, et même en fin de
compte tout ce chapitre.
Lemme Dans le groupe symétrique Sn , toute décomposition de l’identité en produit de transpositions met en présence un
nombre pair de transpositions.
Démonstration Le programme stipule que vous n’êtes pas obligés de savoir refaire cette démonstration. Je
vous conseille néanmoins de la travailler.
• Pour toute transposition τ , nous dirons dans ce qui suit que le support de τ contient n si τ est de la forme
τ = (i n) avec i ∈ J1, n − 1K. Commençons par introduire deux règles de transformations des produits de
transpositions dans Sn . Soient i, j, k ∈ J1, n − 1K.
8
< Si i, j et k sont distincts, alors : (i j)(k n) = (k n)(i j).
1) Règle de déplacement :
:
Si i 6= j, alors : (i j)(i n) = (i n j) = (j n)(i j).
En résumé :
Support contient n × Support ne contient pas n = Support ne contient pas n × Support contient n
8
< Si i = j, alors : (i n)(j n) = (i n)2 = Id.
2) Règle de réduction :
:
Si i 6= j, alors : (i n)(j n) = (i n j) = (i j)(i n).
En résumé, quand deux transpositions dont le support contient n sont multipliées l’une par l’autre, on peut
réduire le nombre de ces transpositions sans modifier la parité du nombre de transpositions multipliées :
« Annulation » (Id)
Support contient n × Support contient n = ou
Support ne contient pas n × Support contient n
• Hérédité : Soit n ∈ N, n > 2. Faisons l’hypothèse que le résultat est vrai dans Sn−1 et tâchons de le
montrer dans Sn . Partant d’une décomposition Id = τ1 τ2 . . . τp de l’identité en produit de transpositions,
nous devons montrer que p est pair.
Grâce à la règle de déplacement, on peut regrouper dans la décomposition Id = τ1 τ2 . . . τp les transpositions
dont le support contient n ; et grâce à la règle de réduction, on peut diminuer le nombre de transpositions
dont le support contient n. Ces opérations modifient complètement la tête des transpositions en présence,
mais préservent la parité de leur nombre total. Tant qu’on dispose d’au moins deux transpositions dont le
support contient n, on applique nos deux règles.
On obtient de cette façon une nouvelle décomposition Id = τ10 τ20 . . . τp0 0 de l’identité en produit de trans-
positions, dans laquelle p0 a la même parité que p (mais est éventuellement plus petit), et dans laquelle le
nombre de transpositions dont le support contient n est 0 ou 1. Mais ce nombre peut-il valoir 1 ? Si c’est le
cas, faisons en sorte que l’unique transposition dont le support contient n soit τ10 , via la règle de déplacement.
On a alors : n = Id(n) = τ10 τ20 . . . τp0 0 (n) = τ10 (n) 6= n. Contradiction.
Conclusion : n n’appartient au support d’aucune des transpositions τ10 , τ20 , . . . , τp0 0 .
Pour tout k ∈ J1, p0 K, nous pouvons donc poser τk00 = τk0 ; clairement, τk00 est une transposition de
J1,n−1K
J1, n − 1K. L’égalité Id = τ10 τ20 . . . τp0 0 (dans Sn ) devient alors : Id = τ100 τ200 . . . τp000 (dans Sn−1 ). On en déduit
finalement, par hypothèse de récurrence, que p0 est pair, et donc que p est pair, comme voulu. Fin de la
récurrence !
3
c Christophe Bertault - MPSI
(ii) Soit p ∈ J2, nK. La signature d’un p-cycle de J1, nK est (−1)p−1 .
En particulier, toute transposition est impaire.
Démonstration
(i) Soient σ, σ 0 ∈ Sn , décomposées en produits de transpositions sous la forme σ = τ1 τ2 . . . τp et σ 0 = τ10 τ20 . . . τp0 0 ,
0
de sorte que ε(σ) = (−1)p et ε(σ 0 ) = (−1)p . Alors σσ 0 = τ1 τ2 . . . τp τ10 τ20 . . . τp0 0 est une décomposition de σσ 0
0 0
en produit de transpositions, et donc ε(σσ 0 ) = (−1)p+p = (−1)p (−1)p = ε(σ)ε(σ 0 ).
(ii) Soit (x1 x2 . . . xp ) un p-cycle de J1, nK. Alors (x1 x2 . . . xp ) = (x1 xp )(x1 xp−1 ) . . . (x1 x2 ). Cette
décomposition fait intervenir (p − 1) transpositions, donc ε (x1 x2 . . . xp ) = (−1)p−1 comme annoncé.
Définition (Groupe alterné) On appelle groupe alterné de degré n, noté An (ou parfois An ), le noyau de la signature ε sur
Sn ; An est donc l’ensemble des permutations paires de J1, nK.
2 Applications multilinéaires
« pour tout k ∈ J1, nK et pour tous x1 ∈ E1 , x2 ∈ E2 , . . . , xk−1 ∈ Ek−1 , xk+1 ∈ Ek+1 , . . . , xn ∈ En fixés,
Ek −→ F
l’application est linéaire ».
x 7−→ f (x1 , x2 , . . . , xk−1 , x, xk+1 , . . . , xn )
Si n = 2, on dit que f est bilinéaire ; si n = 3, que f est trilinéaire. Si enfin F = K, on dit que f est une forme n-linéaire.
Explication
• Bref, pour tout k ∈ J1, nK, f est linéaire par rapport à sa kème variable quand on fixe les (n − 1) autres.
• Les notions d’application 1-linéaire et d’application linéaire coïncident.
K×E −→ E
Exemple Si E est un K-espace vectoriel quelconque, l’application est bilinéaire.
(λ, x) 7−→ λx
En effet
• Soit λ ∈ K fixé. Montrons que x 7−→ λx est linéaire. Or pour tous x, y ∈ E et pour tous α, β ∈ K :
λ(αx + βy) = λαx + λβy = α(λx) + β(λy). C’est la linéarité voulue.
• Soit x ∈ E fixé. Montrons que λ 7−→ λx est linéaire. Or pour tous λ, µ ∈ K et pour tous α, β ∈ K :
(αλ + βµ)x = αλx + βµx = α(λx) + β(µx). Comme voulu.
4
c Christophe Bertault - MPSI
Exemple
Mp,q (K) × Mq,r (K) −→ Mp,r (K)
• L’application « produit » est bilinéaire.
(A, B) 7−→ AB
C k (R, R) × C k (R, R) −→ C k (R, R)
• L’application « produit » est bilinéaire pour tout k ∈ N ∪ ∞ .
(f, g) 7−→ fg
L(E, E 0 ) × L(E 0 , E 00 ) −→ L(E, E 00 )
• Soient E, E 0 , E 00 trois K-espaces vectoriels. L’application « composition » est
(f, g) 7−→ g◦f
bilinéaire.
• Dans le plan vectoriel usuel P, le déterminant et le produit scalaire sont deux formes bilinéaires de P × P. Dans l’espace
vectoriel à trois dimensions usuel E , le déterminant est une forme trilinéaire de E × E × E , et le produit vectoriel est
bilinéaire de E × E dans E .
Définition (Forme multilinéaire alternée) Soient E un K-espace vectoriel et f une forme n-linéaire de E n . Les assertions
suivantes sont équivalentes :
(i) f est nulle sur toute famille de vecteurs dont au moins deux sont égaux.
(ii) ∀(x1 , x2 , . . . , xn ) ∈ E n , ∀σ ∈ Sn , f (xσ(1) , xσ(2) , . . . , xσ(n) ) = ε(σ)f (x1 , x2 , . . . , xn ).
On dit dans ces conditions que f est alternée (ou antisymétrique).
Démonstration
(ii) =⇒ (i) Soit (x1 , x2 , . . . , xn ) ∈ E n . On suppose que deux des vecteurs de cette famille sont égaux, disons
xi et xj avec i, j ∈ J1, nK, i < j. Notons τ la transposition (i j). Alors via l’hypothèse (ii) :
−f (x1 , x2 , . . . , xn ) = ε(τ )f (x1 , x2 , . . . , xn ) = f (xτ (1) , xτ (2) , . . . , xτ (n) )
= f (x1 , . . . , xi−1 , xj , xi+1 , . . . , xj−1 , xi , xj+1 , . . . , xn ) = f (x1 , x2 , . . . , xn ) car xi = xj .
Conclusion : −f (x1 , x2 , . . . , xn ) = f (x1 , x2 , . . . , xn ), i.e. : f (x1 , x2 , . . . , xn ) = 0 comme voulu.
2) Cas général : Soit σ ∈ Sn . Alors σ = τr τr−1 . . . τ1 est le produit d’un certain nombre de
transpositions τ1 , τ2 , . . . , τr . Soit (x1 , x2 , . . . , xn ) ∈ E n . Raisonnons par récurrence.
Initialisation : f (xτ1 (1) , . . . , xτ1 (n) ) = ε(τ1 )f (x1 , . . . , xn ).
Hérédité : Soit k ∈ J1, r − 1K tel que f (xτk τk−1 ...τ1 (1) , . . . , xτk τk−1 ...τ1 (n) ) = ε(τk τk−1 . . . τ1 )f (x1 , . . . , xn ).
Il s’agit de démontrer la même formule au rang (k + 1).
1)
f (xτk+1 τk ...τ1 (1) , . . . , xτk+1 τk ...τ1 (n) ) = ε(τk+1 )f (xτk τk−1 ...τ1 (1) , . . . , xτk τk−1 ...τ1 (n) )
HDR
= ε(τk+1 )ε(τk τk−1 . . . τ1 )f (x1 , . . . , xn )
= ε(τk+1 τk . . . τ1 )f (x1 , . . . , xn ) car ε est un morphisme de groupes.
Fin de la récurrence : la propriété démontrée pour k = r est notre résultat, puisque σ = τr τr−1 . . . τ1 .
Théorème (Propriétés des formes multilinéaires alternées) Soient E un K-espace vectoriel et f une forme n-linéaire
alternée de E n .
(i) f est changée en son opposée quand on permute deux de ses variables.
(ii) On ne change pas la valeur de f quand on ajoute à l’une de ses variables une combinaison linéaire des autres.
(iii) f est nulle sur toute famille liée.
5
c Christophe Bertault - MPSI
Démonstration
(i) Déjà démontré au passage dans la preuve précédente.
(ii) Soient (x1 , x2 , . . . , xn ) ∈ E n et λ1 , λ2 , . . . , λk−1 , λk+1 , . . . , λn ∈ K.
! =0 car xi apparaît deux fois.
X X z }| {
f x1 , x2 , . . . , xk−1 , xk + λi xi , xk+1 , . . . , xn = f (x1 , x2 , . . . , xn ) + λi f (x1 , x2 , . . . , xk−1 , xi , xk+1 , . . . , xn )
16i6n 16i6n
i6=k i6=k
= f (x1 , x2 , . . . , xn ).
(iii) Soit (x1 , x2 , . . . , xn ) une famille liée de vecteurs de E. Alors par exemple (pour simplifier), xn est combi-
naison linéaire de x1 , x2 , . . . , xn−1 . Du coup, via l’assertion (ii) et la linéarité de f par rapport à sa dernière
variable : f (x1 , x2 , . . . , xn ) = f (x1 , x2 , . . . , xn−1 , 0E ) = 0 comme voulu.
Définition (Déterminant d’une famille de vecteurs dans une base) Soient E un K-espace vectoriel de dimension n et
B = (e1 , e2 , . . . , en ) une base de E.
• Il existe une et une seule forme n-linéaire alternée de E n , notée detB , qui donne à B la valeur 1, i.e. telle que
detB (B) = 1. On l’appelle déterminant dans la base B.
• Soient x1 , x2 , . . . , xn ∈ E. Si, pour tout k ∈ J1, nK, xk a pour coordonnées (a1k , a2k , . . . , ank ) dans B, alors on a :
X Y
n X Y
n
det B (x1 , x2 , . . . , xn ) = ε(σ) aσ(i)i = ε(σ) aiσ(i) .
σ∈Sn i=1 σ∈Sn i=1
$ $ $ Attention !
• Seul le déterminant d’une famille de n vecteurs dans un espace vectoriel de dimension n est ainsi défini.
X Y
n
• Les formules « ε(σ) . . . » ne sont jamais utilisées en pratique pour calculer les déterminants, pour une raison
σ∈Sn i=1
simple : elles nous proposent le calcul de n! produit de n termes. Cela fait beaucoup de calculs. Nous verrons plus loin des
méthodes de calcul rapides des déterminants.
Démonstration Le programme stipule que vous n’êtes pas obligés de savoir refaire cette démonstration. Je
vous conseille néanmoins de la travailler. On définit une application detB : E n −→ K en posant, pour toute famille
X Y
n
(x1 , x2 , . . . , xn ) ∈ E n : det B (x1 , x2 , . . . , xn ) = ε(σ) aσ(i)i .
σ∈Sn i=1
• Mais d’où sort cette formule ? Soit f une forme n-linéaire alternée de E n . Soient en outre x1 , x2 , . . . , xn ∈ E
et, pour tout k ∈ J1, nK, (a1k , a2k , . . . , ank ) les coordonnées de xk dans B.
0 1
X
n X
n X
n
n-linéarité
X
f (x1 , x2 , . . . , xn ) = f @ a k1 1 e k1 , a k2 2 e k2 , . . . , a kn n e kn A = ak1 1 ak2 2 . . . akn n f (ek1 , ek2 , . . . , ekn ).
k1 =1 k2 =1 kn =1 (k1 ,k2 ,...,kn )∈J1,nKn
Or, dans cette grande somme, de nombreux termes sont nuls : parce que f est alternée, f (ek1 , ek2 , . . . , ekn ) = 0
dès que deux des vecteurs eki sont égaux, i ∈ J1, nK. Nous pouvons donc ne conserver, dans cette somme,
que les n-uplets (k1 , k2 , . . . , kn ) dont tous les éléments sont distincts. Or se donner un tel n-uplet, c’est
exactement se donner une permutation de J1, nK. Par conséquent :
X X
f (x1 , x2 , . . . , xn ) = ak1 1 ak2 2 . . . akn n f (ek1 , ek2 , . . . , ekn ) = aσ(1)1 aσ(2)2 . . . aσ(n)n f (eσ(1) , eσ(2) , . . . , eσ(n) )
(k1 ,k2 ,...,kn )∈J1,nKn σ∈Sn
!
X X Y
n
= aσ(1)1 aσ(2)2 . . . aσ(n)n × ε(σ)f (e1 , e2 , . . . , en ) = ε(σ) aσ(i)i f (B) = f (B) det B (x1 , x2 , . . . , xn ).
σ∈Sn σ∈Sn i=1
Nous venons de montrer l’égalité f = f (B) detB . Il s’ensuit aussitôt que detB est la seule forme n-linéaire
alternée de E n qui donne à B la valeur 1 — à ceci près que nous n’avons pas encore montré la n-linéarité
de detB .
6
c Christophe Bertault - MPSI
X Y
n
• Conservons les notations précédentes et montrons qu’on a aussi : det B (x1 , x2 , . . . , xn ) = ε(σ) aiσ(i) .
σ∈Sn i=1
Soit σ ∈ Sn . Puisque σ est une bijection de J1, nK dans lui-même par définition,
on peut se servir de σ pour
Sn −→ Sn
effectuer un changement d’indice j = σ(i). Par ailleurs, l’application est une bijection
σ 7−→ σ −1
(de réciproque elle-même). Cette bijection aussi peut servir à effectuer un changement d’indice ϕ = σ −1 :
X Y
n
j=σ(i) X Y
n
ϕ=σ −1
X Y
n
det B (x1 , x2 , . . . , xn ) = ε(σ) aσ(i)i = ε(σ) ajσ −1 (j) = ε ϕ−1 ajϕ(j)
σ∈Sn i=1 σ∈Sn j=1 ϕ∈Sn j=1
X Y
n n o
= ε(ϕ) ajϕ(j) (puisque ε(ϕ) ∈ − 1, 1 , on a ε ϕ−1 = ε(ϕ)−1 = ε(ϕ))
ϕ∈Sn j=1
X Y
n
= ε(σ) aiσ(i) .
σ∈Sn i=1
• Vous vérifierez seuls que detB est n-linéaire. Contentons-nous de montrer que detB est alternée. Soient
(x1 , x2 , . . . , xn ) ∈ E n et ϕ ∈ Sn . Dans le calcul suivant, on effectue le changement d’indice
j = ϕ(i) associé à
−1 Sn −→ Sn
la permutation ϕ de J1, nK, puis le changement d’indice θ = σϕ associé à la bijection .
σ 7−→ σϕ−1
X Y
n
j=ϕ(i) X Y
n
θ=σϕ−1
X Y
n
det B (xϕ(1) , xϕ(2) , . . . , xϕ(n) ) = ε(σ) aσ(i)ϕ(i) = ε(σ) aσϕ−1 (j)j = ε(θϕ) aθ(j)j
σ∈Sn i=1 σ∈Sn j=1 θ∈Sn j=1
X Y
n X Y
n
= ε(θ)ε(ϕ) aθ(i)i = ε(ϕ) ε(θ) aθ(i)i = ε(ϕ) det B (x1 , x2 , . . . , xn ).
θ∈Sn i=1 θ∈Sn i=1
Exemple Soient E un K-espace vectoriel de dimension 2, de base B = (e1 , e2 ). Si x, y ∈ E ont pour coordonnées respectives
(x1 , x2 ) et (y1 , y2 ), alors detB (x, y) = x1 y2 − x2 y1 .
Nous retrouvons ainsi l’expression du déterminant en fonction des coordonnées que nous avions trouvé dans notre chapitre de
géométrie élémentaire du plan. Remarquez bien ceci : en début d’année, nous avons défini le déterminant à l’aide des notions de
norme et de sinus d’un angle ; dans le contexte présent, nous sommes capables de définir le déterminant sans recourir à aucune
de ces deux notions.
X
En effet Par définition : det B (x, y) = ε(σ)xσ(1) yσ(2) . Or le groupe S2 possède seulement deux éléments :
n o σ∈S2
S2 = Id, τ , où τ = (1 2). Par conséquent : det B (x, y) = ε(Id)xId(1) yId(2) + ε(τ )xτ (1) yτ (2) = x1 y2 − x2 y1 .
Exemple Soient E un K-espace vectoriel de dimension 3, de base B = (e1 , e2 , e3 ). Si x, y, z ∈ E ont pour coordonnées
respectives (x1 , x2 , x3 ), (y1 , y2 , y3 ) et (z1 , z2 , z3 ), alors detB (x, y, z) = x1 y2 z3 + x2 y3 z1 + x3 y1 z2 − x3 y2 z1 − x2 y1 z3 − x1 y3 z2 .
Nous retrouvons ainsi l’expression du déterminant en fonction des coordonnées que nous avions trouvé dans notre chapitre de
géométrie élémentaire de l’espace. Remarquez bien ceci : en début d’année, nous avons défini le déterminant à l’aide des produits
scalaire et vectoriel, définis eux-mêmes à partir des notions de norme et cosinus/sinus d’un angle ; dans le contexte présent, nous
sommes capables de définir le déterminant sans recourir à aucune de ces notions.
X n o
En effet Par définition : det B (x, y, z) = ε(σ)xσ(1)yσ(2) zσ(3) . Or S3 = Id, (1 2 3), (1 3 2), (1 3), (1 2), (2 3) .
σ∈S3
Par conséquent : detB (x, y, z) = x1 y2 z3 + x2 y3 z1 + x3 y1 z2 − x3 y2 z1 − x2 y1 z3 − x1 y3 z2 .
| {z } | {z } | {z } | {z } | {z } | {z }
Id (1 2 3) (1 3 2) (1 3) (1 2) (2 3)
$ $ $ Attention ! Nous étions habitués à l’idée qu’il n’y a qu’un déterminant dans le plan, et qu’un déterminant dans
l’espace. Cela est faux : il y a autant de déterminants qu’il y a de bases. Cette fausse impression que nous avions provenait
notamment du fait que nous avions fixé une base de référence (~ı, ~) dans le plan et (~ı, ~, ~k) dans l’espace, mais aussi au fait que
cette base de référence était orthonormale directe — nous reviendrons sur ce point dans un prochain chapitre.
Théorème (Propriétés du déterminant d’une famille de vecteurs dans une base) Soient E un K-espace vectoriel
de dimension n et B et B0 deux bases de E et F une famille de n vecteurs de E.
(i) Formule de changement de base : detB (F) = detB (B0 ) detB 0 (F).
1
(ii) F est une base de E si et seulement si detB (F) 6= 0. Dans ce cas : detF (B) = .
detB (F)
Explication L’assertion (ii) doit vous rappeler nos chapitres de géométrie de début d’année : le déterminant sert à
tester la liberté d’une famille de vecteurs (non-colinéarité en dimension 2, non-coplanarité en dimension 3).
7
c Christophe Bertault - MPSI
En pratique L’assertion (i) est facile à retenir, elle a la forme d’une « relation de Chasles ».
Démonstration
(i) L’application detB est n-linéaire alternée. Le théorème précédent affirme donc que detB = detB (B0 ) detB 0 ,
ce qui est justement le résultat attendu.
(ii) Si F est une base de E, alors via (i) : 1 = detB (B) = detB (F) detF (B). Ceci montre aussitôt que
1
detB (F) est non nul d’inverse .
detF (B)
Réciproquement, par contraposition, supposons que F n’est pas une base de E. Alors F est liée, car constituée
de n vecteurs en dimension n. Or detB est n-linéaire alternée. Donc detB (F) = 0.
$ $ $ Attention !
• Seul le déterminant d’un endomorphisme est ainsi défini.
• Le déterminant d’une famille de vecteurs était calculé relativement à une base ; ici, le déterminant d’un endomorphisme
est intrinsèque et ne dépend d’aucune base.
Démonstration Soient B et B0 deux bases de E. Nous voulons montrer que detB f (B) = detB 0 f (B0 ) .
(
En −→ K
• Notons ϕ l’application . Alors ϕ est une forme n-
(x1 , x2 , . . . , xn ) 7−→ detB f (x1 ), f (x2 ), . . . , f (xn )
linéaire alternée de E n . Montrons seulement qu’elle est n-linéaire. Soient k ∈ J1, nK, x1 , x2 , . . . , xk−1 , xk+1 , . . . , xn ∈
E, x, x0 ∈ E et λ, λ0 ∈ K.
ϕ(x1 , . . . , xk−1 , λx + λ0 x0 , xk+1 , . . . , xn ) = det B f (x1 ), . . . , f (xk−1 ), f (λx + λ0 x0 ), f (xk+1 ), . . . , f (xn )
= det B f (x1 ), . . . , f (xk−1 ), λf (x) + λ0 f (x0 ), f (xk+1 ), . . . , f (xn )
= λ det B f (x1 ), . . . , f (xk−1 ), f (x), f (xk+1 ), . . . , f (xn ) + λ0 det B f (x1 ), . . . , f (xk−1 ), f (x0 ), f (xk+1 ), . . . , f (xn )
= λϕ(x1 , . . . , xk−1 , x, xk+1 , . . . , xn ) + λ0 ϕ(x1 , . . . , xk−1 , x0 , xk+1 , . . . , xn ).
• Nous disposons donc d’une forme n-linéaire alternée ϕ. Le théorème d’existence du déterminant d’une famille
de vecteurs affirme que ϕ = ϕ(B0 ) detB 0 . Du coup :
« Chasles »
det B 0 f (B0 ) = det B 0 (B) det B f (B0 ) = det B 0 (B)×ϕ(B0 ) = ϕ(B) = det B f (B) .
Explication Via (ii) et (iii), le déterminant est un morphisme de groupes de GL(E) dans K× .
$ $ $ Attention ! Le déterminant n’est pas linéaire : en général, si λ, µ ∈ K, det(λf + µg) = λ det(f ) + µ det(g).
Méditez notamment l’assertion (iv).
8
c Christophe Bertault - MPSI
(iii) Nous savons que f est un automorphisme de E si et seulement si f (B) est une base de E, et ceci si et
seulement si detB f (B) 6= 0. Or det(f ) = detB f (B) . Cela démontre l’équivalence.
1
Ensuite, dans ce cas, puisque det est un morphisme de groupes de GL(E) dans K× : det f −1 = .
det(f )
(iv) résulte immédiatement de la n-linéarité du déterminant d’une famille de vecteurs. Pour tout λ ∈ K :
det(λf ) = det B (λf )(B) = det B λf (B) = λn det B f (B) = λn det(f ).
Chaque variable a permis, par linéarité, la sortie d’un λ.
Définition (Déterminant d’une matrice carrée) Soit A ∈ Mn (K). Le déterminant de A, vue comme endomorphisme de
Kn , est égal au déterminant de la famille des colonnes de A dans la base canonique Kn .
On appelle déterminant de A la valeur commune de ces deux notions de déterminant ; ce déterminant est noté det(A) ou :
a11 a12 ··· a1n
a21 a22 ··· a2n X Y
n X Y
n
. .. .. .. et vaut : det(A) = ε(σ) aσ(i)i = ε(σ) aiσ(i) .
.. . . .
σ∈Sn i=1 σ∈Sn i=1
a a22 ··· ann
n1
Démonstration Notons C1 , C2 , . . . , Cn les colonnes de A dans l’ordre naturel et Bn = (ek )16k6n la base
canonique de Kn . Alors : detB n (C1 , C2 , . . . , Cn ) = detB n A(e1 ), A(e2 ), . . . , A(en ) = det B n A(Bn ) = det(A),
où det(A) est ici le déterminant de A comme endomorphisme de Kn . Cette égalité est bien celle du théorème.
X Y
n X Y
n
De plus, detB n (C1 , C2 , . . . , Cn ) est par définition ε(σ) aσ(i)i ou encore ε(σ) aiσ(i) .
σ∈Sn i=1 σ∈Sn i=1
$ $ $ Attention ! Le déterminant n’est pas linéaire : en général, si λ, µ ∈ K, det(λA + µB) = λ det(A) + µ det(B).
Méditez notamment l’assertion (iii).
Démonstration
(i) à (iii) Déjà démontrées dans le cas des endomorphismes en général. Sachant que le déterminant d’une
matrice est le déterminant d’un endomorphisme. . .
X Y
n X Y
n
(iv) Quand on écrit la double formule « det(A) = ε(σ) aσ(i)i = ε(σ) aiσ(i) » dans le cas de la
σ∈Sn i=1 σ∈Sn i=1
matrice t A, on trouve. . . la même chose. D’où le résultat.
9
c Christophe Bertault - MPSI
Théorème (Relation entre les différentes notions de déterminant) Soient E un K-espace vectoriel de dimension n et
B une base de E.
(i) Soit F une famille de n vecteurs de E. Alors : detB (F) = det Mat(F) .
B
(ii) Soit f un endomorphisme de E. Alors : det(f ) = det Mat(f ) .
B
En pratique Ce théorème est très pratique, car il montre que tout déterminant (famille de vecteurs ou endo-
morphisme) peut être calculé comme le déterminant d’une matrice carrée. Nous allons voir bientôt comment on peut calculer
rapidement le déterminant d’une matrice.
Démonstration Débrouillez-vous.
Théorème (Déterminant d’une matrice triangulaire) Le déterminant d’une matrice triangulaire est égal au produit de
ses coefficients diagonaux.
Démonstration Soit A ∈ Mn (K) triangulaire. Quitte à transposer A, ce qui n’affectera pas le déterminant, on
peut supposer que A est triangulaire supérieure. Alors aij = 0 pour tous i, j ∈ J1, nK tels que i > j.
X Y
n
Par définition : det(A) = ε(σ) aiσ(i) . Dans cette grande somme, pour que le terme associé à σ ∈ Sn
σ∈Sn i=1
soit non nul, il faut que aiσ(i) soit non nul pour tout i ∈ J1, nK ; il faut donc avoir σ(i) > i pour tout i. Or quelles
sont les permutations de J1, nK qui satisfont ces inégalités ? Il n’en existe qu’une, c’est l’identité.
Y
n Y
n
Du coup : det(A) = ε(Id) aiId(i) = aii comme annoncé.
i=1 i=1
2 4 7
Exemple 0 1 3 = 2 × 1 × (−1) = −2.
0 0 −1
Pour ne pas perdre trop de temps, nous admettrons la généralisation suivante du théorème précédent.
Théorème (Déterminant d’une matrice triangulaire par blocs) Soient A ∈ Mp (K) et B ∈ Mn−p (K).
A ×
A 0
Alors : = = det(A) det(B).
0 B × B
2 4 −2 3
3 −1 2 5 2 4 4 1
Exemple = × = (−14) × (−1) = 14.
0 0 4 1 3 −1 1 0
0 0 1 0
Démonstration Nous avons déjà observé que les opérations élémentaires ne sont que des multiplications par
des matrices inversibles. Du coup, en vertu de la relation « det(AB) = det(A) det(B) », effectuer une opération
élémentaire de matrice P sur un déterminant revient à multiplier celui-ci par det(P ). Pour achever cette preuve,
il ne nous reste qu’à calculer det(P ) dans chacun des cas (i), (ii) et (iii).
10
c Christophe Bertault - MPSI
(i) Ajout d’un multiple d’une ligne (resp. (ii) Multiplication d’une ligne
colonne) à une autre ligne (resp. colonne) : (resp. colonne) par λ :
1 1
. .
.. ..
1 1
..
. = 1. λ = λ.
λ 1 1
..
.. .
.
1
1
(iii) Permutation de deux lignes (resp. colonnes) : En réalité, on peut simuler la permutation des lignes
i et j en effectuant successivement les opérations élémentaires suivantes :
Li ← Li + Lj , Lj ← Lj − Li , Li ← Li + Lj et Lj ← −Lj .
Via le cas (i) , les trois premières opérations ne modifient pas le déterminant de la matrice ; via le cas (ii),
le déterminant est multiplié par −1. Au total, la permutation des lignes i et j a coûté un facteur −1. Même
raisonnement avec les colonnes.
En pratique Le théorème précédent nous permet d’utiliser l’algorithme du pivot de Gauss pour calculer les
déterminants. Grâce à cet algorithme, on peut ramener le calcul d’un déterminant quelconque au calcul du déterminant d’une
matrice triangulaire, qui est alors le produit des éléments diagonaux obtenus. Comme toujours, la méthode du pivot de Gauss
est la méthode reine, ici pour le calcul des déterminants.
1 5 0 −1
4 4 2 1
Exemple = 2.
3 9 4 0
2 0 1 1
En effet
1 5 0 −1 1 5 0 −1
−16 2 5
4 4 2 1 0 −16 2 5 L2 ← L2 − 4L1
= = 1 × −6 4 3
3 9 4 0 0 −6 4 3 L3 ← L3 − 3L1
−10 1 3
2 0 1 1 0 −10 1 3 L4 ← L4 − 2L1
1 −10 3 1 −10 3
= (−1) × 4 −6
2
3 C1 ↔ C2 , L1 ↔ L3 = 0
34 −9 L2 ← L2 − 4L1
2 −16 5 0 4 −1 L3 ← L3 − 2L1
34 −9
= 1 × = (−34 + 36) = 2.
4 −1
a b b
Exemple Soient a, b ∈ K. b a b = (b − a)2 (a + 2b).
b b a
En effet
a b b a b b a b b
b a b = b − a a−b 0 L2 ← L2 − L1 = (b − a)2 1 −1 0
b b a b − a 0 a − b L3 ← L3 − L1 1 0 −1
a + 2b 0 0
= (b − a) 1
2
−1 0 L1 ← L1 + bL2 + bL3 = (b − a)2 (a + 2b).
1 0 −1
11
c Christophe Bertault - MPSI
0 1
Explication + − + ...
Le cofacteur de position (i, j) est égal au mineur de même position, au signe près. Mais comment ces B− + − . . .C
B C
signes sont-ils distribués ? La matrice ci-contre schématise leur distribution. B+ − + . . .C
@ A
.. .. .. ..
. . . .
0 1 0 1
1 0 0 −1 3 2
Exemple La comatrice de @ 1 1 −1A est la matrice @ 0 −1 0A.
−2 0 −1 0 1 1
Théorème (Développement par rapport à une ligne ou une colonne) Soit A ∈ Mn (K). Pour tout (i, j) ∈ J1, nK2 , on
note ∆ij le mineur de A de position (i, j).
X
n
(i) Développement par rapport à une ligne : Soit i ∈ J1, nK. det(A) = (−1)i+j aij ∆ij .
j=1
X
n
(ii) Développement par rapport à une colonne : Soit j ∈ J1, nK. det(A) = (−1)i+j aij ∆ij .
i=1
Explication Ces formules ne s’apprenent pas par cœur. Elles se comprennent sur des exemples simples. En voici un,
où l’on développe par rapport à la première colonne :
Ceci ne doit pas figurer sur vos copies, c’est juste pour vous expliquer.
z }| {
1 4 7 1 4 7 1 4 7 1 4 7
5 8 4 7 4 7
2 5 8 = + 1 2 5 8 − 2 2 5 8 + 3 2 5 8 = − 2 + 3 = 0.
6 9 6 9 5 8
3 6 9 3 6 9 3 6 9 3 6 9
Ici, la nullité du déterminant montre que la matrice 3 × 3 considérée n’est pas inversible.
Démonstration Soit i ∈ J1, nK. Par transposition, nous pouvons nous contenter de démontrer le résultat dans
le cas d’un développement par rapport à la ième ligne.
a11 a12 ··· a1n
a21 a22 ··· a2n
det(A) = . .. .. ..
.. . . .
a an2 ··· ann
n1
a11 a12 ··· a1j ··· a1n
a21 a22 ··· a2j ··· a2n
. .. .. ..
.
. . . .
Xn
ai−1,1 ai−1,2 ··· ai−1,j ··· ai−1,n Le déterminant est linéaire
= aij
0 0 ··· 1 ··· 0 par rapport à sa ième variable-ligne.
j=1
ai+1,1 ai+1,2 ··· ai+1,j ··· ai+1,n
.. .. .. ..
. . . .
an1 an2 ··· anj ··· ann
0 0 ··· 1 ··· 0
a11 a12 ··· a1j ··· a1n
a21 a22 ··· a2j ··· a2n
. .. .. .. On échange la ième ligne avec la (i − 1)ème ,
Xn .
i−1 . . . . puis la (i − 1)ème avec la (i − 2)ème , etc.
= (−1) aij
ai−1,1 ai−1,2 · · · ai−1,j ··· ai−1,n Au total, (i − 1) échanges de lignes,
j=1
ai+1,1 ai+1,2 · · · ai+1,j ··· ai+1,n d’où le coefficient (−1)i−1 .
.. .. .. ..
. . . .
an1 an2 ··· anj ··· ann
12
c Christophe Bertault - MPSI
1 0 0 ··· 0 0 ··· 0
a1j a11 a12 ··· a1,j−1 a2,j+1 ··· a1n
a2j a21 a22 ··· a2,j−1 a2,j+1 ··· a2n
. .. .. .. .. ..
Xn .
i−1 j−1 . . . . . . Idem
= (−1) (−1) aij
ai−1,j ai−1,1 ai−1,2 · · · ai−1,j−1 ai−1,j+1 · · · ai−1,n sur les colonnes.
j=1
ai+1,j ai+1,1 ai+1,2 · · · ai+1,j−1 ai+1,j+1 · · · ai+1,n
.. .. .. .. .. ..
. . . . . .
anj an1 an2 ··· an,j−1 an,j+1 · · · ann
a11 a12 ··· a1,j−1 a2,j+1 ···
a1n
a21 a22 ··· a2,j−1 a2,j+1 ···
a2n
. .. .. ..
..
.
Xn . . . .
.
i+j La matrice était triangulaire
= (−1) aij ai−1,1 ai−1,2 · · · ai−1,j−1 ai−1,j+1 ··· ai−1,n
par blocs.
j=1 ai+1,1 ai+1,2 · · · ai+1,j−1 ai+1,j+1 ··· ai+1,n
.. .. .. .. ..
. . . . .
an1 an2 ··· an,j−1 an,j+1 ··· ann
X
n
= (−1)i+j aij ∆ij . C’est le résultat voulu.
j=1
En pratique Le développement par rapport aux lignes/colonnes est une méthode utile de calcul des déterminants.
Dans la mesure du possible, il faut choisir de développer par rapport à une ligne/colonne contenant de nombreux 0 ; les calculs
en sont grandement simplifiés. Cela dit je vous conseille de privilégier la méthode du pivot de Gauss. Pourquoi ? Parce que les
résultats qu’elle fournit se présentent généralement sous forme factorisée. Or ce que l’on aime savoir d’un déterminant, c’est s’il
est nul ou non.
0 2 −1 1
−1 0 0 2
Exemple = 4.
2 2 1 −1
0 1 0 2
En effet Le calcul va s’avérer assez rapide ici car il y a pas mal de zéros dans le déterminant considéré.
0 2 −1 1
−1 0 2 0 2 1
−1 0 0 2
= (−1) 2 2 −1 + −1 0 2 (développement par rapport à la 3ème colonne)
2 2 1 −1
0 1 2 0 1 2
0 1 0 2
! !
2 −1 0 2 2 1
= (−1) (−1) − 2 + − (−1) = (−1) (−1) × 5 − 2 × (−2) + − (−1) × 3 = 4.
1 2 1 2 1 2
X
n
Contentons-nous de montrer que A t com(A) = det(A) In , i.e. que aik (−1)j+k ∆jk = det(A)δij pour tous
k=1
1 si i = j
i, j ∈ J1, nK, où δij = . Fixons donc i, j ∈ J1, nK.
0 sinon
X
n
• Supposons d’abord que i = j et montrons que aik (−1)i+k ∆ik = det(A). Or c’est déjà fait, c’est juste un
k=1
développement par rapport à la ième ligne.
13
c Christophe Bertault - MPSI
X
n
• Supposons ensuite que i 6= j et montrons que aik (−1)j+k ∆jk = 0. Remplaçons dans A la j ème ligne par
k=1
la ième et notons B la matrice obtenue. Alors det(B) = 0 car les ième et j ème lignes de B sont égales. Mais
par ailleurs, développons det(B) par rapport à sa j ème ligne. Les mineurs de A et B associés à cette ligne
X
n X
n
étant égaux : 0 = det(B) = (−1)j+k bjk ∆jk = aik (−1)j+k ∆jk . C’est le résultat voulu.
k=1 k=1
a c 1 1 d −c
Exemple Soit A = ∈ M2 (K). Si det(A) = ad − bc 6= 0, alors A−1 = t
com(A) = .
b d det(A) ad − bc −b a
Nous retrouvons ainsi un résultat bien connu.
$ $ $ Attention ! La formule d’inversion précédente est intéressante pour le mathématicien, mais seulement quand il
veut faire de la théorie. En pratique, elle ne sert à rien et il ne faut surtout pas s’en servir pour inverser une matrice concrète.
Alors que la méthode du pivot de Gauss est rapide et très pratique, la formule d’inversion ramène le calcul de A−1 au calcul de
det(A) et com(A). Or chaque coefficient de com(A) est lui-même un déterminant. Cela nous fait un déterminant de taille n à
calculer, puis n2 déterminants de taille (n − 1). Beaucoup de calculs, donc.
Théorème (Expression de la solution d’un système de Cramer à l’aide de déterminants) Soient A ∈ GLn (K) et
B ∈ Kn . Pour tout j ∈ J1, nK, on note Aj la matrice obtenue en remplaçant la j ème colonne de A par B.
Soit en outre X ∈ Kn la solution unique du système de Cramer AX = B. Alors :
det(Aj )
∀j ∈ J1, nK, xj = .
det(A)
$ $ $ Attention ! Ce résultat est théorique et non pratique, car le calcul de X décrit ci-dessus nous ramène au calcul de
(n + 1) déterminants de taille n ; c’est bien plus long que la méthode usuelle du pivot de Gauss.
ax + by = c
Exemple Soient a, b, c, a0 , b0 , c0 ∈ K tels que ab0 −a0 b 6= 0. La solution (x, y) ∈ K2 du système de Cramer
a0 x + b0 y = c0
est donnée par les expressions suivantes :
c b a c
0 0
c b0 cb0 − c0 b a c0 ac0 − a0 c
x= = et y= = .
a b ab0 − a0 b a b ab0 − a0 b
0 0
a b 0 a b 0
14
c Christophe Bertault - MPSI
Définition (Orientation d’un espace vectoriel réel de dimension finie) Soit E un K-espace vectoriel de dimension n
non nulle.
• On définit sur l’ensemble des bases de E une relation « avoir la même orientation que » de la façon suivante :
• La relation « avoir la même orientation que » est réflexive, symétrique et transitive. Il y a exactement deux orientations
possibles : si B n’a pas la même orientation que B0 et B00 , alors B0 et B00 ont la même orientation.
• Orienter E, c’est par définition décréter arbitrairement qu’une certaine base fixée B de E est directe ; toutes les bases
de E de même orientation que B sont alors aussi qualifiées de directes ; les autres sont qualifiées d’indirectes.
Explication
• Jusqu’ici, nous avons fait comme si le plan et l’espace étaient munis d’une orientation naturelle. Mais nous n’avons jamais
défini proprement ce que nous entendions par là. Comme l’explique la définition ci-dessus, la notion d’orientation d’un R-
espace vectoriel E repose sur l’idée qu’on peut regrouper les bases de E en deux paquets disjoints au moyen du déterminant ;
les unes sont qualifiées de directes, les autres d’indirectes. Mais comment savoir lesquelles sont directes, lesquelles sont
indirectes ? La question n’a pas de sens en fait ; l’orientation d’un espace vectoriel résulte d’un choix arbitraire : on choisit
d’appeler directes les bases d’un paquet, indirectes les bases de l’autre. Une foix qu’on a effectué un tel choix, on le conserve
pendant toute la durée du travail que l’on veut effectuer. Mais rien n’empêche qu’on modifie ce choix dans un autre travail.
Au fond ce caractère arbitraire de la notion d’orientation n’est pas surprenant. Selon que vous vous placez au-dessus ou
au-dessous d’un plan, vous n’avez pas la même appréciation de l’orientation : les bases qui vous semblent directes d’un
côté vous semblent indirectes de l’autre. La notion d’orientation ne s’en trouve pas ruinée, car l’essentiel, c’est ceci : deux
bases qui ont la même orientation quand on regarde le plan d’en haut ont aussi la même orientation quand on regarde le
plan d’en bas.
• Nous avions déjà observé dans nos chapitres de géométrie du plan et de l’espace de début d’année que l’orientation pouvait
se tester à l’aide d’un déterminant. Nous ne faisons que généraliser ce résultat.
detB (B00 )
det B 0 (B00 ) = det B 0 (B) × det B (B00 ) = > 0,
detB (B0 )
15