Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
6. Matrices (Sup).
Définition 6.1 et théorème 6.1 : les espaces vectoriels de matrices
Définition 6.2 : produit de matrices
Théorème 6.2 : structure de groupe et d’algèbre pour Mn(K)
Définition 6.3 : matrice transposée d’une matrice
Définition 6.4 : matrice symétrique, antisymétrique
Théorème 6.3 : dimension et supplémentarité de Sn(K) et An(K)
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. -1-
Définition 6.5 : matrice définie par blocs
Définition 6.6 : matrices triangulaires ou diagonales par blocs
Théorème 6.4 : somme et produit de matrices par blocs
7. Matrice des coordonnées d’un vecteur dans une base, matrice de changement de base (Sup).
Définition 7.1 : matrice des coordonnées d’un vecteur dans une base
Définition 7.2 : matrice de changement de base (matrice de passage)
Théorème 7.1 : lien entre les coordonnées d’un même vecteur dans différentes bases
10. Projecteurs.
Définition 10.1 : projecteurs associés à deux sous-espaces vectoriels supplémentaires
Théorème 10.1 : propriétés pour des projecteurs associés
Théorème 10.2 : caractérisation des sous-espaces vectoriels définissant un projecteur
Définition 10.2 : famille de projecteurs associée à une décomposition en somme directe
Théorème 10.3 : généralisation du théorème 10.1
sont des scalaires qui sont tous nuls, sauf au plus un nombre fini d’entre eux.
En particulier, si (xi)1≤i≤n est une famille finie de vecteurs de E, une combinaison linéaire de ces vecteurs
n
est un vecteur de E qui s’écrit : ∑ λ .x
i =1
i i , où les λi sont n scalaires.
d’où l’égalité des espaces vectoriels et le fait que la famille : B’1 = (e1, e’2, …, e’q) est génératrice de E.
• On itère maintenant le processus pour remplacer d’autres vecteurs de B’0 par d’autres provenant de
B. Supposons pour cela qu’on a formé une nouvelle famille B’k génératrice de E en remplaçant les k
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. -7-
premiers vecteurs de la famille B’0 par e1, …, ek (par exemple), avec : k ≤ p – 1, k ≤ q – 1.
Alors : ek+1 ∈ Vect(e1, …, ek, e’k+1, …, e’q), et : ∃ (λ1,k+1, …, λk,k+1, λk+1,k+1, … λq,k+1) ∈ Kq, tel que :
ek+1 = λ1,k+1.e1 + … + λk,k+1.ek + λk+1,k+1.e’k+1 + … + λq,k+1.e’q.
Il n’est pas possible d’avoir : λk+1,k+1 = … = λq,k+1 = 0, sinon la famille (e1, …, ek+1) et donc B serait liée.
Quitte là encore, à permuter les vecteurs e’k+1, …, e’q, on peut supposer que : λk+1,k+1 ≠ 0, et :
1 k λ i, k +1 q
λ i ,k +1
e’k+1 = .e k +1 − ∑ .e i − ∑λ .e' i .
λ k +1,k +1 i =1 λ k +1,k +1 i=k + 2 1, k +1
On en déduit à nouveau que : E = Vect(B’k) ⊂ Vect(e1, …, ek+1, e’k+2, … e’q) ⊂ E, et la nouvelle famille :
B’k+1 = (e1, …, ek+1, e’k+2, … e’q), est encore génératrice de E.
• Enfin, si : q < p, alors en prenant : k = q – 1, dans la construction précédente, on obtient que :
e’q ∈ Vect(e1, …, eq), puis que : B’q = (e1, …, eq) est génératrice de E.
On aurait alors en particulier : q+1 ≤ p, et : eq+1 ∈ Vect(e1, …, eq), et la famille (e1, …, eq+1), sous-famille
de la famille B, serait liée, et la famille B le serait aussi.
Donc on a bien : p ≤ q, et on a obtenu une nouvelle famille génératrice de E en ayant échangé p
vecteurs de la famille B’0 par ceux de la famille B.
Théorème 3.3 : cardinal des familles libres ou génératrices dans un espace vectoriel de dimension
finie
Soit (E,+,.) un K-espace vectoriel de dimension finie n et (xi)1≤i≤p une famille de vecteurs de E.
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. -8-
Si la famille (xi)1≤i≤p est génératrice de E, alors : p ≥ n.
Si la famille (xi)1≤i≤p est libre, alors : p ≤ n.
On a les équivalences :
((xi)1≤i≤p base de E) ⇔ ((xi)1≤i≤p libre et : p = n) ⇔ ((xi)1≤i≤p génératrice de E et : p = n).
Démonstration :
Soit B une base de E (comportant donc n éléments).
Le théorème de l’échange montre que si (xi)1≤i≤p est génératrice de E, alors : p ≥ n, puisque B est libre.
De même, si la famille (xi)1≤i≤p est libre, alors : p ≤ n, puisque cette fois, B est génératrice de E.
Il est clair ensuite que :
• ((xi)1≤i≤p base de E) ⇒ ((xi)1≤i≤p libre et : p = n), et :
• ((xi)1≤i≤p base de E) ⇒((xi)1≤i≤p génératrice de E et : p = n).
Réciproquement, si la famille (xi)1≤i≤p libre et : p = n, alors on peut obtenir à partir de la famille génératrice
B de E, une nouvelle famille génératrice de E en remplaçant p vecteurs de B par ceux de (xi)1≤i≤p.
Mais comme : p = n, cela signifie les remplacer tous, autrement dit la nouvelle famille obtenue, (soit la
famille (xi)1≤i≤p en fait) est génératrice de E. Mais comme elle était libre, c’est en fait une base de E.
Si enfin, la famille (xi)1≤i≤p est supposée génératrice de E, alors elle ne peut être liée, sinon l’un des
vecteurs, par exemple xn serait combinaison linéaire des vecteurs x1, …, xn-1 et la famille (x1, …, xn-1)
serait génératrice de E.
On aurait alors une famille génératrice de E à (n – 1) éléments et une famille libre (B) avec n éléments,
ce qui est impossible.
La famille (xi)1≤i≤p est donc libre, et étant de plus génératrice de E, c’est une base de E.
Théorème 3.5 : dimension d’un sous-espace vectoriel dans un espace vectoriel de dimension finie
Soit (E,+,.) un K-espace vectoriel de dimension finie.
Tout sous-espace vectoriel de E est de dimension finie, inférieure à celle de E.
Démonstration :
Soit : F = {0}, et F est de dimension finie égale à 0.
Sinon, considérons toutes les familles libres de vecteurs de F.
Toutes ces familles ont un cardinal (nombre d’éléments) inférieur à : n = dim(E).
Soit alors p le nombre maximum d’éléments d’une telle famille et : B’ = (e1, …, ep), une telle famille.
Alors B’ est une base de F.
En effet : Vect(B’) ⊂ F, puisque B’ est constituée d’éléments de F, lui-même stable par combinaison
linéaire.
Puis : ∀ x ∈ F, la famille (e1, …, ep, x) est liée (puisqu’étant formée de plus de p éléments de F).
Donc : ∃ (λ1, … λp, λp+1) ∈ Kp+1, (λ1, … λp, λp+1) ≠ (0,…,0), λ1.e1 + … + λp.ep + λp+1.x = 0,
et λp+1 n’est pas nul, sinon tous les coefficients seraient nuls, du fait de la liberté de la famille B’.
On en déduit que : x ∈ Vect(B’), et : F ⊂ Vect(B’).
Finalement, B’ est génératrice de F et c’est une base de F, qui est donc de dimension : p ≤ n = dim(E).
Théorème 3.7 : égalité de sous-espaces vectoriels dans un espace vectoriel de dimension finie
Soit (E,+,.) un K-espace vectoriel.
Soient F et G des sous-espaces vectoriels de dimension finie de E.
Alors : (F = G) ⇔ (F ⊂ G, et : dim(F) = dim(G)).
En particulier, si E est lui-même de dimension finie, pour tout sous-espace vectoriel F de E, on a :
(E = F) ⇔ (dim(F) = dim(E)).
Démonstration :
Si : F = G, il est immédiat que : F ⊂ G, et : dim(F) = dim(G).
Si réciproquement, F ⊂ G, et : dim(F) = dim(G), soit : B = (e1, …, ep), une base de F.
Alors : F = Vect(e1, …, ep).
Mais B est aussi une famille d’éléments de G, libre, et comportant : p = dim(G), éléments. Donc c’est
une base de G et : G = Vect(e1, …, ep) = F.
La deuxième équivalence vient du fait qu’on a toujours : F ⊂ E.
Théorème 4.2 : image et noyau d’un morphisme sont des sous-espaces vectoriels
Soient (E,+,.) et (F,+,.) des K-espaces vectoriels, et : u ∈ L(E,F).
Alors Im(u) est un sous-espace vectoriel de F et ker(u) un sous-espace vectoriel de E.
Démonstration :
• Im(u) est inclus dans F, il est non vide, car : 0 = u(0) ∈ Im(u).
Enfin : ∀ (y,y’) ∈ (Im(u))2, ∀ (λ,λ’) ∈ K2, ∃ (x,x’) ∈ E2, y = u(x), y’ = u(x’), et :
λ.y + λ’.y’ = λ.u(x) + λ’.u(x’) = u(λ.x + λ’.x’) ∈ Im(u).
• ker(u) est inclus dans E, il est non vide, car : u(0) = 0, et : 0 ∈ ker(u).
Enfin : ∀ (x,x’) ∈ (ker(u))2, ∀ (λ,λ’) ∈ K2, u(λ.x + λ’.x’) = λ.u(x) + λ’.u(x’) = 0, et : [λ.x + λ’.x’] ∈ ker(u).
Théorème 4.4 : caractérisation d’une application linéaire par son action sur une somme directe
Soient (E,+,.) et (F,+,.) des K-espaces vectoriels.
n
Soient E1, …, En, des sous-espaces vectoriels de E tels que : E = ⊕ E i , et (ui)1≤i≤n une famille telle que :
i =1
∀ 1 ≤ i ≤ n, ui ∈ L(Ei,F).
Alors il existe une unique application linéaire : u ∈ L(E,F), telle que : ∀ 1 ≤ i ≤ n, u i = u Ei .
Démonstration :
Supposons que u existe.
Alors, pour tout vecteur x se décomposant en : x = x1 + … xn, suivant la somme directe, on a :
u(x) = u(x1) + … u(xn) = u1(x1) + … + un(xn).
Réciproquement, montrons que u définie par la formule précédente convient.
• C’est bien une application de E dans E, puisque pour un x donné, la décomposition est unique et u(x)
aussi.
• Pour : x ∈ Ei, x = 0 + … + 0 + x + 0 + … + 0, sa décomposition suivant la somme directe, alors :
u(x) = u1(0) + … + ui-1(0) + ui(x) + ui+1(0) + … + un(0) = ui(0),
et la restriction de u à Ei est bien ui.
• u est linéaire, car :
∀ x = x1 + … + xn ∈ E, ∀ y = y1 + … + yn ∈ E, (avec leur décomposition), ∀ (λ,µ) ∈ K2,
(λ.x + µ.y) se décompose en : (λ.x1 + µ.y1) + … + (λ.xn + µ.yn), car cette décomposition convient et elle
est unique, et : u(λ.x + µ.y) = u1(λ.x1 + µ.y1) + … + un(λ.xn + µ.yn), par définition de u, d’où :
Théorème 4.5 : isomorphisme entre l’image d’un morphisme et un supplémentaire de son noyau
Soient (E,+,.) et (F,+,.) des K-espaces vectoriels et : u ∈ L(E,F).
Soit E’ un supplémentaire de ker(u) dans E.
Alors u permet de définir un isomorphisme de E’ sur Im(u).
Démonstration :
Soit u’ l’application définie par : ∀ x ∈ E’, u’(x) = u(x) ∈Im(u).
On a bien défini une application linéaire (c’est immédiat) de E’ dans Im(u).
• u’ est injective car :
∀ x ∈ E’, (x ∈ ker(u’)) ⇒ (u’(x) = u(x) = 0) ⇒ (x ∈ ker(u)). Donc : x ∈ (ker(u)∩E’), et : x = 0.
• u’ est surjective car :
∀ y ∈ Im(u), ∃ x ∈ E, u(x) = y. Or x peut se décomposer en : x = x’ + x0, avec : x’ ∈ E’, x0 ∈ ker(u).
Donc : y = u(x’) + u(x0) = u(x’) = u’(x’), et : y ∈ Im(u’).
Finalement : Im(u) ⊂ Im(u’), et l’autre inclusion étant immédiate, u’ est bien surjective.
Théorème 5.2 : caractérisation d’une application linéaire par les images des vecteurs d’une base
Soient (E,+,.) et (F,+,.) des K-espaces vectoriels, E de dimension finie n.
Soit : B = (e1, …, en), une base de E, et (a1, …, an) une famille de vecteurs de F.
Alors : ∃ ! u ∈ L(E,F), ∀ 1 ≤ i ≤ n, u(ei) = ai.
Autrement dit, une application linéaire de E dans F est entièrement définie par la donnée des images
des vecteurs d’une base de l’espace de départ E.
Démonstration :
Pour tout vecteur x de E, on peut l’écrire sous la forme : x = x1.e1 + … + xn.en.
Dans ce cas, si une application u répondant aux critères proposés existe, alors : u(x) = x1.a1 + … + an.xn.
Donc si u existe, ça ne peut être que l’application que l’on vient de décrire.
Réciproquement, soit u définie telle qu’au dessus.
Alors u est bien une application de E dans F, puisque la décomposition d’un vecteur x quelconque de E
étant unique, u(x) est défini de façon unique et appartient bien à F.
De plus, u est linéaire.
En effet : ∀ (x,y) ∈ E2, ∀ (λ,µ) ∈ K2, x = x1.e1 + … + xn.en, y = y1.e1 + … + yn.en, et :
λ.x + µ.y = (λ.x1 + µ.y1).e1 + … + (λ.xn + µ.yn).en, et par construction de u :
u(λ.x + µ.y) = (λ.x1 + µ.y1).a1 + … + (λ.xn + µ.yn).an = λ.u(x) + µ.u(y).
Enfin, u répond bien aux conditions :
∀ 1 ≤ i ≤ n, ei = 0.e1 + … + 0.ei-1 + 1.ei + 0.ei+1 + … + 0.en, et : u(ei) = 1.ai = ai.
Donc le u trouvé convient et il est bien unique.
base B les mêmes images : elles sont donc égales, soit : u = ∑ a i , j .u i , j .
1≤i≤ n ,1≤ j≤ p
On vient donc de montrer que : L(E,F) ⊂ Vect(U), et finalement : L(E,F) = Vect(U).
• Puisque L(E,F) admet une famille génératrice finie, c’est un K-espace vectoriel de dimension finie, et
sa dimension vaut le nombre de vecteurs dans la famille U, soit : dim(L(E,F)) = n.p = dim(E).dim(F).
6. Matrices (Sup).
et les propriétés attendues se démontrent sans problème. L’algèbre Mn(K) est associative, unitaire,
d’élément unité la matrice In, et non commutative pour : n ≥ 2.
7. Matrice des coordonnées d’un vecteur dans une base, matrice de changement de base (Sup).
Définition 7.1 : matrice des coordonnées d’un vecteur dans une base
Soit (E,+,.) un K-espace vectoriel de dimension finie n, muni d’une base : B = (e1, …, en).
n
Un vecteur x de E admet une unique décomposition selon la base B de E de la forme : x = ∑ x .e
i =1
i i .
x1
On définit la matrice colonne : X ∈ Mn,1(K), des coordonnées de x dans B, en posant : X = M .
x
n
Définition 8.1 : matrice représentative d’une application linéaire dans des bases
Soient (E,+,.) et (F,+,.) des K-espaces vectoriels de dimension finie p et n, munis de bases B et C.
Soit : u ∈ L(E,F).
n
Pour tout : 1 ≤ j ≤ p, et tout vecteur ej de B, on note : u(ej) = ∑a
i =1
i, j .f i .
Il est alors clair, en écrivant les matrices, que : mat(λ.u+µ.v,B,C) = λ.U + µ.V, ce que l’on voulait.
• Les espaces de départ et d’arrivée étant de même dimension égale à n.p, il suffit maintenant de
démontrer que l’application considérée est injective.
Or si la matrice représentative de u dans les bases B et C est nulle, c’est que tout vecteur de B a pour
image le vecteur nulle. Mais comme l’application nulle a cette propriété, et qu’il n’y a qu’une seule
application linéaire de E dans F à l’avoir, c’est que : u = 0.
Théorème 8.2 : traduction matricielle du lien entre un vecteur et son image par un morphisme
Soient (E,+,.) et (F,+,.) des K-espaces vectoriels de dimension finie p et n, munis de bases B et C.
Soit : u ∈ L(E,F), de matrice représentative A dans les bases B et C.
Pour un vecteur x de E, on note X la matrice colonne de ses coordonnées dans la base B, et Y la
matrice colonne des coordonnées de son image : y = u(x), dans la base C.
Alors : Y = A.X.
Démonstration :
Soit : B = (b1, …, bp), et : C = (c1, …, cn).
p n p p n n
n
Alors : ∀ x ∈ E, x = ∑ x j .b j , et : y = u(x) =
j=1
∑
i =1
y .c
i i = ∑
j=1
x j .u ( b j ) = ∑
j=1
x j ∑ i, j i
.
i =1
a .c = ∑ ∑ a i, j .x j .c i ,
i =1 i =1
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 17 -
ce qui correspond bien à : Y = A.X.
Théorème 8.4 : liens entre les matrices de passage pour trois bases de l’espace
Soit (E,+,.) un K-espace vectoriel de dimension finie n, muni de trois bases : B = (ei) 1≤i≤n, B’ = (e’i) 1≤i≤n,
et : B’’ = (e’’i)1≤i≤n.
Alors la matrice de passage P de B à B’ vérifie : PB,B’ = mat(idE,B’,B).
De plus : PB,B’’ = PB,B’.PB’.B’’.
Par ailleurs, les matrices P et P’ de passage de B à B’ et de B’ à B sont inverses l’une de l’autre.
Enfin, la relation : PB,B’’ = PB,B’.PB’.B’’, peut se retrouver en utilisant le lien existant entre les
coordonnées d’un même vecteur de E dans les trois bases B, B’ et B’’.
Démonstration :
n
Puisque : ∀ 1 ≤ j ≤ n, e’j = ∑p
i =1
i, j .e i = idE(e’j), il est immédiat que : PB,B’ = mat(idE,B’,B).
Théorème 8.5 : lien entre les matrices d’un même endomorphisme dans différentes bases
Soient (E,+,.) et (F,+,.) des K-espaces vectoriels de dimension finie p et n.
Soient B et B’ deux bases de E, C et C’ deux bases de F, P et Q les matrices de passages A de B à
B’ d’une part, et de C et C’ d’autre part.
Soit : u ∈ L(E,F), avec : A = mat(u,B,C), A’ = mat(u,B’,C’).
Alors : A’ = Q-1.A.P.
En particulier, si : E = F, B = C, B’ = C’, et : u ∈ L(E), on a : P = Q, et : A’ = P-1.A.P.
Démonstration :
Il suffit d’écrire : Q-1.A.P = mat(idE,C,C’).mat(u,B,C).mat(idE,B’,B) = mat(u,B’,C’) = A’.
Définition 9.5 : base d’un espace vectoriel adaptée à un sous-espace vectoriel, à une somme
directe de sous-espaces vectoriels
Soit (E,+,.) un K-espace vectoriel de dimension finie, F un sous-espace vectoriel de E.
On dit qu’une base B de E est adaptée à F, si elle est obtenue comme réunion d’une base de F et
d’une base d’un supplémentaire de F dans E.
On dit qu’une base de E est adaptée à une décomposition de E en somme directe, si elle obtenue
comme réunion de bases de chacun des sous-espaces vectoriels concernés par cette somme directe.
Théorème 13.3 et définition 13.3 : base duale d’une base en dimension finie
Soit (E,+,.) un K-espace vectoriel de dimension finie n et : B = (e1, … ,en), une base de E.
Alors la famille de formes linéaires : B* = (e1*, … , en*), définies par :
∀ 1 ≤ i ≤ n, ∀ 1 ≤ j ≤ n, ei*(ej) = δij, où δij est le symbole de Kronnecker, qui vaut 1 si : i = j, et 0 si : i ≠ j,
est une base de E* appelée base duale de la base B.
On appelle aussi ces formes linéaires les formes coordonnées associées à la base B.
En particulier, si : x ∈ E, x = x1.e1 + … + xn.en, alors : ∀ 1 ≤ k ≤ n, ek*(x) = xk.
Démonstration :
Les formes linéaires ainsi définies sont correctement définies, puisqu’elles le sont par l’image des
vecteurs d’une base de E.
Cette famille est libre, car :
∀ (λ1, …, λn) ∈ Kn, tel que : λ1.e1* + … λn.en* = 0, alors : ∀ 1 ≤ k ≤ n, [λ1.e1* + … λn.en*](ek) = 0 = λk.
Donc c’est une famille libre de n éléments de E* qui est de dimension n, et c’est bien une base de E*.
Théorème 13.4 et définition 13.4 : base préduale (ou anté-duale) d’une base de E*
Soit (E,+,.) un K-espace vectoriel de dimension n et : R = (ϕ1, …, ϕn), une base de E*.
Il existe une unique base C de E qui a pour duale la base C*.
Cette base C est appelée base préduale de C*.
Démonstration :
• Soit B et B’ des bases de E, et B* et B’* leurs bases duales respectives.
Soit maintenant P la matrice de passage dans E de B à B’ et Q la matrice de passage de B* à B’*.
Alors : Q = tP-1.
En effet, en notant : B= (e1, …, en), B’ = (e’1, …, e’n), on a :
n
n n n
∀ 1 ≤ i, j ≤ n, δi,j = e’i*(e’j) = ∑
k =1
q k ,i k ∑ u , j u
.e *
u =1
p .e = ∑ k ,i k , j ∑
i =1
q .p =
i =1
q ' i,k .p k , j , avec : q’i,k = qk,i.
Théorème 14.1 : propriétés élémentaires liant des vecteurs dans un espace affine
On a les propriétés suivantes :
∀ (A,B) ∈ (2)2 ou (3)2, B = A + AB ,
∀ (A,B,C) ∈ (2)3 ou (3)3, AB + BC = AC (relation de Chasles),
∀ (A,B) ∈ (2)2 ou (3)2, ( AB = 0) ⇔ (A = B),
∀ (A,B) ∈ (2)2 ou (3)2, BA = − AB .
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 26 -
Démonstration :
La démonstration est faite dans 2 mais est identique dans 3.
Puisqu’un vecteur de 2 se définit comme la différence des deux points (couples) de 2 qui permettent
de le construire, les quatre relations proposées sont immédiates.
De même, soit P un plan de 3 défini par un point A et une famille de deux vecteurs libres (ou trois
points non alignés), A de coordonnées (xA, yA, zA) dans R, et u, u’ de coordonnées (α, β, γ) et (α’, β’, γ’)
dans B.
x = x A + t.α + t '.α'
Alors : y = y A + t.β + t '.β' , est appelée représentation paramétrique du plan P dans le repère R.
z = z + t.γ + t '.γ '
A
Démonstration :
Une droite affine se définit avec un sous-espace vectoriel de dimension 1, donc de façon équivalente,
avec une base de cette droite vectorielle, donc un vecteur non nul de cette droite, ou encore enfin avec
deux points distincts.
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 27 -
Si alors on dispose d’un vecteur u non nul (de coordonnées (α,β,γ) dans B) et d’un point A (de
coordonnées (xA, yA, zB) dans R), alors :
(∀ M ∈ 3, (M ∈ D(A,u)) ⇔ (( AM , u) liés) ⇔ (∃ t ∈ , AM = t.u), la dernière équivalence étant
justifiée par le fait que u est non nul.
Si maintenant on traduit cette dernière égalité par des coordonnées dans R, on obtient le système
annoncé.
De même, un plan affine se définit avec un sous-espace vectoriel de dimension 2, ou de façon
équivalente avec une base de ce plan vectoriel, soit deux vecteurs libres ou trois points non alignés.
On termine en écrivant :
(∀ M ∈ 3), (M ∈ P(A,u,v)) ⇔ (( AM , u,u’) liés) ⇔ (∃ (t,t’) ∈ 2, AM = t.u + t’.u’), cette dernière
équivalence étant cette fois justifiée par le fait que (u,u’) forme une famille libre.
Théorème 14.4 : équation d’une droite dans un repère de 2 ou d’un plan dans un repère de 3
Soit D une droite affine de 2, et R un repère de 2.
Pour un point M de 2, on note (x,y) ses coordonnées dans le repère R.
Alors : ∃ (a,b,c) ∈ 3, avec : (a,b) ≠ (0,0), tel que : (M ∈ D) ⇔ (a.x + b.y = c).
L’expression « a.x + b.y = c » est alors une équation de la droite D dans le repère R.
De même, soit P un plan affine de 3, et R un repère de 3.
Pour un point M de 3, on note (x,y,z) ses coordonnées dans le repère R.
Alors : ∃ (a,b,c,d) ∈ 4, avec : (a,b,c) ≠ (0,0,0), tel que : (M ∈ P) ⇔ (a.x + b.y + c.z = d).
L’expression « a.x + b.y + c.z = d » est alors une équation du plan P dans le repère R.
Démonstration :
On utilise ici une autre façon d’exprimer le fait que deux vecteurs de 2 (ou trois vecteurs de 3) sont
liés, et plus précisément :
(∀ M ∈ 2, (M ∈ D(A,u)) ⇔ (( AM , u) liés) ⇔ (detB( AM , u) = 0).
Si on note comme précédemment (α,β) les coordonnées de u dans B et (xA, yA) les coordonnées de A
x − xA α
dans R, on obtient alors : detB( AM , u) = , et :
y − yA β
(detB( AM , u) = 0) ⇔ (β.x – α.y + (α.yA – β.xA) = 0), ce qui donne bien le résultat annoncé, puisque on
remarque de plus que : (u ≠ 0) ⇔ ((β,-α) ≠ (0,0)).
De même, en traduisant par un déterminant 3×3 le fait que trois vecteurs dans 3 sont liés, on obtient
une équation cartésienne d’un plan dans 3.
En particulier, si G est le barycentre de deux points distincts, G est sur la droite définie par ces deux
points, et si c’est le barycentre de trois points non alignés, il se trouve dans le plan défini par ces trois
points.
Démonstration :
La démonstration est donnée dans 2, mais elle est identique dans 3.
Il suffit d’écrire, en utilisant la relation de Chasles et avec un point Ω de 2 (par exemple l’origine d’un
repère de 2) :
n n
n n
∀ G ∈ , ( ∑ α i .GA i = 0 ) ⇔ ( ∑ α i .(GΩ + ΩA i ) = 0 ) ⇔ ( ∑ α i .ΩG = ∑ (α i .ΩA i ) ).
2
i =1 i =1 i =1 i =1
Et puisque la somme des coefficients est non nulle, on en déduit bien l’existence d’un unique point G de
n
1
2 défini par la relation : ΩG = n
.∑ (α i .ΩA i ) .
∑α
i =1
i
i =1
∑ α i ∑ αi ∑ αi
i =1 i =1 i =1
Ai dans le repère R.
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 29 -
Démonstration :
Il suffit de traduire la relation obtenue à la fin de la démonstration du théorème précédent et qui définit le
point G, pour constater que les coordonnées de G sont bien celles annoncées.
On utilise évidemment le fait que le point Ω est l’origine du repère R.
∑ α i ≠ 0 , et : ∃ 1 ≤ p ≤ n – 1,
i =1
∑ αi ≠ 0 ,
i =1
∑α
i = p +1
i ≠ 0.
Soit de plus G1 le barycentre des points (Ai)1≤i≤p affectés des coefficients (αi)1≤i≤p, et G2 le barycentre des
points (Ai)p+1≤i≤n, affectés des coefficients (αi)p+1≤i≤n.
Alors le barycentre des points (Ai)1≤i≤n, affectés des coefficients (αi)1≤i≤n est le même que celui de G1 et G2
p n
affectés respectivement des coefficients ∑ α i et
i =1
∑α
i = p +1
i .
Démonstration :
p n
Notons G le barycentre des n points, α = ∑ αi , β =
i =1
∑α
i = p +1
i .
n
G est défini par : ∑ α .GA
i =1
i i = 0.
Faisons alors intervenir le point G1 (comme le point Ω dans la démonstration du théorème 14.7) et à
n
l’aide de la relation de Chasles, on obtient : ∑ α .(GG
i =1
i 1 + G 1A i ) = 0 .
p
n n
Or : ∑ α i .G 1 A i = 0 , donc l’égalité précédente devient : ∑ α i .GG 1 + ∑ α i .G 1 A i = 0 .
i =1 i =1 i = p +1
Si maintenant, on introduit le point G2 dans la deuxième somme, on aboutit à :
n n n
∑ α i .GG 1 + ∑ α i .(G 1G 2 + G 2 A i ) = 0 = (α + β).GG 1 + ∑ α i .G 1G 2 = (α + β).GG 1 + β.G 1G 2 .
i =1 i = p +1 i = p +1
Et si enfin on transforme le dernier vecteur en introduisant le point G, on termine avec :
α.GG 1 + β.GG 2 = 0 ,
ce qui montre que bien que G est le barycentre de (G1,α) et de (G2,β).
Plan du chapitre
1 Déterminant d’une famille de n vecteurs dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 2
1.1 Formes p-linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 2
1.2 Formes p-linéaires alternées, formes p-linéaires anti-symétriques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 3
1.3 Formes n-linéaires alternées sur un espace de dimension n. Déterminant d’une famille de n vecteurs
dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 3
1.4 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .page 7
1.5 Critère d’indépendance d’une famille de n vecteurs en dimension n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 7
2 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 7
2.1 Définitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 7
2.2 Lien avec le déterminant d’une famille de vecteurs dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 9
2.3 Propriétés du déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 9
3 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .page 11
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 11
3.2 Propriétés du déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 11
4 Calculs de déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 11
4.1 Déterminant d’une matrice triangulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 12
4.2 Transformations élémentaires sur les lignes et les colonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 12
4.3 Déterminants par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 14
4.4 Développement suivant une ligne ou une colonne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 15
4.4.1 Mineurs, cofacteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 15
4.4.2 La formule de développement suivant une ligne ou une colonne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 16
6 Quelques applications des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .page 19
6.1 Inversibilité d’une matrice carrée, bijectivité d’un endomorphisme, indépendance d’une famille
de n vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 19
6.2 Inverse d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .page 20
6.3 Orientation d’un R-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 22
6.4 Calculs d’aires et de volumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 23
Un exemple fondamental d’expression p-linéaire est un produit de p réels. Le produit de deux réels c’est-à-dire l’application
R2 → R est une forme bilinéaire sur R. Le produit de trois réels c’est-à-dire l’application R3 → R
(x, y) 7→ x × y (x, y, z) 7→ x × y × z
est une forme trilinéaire sur R . . .
Analysons le cas p = 2. Soit f : E2 → K une forme bilinéaire sur un K-espace vectoriel E. La bilinéarité
(x, y) 7→ f((x, y))
de f se traduit explicitement par :
• ∀(x, x ′ , y) ∈ E3 , ∀(λ, λ ′ ) ∈ K2 , f((λx + λ ′ x ′ , y)) = λf((x, y)) + λ ′ f((x ′ , y))
et
• ∀(x, y, y ′ ) ∈ E3 , ∀(λ, λ ′ ) ∈ K2 , f((x, λy + λ ′ y ′ )) = λf((x, y)) + λ ′ f((x, y ′ )).
Par exemple, le produit scalaire usuel sur R2 R2 → R est une forme bilinéaire sur R2 .
((x1 , y1 ) , (x2 , y2 )) 7→ x1 y1 + x2 y2
Si f : E2 → K est une forme bilinéaire et que l’on fait agir les deux linéarités successivement, cela donne
(x, y) 7→ f((x, y))
f (x1 , . . . , xi , . . . , xj , . . . , xp ) = −f (x1 , . . . , xj , . . . , xi , . . . , xp ) .
On analyse maintenant l’effet d’une permutation quelconque des indices. On sait que toute permutation est un produit
de transpositions et donc ;
Théorème 1. Soit E un K-espace vectoriel. Soient p > 2 puis f une forme p-linéaire sur E. f est anti-symétrique si et
seulement si pour tout (x1 , . . . , xp ) ∈ Ep et pour toute permutation σ de J1, pK
f xσ(1) , . . . , xσ(p) = ε(σ)f (x1 , . . . , xp ) .
Démonstration . Soit σ ∈ Sp . On sait qu’il existe des transpositions τ1 , . . . , τk , k > 1, telles que σ = τ1 ◦ . . . ◦ τk . Pour
p
(x1 , . . . , xp ) ∈ E , on a alors
f xσ(1) , . . . , xσ(p) = f xτ1 ◦...◦τk (1) , . . . , xτ1 ◦...◦τk (p)
= (−1)k f (x1 , . . . , xp ) (par récurrence sur k)
= ε(σ)f (x1 , . . . , xp ) .
Définition 3. Soit E un K-espace vectoriel. Soient p > 2 puis f une forme p-linéaire sur E.
f est alternée si et seulement si pour tout (x1 , . . . , xp ) ∈ Ep , si il existe (i, j) ∈ J1, pK2 tel que i 6= j et xi = xj , alors
f (x1 , . . . , xp ) = 0.
Théorème 2. Soit E un K-espace vectoriel. Soient p > 2 puis f une forme p-linéaire sur E.
f est anti-symétrique si et seulement si f est alternée.
Démonstration .
• Supposons f alternée. Soient (x1 , . . . , xp ) ∈ Ep puis (i, j) ∈ J1, pK2 tel que i < j.
0 = f (x1 , . . . , xi + xj , . . . , xi + xj , . . . , xp )
= f (x1 , . . . , xi , . . . , xi , . . . , xp ) + f (x1 , . . . , xi , . . . , xj , . . . , xp ) + f (x1 , . . . , xj , . . . , xi , . . . , xp ) + f (x1 , . . . , xj , . . . , xj , . . . , xp )
= f (x1 , . . . , xi , . . . , xj , . . . , xp ) + f (x1 , . . . , xj , . . . , xi , . . . , xp ) .
1.3 Formes n-linéaires alternées sur un espace de dimension n. Déterminant d’une famille
de n vecteurs dans une base
On analyse maintenant le cas particulier des formes n-linéaires alternées sur une espace de dimension n. Si vous vous sentez
dépassés par les pages de calculs qui suivent, vous pouvez aller directement à l’intitulé du théorème 3 et à la définition 4,
(de sorte que la matrice de la famille (x1 , . . . , xn ) dans la base (e1 , . . . , en ) est A = (ai,j )16i,j6n . Il s’agit alors de calculer
n n n
!
X X X
f (x1 , . . . , xn ) = f ai,1 ei , ai,2 ei , . . . , ai,n ei ,
i=1 i=1 i=1
en tenant compte du fait que f est n-linéaire, alternée et donc aussi anti-symétrique.
Pour appréhender cette expression pénible, commençons par le cas n = 2 (cas des formes bilinéaires alternées sur un
espace de dimension 2).
f (x1 , x2 , x3 ) = f (a1,1 e1 + a2,1 e2 + a3,1 e3 , a1,2 e1 + a2,2 e2 + a3,2 e3 , a1,3 e1 + a2,3 e2 + a3,3 e3 )
= a1,1 a1,2 a1,3 f (e1 , e1 , e1 ) + a1,1 a1,2 a2,3 f (e1 , e1 , e2 ) + a1,1 a1,2 a3,3 f (e1 , e1 , e3 )
+ a1,1 a2,2 a1,3 f (e1 , e2 , e1 ) + a1,1 a2,2 a2,3 f (e1 , e2 , e2 ) + a1,1 a2,2 a3,3 f (e1 , e2 , e3 )
+ a1,1 a3,2 a1,3 f (e1 , e3 , e1 ) + a1,1 a3,2 a2,3 f (e1 , e3 , e2 ) + a1,1 a3,2 a3,3 f (e1 , e3 , e3 )
+ a2,1 a1,2 a1,3 f (e2 , e1 , e1 ) + a2,1 a1,2 a2,3 f (e2 , e1 , e2 ) + a2,1 a1,2 a3,3 f (e2 , e1 , e3 )
+ a2,1 a2,2 a1,3 f (e2 , e2 , e1 ) + a2,1 a2,2 a2,3 f (e2 , e2 , e2 ) + a2,1 a2,2 a3,3 f (e2 , e2 , e3 )
+ a2,1 a3,2 a1,3 f (e2 , e3 , e1 ) + a2,1 a3,2 a2,3 f (e2 , e3 , e2 ) + a2,1 a3,2 a3,3 f (e2 , e3 , e3 )
+ a3,1 a1,2 a1,3 f (e3 , e1 , e1 ) + a3,1 a1,2 a2,3 f (e3 , e1 , e2 ) + a3,1 a1,2 a3,3 f (e3 , e1 , e3 )
+ a3,1 a2,2 a1,3 f (e3 , e2 , e1 ) + a3,1 a2,2 a2,3 f (e3 , e2 , e2 ) + a3,1 a2,2 a3,3 f (e3 , e2 , e3 )
+ a3,1 a3,2 a1,3 f (e3 , e3 , e1 ) + a3,1 a3,2 a2,3 f (e3 , e3 , e2 ) + a3,1 a3,2 a3,3 f (e3 , e3 , e3 )
= a1,1 a2,2 a3,3 f (e1 , e2 , e3 ) + a1,1 a3,2 a2,3 f (e1 , e3 , e2 ) + a2,1 a1,2 a3,3 f (e2 , e1 , e3 )
+ a2,1 a3,2 a1,3 f (e2 , e3 , e1 ) + a3,1 a1,2 a2,3 f (e3 , e1 , e2 ) + a3,1 a2,2 a1,3 f (e3 , e2 , e1 )
= (a1,1 a2,2 a3,3 − a1,1 a3,2 a2,3 − a2,1 a1,2 a3,3 + a2,1 a3,2 a1,3 + a3,1 a1,2 a2,3 − a3,1 a2,2 a1,3 ) f (e1 , e2 , e3 ) .
n n n
!
X X X
Passons au cas général où n est quelconque. Quand on développe l’expression f ai,1 ei , ai,2 ei , . . . , ai,n ei par
i=1 i=1 i=1
. . × n} = nn termes. Chaque terme est du type
n-linéarité, on obtient une somme de |n × .{z
n facteurs
ai1 ,1 ai2 ,2 . . . ain ,n f (ei1 , . . . , ein ) ,
ou encore du type
aχ(1),1 aχ(2),2 . . . aχ(n),n f eχ(1) , . . . , eχ(n) ,
où χ est une application quelconque de J1, nK dans lui-même. On peut donc écrire
n n n
!
X X X X
f ai,1 ei , ai,2 ei , . . . , ai,n ei = aχ(1),1 aχ(2),2 . . . aχ(n),n f eχ(1) , . . . , eχ(n) .
i=1 i=1 i=1 χ∈J1,nKJ1,nK
n n n
!
X X X
f (x1 , . . . , xn ) = f ai,1 ei , ai,2 ei , . . . , ai,n ei
i=1 i=1 i=1
X
= aσ(1),1 aσ(2),2 . . . aσ(n),n f eσ(1) , . . . , eσ(n)
σ∈Sn
X
= aσ(1),1 aσ(2),2 . . . aσ(n),n ε(σ)f (e1 , . . . , en )
σ∈Sn
!
X
= ε(σ)aσ(1),1 aσ(2),2 . . . aσ(n),n f (e1 , . . . , en ) .
σ∈Sn
X
Pour (x1 , . . . , xn ) ∈ En , posons ∆ (x1 , . . . , xn ) = ε(σ)aσ(1),1 aσ(2),2 . . . aσ(n),n .
σ∈Sn
On vient de démontrer que si f est une forme n-linéaire alternée sur E, nécessairement
∃λ ∈ K/ f = λ∆.
Vérifions maintenant que ∆ est une forme n-linéaire alternée sur E.
• ∆ est une application de En dans K.
• Avec des notations évidentes,
X
∆ x1 , . . . , αxj + βxj′ , . . . , xn = ′
ε(σ)aσ(1),1 aσ(2),2 . . . αaσ(j),j + βaσ(j),j . . . aσ(n),n
σ∈Sn
X X
′
=α ε(σ)aσ(1),1 aσ(2),2 . . . aσ(j),j . . . aσ(n),n + β ε(σ)aσ(1),1 aσ(2),2 . . . aσ(j),j . . . aσ(n),n
σ∈Sn σ∈Sn
= α∆ (x1 , . . . , xj , . . . , xn ) + β∆ x1 , . . . , xj′ , . . . , xn .
∆ est donc effectivement linéaire par rapport à chacune de ses n variables ou encore ∆ est une forme n-linéaire sur E.
• Vérifions que ∆ est alternée. Soit (x1 , . . . , xn ) ∈ En tel qu’il existe (i, j) ∈ J1, nK2 tel que i < j et xi = xj . Soit τ = τi,j
la transposition qui échange les numéros i et j. On a vu dans le chapitre précédent (« Le groupe symétrique ») que les
permutations σ sont de deux types
- les permutations paires de signature 1, l’ensemble des permutations paires étant noté An ,
- les permutations impaires de signature −1, l’ensemble des permutations impaires étant obtenu en composant à droite
chaque permutation paire par la transposition fixée τ.
Ceci fournit
∆ (x1 , . . . , xi , . . . , xi , . . . , xn ) = ∆ (x1 , . . . , xi , . . . , xj , . . . , xn )
X
= ε(σ)aσ(1),1 . . . aσ(i),i . . . aσ(j),j . . . aσ(n),n
σ∈Sn
X
= aσ(1),1 . . . aσ(i),i . . . aσ(j),j . . . aσ(n),n
σ∈An
X
− aσ(1),1 . . . aσ(i),i . . . aσ(j),j . . . aσ(n),n
σ∈Sn \An
X
= aσ(1),1 . . . aσ(i),i . . . aσ(j),j . . . aσ(n),n
σ∈An
X
− aσ(τ(1)),1 . . . aσ(τ(i)),i . . . aσ(τ(j)),j . . . aσ(τ(n)),n
σ∈An
X
∆ (x1 , . . . , xi , . . . , xi , . . . , xn ) = aσ(1),1 . . . aσ(i),i . . . aσ(j),j . . . aσ(n),n
σ∈An
X
− aσ(1),1 . . . aσ(j),i . . . aσ(i),j . . . aσ(n),n
σ∈An
X
= aσ(1),1 . . . aσ(i),i . . . aσ(j),j . . . aσ(n),n
σ∈An
X
− aσ(1),1 . . . aσ(i),j . . . aσ(j),i . . . aσ(n),n
σ∈An
X
= aσ(1),1 . . . aσ(i),i . . . aσ(j),j . . . aσ(n),n
σ∈An
X
− aσ(1),1 . . . aσ(i),i . . . aσ(j),j . . . aσ(n),n (car xi = xj )
σ∈An
= 0.
Ceci montre que ∆ est une forme alternée. Il est alors immédiat que pour tout λ ∈ K, λ∆ est encore une forme n-linéaire
alternée.
En résumé, pour tout application f de En dans K, f est une forme n-linéaire alternée si et seulement si il existe λ ∈ K tel
que f = λ∆.
Montrons enfin que ∆ n’est pas nulle. Pour cela, calculons ∆ (e1 , . . . , en ). Dans ce cas, pour tout (i, j) ∈ J1, nK2 , on a
ai,j = δi,j (la i-ème coordonnée de ej dans la base (e1 , . . . , en ) est δi,j ) ou encore Mat(e1 ,...,en ) (e1 , . . . , en ) = In . Donc
X
∆ (e1 , . . . , en ) = ε(σ)δσ(1),1 δσ(2),2 . . . δσ(n),n .
σ∈Sn
Dans cette somme de n! termes, si σ est une permutation telle qu’il existe i ∈ J1, nK tel que σ(i) 6= i, alors le produit
δσ(1),1 δσ(2),2 . . . δσ(n),n est nul. Il ne reste que le terme où ∀i ∈ J1, nK, σ(i) = i ou encore il ne reste que le terme
correspondant à σ = IdJ1,nK . Donc,
∆ (e1 , . . . , en ) = ε IdJ1,nK δ1,1 δ2,2 . . . δn,n = 1.
Ceci montre que ∆ n’est pas nulle. Enfin, Si f est une forme n-linéaire alternée non nulle, il existe λ ∈ K tel que f = λ∆
puis
f (e1 , . . . , en ) = 1 ⇔ λ∆ (e1 , . . . , en ) = 1 ⇔ λ = 1 ⇔ f = ∆.
On peut énoncer le théorème fondamental puis définir la forme déterminant dans la base B :
Théorème 3. Soit E un K-espace vectoriel de dimension finie non nulle n ∈ N∗ . Soit B = (e1 , . . . , en ) une base fixée
de E.
• Il existe une et une seule forme n-linéaire alternée ∆ sur E vérifiant ∆ (e1 , . . . , en ) = 1.
De plus, pour tout (x1 , . . . , xn ) ∈ En , si MatB (x1 , . . . , xn ) = (ai,j )16i,j6n , alors
X
∆ (x1 , . . . , xn ) = ε(σ)aσ(1),1 aσ(2),2 . . . aσ(n),n .
σ∈Sn
• L’ensemble des formes n-linéaires alternées sur E est {λ∆, λ ∈ K} ou encore l’ensemble des formes n-linéaires alternées
sur E est un K-espace vectoriel de dimension 1, de base (∆).
• Pour toute f, forme n-linéaire alternée sur E, on a
f = f (e1 , . . . , en ) ∆.
det(e1 ,e2 ,e3 ) (x1 , x2 , x3 ) = a1,1 a2,2 a3,3 − a1,1 a3,2 a2,3 + a2,1 a3,2 a1,3 − a2,1 a1,2 a3,3 + a3,1 a1,2 a2,3 − a3,1 a2,2 a1,3 .
Théorème 4. Soit E un K-espace vectoriel de dimension finie non nulle n ∈ N∗ . Soient B et B ′ deux bases de E. Alors
➱ Commentaire . Il est important de noter que quand on change de base, le déterminant d’une famille de vecteurs peut changer.
detB (B ′ ) 6= 0.
Démonstration . D’après le théorème 4, detB ′ = detB ′ (B) detB . En évaluant les deux membres de cette égalité en B ′ , on
obtient detB ′ (B) detB (B ′ ) = detB ′ (B ′ ) = 1.
❏
Les trois autres termes, précédés d’un signe −, sont les termes « parallèles à l’autre diagonale » :
a1,1 a1,2 a1,3
a2,1 a2,2 a2,3
a3,1 a3,2 a3,3
Ce « parallélisme » peut être présenté d’une autre façon. On écrit les coefficients du déterminant précédent et on complète
le tableau obtenu par deux lignes supplémentaires où on a recopié les deux premières lignes :
+ −
2.2 Lien avec le déterminant d’une famille de vecteurs dans une base
Le théorème suivant est immédiat :
Théorème 7. Soient E un K-espace vectoriel de dimension finie non nulle n puis B une base de E.
Soient (x1 , . . . , xn ) ∈ En puis A = MatB (x1 , . . . , xn ). Alors,
det(A) 6= 0 ⇔ det(E1 ,...,En ) (C1 , . . . , Cn ) 6= 0 ⇔ (C1 , . . . , Cn ) base de Mn,1 (K) ⇔ A ∈ GLn (K).
❏
t X ′ ′
X
det A = ε(σ)aσ(1),1 . . . aσ(n),n = ε(σ)a1,σ(1) . . . an,σ(n) .
σ∈Sn σ∈Sn
t X −1
det A = ε σ aσ−1 (1),1 . . . aσ−1 (n),n .
σ∈Sn
σ ′ ∈Sn
• Soit (A, B) ∈ (Mn (K))2 . Si A ou B n’est pas inversible, Min{rg(A), rg(B)} < n puis rg(AB) 6 Min{rg(A), rg(B)} < n et donc AB
n’est pas inversible. Dans ce cas,
det(AB) = 0 = det(A)det(B).
′
Supposons maintenant A et B inversibles. Soient B la base canonique de Kn puis B ′ la base de Kn telle que A = PB
B puis B
′′
la
n B ′′ B ′′
base de K telle que B = PB ′ . Alors AB = PB puis, d’après le théorème 4,
′′ ′ ′′
det(AB) = det PB = detB B ′′ = detB B ′ detB ′ B ′′ = det PB det PB
B B B′ = det(A)det(B).
• Soit A ∈ Mn (K). Par récurrence, ∀p ∈ N, det (Ap ) = (det(A))p . Si de plus A est inversible, pour p entier naturel strictement
négatif,
−1 −1 −1
det (Ap ) = det A−p = det A−p = (detA)−p = (detA)p .
❏
On en déduit en particulier :
Théorème 11. Deux matrices semblables ont même déterminant.
Démonstration . Soit (A, B) ∈ (Mn (K))2 . On suppose qu’il existe P ∈ GLn (K) telle que B = P−1 AP. Alors
1
det(B) = det P−1 AP = det P−1 det(A)det(P) = det(A)det(P) = det(A).
det (P)
❏
Pour les deux dernières opérations, + et ., les calculs se passent moins bien. Déjà, en général, det(λA) 6= λdet(A) (alors
que Tr(λA) = λTr(A)). Par exemple, det (2I2 ) = 4 6= 2 = 2det (I2 ). Mais :
Soient E un K-espace vectoriel de dimension finie non nulle puis f ∈ L(E). Soient B et B ′ deux bases de E. Soient A
la matrice de f dans B et B la matrice de f dans B ′ . On sait que les matrices A et B sont semblables (B = P−1 AP où
′
P = PBB ) et donc A et B ont le même déterminant d’après le théorème 11. Ceci motive la définition suivante :
Définition 6. Soit E un K-espace vectoriel de dimension finie non nulle. Soit f ∈ L(E).
Le déterminant de f est le déterminant de sa matrice dans une base donnée B de E ou encore le nombre detB (f(B))
où B est une base donnée de E. Ce nombre ne dépend pas du choix de la base B.
4 Calculs de déterminants
Dans ce paragraphe, on apprend les différentes techniques de calcul d’un déterminant (qui se rajoutent à la possibi-
X
lité d’utiliser l’expression développée de det(A) : det(A) = ε(σ)aσ(1),1 . . . aσ(n),n ). On commence par un type de
σ∈Sn
déterminants de référence, les déterminants triangulaires.
Démonstration . Soit A = (ai,j )16i,j6n ∈ Mn (K). Supposons A triangulaire supérieure. Alors, pour tout (i, j) ∈ J1, nK2 , si
i > j, on a ai,j = 0.
X
det(A) = ε(σ)aσ(1),1 . . . aσ(n),n (∗).
σ∈Sn
Soit σ ∈ Sn . S’il existe i ∈ J1, nK tel que σ(i) > i, alors aσ(i),i = 0 puis ε(σ)aσ(1),1 . . . aσ(n),n = 0. Dans la somme ci-dessus, ne
persistent donc que les termes pour les quels σ vérifie : ∀i ∈ J1, nK, σ(i) 6 i.
Soit donc σ un élément de Sn tel que ∀k ∈ J1, nK, σ(k) 6 k. Montrons alors par récurrence finie que ∀k ∈ J1, nK, σ(k) = k.
• σ(1) 6 1 et σ(1) > 1. Donc, σ(1) = 1.
• Soit k ∈ J1, n − 1K (si n = 1, il n’y a plus rien à faire). Supposons que ∀i ∈ J1, kK, σ(i) = i. Alors, σ(k + 1) ∈ J1, k + 1K mais,
σ devant être injective, σ(k + 1) ∈ / J1, kK. Donc, σ(k + 1) = k + 1.
Le résultat est démontré par récurrence.
Ainsi, dans la somme (∗), seul un terme persiste, le terme correspondant à σ = IdJ1,nK et donc
n
Y
det(A) = ε IdJ1,nK aIdJ1,nK (1),1 . . . aIdJ1,nK (n),n = ai,i .
i=1
t
A où t A est triangulaire supérieure.
Si A est triangulaire inférieure, on applique l’égalité det(A) = det
❏
En particulier,
Théorème 17. Une matrice triangulaire est inversible si et seulement si ses coefficients diagonaux sont tous non nuls.
Solution 1. On applique les transformations : ∀j ∈ J2, nK, Cj ← Cj − C1 . Ces transformations ne modifient pas la valeur
de ∆n et on obtient :
1 0 . . . . . . 0
1 1 . . . 1 .. ..
. .. 1 −1
. .
1 0 . . . . . . .
.. = (−1)n−1 .
∆n = . = .. 0 .. ..
.. . . . . . . 1 .
.. .
1 . . . 1 0 .. . . . 0
1 0 . . . 0 −1
➱ Commentaire . Dans l’exercice, on a effectué en même temps plusieurs transformations élémentaires sur les colonnes.
On a doit avoir conscience qu’après chaque transformation effectuée une ancienne colonne a disparu et une nouvelle colonne est
apparue. L’ordre dans lequel on effectue ces transformations peut donc avoir de l’importance. Ce n’était pas le cas dans l’exercice
1 car la colonne C1 n’était jamais modifiée. Effectuer la transformation C2 ← C2 − C1 puis C3 ← C3 − C1 aboutit au même résultat
que si on effectue la transformation C3 ← C3 − C1 puis C2 ← C2 − C1 . Le problème se posera par contre dans l’exercice suivant.
➱ Commentaire . Dans l’exercice 2, l’ordre dans lequel on effectue les transformations est essentiel. Si on effectue les transfor-
mations C1 ← C1 − C2 puis C2 ← C2 − C3 , on aboutit au déterminant
1 1 n−2 ... 2 1
0 1 n−2 2 1
.. ..
0 0 n−2 . .
.
.. .. .. .. ..
. . . . .
0 0 2 ... 2 1
0 0 1 ... 1 1
Mais si on effectue les transformations C2 ← C2 − C3 puis C1 ← C1 − C2 , la colonne C2 dont il est question dans la deuxième
transformation n’est plus la colonne 2 initiale. On aboutit au déterminant
les colonnes sont X1 , . . . , Xj , . . . , Xp (resp. X1 , . . . , Xj′ , . . . , Xp et X1 , . . . , λXj + µXj′ , . . . , Xp ). La j-ème colonne de la matrice
B ′′
C
est
0n−p,p D
λXj + µXj′ Xj′
Xj
=λ +µ .
0n−p,1 0n−p,1 0n−p,1
Par linéarité du déterminant par rapport à la j-ème colonne, on a donc
Ceci montre que ϕ est une forme p-linéaire sur Mp,1 (K).
➱ Commentaire . Le résultat précédent se généralise à toute matrice triangulaire par blocs : le déterminant d’une telle matrice
est le produit des déterminants des blocs diagonaux.
+ − + . . . (−1)n (−1)n+1
− + − + (−1)n
.. .. ..
+ − + . . .
.. .. .. .. .. .
. . . . . +
. .
(−1)n
.. .. + −
(−1)n+1 (−1)n . . . + − +
Démonstration . Commençons par développer suivant la première colonne C1 . Cette première colonne s’écrit
1 0 0
a1,1
0 .. .
..
..
..
.
.
.
0
.
C1 =
ai,1
= a1,1 + a 1 + an,1 . = a1,1 E1 + . . . + ai,1 Ei + . . . + an,1 En
i,1
.
. .
0
.. ..
..
an,1 . 0
0 0 1
où (E1 , . . . , En ) est la base canonique de Mn,1 (K). Par linéarité par rapport à la première colonne, on a
n
X
det(A) = ai,1 ∆i
i=1
0 a1,2 ... ... a1,n
. .. ..
.
. . .
0 ai−1,2 . . . . . . ai−1,n
où ∆i = 1 ai,2 ... ... ai,n .
0 ai+1,2 . . . . . . ai+1,n
.. .. ..
. . .
0 an,2 ... . . . an,n
On applique aux lignes du déterminant ∆i le cycle (2 3 . . . i 1 i + 1 . . . n) de longueur i et donc de signature (−1)i−1 . On obtient
Passons au cas général. Soit j ∈ J1, nK. On applique aux colonnes de det(A) le cycle (2 3 . . . j 1 j + 1 . . . n) de longueur j et donc
de signature (−1)j−1 et on obtient
z 0 ... 0 a0
.. ..
−1 z . . a1
.. .. ..
Dn (z) = . . .
0 0 .
.. .. ..
. .
. z an−2
0 ... 0 −1 z + an−1
k n−1−k
Finalement,
n−2
X n−2
X
Dn (z) = zn + an−1 zn−1 + ak (−1)n+k+1 (−1)n−1−k zk = zn + an−1 zn−1 + ak zk
k=0 k=0
n−1
X
= zn + ak zk .
k=0
Calculer Van (x0 , . . . , xn−1 ) (on exprimera d’abord Vn+1 = Van (x0 , . . . , xn ) en fonction de Vn = Van (x0 , . . . , xn−1 )
Xn
à l’aide d’une transformation du type Ln+1 ← Ln+1 + λi−1 Li où les λi seront intelligemment choisis).
i=1
Solution 4. Soit (x0 , . . . , xn ) ∈ Cn+1 . Soient λ0 , . . . , λn−1 n nombres complexes. On effectue dans Van (x0 , . . . , xn ) la
Xn
transformation Ln+1 ← Ln+1 + λi−1 Li , ce qui ne modifie pas la valeur du déterminant. On obtient
i=1
n−1
!
Y
Van (x0 , . . . , xn ) = Van (x0 , . . . , xn−1 ) (xn − xi )
i=0
Y n−1
Y
= (xj − xi ) × (xn − xi ) (par hypothèse de récurrence)
06i<j6n−1 i=0
Y
= (xj − xi ) .
06i<j6n
Y
On a montré par récurrence que : ∀n > 2, ∀ (x0 , . . . , xn−1 ) ∈ Cn , Van (x0 , . . . , xn−1 ) = (xj − xi ).
16i<j6n
1 1 1
Ainsi, par exemple, si j = e2iπ/3 , 1 j2 = (j − 1) j2 − 1 j2 − j .
j
1 j2 j
➱ Commentaire . Il est important de noter que Van (x0 , . . . , xn−1 ) 6= 0 si et seulement si les nombres xi sont deux à deux
distincts.
Démonstration .
n
X
• Soit i ∈ J1, nK. Le coefficient ligne i, colonne i, de A × t (com(A)) est ai,j Ai,j (Ai,k étant le coefficient ligne k, colonne i, de
j=1
t
(com(A))). On reconnaît le développement de det(A) suivant sa i-ème ligne et donc le coefficient ligne i, colonne i, de A× t (com(A))
est det(A).
n
X
• Soit (i, j) ∈ J1, nK2 tel que i 6= j. Le coefficient ligne i, colonne j, de A × t (com(A)) est ai,k Aj,k . On reconnaît le développement
k=1
suivant la j-ème ligne du déterminant suivant :
Les i-ème et j-ème lignes (avec i 6= j) de ce déterminant sont égales et donc ce déterminant est nul. Ainsi,
En particulier,
Théorème 21. Soit A ∈ Mn (K). A ∈ GLn (K) ⇔ det(A) 6= 0. De plus, en cas d’inversibilité
1 t
A−1 = (com(A)).
det(A)
1 t 1 t
Si det(A) 6= 0, alors A × (com(A)) = In . Par suite, A ∈ GLn (K) et A−1 = (com(A)).
det(A) det(A)
❏
3 −1 2
Exemple. Considérons par exemple la matrice A = 1 1 2 . En développant suivant la dernière ligne, on obtient
0 2 0
det(A) = −2(3 × 2 − 1 × 2) = −8 6= 0.
Donc, A est inversible et
1 2 −1 2 −1 2
2 −
0 2 0 1 2
−4 4 −4
1 1
1 2 3 2 3 2
A−1 =− =− 0 0 −4 ,
8 − −
8
0 0 0 0 1 2 2 −6 4
1 1 3 −1 3 −1
0 −
2 0 2 1 1
ou encore
1/2 −1/2 1/2
A−1 = 0 0 1/2 .
−1/4 3/4 −1/2
Maintenant, la formule du théorème 21 n’est pas la « formule ultime » pour obtenir l’inverse d’une matrice inversible. On
l’utilise très peu et pour les matrices de format (3, 3) par exemple, on préfère très souvent inverser une telle matrice en
′ −1
l’interprétant comme une matrice de passage ( PB B = PBB ′ ).
❏
Du théorème 21, on déduit immédiatement le cas particulier de l’inverse d’une matrice carrée de format 2 inversible.
a c
Théorème 22. Soit A = ∈ M2 (K). A ∈ GL2 (K) ⇔ ad − bc 6= 0. De plus, en cas d’inversibilité
b d
1 d −c
A−1 = .
ad − bc −b a
det = 1
det > 0
det = 0
det < 0
det = −1
B R B ′ ⇔ detB (B ′ ) > 0.
R est une relation d’équivalence. De plus, il existe exactement deux classes d’équivalence pour la relation R.
Démonstration .
Exemple. On suppose que R3 est orienté et que (e1 , e2 , e3 ) est une base directe de R3 . On veut savoir si (−e2 , −e3 , −e1 )
est une base directe ou indirecte de R3 . Par linéarité par rapport à chaque vecteur,
det(e1 ,e2 ,e3 ) (−e2 , −e3 , −e1 ) = (−1)3 det(e1 ,e2 ,e3 ) (e2 , e3 , e1 ) .
1 2 3
Ensuite, est un cycle de longueur 3 et donc de signature (−1)2 . Donc,
2 3 1
det(e1 ,e2 ,e3 ) (−e2 , −e3 , −e1 ) = (−1)3 (−1)2 det(e1 ,e2 ,e3 ) (e1 , e2 , e3 ) = −1 < 0.
(−e2 , −e3 , −e1 ) est une base indirecte de R3 . ❏
D C
b b
θ
b b
−
→ A H B
v
O −
→
u
[ .
L’aire du parallélogramme ABCD est AB × HD = AB × AD × sin θ = AB × AD × sin BAD
−→ −−→
L’aire algébrique du parallélogramme ABCD (aire affectée d’un signe tenant compte du fait que l’on aille de AB à AD
dans le sens direct ou indirect) est
−→ −−→
AB × AD × sin AB, AD .
Soient alors M et M ′ deux points du plan, tous deux distincts de O, d’affixes respectives z = x + iy et z ′ = x ′ + iy ′ .
−−→ −−−→ −−→ −−−→
z × z ′ = (x − iy)(x ′ + iy ′ ) = (xx ′ + yy ′ ) + i(xy ′ − yx ′ ) = OM.OM ′ + i det(→
− v ) OM, OM
−
u ,→
′
.
−−→ −−−→
Mais d’autre part, en posant θ = − →u , OM et θ ′ = − →
u , OM ′ ,
′ ′
−−→ −−−→ −−→ −−−→
z × z ′ = |z|e−iθ |z ′ |eiθ = OM OM ′ ei(θ −θ)
= OM OM ′ cos OM, OM ′ + i OM OM ′ sin OM, OM ′ .
Donc,
−−→ −−−→′ −−→ −−−→ −−→ −−−→ −−→ −−−→
OM.OM = OM OM ′ cos OM, OM ′ et det(→
− v ) OM, OM
−
u ,→
′
= OM OM ′ sin OM, OM ′ .
En résumé,
−→ −−→
A = det(→ v ) AB, AD
− −
u ,→
b b
−
→ A B
v
O −
→
u
Puisque l’aire d’un triangle est la moitié de l’aire d’un parallélogramme, on a aussi
Cb b
1 −→ −−→
A= v ) AB, AD
− −
det(→
u ,→
2
b b
−
→ A B
v
O −
→
u
On montre de même que le volume algébrique d’un parallélépipède ABCDEFGH, dans l’espace de dimension 3 muni d’un
repère orthonormé direct O, −
u,−
→ v ,−
→ →
w est
−→ −−→ −→
V = det(→
u , v , w) AB, AD, AE ,
− −
→ −
→