Vous êtes sur la page 1sur 54

Espaces vectoriels (et affines). Chap. 04 : cours complet.

1. Espaces vectoriels réels ou complexes (Sup).


Définition 1.1 : K-espace vectoriel
Définition 1.2 : K-algèbre
Théorème 1.1 : exemples
Définition 1.3 : combinaison linéaire de vecteurs
Définition 1.4 : sous-espace vectoriel d’un espace vectoriel
Théorème 1.2 : caractérisation d’un sous-espace vectoriel
Théorème 1.3 et définition 1.5 : espace vectoriel produit

2. Combinaisons linéaires et familles (Sup).


Définition 2.1 : famille libre de vecteurs
Définition 2.2 : famille liée de vecteurs
Théorème 2.1 : caractérisation des familles liées
Théorème 2.2 : cas où l’un des vecteurs de la famille est nul
Définition 2.3 : rang d’une famille de vecteurs
Définition 2.4 : sous-espace vectoriel engendré par une famille de vecteurs
Théorème 2.3 : caractérisation d’un sous-espace vectoriel engendré
Définition 2.5 : base d’un K-espace vectoriel

3. Espaces vectoriels de dimension finie (Sup).


Définition 3.1 : espace vectoriel de dimension finie
Théorème 3.1 : de l’échange
Théorème 3.2 : existence de bases dans un espace vectoriel de dimension finie
Définition 3.2 : dimension d’un K-espace vectoriel
Théorème 3.3 : cardinal des familles libres ou génératrices dans un espace vectoriel de dimension finie
Théorème 3.4 : de la base incomplète
Théorème 3.5 : dimension d’un sous-espace vectoriel dans un espace vectoriel de dimension finie
Théorème 3.6 : caractérisation du rang d’une famille de vecteurs
Théorème 3.7 : égalité de sous-espaces vectoriels dans un espace vectoriel de dimension finie

4. Applications linéaires (Sup).


Définition 4.1 : application linéaire entre K-espaces vectoriels, L(E,F)
Théorème 4.1 : structure de K-espace vectoriel de L(E,F)
Définition 4.2 : le groupe linéaire d’un espace vectoriel
Définition 4.3 : morphisme, endomorphisme, isomorphisme, automorphisme
Définition 4.4 : image et noyau d’une application linéaire
Théorème 4.2 : image et noyau d’un morphisme sont des sous-espaces vectoriels
Théorème 4.3 : caractérisation de l’injectivité et de la surjectivité
Théorème 4.4 : caractérisation d’une application linéaire par son action sur une somme directe
Théorème 4.5 : isomorphisme entre l’image d’un morphisme et un supplémentaire de son noyau

5. Applications linéaires en dimension finie (Sup).


Théorème 5.1 : famille génératrice de l’image d’un morphisme en dimension finie
Théorème 5.2 : caractérisation d’une application linéaire par les images des vecteurs d’une base
Définition 5.1 : rang d’une application linéaire en dimension finie
Théorème 5.3 : du rang
Théorème 5.4 : caractérisation des isomorphismes entre espaces de dimension finie
Théorème 5.5 : conservation du rang par isomorphisme
Théorème 5.6 : dimension de L(E,F)

6. Matrices (Sup).
Définition 6.1 et théorème 6.1 : les espaces vectoriels de matrices
Définition 6.2 : produit de matrices
Théorème 6.2 : structure de groupe et d’algèbre pour Mn(K)
Définition 6.3 : matrice transposée d’une matrice
Définition 6.4 : matrice symétrique, antisymétrique
Théorème 6.3 : dimension et supplémentarité de Sn(K) et An(K)
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. -1-
Définition 6.5 : matrice définie par blocs
Définition 6.6 : matrices triangulaires ou diagonales par blocs
Théorème 6.4 : somme et produit de matrices par blocs

7. Matrice des coordonnées d’un vecteur dans une base, matrice de changement de base (Sup).
Définition 7.1 : matrice des coordonnées d’un vecteur dans une base
Définition 7.2 : matrice de changement de base (matrice de passage)
Théorème 7.1 : lien entre les coordonnées d’un même vecteur dans différentes bases

8. Matrice représentative d’une application linéaire dans des bases (Sup).


Définition 8.1 : matrice représentative d’une application linéaire dans des bases
Théorème 8.1 : isomorphisme entre Mn,p(K) et L(E,F)
Théorème 8.2 : traduction matricielle du lien entre un vecteur et son image par un morphisme
Définition 8.2 : application linéaire ou endomorphisme canoniquement associé à une matrice
Théorème 8.3 : matrice d’une composée
Théorème 8.4 : liens entre les matrices de passage pour trois bases de l’espace
Théorème 8.5 : lien entre les matrices d’un même endomorphisme dans différentes bases

9. Somme de sous-espaces vectoriels, sommes directes, sous-espaces vectoriels supplémentaires.


Théorème 9.1 et définition 9.1 : somme de sous-espaces vectoriels
Théorème 9.2 : autre définition d’une somme de sous-espaces vectoriels
Définition 9.2 : somme directe de deux ou de plusieurs sous-espaces vectoriels
Définition 9.3 : sous-espaces supplémentaires
Théorème 9.3 : existence d’un supplémentaire en dimension finie
Théorème 9.4 : des quatre dimensions ou formule de Grassmann
Définition 9.4 : décomposition en somme directe
Théorème 9.5 : propriété récursive des sommes directes
Théorème 9.6 : définition équivalente d’une décomposition en somme directe
Théorème 9.7 : caractérisation d’une décomposition en somme directe
Définition 9.5 : base d’un espace vectoriel adaptée à un sous-espace vectoriel, à une somme directe
de sous-espaces vectoriels

10. Projecteurs.
Définition 10.1 : projecteurs associés à deux sous-espaces vectoriels supplémentaires
Théorème 10.1 : propriétés pour des projecteurs associés
Théorème 10.2 : caractérisation des sous-espaces vectoriels définissant un projecteur
Définition 10.2 : famille de projecteurs associée à une décomposition en somme directe
Théorème 10.3 : généralisation du théorème 10.1

11. Polynômes d’interpolation de Lagrange.


Définition 11.1 : polynômes de Lagrange
Théorème 11.1 : existence et unicité des bases de Lagrange

12. Trace d’une matrice carrée, d’un endomorphisme.


Définition 12.1 et théorème 12.1 : trace d’une matrice carrée
Théorème 12.2 : propriétés basiques de la trace des matrices
Théorème 12.3 et définition 12.2 : trace d’un endomorphisme
Théorème 12.4 : trace d’un projecteur

13. Dual d’un espace vectoriel.


Définition 13.1 : dual d’un espace
Théorème 13.1 : dimension du dual pour un espace de dimension finie
Définition 13.2 : hyperplan (en dimension finie)
Théorème 13.2 : noyau des formes linéaires non nulles
Théorème 13.3 et définition 13.3 : base duale d’une base en dimension finie
Théorème 13.4 et définition 13.4 : base préduale (ou anté-duale) d’une base de E*
Théorème 13.5 : équations d’un hyperplan

14. Structure affine canonique de 2 et 3.


Définition 14.1 (hors programme) : espace affine
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. -2-
Définition 14.2 : structure affine de 2 et 3
Théorème 14.1 : propriétés élémentaires liant des vecteurs dans un espace affine
Définition 14.2 : repère affine ou cartésien
Définition 14.3 : coordonnées d’un point dans un repère
Définition 14.4 : sous-espace affine
Théorème 14.2 : sous-espaces affines de 2 et 3
Définition 14.5 : sous-espaces affines parallèles
Théorème 14.3 : représentation paramétrique de droites et de plans dans un repère de 2 ou de 3
Théorème 14.4 : équation d’une droite dans un repère de 2 ou d’un plan dans un repère de 3
Définition 14.6 : application affine
Théorème 14.5 : expression d’une application affine dans un repère de 2 ou de 3
Théorème 14.6 : exemples d’applications affines
Théorème 14.7 et définition 14.7 : barycentre de n points pondérés
Théorème 14.8 : coordonnées du barycentre de n points dans un repère
Théorème 14.9 : associativité du barycentre

Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. -3-


Espaces vectoriels (et affines). Chap. 04 : cours complet.

1. Espaces vectoriels réels ou complexes (Sup).

Définition 1.1 : K-espace vectoriel


Soit E un ensemble, K un corps (égal en général à  ou ).
On dit que (E,+,.) est un K-espace vectoriel ou espace vectoriel sur K si et seulement si :
• + est une loi de composition interne sur E : ∀ (x,y) ∈ E2, x+y existe et : x+y ∈ E,
• + est associative : ∀ (x,y,z) ∈ E3, (x + y) + z = x + (y + z),
• + possède un élément neutre dans E, en général noté 0 : ∀ x ∈ E, x + 0 = 0 + x = x,
• tout élément de E admet un symétrique pour la loi + appelé opposé de x :
∀ x ∈ E, ∃ x’ ∈ E, (x’ = -x), tel que : x + x’ = x’ + x = 0,
ce qui fait alors de (E,+) un groupe,
• + est commutative : ∀ (x,y) ∈ E2, x + y = y + x,
ce qui rend le groupe (E,+) commutatif ou abélien,
la loi . ayant de plus les propriétés suivantes :
• c’est une loi de composition externe sur E : ∀ x ∈ E, ∀ λ ∈ K, λ.x existe et : λ.x ∈ E,
• ∀ (x,y) ∈ E2, ∀ λ ∈ K, λ.(x + y) = λ.x + λ.y,
• ∀ x ∈ E, ∀ (λ,µ) ∈ K2, (λ + µ).x = λ.x + µ.x,
• ∀ x ∈ E, ∀ (λ,µ) ∈ K2, (λ.µ).x = λ.(µ.x),
• ∀ x ∈ E, 1.x = x.
Les éléments de E sont appelés « vecteurs » et ceux de K « scalaires ».

Définition 1.2 : K-algèbre


Un ensemble (E,+,∗,.) est une K-algèbre si et seulement si :
• (E,+,.) est un K-espace vectoriel,
• ∗ est distributive par rapport à +,
• ∀ (x,y) ∈ E, ∀ λ ∈ K, λ.(x∗y) = x∗(λ.y) = (λ.x)∗y.
Si la loi ∗ est associative, commutative ou unitaire, on dit de même que l’algèbre est associative,
commutative, unitaire.

Théorème 1.1 : exemples


Les ensembles suivants sont des - ou -espaces vectoriels (suivant les cas), dits espaces vectoriels
de référence.
• les ensembles de n-uplets de réels ou de complexes : n et n,
• les ensembles de fonctions définies sur I (éventuellement ), à valeurs dans ,  ou un K-espace
vectoriel (E,+,.) : F(I,), F(I,) et F(I,E),
• les ensembles de polynômes à coefficients réels ou complexes : [X], [X], n[X] et n[X],
• les ensembles de suites réelles ou complexes :  et ,
• les ensembles de matrices carrées ou rectangles à coefficients réels ou complexes : Mn(), Mn(),
Mn,p(), Mn,p().
Les ensembles suivants sont des K-algèbres :
• F(I,), F(I,),
• [X], [X],
• Mn(), Mn().
Démonstration :
Une fois définies les lois dans ces ensembles, la démonstration du fait que ce sont bien des K-espaces
vectoriels ou des K-algèbres est immédiate.
On précise donc les lois :
• dans n et n : ∀ (x1, …, xn) ∈ Kn, ∀ (y1, …, yn) ∈ Kn, ∀ λ ∈ K,
(x1, …, xn) + (y1, …, yn) = (x1 + y1, …, xn + yn),
λ.(x1, …, xn) = (λ.x1, …, λ.xn).
• dans F(I,), F(I,) et F(I,E) : ∀ (f,g) ∈ F(I, ou  ou E), ∀ λ ∈ K,
(f + g) est la fonction de I dans ,  ou E, telle que : ∀ x ∈ I, (f + g)(x) = f(x) + g(x),
λ.f est la fonction de I dans ,  ou E, telle que : ∀ x ∈ I, (λ.f)(x) = λ.f(x),

Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. -4-


et pour F(I,K), (f×g) est la fonction de I dans K, telle que : ∀ x ∈ I, (f×g)(x) = f(x).g(x),
l’élément unité pour la loi × étant alors la fonction 1 telle que : ∀ x ∈ I, 1(x) = 1.
C’est alors une K-algèbre commutative (la loi × est commutative).
• dans K[X] ou Kn[X] : ∀ P = ap.Xp + … + a0, Q = bq.Xq + … + b0, ∀ λ ∈ K,
pour : N = max(p,q), P + Q = (aN + bN).XN + … + (a0 + b0),
λ.P = (λ.ap).Xp + … + (λ.a0),
p+ q
 k 
et pour K[X], le produit × est défini par : (P.Q) = ∑  ∑ a i .b k −i .X k ,
k =0  i =0 
l’élément unité étant le polynôme constant égal à 1.
C’est alors une K-algèbre commutative.
• dans K : ∀ (an)n∈ ∈ K, ∀ (bn)n∈ ∈ K, ∀ λ ∈ K,
(an)n∈ + (bn)n∈ = (an + bn)n∈,
λ.(an)n∈ = (λ.an)n∈.
• dans Mn(), Mn(), Mn,p(), Mn,p() : ∀ (A,B) ∈ (Mn,p(K))2, ∀ λ ∈ K,
 a 1,1 + b1,1 L a 1,n + b1,n 
 
A+B=  M M ,
a + b L a n ,n + b n ,n 
 n ,1 n ,1

 λ.a 1,1 L λ.a 1,n 


 
λ.A =  M M ,
 λ.a 
 n ,1 L λ.a n ,n 
n
et pour Mn(K), le produit × est défini par : A×B = C, avec : ∀ 1 ≤ i,j ≤ n, ci,j = ∑a
k =1
i ,k .b k , j ,

l’élément unité étant la matrice In.


C’est alors une K-algèbre commutative pour : n = 1, non commutative pour : n ≥ 2.

Définition 1.3 : combinaison linéaire de vecteurs


Soit (E,+,.) un K-espace vectoriel.
Soit (xi)i∈I une famille (éventuellement infinie) de vecteurs de E.
Une combinaison linéaire des vecteurs de cette famille est un vecteur de E qui s’écrit : ∑ λ .x
i∈I
i i , où les λi

sont des scalaires qui sont tous nuls, sauf au plus un nombre fini d’entre eux.
En particulier, si (xi)1≤i≤n est une famille finie de vecteurs de E, une combinaison linéaire de ces vecteurs
n
est un vecteur de E qui s’écrit : ∑ λ .x
i =1
i i , où les λi sont n scalaires.

Définition 1.4 : sous-espace vectoriel d’un espace vectoriel


Soit (E,+,.) un K-espace vectoriel, et F un sous-ensemble de E.
On dit que F est un sous-espace vectoriel de E si et seulement si (F,+,.) est un K-espace vectoriel (donc
pour les mêmes lois que celles de E, ou plus précisément pour les lois induites dans F par celles de E).

Théorème 1.2 : caractérisation d’un sous-espace vectoriel


Soit (E,+,.) un K-espace vectoriel et F un ensemble.
F est un sous-espace vectoriel de E si et seulement si :
• F est inclus dans E,
• F est non vide,
• F est stable par combinaison linéaire : ∀ (x,y) ∈ F2, ∀ (λ,µ) ∈ K2, (λ.x + µ.y) ∈ F.
Démonstration :
• Si F est un sous-espace vectoriel de E, alors F est bien inclus dans E, il contient l’élément neutre pour
l’addition (puisque (F,+) est un groupe), c’est-à-dire le vecteur nul, et F est non vide. Enfin, les lois + et .
sont respectivement des lois de composition interne et externe, dont la stabilité de F par combinaison
linéaire en découle.
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. -5-
• Réciproquement, si F vérifie les conditions proposées, alors :
• la loi + est interne dans F : ∀ (x,y) ∈ F2, pour : λ = µ = 1, 1.x + 1.y = x + y ∈ F,
• la loi + étant associative et commutative dans E, elle le reste dans F,
• F contient 0, puisque, étant non vide : ∃ x ∈ F, et : 1.x – 1.x = 0 ∈ F,
• tout élément de F a son symétrique dans F car : ∀ x ∈ F, 0.0 + (-1).x = -x ∈ F,
• la loi . est une loi de composition externe dans F puisque : ∀ x ∈ F, ∀ λ ∈ K, 0.0 + λ.x = λ.x ∈ F,
• les quatre dernières propriétés étant vraies dans E, elles restent vraies dans F.

Théorème 1.3 et définition 1.5 : espace vectoriel produit


Soient (E+,.) et (F,+,.) deux K-espaces vectoriels (où l’on note de la même façon dans E et F les lois de
composition internes et externes).
Alors les lois + et . définies par :
• ∀ ((x,y), (x’,y’)) ∈ (E×F)2, (x,y) + (x’,y’) = (x+x’,y+y’),
• ∀ (x,y) ∈ E×F, ∀ λ ∈ K, λ.(x,y) = (λ.x,λ.y),
font de E×F un K-espace vectoriel, appelé espace vectoriel produit de E et de F.
Démonstration :
Avec les lois ainsi définies, on vérifie que les résultats vrais dans E et dans F entraînent les mêmes pour
les nouvelles lois dans E×F.
En particulier, l’élément nul dans E×F est (0,0) et l’opposé d’un élément (x,y) de E×F est (-x,-y).

2. Combinaisons linéaires et familles (Sup).

Définition 2.1 : famille libre de vecteurs


Soit (E,+,.) un K-espace vectoriel et (xi) une famille de vecteurs de E.
On dit que (xi) est une famille libre si et seulement si toute combinaison linéaire nulle de ces vecteurs est
nécessairement à coefficients nuls.
En particulier, si la famille (xi) est finie de la forme (xi)1≤i≤n, la famille est libre si et seulement si :
∀ (λ1, ..., λn) ∈ Kn, (λ1.x1 + … + λn.xn = 0) ⇒ (λ1 = … = λn = 0).

Définition 2.2 : famille liée de vecteurs


Soit (E,+,.) un K-espace vectoriel et (xi) une famille de vecteurs de E.
La famille (xi) est dite liée si et seulement si elle n’est pas libre.
En particulier, si la famille (xi) est finie de la forme (xi)1≤i≤n, la famille est liée si et seulement si :
∃ (λ1, ..., λn) ∈ Kn, (λ1, ..., λn) ≠ (0, …,0), (λ1.x1 + … + λn.xn = 0).

Théorème 2.1 : caractérisation des familles liées


Soit (E,+,.) un K-espace vectoriel et (xi) une famille de vecteurs de E.
La famille est liée si et seulement si l’un des vecteurs de cette famille (on ne sait pas a priori lequel) peut
s’écrire comme combinaison linéaire des autres vecteurs de la famille.
Démonstration :
• Si la famille est liée, il existe une combinaison linéaire faisant intervenir un nombre fini de vecteurs de
la famille, nulle et à coefficients non tous nuls, soit : ∃ (λ1, …, λn) ∈ Kn, λ1.x1 + … + λn.xn = 0.
n
λk
Puisque l’un des coefficient est non nul, on peut supposer que c’est λ1 et alors : x1 = ∑− λ
k=2
.x k , et on
1
a bien un des vecteurs de la famille s’écrivant comme combinaison linéaire des autres.
• Si maintenant, l’un d’entre eux s’écrit comme combinaison linéaire des autres, par exemple :
x1 = µ2.x2 + … + µn.xn, alors : 1.x1 – µ2.x2 – … – µn.xn = 0.
On vient bien d’obtenir une combinaison linéaire des vecteurs de la famille, nulle et à coefficients non
tous nuls (à cause du coefficient 1).

Théorème 2.2 : cas où l’un des vecteurs de la famille est nul


Soit (E,+,.) un K-espace vectoriel et (xi) une famille de vecteurs de E.
Si la famille comporte le vecteur nul ou deux fois le même vecteur, la famille est liée.
Démonstration :
• Si la famille comporte le vecteur nul : x1 = 0, par exemple, alors : 1.x1 = 0, soit une combinaison linéaire
nulle à coefficients non tous nuls de vecteurs de la famille : la famille est liée.
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. -6-
• Si la famille comporte deux fois le même vecteur, par exemple : x1 = xk, avec : k ≠ 1, alors on a à
nouveau une combinaison linéaire nulle à coefficients non tous nuls de vecteurs de la famille avec :
1.x1 – 1.xk = 0.

Définition 2.3 : rang d’une famille de vecteurs


Soit (E,+,.) un K-espace vectoriel et (xi) une famille de vecteurs de E.
On appelle rang de la famille, lorsqu’il existe, le plus grand nombre de vecteurs de la famille constituant
une famille libre de vecteurs de E, et on le note rg((xi)).
Le rang d’une famille finie de n vecteurs existe donc toujours et est toujours inférieur ou égal à n.

Définition 2.4 : sous-espace vectoriel engendré par une famille de vecteurs


Soit (E,+,.) un K-espace vectoriel et A une famille de vecteurs de E.
On appelle sous-espace vectoriel de E engendré par la famille A l’ensemble noté Vect(A) des
combinaisons linéaires de vecteurs de A, soit :
Vect(A) = {x ∈ E, ∃ (x1, …, xp) ∈ Ap, ∃ (λ1, …,λp) ∈ Kp, x = λ1.x1 + … + λp.xp}.
En particulier, si : A = (xi)1≤i≤n, on a : Vect(A) = {x ∈ E, ∃ (λ1, …,λn) ∈ Kn, x = λ1.x1 + … + λp.xp}.

Théorème 2.3 : caractérisation d’un sous-espace vectoriel engendré


Soit (E,+,.) un K-espace vectoriel et A un sous-ensemble de E.
Vect(A) est le plus petit sous-espace vectoriel de E contenant A, c’est-à-dire :
∀ G, sous-espace vectoriel de E, (A ⊂ G) ⇒ (Vect(A) ⊂ G).
Démonstration :
Soit G un sous-espace vectoriel de E contenant A.
Alors G étant stable par combinaison linéaire, il contient toute combinaison linéaire de deux vecteurs qui
lui appartiennent (en particulier deux vecteurs quelconques de A) et par récurrence toute combinaison
linéaire d’un nombre fini de vecteurs lui appartenant, ou appartenant à A.
Donc G contient bien Vect(A).

Définition 2.5 : base d’un K-espace vectoriel


Soit (E,+,.) un K-espace vectoriel et (xi) une famille de vecteurs de E.
On dit que (xi) est une base de E si et seulement si c’est une famille libre et génératrice de E.

3. Espaces vectoriels de dimension finie (Sup).

Définition 3.1 : espace vectoriel de dimension finie


Soit (E,+,.) un K-espace vectoriel.
On dit que E est de dimension finie sur K si et seulement si E admet une famille génératrice finie.

Théorème 3.1 : de l’échange


Soit (E,+,.) un K-espace vectoriel de dimension finie.
Soient : B = (e1, …, ep), une famille libre d’éléments de E, et : B’0 = (e’1, …, e’q), une famille génératrice
de E.
Alors : p ≤ q.
De plus, on peut échanger p des vecteurs de la famille B’0 avec les p vecteurs de la famille B pour
obtenir une nouvelle famille génératrice de E.
Démonstration :
• On sait que e1 est combinaison linéaire des vecteurs de B’0, et les coefficients ne peuvent être tous
nuls, sinon e1 serait nul et la famille B ne pourrait être libre.
Quitte donc à permuter les vecteurs de B’0, on peut supposer que le coefficient λ1,1 de e’1 dans cette
combinaison : e1 = λ1,1.e’1 + … λq,1.e’q, est non nul : λ1,1 ≠ 0.
1 q
λ i,1
Alors : e’1 = .e1 − ∑ .e' i , et : E = Vect(e’1, …, e’q) ⊂ Vect(e1, e’2, …, e’q) ⊂ E,
λ 1,1 i = 2 λ 1,1

d’où l’égalité des espaces vectoriels et le fait que la famille : B’1 = (e1, e’2, …, e’q) est génératrice de E.
• On itère maintenant le processus pour remplacer d’autres vecteurs de B’0 par d’autres provenant de
B. Supposons pour cela qu’on a formé une nouvelle famille B’k génératrice de E en remplaçant les k
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. -7-
premiers vecteurs de la famille B’0 par e1, …, ek (par exemple), avec : k ≤ p – 1, k ≤ q – 1.
Alors : ek+1 ∈ Vect(e1, …, ek, e’k+1, …, e’q), et : ∃ (λ1,k+1, …, λk,k+1, λk+1,k+1, … λq,k+1) ∈ Kq, tel que :
ek+1 = λ1,k+1.e1 + … + λk,k+1.ek + λk+1,k+1.e’k+1 + … + λq,k+1.e’q.
Il n’est pas possible d’avoir : λk+1,k+1 = … = λq,k+1 = 0, sinon la famille (e1, …, ek+1) et donc B serait liée.
Quitte là encore, à permuter les vecteurs e’k+1, …, e’q, on peut supposer que : λk+1,k+1 ≠ 0, et :
1 k λ i, k +1 q
λ i ,k +1
e’k+1 = .e k +1 − ∑ .e i − ∑λ .e' i .
λ k +1,k +1 i =1 λ k +1,k +1 i=k + 2 1, k +1

On en déduit à nouveau que : E = Vect(B’k) ⊂ Vect(e1, …, ek+1, e’k+2, … e’q) ⊂ E, et la nouvelle famille :
B’k+1 = (e1, …, ek+1, e’k+2, … e’q), est encore génératrice de E.
• Enfin, si : q < p, alors en prenant : k = q – 1, dans la construction précédente, on obtient que :
e’q ∈ Vect(e1, …, eq), puis que : B’q = (e1, …, eq) est génératrice de E.
On aurait alors en particulier : q+1 ≤ p, et : eq+1 ∈ Vect(e1, …, eq), et la famille (e1, …, eq+1), sous-famille
de la famille B, serait liée, et la famille B le serait aussi.
Donc on a bien : p ≤ q, et on a obtenu une nouvelle famille génératrice de E en ayant échangé p
vecteurs de la famille B’0 par ceux de la famille B.

Théorème 3.2 : existence de bases dans un espace vectoriel de dimension finie


Soit (E,+,.) un K-espace vectoriel de dimension finie.
Alors E admet une base comportant un nombre fini de vecteurs, et toutes les bases de E comportent le
même nombre fini de vecteurs.
Démonstration :
• Soit (e1, …, ep) une famille génératrice de E.
Soit la famille ne comporte que le vecteur nul, et alors : ∀ x ∈ E, x = 0.
Dans ce cas, et par convention, on a : E = Vect(∅).
Soit la famille comporte au moins un vecteur non nul, et on considère alors l’ensemble des cardinaux
des sous-familles libres de cette famille (ei)1≤i≤n.
Cet ensemble d’entiers est non vide (puisqu’il y a une sous-famille libre comportant un seul vecteur) et
majoré par p : il contient donc un plus grand élément : n ≤ p.
Considérons maintenant une sous-famille libre B à n éléments parmi les (ei)1≤i≤p, et supposons pour
simplifier que c’est (e1, …, en).
Tout vecteur ek, avec : n < k ≤ p, (s’il y en a) est combinaison linéaire des vecteurs de B car :
∃ (λ1, …, λn, λk) ∈ Kn+1, non tous nuls tel que : λ1.e1 + … + λn.en + λk.ek = 0,
puisque la famille ne peut pas être libre car comportant trop de vecteurs.
Mais λk ne peut être nul, sinon tous les coefficients seraient nuls (la famille B est libre), et on a donc :
n
λi
ek = ∑− λ
i =1
.e i .
k
Puis tout vecteur de E étant combinaison linéaire de la famille (e1, …, ep), il est encore combinaison
linéaire des vecteurs de B.
On vient donc de démontrer que : ∀ x ∈ E, x ∈ Vect(B).
Mais on a aussi évidemment : ∀ x ∈ Vect(B), x ∈ E, puisque E est stable par combinaison linéaire.
On a donc établi globalement que : E = Vect(B).
La famille B étant libre par construction, et maintenant génératrice de E, c’est une base de E.
• Soient maintenant deux bases B et B’ de E comportant n et n’ vecteurs.
Puisque B est libre et B’ est génératrice de E, on a : n ≤ n’.
En échangeant les rôles de B et B’, on a évidemment : n’ ≤ n, et finalement : n = n’.

Définition 3.2 : dimension d’un K-espace vectoriel


Soit (E,+,.) un K-espace vectoriel.
Si E admet une base comportant un nombre fini de vecteurs, on appelle dimension de E le nombre de
vecteurs de cette base qui est donc le même pour toutes les bases de E.

Théorème 3.3 : cardinal des familles libres ou génératrices dans un espace vectoriel de dimension
finie
Soit (E,+,.) un K-espace vectoriel de dimension finie n et (xi)1≤i≤p une famille de vecteurs de E.
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. -8-
Si la famille (xi)1≤i≤p est génératrice de E, alors : p ≥ n.
Si la famille (xi)1≤i≤p est libre, alors : p ≤ n.
On a les équivalences :
((xi)1≤i≤p base de E) ⇔ ((xi)1≤i≤p libre et : p = n) ⇔ ((xi)1≤i≤p génératrice de E et : p = n).
Démonstration :
Soit B une base de E (comportant donc n éléments).
Le théorème de l’échange montre que si (xi)1≤i≤p est génératrice de E, alors : p ≥ n, puisque B est libre.
De même, si la famille (xi)1≤i≤p est libre, alors : p ≤ n, puisque cette fois, B est génératrice de E.
Il est clair ensuite que :
• ((xi)1≤i≤p base de E) ⇒ ((xi)1≤i≤p libre et : p = n), et :
• ((xi)1≤i≤p base de E) ⇒((xi)1≤i≤p génératrice de E et : p = n).
Réciproquement, si la famille (xi)1≤i≤p libre et : p = n, alors on peut obtenir à partir de la famille génératrice
B de E, une nouvelle famille génératrice de E en remplaçant p vecteurs de B par ceux de (xi)1≤i≤p.
Mais comme : p = n, cela signifie les remplacer tous, autrement dit la nouvelle famille obtenue, (soit la
famille (xi)1≤i≤p en fait) est génératrice de E. Mais comme elle était libre, c’est en fait une base de E.
Si enfin, la famille (xi)1≤i≤p est supposée génératrice de E, alors elle ne peut être liée, sinon l’un des
vecteurs, par exemple xn serait combinaison linéaire des vecteurs x1, …, xn-1 et la famille (x1, …, xn-1)
serait génératrice de E.
On aurait alors une famille génératrice de E à (n – 1) éléments et une famille libre (B) avec n éléments,
ce qui est impossible.
La famille (xi)1≤i≤p est donc libre, et étant de plus génératrice de E, c’est une base de E.

Théorème 3.4 : de la base incomplète


Soit (E,+,.) un K-espace vectoriel de dimension finie n et : B = (e1, …, en), une base de E.
Si (x1, …, xp) est une famille libre de vecteurs de E, alors il est possible de compléter la famille (x1, …, xp)
à l’aide de vecteurs de B en une nouvelle base de E.
Démonstration :
Puisque (e1, …, en) est une base de E, c’est une famille génératrice de E.
On sait donc par le théorème de l’échange que : p ≤ n, et qu’il est possible d’échanger p vecteurs de B
avec les p vecteurs de l’autre famille pour former une nouvelle famille génératrice de E.
Mais puisque cette famille génératrice comporte n vecteurs, soit la dimension de E, c’est une base de E,
et on l’a bien obtenue (autre façon de voir) en complétant (x1…, xp) à l’aide de vecteurs de B.

Théorème 3.5 : dimension d’un sous-espace vectoriel dans un espace vectoriel de dimension finie
Soit (E,+,.) un K-espace vectoriel de dimension finie.
Tout sous-espace vectoriel de E est de dimension finie, inférieure à celle de E.
Démonstration :
Soit : F = {0}, et F est de dimension finie égale à 0.
Sinon, considérons toutes les familles libres de vecteurs de F.
Toutes ces familles ont un cardinal (nombre d’éléments) inférieur à : n = dim(E).
Soit alors p le nombre maximum d’éléments d’une telle famille et : B’ = (e1, …, ep), une telle famille.
Alors B’ est une base de F.
En effet : Vect(B’) ⊂ F, puisque B’ est constituée d’éléments de F, lui-même stable par combinaison
linéaire.
Puis : ∀ x ∈ F, la famille (e1, …, ep, x) est liée (puisqu’étant formée de plus de p éléments de F).
Donc : ∃ (λ1, … λp, λp+1) ∈ Kp+1, (λ1, … λp, λp+1) ≠ (0,…,0), λ1.e1 + … + λp.ep + λp+1.x = 0,
et λp+1 n’est pas nul, sinon tous les coefficients seraient nuls, du fait de la liberté de la famille B’.
On en déduit que : x ∈ Vect(B’), et : F ⊂ Vect(B’).
Finalement, B’ est génératrice de F et c’est une base de F, qui est donc de dimension : p ≤ n = dim(E).

Théorème 3.6 : caractérisation du rang d’une famille de vecteurs


Soit (E,+,.) un K-espace vectoriel et (xi)1≤i≤p une famille finie de vecteurs de E.
Alors le rang de la famille (xi)1≤i≤p est égal à la dimension du sous-espace vectoriel de E engendré par
cette famille.
Soit donc : rg(x1, …, xp) = dim(Vect(x1, …, xp)).

Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. -9-


Démonstration :
Le rang de la famille est le nombre d’éléments de la plus grande sous-famille libre extraite de (x1, …, xp).
Notons k ce nombre et supposons (pour simplifier que (x1, …, xk)) est la famille libre en question.
Alors : ∀ k+1 ≤ i ≤ p, la famille (x1, …, xk, xi) est liée, et :
∃ (λ1, …, λk, λi) ∈ Kk+1, (λ1, …, λk, λi) ≠ (0, …, 0), λ1.x1 + … + λk.xk + λi.xi = 0
Mais λi ne peut être nul, sinon la liberté de (x1, …, xk) entraînerait la nullité de tous les coefficients.
On en déduit que xi est combinaison linéaire de la famille (x1, …, xk).
On constate ensuite que : Vect(x1, …, xk) ⊂ Vect(x1, …, xp),
et ce qu’on vient d’établir montre que toute combinaison linéaire de (x1, … xp) peut se réécrire en une
combinaison linéaire de (x1, …, xk), ce qui nous donne : Vect(x1, …, xp) ⊂ Vect(x1, …, xk), d’où l’égalité.
La famille (x1, …, xk) étant libre et génératrice de Vect(x1, …, xp), elle en constitue une base et :
dim(Vect(x1, …, xp)) = k = rg(x1, …, xp).

Théorème 3.7 : égalité de sous-espaces vectoriels dans un espace vectoriel de dimension finie
Soit (E,+,.) un K-espace vectoriel.
Soient F et G des sous-espaces vectoriels de dimension finie de E.
Alors : (F = G) ⇔ (F ⊂ G, et : dim(F) = dim(G)).
En particulier, si E est lui-même de dimension finie, pour tout sous-espace vectoriel F de E, on a :
(E = F) ⇔ (dim(F) = dim(E)).
Démonstration :
Si : F = G, il est immédiat que : F ⊂ G, et : dim(F) = dim(G).
Si réciproquement, F ⊂ G, et : dim(F) = dim(G), soit : B = (e1, …, ep), une base de F.
Alors : F = Vect(e1, …, ep).
Mais B est aussi une famille d’éléments de G, libre, et comportant : p = dim(G), éléments. Donc c’est
une base de G et : G = Vect(e1, …, ep) = F.
La deuxième équivalence vient du fait qu’on a toujours : F ⊂ E.

4. Applications linéaires (Sup).

Définition 4.1 : application linéaire entre K-espaces vectoriels, L(E,F)


Soient (E,+,.) et (F,+,.) des K-espaces vectoriels.
On dit que u est une application de E dans F est linéaire si et seulement si :
∀ (x,y) ∈ E2, ∀ (λ,µ) ∈ K2, u(λ.x + µ.y) = λ.u(x) + µ.u(y).
L’ensemble des applications linéaires de E dans F est noté L(E,F), et on note : L(E,E) = L(E).

Théorème 4.1 : structure de K-espace vectoriel de L(E,F)


Soient (E,+,.) et (F,+,.) des K-espaces vectoriels.
L(E,F) peut être muni d’une structure de K-espace vectoriel et L(E) d’une structure de K-algèbre.
Démonstration :
Comme au début du chapitre, on précise les lois utilisées et la démonstration du fait que l’on a bien un
K-espace vectoriel ou une K-algèbre, se prouve sans difficulté particulière.
Pour cela, donc : ∀ (u,v) ∈ L(E,F), ∀ (λ,µ) ∈ K2,
• (u+v) est l’application linéaire de E dans F définie par : ∀ x ∈ E, (u+v)(x) = u(x) + v(x),
• (λ.u) est l’application linéaire de E dans F définie par : ∀ x ∈ E, (λ.u)(x) = λ.u(x),
et pour L(E), la deuxième application interne qui en fait une K-algèbre est définie par :
• ∀ (u,v) ∈ L(E)2, ∀ x ∈ E, (uov)(x) = u(v(x)),
l’élément unité étant l’application identité (qui est bien linéaire) de E dans E.
Cette algèbre est en général non commutative.

Définition 4.2 : le groupe linéaire d’un espace vectoriel


Soit (E,+,.) un K-espace vectoriel.
L’ensemble des automorphismes de E forme un groupe pour la composition des applications, appelé
groupe linéaire de E et noté Gl(E).

Définition 4.3 : morphisme, endomorphisme, isomorphisme, automorphisme


Soient (E,+,.) et (F,+,.) des K-espaces vectoriels.

Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 10 -


Une application linéaire de E dans F est appelée morphisme ou homomorphisme de E dans F.
Un endomorphisme de E est une application linéaire de E dans lui-même.
Un isomorphisme de E dans F est une application linéaire bijective de E dans F.
Un automorphisme de E est une application linéaire bijective de E dans lui-même.

Définition 4.4 : image et noyau d’une application linéaire


Soient (E,+,.) et (F,+,.) des K-espaces vectoriels, et : u ∈ L(E,F).
On appelle image de u et noyau de u les ensembles :
• Im(u) = {y ∈ F, ∃ x ∈ E, y = u(x)},
• ker(u) = {x ∈ E, u(x) = 0}.

Théorème 4.2 : image et noyau d’un morphisme sont des sous-espaces vectoriels
Soient (E,+,.) et (F,+,.) des K-espaces vectoriels, et : u ∈ L(E,F).
Alors Im(u) est un sous-espace vectoriel de F et ker(u) un sous-espace vectoriel de E.
Démonstration :
• Im(u) est inclus dans F, il est non vide, car : 0 = u(0) ∈ Im(u).
Enfin : ∀ (y,y’) ∈ (Im(u))2, ∀ (λ,λ’) ∈ K2, ∃ (x,x’) ∈ E2, y = u(x), y’ = u(x’), et :
λ.y + λ’.y’ = λ.u(x) + λ’.u(x’) = u(λ.x + λ’.x’) ∈ Im(u).
• ker(u) est inclus dans E, il est non vide, car : u(0) = 0, et : 0 ∈ ker(u).
Enfin : ∀ (x,x’) ∈ (ker(u))2, ∀ (λ,λ’) ∈ K2, u(λ.x + λ’.x’) = λ.u(x) + λ’.u(x’) = 0, et : [λ.x + λ’.x’] ∈ ker(u).

Théorème 4.3 : caractérisation de l’injectivité et de la surjectivité


Soient (E,+,.) et (F,+,.) des K-espaces vectoriels et : u ∈ L(E,F).
Alors :
• (u injective) ⇔ (ker(u) = {0}).
• (u surjective) ⇔ (Im(u) = F).
Démonstration :
• Supposons u linéaire et injective. Alors 0 a un seul antécédent par u qui est 0, et : ker(u) = {0}.
Si maintenant : ker(u) = {0}, alors :
∀ (x,x’) ∈ E2, (u(x) = u(x’)) ⇒ (u( x – x’) = 0) ⇒ (x – x’ ∈ ker(u)) ⇒ (x – x’ = 0, et : x = x’) : u est injective.
• Soit : u ∈ L(E,F).
Alors : u surjective, si et seulement si : (∀ y ∈ F, ∃ x ∈ E, y = u(x)), ou encore : (∀ y ∈ F, y ∈ Im(u)).
Donc c’est bien équivalent à : F Im(u).

Théorème 4.4 : caractérisation d’une application linéaire par son action sur une somme directe
Soient (E,+,.) et (F,+,.) des K-espaces vectoriels.
n
Soient E1, …, En, des sous-espaces vectoriels de E tels que : E = ⊕ E i , et (ui)1≤i≤n une famille telle que :
i =1
∀ 1 ≤ i ≤ n, ui ∈ L(Ei,F).
Alors il existe une unique application linéaire : u ∈ L(E,F), telle que : ∀ 1 ≤ i ≤ n, u i = u Ei .
Démonstration :
Supposons que u existe.
Alors, pour tout vecteur x se décomposant en : x = x1 + … xn, suivant la somme directe, on a :
u(x) = u(x1) + … u(xn) = u1(x1) + … + un(xn).
Réciproquement, montrons que u définie par la formule précédente convient.
• C’est bien une application de E dans E, puisque pour un x donné, la décomposition est unique et u(x)
aussi.
• Pour : x ∈ Ei, x = 0 + … + 0 + x + 0 + … + 0, sa décomposition suivant la somme directe, alors :
u(x) = u1(0) + … + ui-1(0) + ui(x) + ui+1(0) + … + un(0) = ui(0),
et la restriction de u à Ei est bien ui.
• u est linéaire, car :
∀ x = x1 + … + xn ∈ E, ∀ y = y1 + … + yn ∈ E, (avec leur décomposition), ∀ (λ,µ) ∈ K2,
(λ.x + µ.y) se décompose en : (λ.x1 + µ.y1) + … + (λ.xn + µ.yn), car cette décomposition convient et elle
est unique, et : u(λ.x + µ.y) = u1(λ.x1 + µ.y1) + … + un(λ.xn + µ.yn), par définition de u, d’où :

Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 11 -


u(λ.x + µ.y) = λ.u1(x1) + µ.u1(y1) + … + λ.un(xn) + µ.un(yn) = λ.u(x) + µ.u(y).

Théorème 4.5 : isomorphisme entre l’image d’un morphisme et un supplémentaire de son noyau
Soient (E,+,.) et (F,+,.) des K-espaces vectoriels et : u ∈ L(E,F).
Soit E’ un supplémentaire de ker(u) dans E.
Alors u permet de définir un isomorphisme de E’ sur Im(u).
Démonstration :
Soit u’ l’application définie par : ∀ x ∈ E’, u’(x) = u(x) ∈Im(u).
On a bien défini une application linéaire (c’est immédiat) de E’ dans Im(u).
• u’ est injective car :
∀ x ∈ E’, (x ∈ ker(u’)) ⇒ (u’(x) = u(x) = 0) ⇒ (x ∈ ker(u)). Donc : x ∈ (ker(u)∩E’), et : x = 0.
• u’ est surjective car :
∀ y ∈ Im(u), ∃ x ∈ E, u(x) = y. Or x peut se décomposer en : x = x’ + x0, avec : x’ ∈ E’, x0 ∈ ker(u).
Donc : y = u(x’) + u(x0) = u(x’) = u’(x’), et : y ∈ Im(u’).
Finalement : Im(u) ⊂ Im(u’), et l’autre inclusion étant immédiate, u’ est bien surjective.

5. Applications linéaires en dimension finie (Sup).

Théorème 5.1 : famille génératrice de l’image d’un morphisme en dimension finie


Soient (E,+,.) et (F,+,.) des K-espaces vectoriels, E de dimension finie et : u ∈ L(E,F).
Soit : B = (e1, …, en), une famille génératrice de E.
Alors (u(e1), …, u(en)) est une famille génératrice de Im(u).
En particulier, Im(u) est un sous-espace vectoriel de F de dimension finie, inférieure à celle de E.
Démonstration :
On a immédiatement :
∀ x ∈ E, ∃ (x1, …, xn) ∈ Kn, x = x1.e1 + … + xn.en, et donc : u(x) = x1.u(e1) + … + xn.u(en).
Donc : Im(u) ⊂ Vect(u(e1), …, u(en)).
Comme par ailleurs, il est clair que : ∀ 1 ≤ i ≤ n, u(ei) ∈ Im(u), comme sous-espace vectoriel de F donc
stable par combinaison linéaire, on a aussi : Vect(u(e1), …, u(en)) ⊂ Im(u).
On en déduit bien l’égalité et le fait que (u(e1), …, u(en)) est bien génératrice de Im(u).

Théorème 5.2 : caractérisation d’une application linéaire par les images des vecteurs d’une base
Soient (E,+,.) et (F,+,.) des K-espaces vectoriels, E de dimension finie n.
Soit : B = (e1, …, en), une base de E, et (a1, …, an) une famille de vecteurs de F.
Alors : ∃ ! u ∈ L(E,F), ∀ 1 ≤ i ≤ n, u(ei) = ai.
Autrement dit, une application linéaire de E dans F est entièrement définie par la donnée des images
des vecteurs d’une base de l’espace de départ E.
Démonstration :
Pour tout vecteur x de E, on peut l’écrire sous la forme : x = x1.e1 + … + xn.en.
Dans ce cas, si une application u répondant aux critères proposés existe, alors : u(x) = x1.a1 + … + an.xn.
Donc si u existe, ça ne peut être que l’application que l’on vient de décrire.
Réciproquement, soit u définie telle qu’au dessus.
Alors u est bien une application de E dans F, puisque la décomposition d’un vecteur x quelconque de E
étant unique, u(x) est défini de façon unique et appartient bien à F.
De plus, u est linéaire.
En effet : ∀ (x,y) ∈ E2, ∀ (λ,µ) ∈ K2, x = x1.e1 + … + xn.en, y = y1.e1 + … + yn.en, et :
λ.x + µ.y = (λ.x1 + µ.y1).e1 + … + (λ.xn + µ.yn).en, et par construction de u :
u(λ.x + µ.y) = (λ.x1 + µ.y1).a1 + … + (λ.xn + µ.yn).an = λ.u(x) + µ.u(y).
Enfin, u répond bien aux conditions :
∀ 1 ≤ i ≤ n, ei = 0.e1 + … + 0.ei-1 + 1.ei + 0.ei+1 + … + 0.en, et : u(ei) = 1.ai = ai.
Donc le u trouvé convient et il est bien unique.

Définition 5.1 : rang d’une application linéaire en dimension finie


Soient (E,+,.) et (F,+,.) des K-espaces vectoriels, E de dimension finie, et : u ∈ L(E,F).
On appelle rang de u la dimension de Im(u) : rg(u) = dim(Im(u)).

Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 12 -


Théorème 5.3 : du rang
Soient (E,+,.) et (F,+,.) des K-espaces vectoriels, E de dimension finie et : u ∈ L(E,F).
Alors : dim(Im(u)) + dim(ker(u)) = dim(E).
Démonstration:
Puisque E est de dimension finie, Im(u) aussi.
Soit (a1, ..., ap) une base de Im(u), et (e1, ..., ep) une famille de vecteurs de E, antécédents des (ai).
Considérons également une base (e’1, ..., e’q) de ker(u), et montrons que la réunion (e1, ..., ep, e’1, ..., e’q)
forme une base de E.
Soit donc une combinaison linéaire nulle de ces vecteurs : λ1.e1 + … + λp.ep + µ1.e’1 + … + µq.e’q = 0.
En prenant l’image par u de cette combinaison linéaire, cela donne : λ1.a1 + … + λp.ap = 0,
mais comme la famille (a1, …, ap) est libre, comme base de Im(u), on en déduit : λ1 = … = λp = 0.
Puis : µ1.e’1 + … + µq.e’q = 0, entraîne également : µ1 = … = µq = 0, puisque la famille (e’1, …, e’q),
comme base de ker(u), est libre.
Il est clair ensuite que : Vect(e1, ..., ep, e’1, ..., e’q) ⊂ E.
Enfin, soit : x ∈ E.
Alors : u(x) ∈ Im(u), et : ∃ (λ1, …, λp) ∈ Kp, u(x) = λ1.a1 + … + λp.ap = λ1.u(e1) + … + λp.u(ep).
Donc : u(x – λ1.e1 – … – λp.ep) = 0, et : ∃ (µ1, …, µq) ∈ Kq, x – λ1.e1 – … – λp.ep = µ1.e’1 + … + µq.e’q.
Finalement : x ∈ Vect(e1, ..., ep, e’1, ..., e’q), et la famille proposée est bien génératrice de E.
C’est bien une base de E, donc : dim(E) = p + q = dim(Im(u)) + dim(ker(u)).

Théorème 5.4 : caractérisation des isomorphismes entre espaces de dimension finie


Soient (E,+,.) et (F,+,.) des K-espaces vectoriels de dimension finie, u ∈ L(E,F).
Il y a équivalence entre les propositions suivantes :
• u est un isomorphisme de E sur F,
• u est injective et : dim(E) = dim(F),
• u est surjective et : dim(E) = dim(F).
En particulier, pour : u ∈ L(E), toujours avec E de dimension finie, on a les équivalences :
(u bijective) ⇔ (u injective) ⇔ (u surjective).
Démonstration :
C’est une conséquence presque immédiate du théorème du rang.
Si u est un isomorphisme de E sur F, alors u est injective et surjective, donc : Im(u) = F, ker(u) = {0}.
Donc : dim(E) = dim(Im(u)) + dim(ker(u)) = dim(F) + 0 = dim(F).
Réciproquement, si u est injective, avec : dim(E) = dim(F), alors : ker(u) = {0}, et :
dim(Im(u)) = dim(E) – dim(ker(u)) = dim(F).
Or on a de plus : Im(u) ⊂ F, donc : Im(u) = F, et u est surjective, donc constitue bien un isomorphisme de
E sur F.
De même si u est surjective, avec : dim(E) = dim(F), alors : dim(ker(u)) = dim(E) – dim(F) = 0.
Donc u est injective et constitue bien à nouveau un isomorphisme de E sur F.
Le cas d’applications de E dans E, espace vectoriel de dimension finie, est un cas particulier.

Théorème 5.5 : conservation du rang par isomorphisme


Soient (E,+,.) et (F,+,.) des K-espaces vectoriels de dimension finie, u un isomorphisme de E sur F.
Soit (x1, … ,xn) une famille de vecteurs de E.
Alors : rg(x1, … ,xn) = rg(u(x1), … , u(xn)).
Démonstration :
Soit : E’ = Vect(x1, …, xn).
Alors : rg(x1, …, xn) = dim(E’).= p, et on peut considérer une base (e1, …, ep) de E’.
Montrons que (u(e1), …, u(ep)) est une base de Vect(u(x1), …, u(xn)).
• On a : ∀ y ∈ Vect(u(e1), …, u(ep)), ∃ (λ1, …, λp) ∈ Kp, y = λ1.u(e1) + …+ λp.u(ep) = u(λ1.e1 + … + λp.ep).
Or : (λ1.e1 + … + λp.ep) ∈ E’, donc est combinaison linéaire des (xi)1≤i≤n, et son image est combinaison
linéaire des (u(xi))1≤i≤n. A ce titre, y appartient à Vect(u(x1), …, u(xn)).
Soit maintenant : y ∈ Vect(u(x1), …, u(xn)).
Alors : ∃ (λ1, …, λn) ∈ Kn = λ1.u(x1) + …+ λn.u(xn) = u(λ1.x1 + … + λn.xn), et : (λ1.x1 + … + λn.xn) ∈ E’.
Donc (λ1.x1 + … + λn.xn) est combinaison linéaire des (ei)1≤i≤p et son image est dans Vect(u(e1), …, u(ep)).
Finalement : Vect(u(x1), …, u(xn)) = Vect(u(e1), …, u(ep)).
• La famille (u(e1), …, u(ep)) est par ailleurs libre, puisque u est injective.
En effet, si on a : λ1.u(e1) + …+ λp.u(ep) = 0, alors : u(λ1.e1 + … + λp.ep) = 0, et : (λ1.e1 + … + λp.ep) = 0.
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 13 -
Mais la famille (ei)1≤i≤p étant libre, tous les coefficients sont nuls.
• Finalement, (u(e1), …, u(ep)) est une base de Vect(u(x1), …, u(xn)), et : dim(Vect(u(x1), …, u(xn))) = p.
On a bien : rg(x1, … ,xn) = rg(u(x1), … , u(xn)).

Théorème 5.6 : dimension de L(E,F)


Soient (E,+,.) et (F,+,.) des K-espaces vectoriels de dimension finie.
Alors L(E,F) est de dimension finie et : dim(L(E,F)) = dim(E).dim(F).
En particulier, toujours si E est de dimension finie, L(E) a pour dimension (dim(E))2.
Démonstration :
Considérons une base : B = (e1, …, en), de E et une base : B’ = (e’1, …, e’p), de F.
Puis, soit la famille U des applications linéaires (ui,j)1≤i≤n,1≤j≤p définies par l’image des vecteurs de B :
∀ 1 ≤ i ≤ n, ∀ 1 ≤ j ≤ p, ∀ 1 ≤ k ≤ n, ui,j(ek) = δi,k.e’j,
où δi,k est le symbole de Kronnecker, valant 1 si : i = k, 0 sinon.
La famille U est une base de L(E,F).
• Elle est libre.
p
En effet, si : ∑ λ i, j .u i, j = 0 , alors : ∀ 1 ≤ k ≤ n,
1≤i ≤ n ,1≤ j≤ p
∑ λ i, j.u i, j (e k ) = 0 = ∑ λ k , j.e' j .
1≤i≤ n ,1≤ j≤ p j=1

Comme la famille (e’1, …, e’p) est libre, on en déduit que : ∀ 1 ≤ k ≤ n, ∀ 1 ≤ j ≤ p, λk,j = 0.


• Elle est génératrice de L(E,F).
On a évidemment : Vect(U) ⊂ L(E,F), car ce sont bien des applications linéaires de E dans F, et
L(E,F) est stable par combinaison linéaire.
p
 
Puis : ∀ u ∈ L(E,F), ∀ 1 ≤ k ≤ n, u(ek) = ∑a k,j .e' j = ∑a i, j .u i , j (e k ) =  ∑ a i , j .u i , j (e k ) .
j=1 1≤i ≤ n ,1≤ j≤ p  1≤i≤n ,1≤ j≤ p 
 
Donc u et  ∑a
.u i , j  sont deux applications linéaires de E dans F qui associent aux vecteurs de la
i, j
 
1≤i ≤ n ,1≤ j≤ p

 
base B les mêmes images : elles sont donc égales, soit : u =  ∑ a i , j .u i , j  .
 1≤i≤ n ,1≤ j≤ p 
On vient donc de montrer que : L(E,F) ⊂ Vect(U), et finalement : L(E,F) = Vect(U).
• Puisque L(E,F) admet une famille génératrice finie, c’est un K-espace vectoriel de dimension finie, et
sa dimension vaut le nombre de vecteurs dans la famille U, soit : dim(L(E,F)) = n.p = dim(E).dim(F).

6. Matrices (Sup).

Définition 6.1 et théorème 6.1 : les espaces vectoriels de matrices


L’ensemble Mn,p(K) des matrices à n lignes et p colonnes à coefficients dans K peut être muni d’une
structure de K-espace vectoriel de dimension n.p.
Démonstration :
Les lois qui font de ces ensembles des K-espaces vectoriels ont été reprécisées au début.
La structure de K-espace vectoriel s’obtient alors sans difficulté.
Pour la dimension de Mn,p(K), on utilise la famille (Ei,j)1≤i≤n,1≤j≤p, définie par :
∀ 1 ≤ i ≤ n, ∀ 1 ≤ j ≤ p, ∀ 1 ≤ u ≤ n, ∀ 1 ≤ v ≤ p, Ei,ju,v = δi,u.δj,v,
autrement dit, la matrice Ei,j est constituée de 0, sauf le terme d’indices i et j (à l’intersection de la ième
ligne et de la jème colonne) qui seul vaut 1.
Cette famille est génératrice de Mn,p(K), puisque :
n p
∀ A ∈ Mn,p(K), A = ∑∑ a
i =1 j=1
i, j .E i, j et : Mn,p(K) ⊂ Vect((Ei,j)1≤i≤n,1≤j≤p), puis : Mn,p(K) = Vect((Ei,j)1≤i≤n,1≤j≤p).
n p
D’autre part, la famille est libre, puisque si : ∑∑ a
i =1 j=1
i, j .E i , j = 0 , alors tous les coefficients (ai,j) sont nuls.

Cette famille est appelée base canonique de Mn,p(K).


Donc Mn,p(K) est de dimension n.p.

Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 14 -


Définition 6.2 : produit de matrices
Pour : A ∈ Mn,p(K), B ∈ Mp,q(K), on définit la matrice produit : C ∈ Mn,q(K), de A par B, par :
p
∀ 1 ≤ i ≤ n, ∀ 1 ≤ j ≤ q, ci,j = ∑a
k =1
i ,k .b k , j .

Théorème 6.2 : structure de groupe et d’algèbre pour Mn(K)


L’ensemble Mn(K) des matrices carrées à n lignes et n colonnes à coefficients dans K peut être muni
d’une structure de K-algèbre de dimension n2.
L’ensemble des matrices carrées inversibles de Mn(K) est un groupe pour la multiplication des matrices
noté Gln(K), et appelé groupe linéaire d’ordre n.
Démonstration :
Là encore, on précise la deuxième loi interne, multiplicative, comme on l’a fait dans le premier théorème
du chapitre, pour obtenir :
n
∀ (A,B) ∈ (Mn(K))2, A.B = C, où : ∀ 1 ≤ i, j ≤ n, ci,j = ∑a
k =1
i ,k .b k , j ,

et les propriétés attendues se démontrent sans problème. L’algèbre Mn(K) est associative, unitaire,
d’élément unité la matrice In, et non commutative pour : n ≥ 2.

Définition 6.3 : matrice transposée d’une matrice


Soit : A ∈ Mn,p(K).
On appelle transposée de A la matrice notée : A’ = tA appartenant à Mp,n(K), définie par :
∀ 1 ≤ i ≤ p, ∀ 1 ≤ j ≤ n, a’i,j = aj,i,
et on a : ∀ A ∈ Mn,p(K), t(tA)) = A.

Définition 6.4 : matrice symétrique, antisymétrique


On dit qu’une matrice A de Mn(K) est :
• symétrique si et seulement si : tA = A,
• antisymétrique si et seulement si : tA = – A.
L’ensemble des matrices symétriques n×n est noté Sn(K) et celui des matrices antisymétriques An(K).

Théorème 6.3 : dimension et supplémentarité de Sn(K) et An(K)


La transposition est une application linéaire de Mn,p(K) dans Mp,n(K).
Les ensembles Sn(K) et An(K) forment des sous-espaces vectoriels supplémentaires dans Mn(K) de
n.(n + 1) n.(n − 1)
dimensions respectives et .
2 2
Démonstration :
• Il est clair que : ∀ (A,B) ∈ (Mn,p(K))2, ∀ (λ,µ) ∈ K2, C = λ.A + µ.B, on a :
t
C = C’, avec : ∀ 1 ≤ i ≤ p, ∀ 1 ≤ j ≤ n, c’i,j = cj,i = λ.aj,i + µ.bj,i, et : tC = λ.tA + µ.tB.
• Pour la supplémentarité, on peut travailler par analyse-synthèse.
En effet, soit M une matrice de Mn(K).
Alors si on peut trouver : S ∈ Sn(K), et : A ∈ An(K), telles que : M = S + A, alors :
1 1
t
M = S – A, et : S = .(M + t M ) , et : A = .(M − t M ) .
2 2
Réciproquement, l’unique couple (S,A) trouvé convient puisque :
1 t 1
t
S= .( M + M ) = S, tA = .( t M − M ) = – A, et : S + A = M.
2 2
Donc pour toute matrice M de Mn(K), il existe un unique couple appartenant à Sn(K)×An(K), dont la
somme est égale à M : les deux espaces sont bien supplémentaires dans Mn(K).
• Pour leur dimension, on propose une base en disant, par exemple pour Sn(K), que :
∀ S ∈ Sn(K), ∀ 1 ≤ i, j ≤ n, si,j = sj,i, et en reprenant la base canonique de Mn(K), on obtient :
n n −1 n
S= ∑s
i =1
i ,i .E i ,i + ∑ ∑ s i , j .(E i, j + E j,i ) .
i =1 j= i +1

Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 15 -


On obtient ainsi une famille génératrice de Sn(K), dont on montre sans difficulté qu’elle est libre.
(n − 1).n n.(n + 1)
C’est donc une base de Sn(K), qui comporte : n + = , éléments.
2 2
De même, on montre que la famille ((Ei,j – Ej,i))1≤i≤n-1,i+1≤j≤n, constitue une base de A(K), qui est donc de
(n − 1).n n.(n + 1)
dimension : (ou de dimension : n2 – ).
2 2

Définition 6.5 : matrice définie par blocs


On peut définir une matrice : M ∈ Mp+s,a+r(K), par blocs de la façon suivante :
A C
M =   , où : A ∈ Mp,q(K), C ∈ Mp,r(K), B ∈ Ms,q(K), D ∈ Ms,r(K).
 B D

Définition 6.6 : matrices triangulaires ou diagonales par blocs


Une matrice : M ∈ Mp+s,a+r(K), écrite par blocs sous la forme :
A C
M =   , où : A ∈ Mp,q(K), C ∈ Mp,r(K), B ∈ Ms,q(K), D ∈ Ms,r(K),
 B D
est dite triangulaire par blocs si et seulement si on a : B = 0, et diagonale par blocs si : B = 0, et : C = 0.

Théorème 6.4 : somme et produit de matrices par blocs


Pour M et M’ des matrices de Mp+s,q+r(K), écrites par blocs sous la forme :
A C  A ' C' 
M =   , M ' =   ,
 B D  B' D' 
où : (A,A’) ∈ (Mp,q(K))2, (C,C’) ∈ (Mp,r(K))2, (B,B’) ∈ (Ms,q(K))2, (D,D’) ∈ (Ms,r(K))2,
 A + A ' C + C' 
on a : M + M’ =   .
 B + B' D + D' 
De même, pour M et M’ écrites par blocs ayant des types compatibles, on a :
 A.A'+ C.B' A.C'+ C.D' 
M.M’ =   .
 B.A'+ D.B' B.C'+ D.D' 
Démonstration :
Il suffit de constater que dans les sommes ou les produits proposés, les coefficients obtenus par les
deux formules coïncident.

7. Matrice des coordonnées d’un vecteur dans une base, matrice de changement de base (Sup).

Définition 7.1 : matrice des coordonnées d’un vecteur dans une base
Soit (E,+,.) un K-espace vectoriel de dimension finie n, muni d’une base : B = (e1, …, en).
n
Un vecteur x de E admet une unique décomposition selon la base B de E de la forme : x = ∑ x .e
i =1
i i .

 x1 
 
On définit la matrice colonne : X ∈ Mn,1(K), des coordonnées de x dans B, en posant : X =  M  .
x 
 n

Définition 7.2 : matrice de changement de base (matrice de passage)


Soit (E,+,.) un K-espace vectoriel de dimension finie n, muni de deux bases : B = (ei), et : B’ = (e’i).
n
On a donc : ∀ 1 ≤ j ≤ n, e’j = ∑p
i =1
i, j .e i .

On appelle matrice de passage de B à B’ la matrice : P ∈ Mn(K), ainsi obtenue.


La matrice P est donc construite en écrivant en colonnes les coordonnées des vecteurs de B’ exprimés
dans la base B.
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 16 -
Théorème 7.1 : lien entre les coordonnées d’un même vecteur dans différentes bases
Soit (E,+,.) un K-espace vectoriel de dimension finie n, muni de deux bases : B = (ei), et : B’ = (e’i), et
soit P la matrice de passage de B à B’.
Soit x un vecteur de E, X et X’ les matrices colonnes de ses coordonnées dans les bases B et B’.
Alors : X = P.X’.
Démonstration :
Il suffit d’exprimer les différentes écritures d’un vecteur donné :
n n n n  n n 
∀ x ∈ E, x = ∑ x i .e i = ∑ x ' j .e' j = ∑ x ' j .∑ p i , j .e i = ∑  ∑ p i , j .x ' j .e i , et donc :
i =1 j=1 j=1 i =1 i =1  j=1 
n
∀ 1 ≤ i ≤ n, xi = ∑p
j=1
i, j .x ' j , ce qui globalement, s’écrit bien : X = P.X’.

8. Matrice représentative d’une application linéaire dans des bases (Sup).

Définition 8.1 : matrice représentative d’une application linéaire dans des bases
Soient (E,+,.) et (F,+,.) des K-espaces vectoriels de dimension finie p et n, munis de bases B et C.
Soit : u ∈ L(E,F).
n
Pour tout : 1 ≤ j ≤ p, et tout vecteur ej de B, on note : u(ej) = ∑a
i =1
i, j .f i .

La matrice A ainsi obtenue est la matrice représentative de u dans les bases B et C.


Elle est donc construite en écrivant en colonnes les coordonnées des images des vecteurs de la base
B exprimées dans la base C.
On la note parfois : A = mat(u,B,C).

Théorème 8.1 : isomorphisme entre Mn,p(K) et L(E,F)


Soient (E,+,.) et (F,+,.) des K-espaces vectoriels de dimension finie p et n, munis de bases B et C.
Alors : ∀ (u,v) ∈ L(E,F)2, ∀ (λ,µ) ∈ K2, mat(λ.u+µ.v, B,C) = λ.mat(u,B,C) + µ.mat(v,B,C).
L’application de L(E,F) dans Mn,p(K) qui à une application linéaire u de E dans F, fait correspondre
mat(u,B,C), est un isomorphisme d’espaces vectoriels.
Démonstration :
• Soient u et v des éléments de L(E,F), λ et µ des scalaires.
Notons : B = (b1, …, bp), C = (c1, …, cn), et : U = mat(u,B,C), V = mat(v,B,C).
n n n
Alors : ∀ 1 ≤ j ≤ p, (λ.u + µ.v)(bj) = λ.u(bj) + µ.v(bj) = λ. ∑ u i, j .c i + µ. ∑ v i, j .c i =
i =1 i =1
∑ (λ.u
i =1
i, j + µ.v i , j ).c i .

Il est alors clair, en écrivant les matrices, que : mat(λ.u+µ.v,B,C) = λ.U + µ.V, ce que l’on voulait.
• Les espaces de départ et d’arrivée étant de même dimension égale à n.p, il suffit maintenant de
démontrer que l’application considérée est injective.
Or si la matrice représentative de u dans les bases B et C est nulle, c’est que tout vecteur de B a pour
image le vecteur nulle. Mais comme l’application nulle a cette propriété, et qu’il n’y a qu’une seule
application linéaire de E dans F à l’avoir, c’est que : u = 0.

Théorème 8.2 : traduction matricielle du lien entre un vecteur et son image par un morphisme
Soient (E,+,.) et (F,+,.) des K-espaces vectoriels de dimension finie p et n, munis de bases B et C.
Soit : u ∈ L(E,F), de matrice représentative A dans les bases B et C.
Pour un vecteur x de E, on note X la matrice colonne de ses coordonnées dans la base B, et Y la
matrice colonne des coordonnées de son image : y = u(x), dans la base C.
Alors : Y = A.X.
Démonstration :
Soit : B = (b1, …, bp), et : C = (c1, …, cn).
p n p p n n
 n 
Alors : ∀ x ∈ E, x = ∑ x j .b j , et : y = u(x) =
j=1

i =1
y .c
i i = ∑
j=1
x j .u ( b j ) = ∑
j=1
x j ∑ i, j i
.
i =1
a .c = ∑  ∑ a i, j .x j .c i ,
i =1  i =1 
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 17 -
ce qui correspond bien à : Y = A.X.

Définition 8.2 : application linéaire ou endomorphisme canoniquement associé à une matrice


Soit : (n,p) ∈ *2, et : A ∈ Mn,p(K).
L’application linéaire u de Kp dans Kn, telle que : mat(u,Bp,Bn) = A, où Bp et Bn désignent les bases
canoniques respectives de Kp et Kn, est appelée application linéaire canoniquement associée à A.
Dans le cas où : n = p, u est l’endomorphisme canoniquement associé à A.

Théorème 8.3 : matrice d’une composée


Soient (E,+,.), (F,+,.), (G,+,.) des K-espaces vectoriels de dimension finie, munis de bases B, C et D.
Alors : ∀ (u,v) ∈ L(E,F)×L(F,G), mat(vou,B,D) = mat(v,C,D).mat(u,B,C).
Démonstration :
Notons : B = (b1, .., bq), C = (c1, …, cp), et : D = (d1, …, dn),
puis : U = mat(u,B,C), V = mat(v,C,D), et : W = mat(vou,B,D).
Alors : ∀ 1 ≤ k ≤ q,
n  p  p p n n  p 
vou(bk) = ∑ w i,k .d i v(u(bk )) = v
 ∑ u j, k .c j

 = ∑ u j, k .v ( c j ) = ∑ u j, k .∑ v i , j .d i = ∑  ∑ v i , j .u j,k .d i .
 
i =1  j=1  j=1 j=1 i =1 i =1  j=1 
p
Donc : ∀ 1 ≤ i ≤ n, ∀ 1 ≤ k ≤ q, wi,k = ∑v
j=1
i, j .u j,k , ce qui correspond bien au produit matriciel annoncé.

Théorème 8.4 : liens entre les matrices de passage pour trois bases de l’espace
Soit (E,+,.) un K-espace vectoriel de dimension finie n, muni de trois bases : B = (ei) 1≤i≤n, B’ = (e’i) 1≤i≤n,
et : B’’ = (e’’i)1≤i≤n.
Alors la matrice de passage P de B à B’ vérifie : PB,B’ = mat(idE,B’,B).
De plus : PB,B’’ = PB,B’.PB’.B’’.
Par ailleurs, les matrices P et P’ de passage de B à B’ et de B’ à B sont inverses l’une de l’autre.
Enfin, la relation : PB,B’’ = PB,B’.PB’.B’’, peut se retrouver en utilisant le lien existant entre les
coordonnées d’un même vecteur de E dans les trois bases B, B’ et B’’.
Démonstration :
n
Puisque : ∀ 1 ≤ j ≤ n, e’j = ∑p
i =1
i, j .e i = idE(e’j), il est immédiat que : PB,B’ = mat(idE,B’,B).

Puis : PB,B’.PB’.B’’ = mat(idE, B’,B).mat(idE,B’’,B’) = mat(idE,B’’,B) = PB,B ‘’.


Par ailleurs, puisque : PB,B = mat(idE, B,B) = In, d’une part, et d’autre part : PB,B’.PB’,B = PB,B = In,
les matrices PB,B’ et PB’,B sont bien inverses l’une de l’autre.
Enfin, si on note plus simplement : P = PB,B’, P’ = PB’.B’’, P’’ = PB.B’’, X, X’ et X’’ les matrices colonnes
de coordonnées d’un vecteur x de E dans les bases B, B’ et B’’, alors :
X = P.X’, X’ = P’.X’’, d’où : X = P.P’.X’’, et d’autre part : X = P’’.X’’, soit finalement : P’’ = P.P’.

Théorème 8.5 : lien entre les matrices d’un même endomorphisme dans différentes bases
Soient (E,+,.) et (F,+,.) des K-espaces vectoriels de dimension finie p et n.
Soient B et B’ deux bases de E, C et C’ deux bases de F, P et Q les matrices de passages A de B à
B’ d’une part, et de C et C’ d’autre part.
Soit : u ∈ L(E,F), avec : A = mat(u,B,C), A’ = mat(u,B’,C’).
Alors : A’ = Q-1.A.P.
En particulier, si : E = F, B = C, B’ = C’, et : u ∈ L(E), on a : P = Q, et : A’ = P-1.A.P.
Démonstration :
Il suffit d’écrire : Q-1.A.P = mat(idE,C,C’).mat(u,B,C).mat(idE,B’,B) = mat(u,B’,C’) = A’.

9. Somme de sous-espaces vectoriels, sommes directes, sous-espaces vectoriels supplémentaires.

Théorème 9.1 et définition 9.1 : somme de sous-espaces vectoriels


Soit (E,+,.) un K-espace vectoriel, (Ei)1≤i≤n des sous-espaces vectoriels de E.
L’ensemble des vecteurs de E, s’écrivant comme sommes de vecteurs des différents sous-espaces Ei,
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 18 -
soit donc :
E1 + … + En = {x ∈ E, ∃ (x1, x2, …, xn) ∈ E1×E2×…×En, x = x1 + x2 + … + xn},
est un sous-espace vectoriel de E, appelé somme des sous-espaces vectoriels E1, …, En.
Démonstration :
Il est clair que E1 + … + En est inclus dans E, puisque constitué de vecteurs, sommes de vecteurs de E
qui est lui-même stable par combinaison linéaire.
De plus E1 + … + En est non vide, puisque chaque Ei est non vide (ils contiennent tous le vecteur nul) et
donc : 0 + … + 0 = 0, est encore élément de E.
Enfin : ∀ (x,y) ∈ (E1 + … + En)2, ∀ (λ,µ) ∈ K2, ∃ ((x1, …, xn), (y1, …, yn)) ∈ (E1×E2×…×En)2, et :
λ.x + µ.y = (λ1.x1 +µ1.y1) + … + (λn.xn + µn.yn) ∈ E1×E2×…×En, puisque ce sont des sous-espaces
vectoriels de E.

Théorème 9.2 : autre définition d’une somme de sous-espaces vectoriels


Soit (E,+,.) un K-espace vectoriel, (Ei)1≤i≤n des sous-espaces vectoriels de E.
Alors : E1 + … + En = Vect(E1 ∪ … ∪ En).
C’est donc en particulier le plus petit sous-espace vectoriel de E contenant tous les sous-espaces
vectoriels E1, …, En.
Démonstration :
• Tout élément de E1 + … + En est somme d’éléments des différents Ei, donc comme combinaison
linéaire d’éléments de E1 ∪ … ∪ En, c’est un élément de Vect(E1 ∪ … ∪ En).
• Un élément de Vect(E1 ∪ … ∪ En) est une combinaison linéaire de vecteurs de E1, …, En.
En regroupant dans cette combinaison linéaire (impliquant un nombre fini de vecteurs) ceux qui
appartiennent à E1, à E2, et à chaque Ei, on fait apparaître une somme de vecteurs, chacun appartenant
à l’un des Ei et à ce titre, on obtient bien un élément de E1 + … + En.
• A ce titre, c’est le plus petit sous-espace vectoriel de E contenant E1∪…∪En, donc tous les Ei.

Définition 9.2 : somme directe de deux ou de plusieurs sous-espaces vectoriels


Soit (E,+,.) un K-espace vectoriel, F et G des sous-espaces vectoriels de E.
On dit que la somme (F + G) est directe, si et seulement si on a : F ∩ G = {0}.
Lorsque la somme de F et de G est directe, elle est notée : F ⊕ G.
Plus généralement, soient E1, E2, …,En, des sous-espaces vectoriels de E.
On dit que la somme (E1 + … + En) est directe si et seulement si l’intersection de chaque Ei avec la
somme de tous les autres est réduite à {0}, soit :
∀ 1 ≤ i ≤ n, Ei ∩ (E1 + … + Ei-1 + Ei+1 + … + En) = {0}.
Dans ce cas, à nouveau, la somme de ces sous-espaces vectoriels se note : E1 ⊕ … ⊕ En.

Définition 9.3 : sous-espaces supplémentaires


Soit (E,+,.) un K-espace vectoriel, F et G des sous-espaces vectoriels de E.
On dit que F et G sont supplémentaires dans E si et seulement si on a : E = F ⊕ G.

Théorème 9.3 : existence d’un supplémentaire en dimension finie


Soit (E,+,.) un K-espace vectoriel de dimension finie, F un sous-espace vectoriel de E.
Alors il existe un sous-espace vectoriel G de E, tel que : E = F ⊕ G.
On dit alors que G est un sous-espace vectoriel de E supplémentaire de F dans E.
On a de plus, pour tout supplémentaire G de F dans E : dim(G) = dim(E) – dim(F).
Démonstration :
F étant lui-même de dimension finie, il admet une base (e1, …, ep) qui peut être complétée en une base
de E : B = (e1, …, en).
Posons : G = Vect(ep+1, …, en).
Alors : F∩G = {0}.
En effet : ∀ x ∈ F∩G,
• x ∈ F, et : ∃ (x1, … xp) ∈ Kp, x = x1.e1 + … + xp.ep,
• x ∈ G, et : ∃ (xp+1, …, xn) ∈ Kn-p, x = xp+1.ep+1 + … + xn.en,
et donc : x1.e1 + … + xp.ep – xp+1.ep+1 – … – xn.en = 0.
Or puisque la famille B est une base de E, elle est libre et tous les coefficients sont nuls, d’où : x = 0.
Puis : F + G = E.
En effet : ∀ x ∈ E, ∃ (x1, … xn) ∈ Kn, x = (x1.e1 + … + xp.ep) + (xp+1.ep+1 + … + xn.en), puisque B est
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 19 -
génératrice de E et le vecteur x se décompose suivant F+G.
Donc : E ⊂ F+G, et comme l’inclusion inverse est évidente, on a bien : E = F+G.
Enfin, si G est un supplémentaire quelconque de F, on a :
dim(G) = dim(E) + dim(F∩G) – dim(F) = dim(E) – dim(F).

Théorème 9.4 : des quatre dimensions ou formule de Grassmann


Soit (E,+,.) un K-espace vectoriel, F et G des sous-espaces vectoriels de dimension finie de E.
Alors (F + G) est de dimension finie ainsi que F∩G, et :
dim(F + G) + dim(F∩G) = dim(F) + dim(G).
Démonstration :
Puisque F et G sont de dimension finie, ils admettent tous deux une famille génératrice finie, et la
réunion de ces deux familles fournit une famille génératrice finie de F+G qui est donc de dimension finie.
Puis (F∩G) étant inclus dans un espace de dimension finie (F+G), il est lui-même de dimension finie.
Soit (e1, …,ek) une base de (F∩G).
Comme (F∩G) est un sous-espace vectoriel de F et de G, on peut considérer un supplémentaire F’ de
(F∩G) dans F et une (ak+1, …, ap) de ce supplémentaire d’une part, et un supplémentaire G’ de (F∩G)
dans G, ainsi qu’une base (bk+1, …, bq) de cet autre supplémentaire d’autre part.
Montrons que (e1, …, ek, ak+1, …, ap, bk+1, ..., bq) est une base de F+G.
• C’est une famille génératrice de F+G, puisque ce sont tous bien des vecteurs de F+G et :
∀ u ∈ (F+G), ∃ (x,y) ∈ F×G, u = x+y, et : ∃ (λ1, …λp) ∈ Kp, ∃ (µ1, …, µq) ∈ Kq, tels que :
x = λ1.e1 + … + λk.ek + λk+1.ak+1 + … + λp.ap, puisque : F = (F∩G) ⊕ F’, et :
y = µ1.e1 + … + µK.ek + µk+1.bk+1 + … + µq.bq, puisque là aussi : G = (F∩G) ⊕ G’, d’où :
u = (λ1 + µ1).e1 + … + (λk + µk) .ek + λk+1.ak+1 + … + λp.ap + µk+1.bk+1 + … + µq.bq.
• C’est une famille libre.
Soit en effet : λ1.e1 + … + λk.ek + λk+1.ak+1 + … + λp.ap + µk+1.bk+1 + … + µq.bq = 0.
Alors : (λ1.e1 + … + λk.ek + λk+1.ak+1 + … + λp.ap) = – (µk+1.bk+1 + … + µq.bq) ∈ (F∩G’).
Donc ce vecteur appartient à G’ car : (F∩G’) ⊂ G’, et à (F∩G) car : (F∩G’) ⊂ (F∩G).
Donc il est nul, et la famille (bk+1, …, bq) étant libre, tous les coefficients correspondant sont nuls.
Puis : λ1.e1 + … + λk.ek = – (λk+1.ak+1 + … + λp.ap), et là encore comme F et F’ sont supplémentaires, le
vecteur apparaissant dans cette égalité est nul, et tous les coefficients sont nuls.
• C’est donc une base de (F+G) et :
dim(F+G) = k + (p – k) + (q – k) = p + q – k = dim(F) + dim(G) – dim(F∩G).

Définition 9.4 : décomposition d’un espace vectoriel en somme directe


Soit (E,+,.) un K-espace vectoriel, E1, …, En, des sous-espaces vectoriels de E.
On dit que E se décompose en somme directe suivant les sous-espaces vectoriels E1, …, En si et
seulement si : E = E1 ⊕ … ⊕ En.

Théorème 9.5 : propriété récursive des sommes directes


Soit (E,+,.) un K-espace vectoriel, E1, …, En, des sous-espaces vectoriels de E.
Si la somme (E1 + … + En) des n sous-espaces vectoriels est directe, alors la somme de (n – 1)
quelconques parmi eux l’est encore, et la somme d’une sous-famille quelconque de parmi les n aussi.
Démonstration :
Montrons que la somme (E1 + … + En-1) est encore directe, et pour cela étudions : (E2 + … En-1) ∩ E1.
Soit donc un élément : x ∈ E1, et : x ∈ (E2 + … + En-1).
Alors : x = x1 ∈ E1, et : ∃ (x2, … xn-1) ∈ E2×…×En-1, x = x2 + … + xn-1,
d’où : x = x2 + … + xn-1 + 0 ∈ (E2 + … + En), et : x ∈ E1 ∩ (E2 + … + En), donc : x = 0.
On peut généraliser ce résultat à l’intersection d’un quelconque des (n – 1) avec la somme des (n – 2)
autres, puis à (n – 1) quelconques parmi les n de départ.
Enfin, par récurrence descendante, toute sous-famille d’une famille de sous-espaces vectoriels en
somme directe, est encore en somme directe.

Théorème 9.6 : définition équivalente d’une décomposition en somme directe


Soit (E,+,.) un K-espace vectoriel, E1, …, En, des sous-espaces vectoriels de E.
Alors E se décompose en somme directe suivant les sous-espaces vectoriels E1, …, En si et seulement
si tout vecteur de E se décompose de façon unique comme somme de vecteurs de E1, …, En.

Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 20 -


Démonstration :
• Supposons que : E = E1 ⊕ … ⊕ En.
Alors E étant la somme des sous-espaces vectoriels Ei, tout vecteur de E se décompose suivant cette
somme, comme somme de vecteurs de E1, …, En.
Supposons maintenant pour un vecteur x de E, deux telles décompositions.
Alors : x = x1 + … + xn = y1 + … + yn, avec : (x1, …, xn) ∈ E1×…×En, (y1, …, yn) ∈ E1×…×En.
Donc : (x1 – y1) + … + (xn-1 – yn-1) = yn – xn ∈ En ∩ (E1 + … + En-1), et donc est nul, et : xn = yn.
On termine par récurrence descendante pour obtenir : xn = yn, xn-1 = yn-1, …, x1 = y1, et la décomposition
est unique.
• Supposons maintenant que tout vecteur de E se décompose de façon unique comme somme de
vecteurs de E1, …, En.
On sait déjà que : E = E1 + … + En.
Montrons maintenant que la somme est directe, et pour cela, soit : x ∈ E1 ∩ (E2 + … + En), par exemple.
Alors : x = x1 = x2 + … + xn, avec : (x1, …, xn) ∈ E1×…×En, et : 0 = 0 + … + 0 = x1 – x2 – … – xn.
Cela fournit deux décompositions du vecteur nul suivant E1 + … + En et : 0 = x1 = … = xn, puis : x = 0.
La somme est bien directe.

Théorème 9.7 : caractérisation d’une décomposition en somme directe


Soit (E,+,.) un K-espace vectoriel de dimension finie, E1, …, En, des sous-espaces vectoriels de E.
Alors les propriétés suivantes sont équivalentes :
• E = E1 ⊕ … ⊕ En,
• dim(E1 + … + En) = dim(E1) + … + dim(En), et : E = E1 + … + En,
• on obtient une base de E en réunissant des bases choisies dans chaque Ei.
Démonstration :
• Montrons que : i) ⇒ ii).
Si : E = E1 ⊕ … ⊕ En, alors :
E = E1 + … + En, et : dim (E1 + … + En) = dim(E1 + … + En-1) + dim(En) – dim((E1 + … + En-1)∩ En).
Comme la dernière intersection est réduite à {0}, sa dimension est nulle.
On continue ensuite par récurrence descendante pour obtenir le résultat voulu.
• Montrons : ii) ⇒ iii).
Soient B1, …, Bn des bases des différents Ei, et : B = B1∪… ∪Bn.
Puisque chaque base Bi est génératrice de Ei, B est génératrice de E, et : card(B) ≥ dim(E).
Comme de plus le nombre d’éléments de B est :
card(B) ≤ card(B1) + … + card(Bn) = dim(E1) + … + dim(En) = dim(E), on a : card(B) = dim(E).
Donc B est bien une base de E.
• Montrons que : iii) ⇒ i).
Soient donc B une base de E obtenue comme réunion de base Bi des différents Ei.
B étant génératrice de E, on en déduit que tout vecteur de E s’écrit comme combinaison linéaire des
vecteurs de B, donc des Bi, donc, en regroupant les différents vecteurs appartenant à chaque Ei,
comme somme de vecteurs des différents Ei.
Soit donc : E = E1 + … + En (en fait, une simple inclusion, mais l’inverse est immédiate).
Puis soit par exemple : x ∈ E1 ∩ (E2 + … + En).
Alors : ∃ (x1, x2, …, xn) ∈ E1×…×En, x = x1 = x2 + … + xn.
En exprimant les différents vecteurs xi suivant les bases Bi, cela fournit, par différence une combinaison
linéaire des vecteurs de B égale à 0.
Mais B étant une famille libre, tous les coefficients de cette combinaison sont nuls, et : x = 0.
On en déduit que la somme est directe (en obtenant le même résultat pour les autres intersections).

Définition 9.5 : base d’un espace vectoriel adaptée à un sous-espace vectoriel, à une somme
directe de sous-espaces vectoriels
Soit (E,+,.) un K-espace vectoriel de dimension finie, F un sous-espace vectoriel de E.
On dit qu’une base B de E est adaptée à F, si elle est obtenue comme réunion d’une base de F et
d’une base d’un supplémentaire de F dans E.
On dit qu’une base de E est adaptée à une décomposition de E en somme directe, si elle obtenue
comme réunion de bases de chacun des sous-espaces vectoriels concernés par cette somme directe.

Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 21 -


10. Projecteurs.

Définition 10.1 : projecteurs associés à deux sous-espaces vectoriels supplémentaires


Soit (E,+,.) un K-espace vectoriel, F et G des sous-espaces vectoriels supplémentaires de E.
Pour tout vecteur x de E, il existe un unique couple : (y,z) ∈ F×G, tel que : x = y + z.
On appelle : p(x) = y, le projeté de x sur F parallèlement à G et : q(x) = z, le projeté de x sur G
parallèlement à F.
Les applications p et q de E dans E sont appelés projecteurs associés à la décomposition : E = F ⊕ G.

Théorème 10.1 : propriétés pour des projecteurs associés


Soit (E,+,.) un K-espace vectoriel, F et G des sous-espaces vectoriels supplémentaires de E et p et q les
projecteurs associés à la décomposition : E = F ⊕ G.
Alors :
• p ∈ L(E), q ∈ L(E),
• pop = p, qoq = q, poq = qop = 0, p + q = idE,
• ker(p) = Im(q) = G, ker(q) = Im(p) = F.
Démonstration :
• Pour : (x,x’) ∈ E2, (λ,λ’) ∈ K2, on décompose : x = y + z, x’ = y’ + z’, suivant : E = F ⊕ G,
et : λ.x + λ’.x’ = (λ.y + λ’.y’) + (λ.z + λ’.z’), est une décomposition de [λ.x + λ’.x’] suivant : E = F ⊕ G.
Mais une telle décomposition étant unique, c’est LA décomposition de [λ.x + λ’.x’] suivant : E = F ⊕ G.
Puis : p(λ.x + λ’.x’) = λ.y + λ’.y’, par décomposition, et : p(λ.x + λ’.x’) = λ.p(x) + λ’.p(x’).
Le résultat est identique pour q.
• Il est presque immédiat que : pop = p, puisque, avec les notations précédentes, pour : x ∈ E,
p(x) = p(x) + 0, avec : p(x) ∈ F, 0 ∈ G, et : p(p(x)) = p(x), et : q(p(x)) = 0.
De même pour q.
Puis : x = y + z = p(x) + q(x), et : idE = p + q, puisque cette égalité est vérifiée pour tout vecteur x de E.
• ∀ x ∈ F, x = p(x), et donc : F ⊂ Im(p). Mais vu la définition de p, on a aussi : Im(p) ⊂ F, d’où l’égalité.
Puis : ∀ x ∈ G, p(x) = 0, et : x ∈ ker(p). Mais on a également : ∀ x ∈ ker(p), x = 0 + z, et : x ∈ G, d’où lé
encore l’égalité.
On a encore des résultats identiques pour q.

Théorème 10.2 : caractérisation des sous-espaces vectoriels définissant un projecteur


Soit (E,+,.) un K-espace vectoriel, p ∈ L(E), tel que : pop = p.
Alors Im(p) et ker(p) sont supplémentaires dans E, et p est un projecteur de E sur Im(p) parallèlement à
ker(p).
Démonstration :
• Soit : x ∈ (ker(p)∩Im(p)).
Alors : ∃ y ∈ E, y = p(x). Mais de plus : p(x) = 0 = p(p(y)) = p(y) = x. Donc : x = 0.
Image et noyau de p sont en somme directe dans E.
• Soit : x ∈ E. Alors : p(x) = p(p(x)), et : p(x – p(x)) = 0, d’où : [x – p(x)] = z ∈ ker(p).
Autrement dit : x = p(x) + z, ce qui fournit une décomposition de x selon (Im(p) + ker(p)).
Finalement les deux espaces image et noyau de p sont bien supplémentaires dans E.
• Soit enfin : x ∈ E, et sa décomposition en : x = y + z, avec : y ∈ Im(p), z ∈ ker(p).
Alors : ∃ x’ ∈ E, y = p(x’), et : p(x) = p(y) + p(z) = p(p(x’)) + 0 = p(x’) = y.
Donc p est bien la projection de E sur Im(p) parallèlement à ker(p).

Définition 10.2 : famille de projecteurs associée à une décomposition en somme directe


n
Soit (E,+,.) un K-espace vectoriel, E1, …, En, des sous-espaces vectoriels de E tels que : E = ⊕ E i .
i =1
On note pi le projecteur de E sur Ei parallèlement à la somme (E1 ⊕ … ⊕ Ei-1 ⊕ Ei+1 ⊕ … ⊕ En).
La famille (pi)1≤i≤n est dite associée à la décomposition.

Théorème 10.3 : généralisation du théorème 10.1


n
Soit (E,+,.) un K-espace vectoriel, E1, …, En, des sous-espaces vectoriels de E tels que : E = ⊕ E i , et
i =1
soit (pi)1≤i≤n la famille de projecteurs associée à cette décomposition.
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 22 -
Alors on a :
• ∀ 1 ≤ i ≤ n, pi2 = pi,
• ∀ 1 ≤ i ≠ j ≤ n, pi o pj = 0,
• p1 + ... + pn = idE.
Démonstration :
Puisque les pi sont tous des projecteurs de E, on a évidemment : ∀ 1 ≤ i ≤ n, pi2 = pi.
Soit maintenant x un vecteur quelconque de E, et : x = x1 + … xn, sa décomposition suivant la somme
directe.
Alors : ∀ 1 ≤ i ≠ j ≤ n, pj(x) = xj ∈ Ej.
Or : Ej ∩ Ei ⊂ (E1 + … + Ei-1 + Ei+1 + … + En) ∩ Ei = {0}, et donc : pi(xj) = 0.
Soit bien : pi o pj = 0.
Enfin : (p1 + ... + pn)(x) = x1 + … + xn = x, on a bien également : p1 + ... + pn = idE.

11. Polynômes d’interpolation de Lagrange.

Définition 11.1 : polynômes de Lagrange


Soient : a0, a1, …, an des scalaires réels ou complexes distincts deux à deux.
On appelle polynômes de Lagrange associés à la famille (ai)0≤i≤n les polynômes (Li)0≤i≤n définis par :
• ∀ 0 ≤ i ≤ n, Li(ai) = 1,
• ∀ i ≠ j, Li(aj) = 0.
• ∀ 0 ≤ i ≤ n, d°(L i) = n.

Théorème 11.1 : existence et unicité des bases de Lagrange


Soient : a0, a1, …, an des scalaires réels ou complexes distincts deux à deux.
Il existe une unique famille (Li)0≤i≤n de polynômes vérifiant les conditions d’interpolation de Lagrange.
Ils forment une base de Kn[X], appelée base de Lagrange de Kn[X] associée à la famille (ai)0≤i≤n.
(X − a 0 )...(X − a i−1 )(. X − a i+1 )...(X − a n )
De plus : ∀ 0 ≤ i ≤ n, Li = .
(a i − a 0 )...(a i − a i−1 )(. a i − a i+1 )...(a i − a n )
Démonstration :
Démontrons que les conditions proposées donnent ces polynômes et qu’ils forment une base de Kn[X].
• Les polynômes doivent être de degré n, et chacun admettre n racines distinctes.
Donc : ∀ 0 ≤ i ≤ n, Li = λi.(X – a0)…(X – ai-1).(X – ai+1)…(X – an), puisqu’après factorisation, il reste en
facteur un polynôme constant.
La valeur que doit prendre le polynôme en ai donne alors la valeur de la constante, puis la forme finale
du polynôme Li cherché.
• Réciproquement, ces polynômes sont bien tous de degré n, chaque Li vaut 1 en ai et admet comme
racines toutes les autres valeurs.
• Ils forment bien une base de Kn[X], puisqu’ils sont d’une part au nombre de (n+1) soit la dimension de
Kn[X], et d’autre part, ils forment une famille libre.
En effet, si : λ0.L0 + … + λn.Ln = 0,
alors en considérant les fonctions polynômes associées évaluées en les différents ai, on obtient :
∀ 1 ≤ i ≤ n, λi.1 = 0.
Enfin, si on veut les coordonnées d’un polynôme P de Kn[X] dans cette base, il suffit d’écrire :
P = λ0.L0 + … + λn.Ln, puis à nouveau d’évaluer cette égalité en les ai, pour obtenir :
P = P(a0).L0 + … + P(an).Ln.

12. Trace d’une matrice carrée, d’un endomorphisme.

Définition 12.1 et théorème 12.1 : trace d’une matrice carrée


Soit : A = (aij) ∈ Mn(K).
n
On définit la trace de A comme la somme des éléments diagonaux de A, soit : tr ( A ) = ∑a
i =1
i ,i .

L’application tr est une forme linéaire sur Mn(K).


Démonstration :
Il est immédiat que tr est linéaire de Mn(K) dans K, puisqu’elle est bien à valeurs dans K, et d’autre

Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 23 -


part : ∀ (A,B) ∈ (Mn(K))2, ∀ (λ,µ) ∈ K2,
n n n
tr(λ.A + µ.B) = ∑ (λ.a i,i + µ.b i,i ) = λ.∑ a i,i + µ.∑ b i,i = λ.tr(A) + µ.tr(B).
i =1 i =1 i =1

Théorème 12.2 : propriétés basiques de la trace des matrices


∀ A ∈ Mn(K), tr(tA) = tr(A).
∀ (A,B) ∈ Mn(K)², tr(A.B) = tr(B.A).
Plus généralement, la trace d’un produit fini de matrices carrées est inchangée par permutation circulaire
des matrices dans le produit.
Démonstration :
Le premier résultat est immédiat, puisque pour une matrice carrée A, les matrices A et tA ont les mêmes
éléments diagonaux, donc même trace.
Pour le deuxième point, on considère deux matrices A et B de Mn(K).
Soit : C = A.B.
n n n
Alors : ∀ 1 ≤ i ≤ n, ci,i = ∑ a i,k .b k ,i , et : tr© =
k =1
∑∑ a
i =1 k =1
i ,k .b k ,i = ∑a i ,k .b k ,i .
( i , k )∈N 2n

Le résultat étant une formule symétrique en A et B, on a bien : tr(A.B) = tr(B.A).


Enfin, dans un produit de p matrices carrées n×n :
tr(A1…Ap) = tr(A1.[A2…Ap]) = tr([A2…Ap].A1) = tr(A2…Ap.A1),
que l’on peut généraliser par récurrence à une permutation circulaire quelconque de ces p matrices.

Théorème 12.3 et définition 12.2 : trace d’un endomorphisme


Soit (E,+,.) un K-espace vectoriel de dimension finie et : u ∈ L(E).
Alors la trace de la matrice représentative de u dans une base de E est indépendante de cette base.
On note alors tr(u) la valeur commune de toutes ces traces, soit : tr(u) = tr(mat(u,B)), où B est une
base quelconque de E.
Démonstration :
Soient B et B’ deux bases de E, P la matrice de passage de B à B’ et A et A’ les matrices
représentatives de u dans ces deux bases.
Alors : A’ = P-1.A.P, et : tr(A’) = tr(P-1.A.P) = tr(A.P.P-1) = tr(A).

Théorème 12.4 : trace d’un projecteur


Soit (E,+,.) un K-espace vectoriel de dimension finie.
Si p est un projecteur de E alors : rg(p) = tr(p).
Démonstration :
Puisque Im(p) et ker(p) sont supplémentaires dans E, considérons une base B obtenue en réunissant
une base (e1, …, ek) de Im(p) et une base (ek+1, … en) de ker(p).
 Ik 0 k ,n − k 
Alors la matrice de p dans cette base B est :   , et sa trace vaut : k = dim(Im(p)) = rg(p).
 0 n − k ,k 0 n − k 

13. Dual d’un espace vectoriel.

Définition 13.1 : dual d’un espace


Soit (E,+,.) un K-espace vectoriel.
On appelle dual de E l’espace L(E,K), ensemble des formes linéaires sur E et on le note E*.

Théorème 13.1 : dimension du dual


Soit (E,+,.) un K-espace vectoriel de dimension finie n.
Alors : dim(E*) = n = dim(E).
Démonstration :
Puisque : E* = L(E,K), on a : dim(E*) = dim(L(E,K)) = dim(E).dim(K) = dim(E).1 = n = dim(E).

Définition 13.2 : hyperplan


Soit (E,+,.) un K-espace vectoriel.
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 24 -
On dit qu’un sous-espace vectoriel H de E est un hyperplan de E si et seulement si H admet un
supplémentaire de dimension 1dans E.
Lorsque E est de dimension finie, cela signifie que H est de dimension (dim(E) – 1).

Théorème 13.2 : noyau des formes linéaires non nulles


Soit (E,+,.) un K-espace vectoriel de dimension finie n.
Soit : ϕ ∈ E*, ϕ ≠ 0, et : H = ker(ϕ). Alors H est un hyperplan de E.
De plus, si : ψ ∈ E*, et s’annule sur H, alors : ∃ λ ∈ K, ψ = λ. ϕ.
Si enfin le noyau de ψ est H, alors : λ ≠ 0.
Démonstration :
• Puisque ϕ est une application linéaire de E dans K, on peut lui appliquer le théorème du rang.
Or ϕ est non nulle, donc : ∃ x ∈ E, ϕ(x) ≠ 0, et dim(Im(ϕ)) ≥ 1.
Mais de plus : Im(ϕ) ⊂ K, et : dim(Im(ϕ)) ≤ 1.
Finalement : dim(Im(ϕ)) = 1, et : Im(ϕ) = K,
avec de plus : dim(H) = dim(ker(ϕ)) = dim(E) – dim(Im(ϕ)) = n – 1.
• Soit maintenant une autre forme linéaire ψ s’annulant sur H.
Soit x0 un vecteur n’appartenant pas à H. Alors : E = H ⊕ Vect(x0).
Puis : ϕ(x0) ≠ 0, sinon ϕ serait nulle sur E.
Enfin : ∀ x ∈ E, ∃ xH ∈ H, ∃ α ∈ K, x = xH + α.x0,
ψ(x 0 ) ψ( x 0 ) ψ( x 0 )
et : ψ(x) = α.ψ(x0) = α. .ϕ( x 0 ) = .ϕ(α.x 0 + x H ) = .ϕ( x ) .
ϕ( x 0 ) ϕ( x 0 ) ϕ( x 0 )
ψ(x 0 )
En posant : λ = ∈ K, on a bien : ψ = λ.ϕ.
ϕ( x 0 )
Si enfin, ψ a pour noyau H, alors λ est non nulle, sinon ψ s’annulerait sur E tout entier.

Théorème 13.3 et définition 13.3 : base duale d’une base en dimension finie
Soit (E,+,.) un K-espace vectoriel de dimension finie n et : B = (e1, … ,en), une base de E.
Alors la famille de formes linéaires : B* = (e1*, … , en*), définies par :
∀ 1 ≤ i ≤ n, ∀ 1 ≤ j ≤ n, ei*(ej) = δij, où δij est le symbole de Kronnecker, qui vaut 1 si : i = j, et 0 si : i ≠ j,
est une base de E* appelée base duale de la base B.
On appelle aussi ces formes linéaires les formes coordonnées associées à la base B.
En particulier, si : x ∈ E, x = x1.e1 + … + xn.en, alors : ∀ 1 ≤ k ≤ n, ek*(x) = xk.
Démonstration :
Les formes linéaires ainsi définies sont correctement définies, puisqu’elles le sont par l’image des
vecteurs d’une base de E.
Cette famille est libre, car :
∀ (λ1, …, λn) ∈ Kn, tel que : λ1.e1* + … λn.en* = 0, alors : ∀ 1 ≤ k ≤ n, [λ1.e1* + … λn.en*](ek) = 0 = λk.
Donc c’est une famille libre de n éléments de E* qui est de dimension n, et c’est bien une base de E*.

Théorème 13.4 et définition 13.4 : base préduale (ou anté-duale) d’une base de E*
Soit (E,+,.) un K-espace vectoriel de dimension n et : R = (ϕ1, …, ϕn), une base de E*.
Il existe une unique base C de E qui a pour duale la base C*.
Cette base C est appelée base préduale de C*.
Démonstration :
• Soit B et B’ des bases de E, et B* et B’* leurs bases duales respectives.
Soit maintenant P la matrice de passage dans E de B à B’ et Q la matrice de passage de B* à B’*.
Alors : Q = tP-1.
En effet, en notant : B= (e1, …, en), B’ = (e’1, …, e’n), on a :
n
 n  n n
∀ 1 ≤ i, j ≤ n, δi,j = e’i*(e’j) = ∑
k =1
q k ,i k  ∑ u , j u 
.e *
 u =1
p .e = ∑ k ,i k , j ∑
 i =1
q .p =
i =1
q ' i,k .p k , j , avec : q’i,k = qk,i.

On a donc montré que : tQ.P = In, soit bien : Q = tP-1.


• Soient maintenant que deux bases B et B’ de E aient pour base duale la base R de E* donnée, et
appelons P la matrice de passage de B à B’.
Alors la matrice de passage de B* à B’* est tP-1, mais puisque : B* = B’* = R, elle vaut aussi : In.
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 25 -
Donc : P = In, et : B = B’, autrement dit, si une base répond au problème posé, elle est unique.
• Enfin, soit B0 une base de E, B0* sa base duale, Q la matrice de passage de B0* à R et soit C la
base de E telle que la matrice tQ-1 soit la matrice de passage de B0 à C.
Alors la matrice de passage de R à C* est : P = Q-1.t(tQ-1)-1 = Q-1.Q = In, et : C* = R.

Théorème 13.5 : équations d’un hyperplan


Soit (E,+,.) un K-espace vectoriel de dimension finie n muni d’une base : B = (e1, … ,en).
Soit H un hyperplan de E.
Pour un vecteur x de E, on note (x1, …, xn) ses coordonnées dans la base B.
Alors : ∃ (a1,, … ,an) ∈ Kn, (a1,, … ,an) ≠ (0, …, 0), tel que : (x ∈ H) ⇔ (a1.x1 + … + an.xn = 0).
La dernière égalité est appelée « équation de H dans la base (e1, … , en) ».
De plus, si : b1.x1 + … + bn.xn = 0, est une autre équation de H dans la base B, alors :
∃ λ ∈ K*, ∀ 1 ≤ i ≤ n, bi = λ.ai.
Démonstration :
• Puisque H est un hyperplan de E, il existe une forme linéaire non nulle dont H est le noyau.
Il suffit pour cela de considérer une base (e’1, …, e’n-1) de H, de la compléter avec un vecteur e’n en une
base de E, de considérer la base duale de cette base (e’1*, …, e’n*) et la forme linéaire e’n* a bien pour
noyau H.
• Soit maintenant la base B proposée.
Alors e’n* peut se décomposer suivant la base duale (e1*, …, en*) en : e’n* = a1.e1* + .. + an.en*, où les
coefficients (ai)1≤i≤n sont des scalaires non tous nuls, puisque : e’n* ≠ 0.
Et on a : ∀ x ∈ E, x = x1.e1 + … + xn.en, (x ∈ H) ⇔ (e’n*(x) = 0) ⇔ (a1.x1 + … + an.xn = 0).
• Soit enfin : b1.x1 + … + bn.xn = 0, une autre équation de H dans la base B.
Cela signifie : ∀ x ∈ E, x = x1.e1 + … + xn.en, (x ∈ H) ⇔ (b1.x1 + … + bn.xn = 0) ⇔ (ϕ(x) = 0),
où ϕ est la forme linéaire : ϕ = b1.e1* + … + bn.en*.
Autrement dit : H = ker(ϕ).
Mais deux formes linéaires qui ont même noyau sont proportionnelles entre elles et :
∃ λ ∈ K*, ∀ 1 ≤ i ≤ n, bi = λ.ai.
Remarque : λ est non nul car λ et en* ont exactement le même noyau H.

14. Structure affine canonique de 2 et 3.

Définition 14.1 (hors programme) : espace affine


Etant donné un K-espace vectoriel E, on appelle espace affine de direction E un ensemble A muni
d’une loi de composition externe + ayant les propriétés suivantes :
• ∀ A ∈ A, ∀ (u,v) ∈ E2, (A + u) + v = A + (u + v),
• ∀ A ∈ A, A + 0 = A,
• ∀ (A,B) ∈ A2, ∃ u ∈ E, B = A + u, et le vecteur u est alors noté : u = AB ,
• ∀ u ∈ E, (∀ A ∈ A, A + u = A) ⇒ (u = 0).
Les éléments de A sont alors appelés des points.

Définition 14.2 : structure affine de 2 et 3


On peut munir 2 et 3 d’une structure affine, dite structure affine canonique, en utilisant comme
direction l’espace vectoriel 2 ou 3 lui-même, et comme loi externe la loi + dans ces espaces.
Les éléments de 2 et 3 sont alors indifféremment des points ou des vecteurs.
En particulier : ∀ (A,B) ∈ 2 ou 3, AB = B – A, où A et B à gauche de l’égalité sont considérés comme
des points, et à droite comme des vecteurs (des couples ou des triplets de réels).

Théorème 14.1 : propriétés élémentaires liant des vecteurs dans un espace affine
On a les propriétés suivantes :
∀ (A,B) ∈ (2)2 ou (3)2, B = A + AB ,
∀ (A,B,C) ∈ (2)3 ou (3)3, AB + BC = AC (relation de Chasles),
∀ (A,B) ∈ (2)2 ou (3)2, ( AB = 0) ⇔ (A = B),
∀ (A,B) ∈ (2)2 ou (3)2, BA = − AB .
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 26 -
Démonstration :
La démonstration est faite dans 2 mais est identique dans 3.
Puisqu’un vecteur de 2 se définit comme la différence des deux points (couples) de 2 qui permettent
de le construire, les quatre relations proposées sont immédiates.

Définition 14.2 : repère affine ou cartésien


On appelle repère affine de 2 ou de 3, la donnée d’un point et d’une base de 2 ou de 3.
On appelle repère affine canonique de 2 ou de 3 le repère défini par 0 et la base canonique de 2 ou
de 3.

Définition 14.3 : coordonnées d’un point dans un repère


Soit : R = (Ω,B), un repère affine de 2 ou de 3.
Pour un point M de 2 ou de 3, on appelle coordonnées de M dans le repère R les coordonnées du
vecteur ΩM dans la base B.

Définition 14.4 : sous-espace affine


On appelle sous-espace affine de 2 ou 3 un sous-ensemble F de 2 ou 3 défini par un point A et un
sous-espace vectoriel F de 2 ou de 3 de la façon suivante :
∀ M ∈ 2 ou 3, (M ∈ F) ⇔ ( AM ∈ F).
F est appelé la direction de F ou espace vectoriel sous-jacent à F.
La dimension d’un sous-espace affine est la dimension de son espace vectoriel directeur.

Théorème 14.2 : sous-espaces affines de 2 et 3


Un sous-espace affine de 2 est donc un point, une droite ou 2, et un sous-espace affine de 3 est un
point, une droite, un plan ou 3.
Démonstration :
Puisqu’un sous-espace affine se définit en particulier à l’aide d’un sous-espace vectoriel de l’espace
vectoriel sous-jacent, le résultat est immédiat.
En effet, un sous-espace vectoriel de 2 est {0}, une droite vectorielle ou 2 tout entier, ce qui donne un
singleton (un point), une droite affine, ou 2 tout entier.
La démarche est identique dans 3.

Définition 14.5 : sous-espaces affines parallèles


Soient : F = (A,F), et : F’ = (A’,F’), deux sous-espaces affines de 2 ou 3.
Ces deux sous-espaces sont dits parallèles si et seulement si : F ⊂ F’, ou : F’⊂ F.

Théorème 14.3 : représentation paramétrique de droites et de plans dans un repère de 2 ou de 3


Soit R un repère de 2 ou de 3 : R = (Ω,B).
Soit D une droite de 2 ou de 3 définie par un point A et un vecteur directeur u (ou deux points non
confondus), A de coordonnées (xA, yA, (zA)) dans R, et u de coordonnées (α, β, (γ)) dans B.
 x = x A + t.α

Alors :  y = y A + t.β , est appelée représentation paramétrique de la droite D dans le repère R.
(z = z + t.γ )
 A

De même, soit P un plan de 3 défini par un point A et une famille de deux vecteurs libres (ou trois
points non alignés), A de coordonnées (xA, yA, zA) dans R, et u, u’ de coordonnées (α, β, γ) et (α’, β’, γ’)
dans B.
x = x A + t.α + t '.α'

Alors :  y = y A + t.β + t '.β' , est appelée représentation paramétrique du plan P dans le repère R.
 z = z + t.γ + t '.γ '
 A

Démonstration :
Une droite affine se définit avec un sous-espace vectoriel de dimension 1, donc de façon équivalente,
avec une base de cette droite vectorielle, donc un vecteur non nul de cette droite, ou encore enfin avec
deux points distincts.
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 27 -
Si alors on dispose d’un vecteur u non nul (de coordonnées (α,β,γ) dans B) et d’un point A (de
coordonnées (xA, yA, zB) dans R), alors :
(∀ M ∈ 3, (M ∈ D(A,u)) ⇔ (( AM , u) liés) ⇔ (∃ t ∈ , AM = t.u), la dernière équivalence étant
justifiée par le fait que u est non nul.
Si maintenant on traduit cette dernière égalité par des coordonnées dans R, on obtient le système
annoncé.
De même, un plan affine se définit avec un sous-espace vectoriel de dimension 2, ou de façon
équivalente avec une base de ce plan vectoriel, soit deux vecteurs libres ou trois points non alignés.
On termine en écrivant :
(∀ M ∈ 3), (M ∈ P(A,u,v)) ⇔ (( AM , u,u’) liés) ⇔ (∃ (t,t’) ∈ 2, AM = t.u + t’.u’), cette dernière
équivalence étant cette fois justifiée par le fait que (u,u’) forme une famille libre.

Théorème 14.4 : équation d’une droite dans un repère de 2 ou d’un plan dans un repère de 3
Soit D une droite affine de 2, et R un repère de 2.
Pour un point M de 2, on note (x,y) ses coordonnées dans le repère R.
Alors : ∃ (a,b,c) ∈ 3, avec : (a,b) ≠ (0,0), tel que : (M ∈ D) ⇔ (a.x + b.y = c).
L’expression « a.x + b.y = c » est alors une équation de la droite D dans le repère R.
De même, soit P un plan affine de 3, et R un repère de 3.
Pour un point M de 3, on note (x,y,z) ses coordonnées dans le repère R.
Alors : ∃ (a,b,c,d) ∈ 4, avec : (a,b,c) ≠ (0,0,0), tel que : (M ∈ P) ⇔ (a.x + b.y + c.z = d).
L’expression « a.x + b.y + c.z = d » est alors une équation du plan P dans le repère R.
Démonstration :
On utilise ici une autre façon d’exprimer le fait que deux vecteurs de 2 (ou trois vecteurs de 3) sont
liés, et plus précisément :
(∀ M ∈ 2, (M ∈ D(A,u)) ⇔ (( AM , u) liés) ⇔ (detB( AM , u) = 0).
Si on note comme précédemment (α,β) les coordonnées de u dans B et (xA, yA) les coordonnées de A
x − xA α
dans R, on obtient alors : detB( AM , u) = , et :
y − yA β
(detB( AM , u) = 0) ⇔ (β.x – α.y + (α.yA – β.xA) = 0), ce qui donne bien le résultat annoncé, puisque on
remarque de plus que : (u ≠ 0) ⇔ ((β,-α) ≠ (0,0)).
De même, en traduisant par un déterminant 3×3 le fait que trois vecteurs dans 3 sont liés, on obtient
une équation cartésienne d’un plan dans 3.

Définition 14.6 : application affine


Une application f entre deux espaces affines A et A’ de direction E et E’ est dite affine si et seulement
si l’application ϕ définie par : ∀ (A,B) ∈ A2, ϕ( AB ) = f (A)f (B) , est linéaire de E dans E’.

Théorème 14.5 : expression d’une application affine dans un repère de 2 ou de 3


Soit f une application affine de 2 dans lui-même (ou de 3 dans lui-même), et soit : R = (Ω,B), un
repère de 2 ou de 3.
Pour un point M de 2, on note X la matrice colonne de ses coordonnées dans le repère R, M’ son
image par f et X’ la matrice colonne des coordonnées de M’ dans le repère R.
Alors : ∃ X0 ∈ M2,1() ou M3,1(), et : A ∈ M2() ou M3(), tel que : X’ = X0 + A.X.
La matrice X0 est la matrice des coordonnées de : Ω’ = f(Ω), dans le repère R, et A est la matrice de
l’application linéaire associée à f dans la base B.
Démonstration :
La démonstration est faite dans 2, mais elle est identique dans 3.
Si on travaille dans le repère R, alors : ∀ M ∈ 2, f (Ω)f (M ) = ϕ( ΩM ), où ϕ correspond à la partie
linéaire de l’application affine f, se traduit par : X’ – X0 = A.(X – 0), où X0 est la matrice des coordonnées
de : Ω’ = f(Ω), dans le repère R, et A la matrice de ϕ dans la base B, 0 étant la matrice des
coordonnées de Ω dans R.

Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 28 -


Donc on obtient bien la forme annoncée.

Théorème 14.6 : exemples d’applications affines


Soit f une application affine de 2 dans lui-même (ou de 3 dans lui-même) de partie linéaire associée ϕ.
Si : ϕ = idE, f est une translation affine.
Si : ϕ = k.idE, avec : k ∈ *, k ≠ 1, f est une homothétie affine de rapport k.
Si ϕ est un projecteur défini à l’aide de la décomposition en somme directe : E = F ⊕ G, f est un
projection affine sur un sous-espace affine de direction F parallèlement à G (ou de direction G).
Si ϕ est une symétrie définie à l’aide de la décomposition en somme directe : E = F ⊕ G, f est une
symétrie affine par rapport à un sous-espace affine de direction F parallèlement à G (ou de direction G).
Démonstration :
Il n’y a presque aucune démonstration à faire, puisque cet énoncé définit presque ce qu’on entend par
« homothétie affine », « projection affine » et « symétrie affine ».
Pour ce qui est du premier point, on constate que si : ϕ = idE, alors : ∀ (A,B) ∈ 2, AB = f (A)f (B) .
En utilisant la relation de Chasles, on a alors :
∀ (A,B) ∈ 2, Af (A) = AB + Bf (B) + f (B)f (A) = AB − f (A)f (B) + Bf (B) = AB − AB + Bf (B) = Bf (B) .
Le vecteur Mf (M ) est donc constant lorsque M décrit 2, ce qui justifie le fait que f soit une translation.

Théorème 14.7 et définition 14.7 : barycentre de n points pondérés


Soient n points (Ai)1≤i≤n de 2 ou de 3, et n réels (αi)1≤i≤n, de somme non nulle.
Il existe un unique point G appelé barycentre des n points pondérés (Ai, αi)1≤i≤n, (ou des points (Ai)1≤i≤n
n
affectés des coefficients (αi)1≤i≤n), tel que : ∑ α .GA
i =1
i i = 0.

En particulier, si G est le barycentre de deux points distincts, G est sur la droite définie par ces deux
points, et si c’est le barycentre de trois points non alignés, il se trouve dans le plan défini par ces trois
points.
Démonstration :
La démonstration est donnée dans 2, mais elle est identique dans 3.
Il suffit d’écrire, en utilisant la relation de Chasles et avec un point Ω de 2 (par exemple l’origine d’un
repère de 2) :
n n
 n  n
∀ G ∈  , ( ∑ α i .GA i = 0 ) ⇔ ( ∑ α i .(GΩ + ΩA i ) = 0 ) ⇔ (  ∑ α i .ΩG = ∑ (α i .ΩA i ) ).
2

i =1 i =1  i =1  i =1
Et puisque la somme des coefficients est non nulle, on en déduit bien l’existence d’un unique point G de
n
1
2 défini par la relation : ΩG = n
.∑ (α i .ΩA i ) .
∑α
i =1
i
i =1

Si maintenant, G est le barycentre de deux points distincts A et B, en utilisant à la place du point Ω le


β
point A, G est défini par : AG = .AB , et G est bien sur la droite D(A, AB ).
α+β
De même, si G est le barycentre des trois points non alignés A, B, C, et en utilisant à nouveau A à la
1
place de Ω, G est défini par : AG = .(β.AB + γ.AC) , et G est bien dans le plan P(A, AB , AC ).
α+β+ γ

Théorème 14.8 : coordonnées du barycentre de n points dans un repère


Soient n points pondérés (Ai, αi)1≤i≤n, de 2 ou de 3 avec : α1 + … + αn ≠ 0.
Alors dans un repère R de 2 et de 3, le barycentre G des points pondérés (Ai, αi)1≤i≤n, a pour
 n n
 n 
 ∑ α i .x i ∑ α i .y i  ∑ α i .z i 

coordonnées : (x,y,(z)) = i =1n , i =1n ,  i =1n   , où les (x , y , (z )) sont les coordonnées des
   i i i

 ∑ α i ∑ αi  ∑ αi  
 i =1 i =1  i =1 
Ai dans le repère R.
Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 29 -
Démonstration :
Il suffit de traduire la relation obtenue à la fin de la démonstration du théorème précédent et qui définit le
point G, pour constater que les coordonnées de G sont bien celles annoncées.
On utilise évidemment le fait que le point Ω est l’origine du repère R.

Théorème 14.9 : associativité du barycentre


Soient n points (Ai)1≤i≤n de 2 ou de 3, et n réels (αi)1≤i≤n, tels que :
n p n

∑ α i ≠ 0 , et : ∃ 1 ≤ p ≤ n – 1,
i =1
∑ αi ≠ 0 ,
i =1
∑α
i = p +1
i ≠ 0.

Soit de plus G1 le barycentre des points (Ai)1≤i≤p affectés des coefficients (αi)1≤i≤p, et G2 le barycentre des
points (Ai)p+1≤i≤n, affectés des coefficients (αi)p+1≤i≤n.
Alors le barycentre des points (Ai)1≤i≤n, affectés des coefficients (αi)1≤i≤n est le même que celui de G1 et G2
p n
affectés respectivement des coefficients ∑ α i et
i =1
∑α
i = p +1
i .

Démonstration :
p n
Notons G le barycentre des n points, α = ∑ αi , β =
i =1
∑α
i = p +1
i .

n
G est défini par : ∑ α .GA
i =1
i i = 0.

Faisons alors intervenir le point G1 (comme le point Ω dans la démonstration du théorème 14.7) et à
n
l’aide de la relation de Chasles, on obtient : ∑ α .(GG
i =1
i 1 + G 1A i ) = 0 .
p
 n  n
Or : ∑ α i .G 1 A i = 0 , donc l’égalité précédente devient :  ∑ α i .GG 1 + ∑ α i .G 1 A i = 0 .
i =1  i =1  i = p +1
Si maintenant, on introduit le point G2 dans la deuxième somme, on aboutit à :
 n  n n
 ∑ α i .GG 1 + ∑ α i .(G 1G 2 + G 2 A i ) = 0 = (α + β).GG 1 + ∑ α i .G 1G 2 = (α + β).GG 1 + β.G 1G 2 .
 i =1  i = p +1 i = p +1
Et si enfin on transforme le dernier vecteur en introduisant le point G, on termine avec :
α.GG 1 + β.GG 2 = 0 ,
ce qui montre que bien que G est le barycentre de (G1,α) et de (G2,β).

Chapitre 04 – Espaces vectoriels (et affines) – Cours complet. - 30 -


Déterminants

Plan du chapitre
1 Déterminant d’une famille de n vecteurs dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 2
1.1 Formes p-linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 2
1.2 Formes p-linéaires alternées, formes p-linéaires anti-symétriques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 3
1.3 Formes n-linéaires alternées sur un espace de dimension n. Déterminant d’une famille de n vecteurs
dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 3
1.4 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .page 7
1.5 Critère d’indépendance d’une famille de n vecteurs en dimension n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 7
2 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 7
2.1 Définitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 7
2.2 Lien avec le déterminant d’une famille de vecteurs dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 9
2.3 Propriétés du déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 9
3 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .page 11
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 11
3.2 Propriétés du déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 11
4 Calculs de déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 11
4.1 Déterminant d’une matrice triangulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 12
4.2 Transformations élémentaires sur les lignes et les colonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 12
4.3 Déterminants par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 14
4.4 Développement suivant une ligne ou une colonne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 15
4.4.1 Mineurs, cofacteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 15
4.4.2 La formule de développement suivant une ligne ou une colonne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 16
6 Quelques applications des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .page 19
6.1 Inversibilité d’une matrice carrée, bijectivité d’un endomorphisme, indépendance d’une famille
de n vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 19
6.2 Inverse d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .page 20
6.3 Orientation d’un R-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 22
6.4 Calculs d’aires et de volumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . page 23

c Jean-Louis Rouget, 2018. Tous droits réservés.


1 http ://www.maths-france.fr
1 Déterminant d’une famille de n vecteurs dans une base
1.1 Formes p-linéaires
Définition 1. Soient E un K-espace vectoriel et p un entier naturel non nul. Une forme p-linéaire sur E est une
application de Ep dans K qui est linéaire par rapport à chacune de ses variables.
Plus explicitement, soit f : Ep → K . f est une forme p-linéaire sur E si et seulement si
(x1 , . . . , xp ) 7→ f ((x1 , . . . , xp ))
∀ (a1 , . . . , ap ) ∈ Kp , ∀i ∈ J1, pK, l’application E → K est linéaire.
xi 7→ f ((a1 , . . . , xi , . . . , ap ))

Un exemple fondamental d’expression p-linéaire est un produit de p réels. Le produit de deux réels c’est-à-dire l’application
R2 → R est une forme bilinéaire sur R. Le produit de trois réels c’est-à-dire l’application R3 → R
(x, y) 7→ x × y (x, y, z) 7→ x × y × z
est une forme trilinéaire sur R . . .
Analysons le cas p = 2. Soit f : E2 → K une forme bilinéaire sur un K-espace vectoriel E. La bilinéarité
(x, y) 7→ f((x, y))
de f se traduit explicitement par :
• ∀(x, x ′ , y) ∈ E3 , ∀(λ, λ ′ ) ∈ K2 , f((λx + λ ′ x ′ , y)) = λf((x, y)) + λ ′ f((x ′ , y))
et
• ∀(x, y, y ′ ) ∈ E3 , ∀(λ, λ ′ ) ∈ K2 , f((x, λy + λ ′ y ′ )) = λf((x, y)) + λ ′ f((x, y ′ )).
Par exemple, le produit scalaire usuel sur R2 R2 → R est une forme bilinéaire sur R2 .
((x1 , y1 ) , (x2 , y2 )) 7→ x1 y1 + x2 y2
Si f : E2 → K est une forme bilinéaire et que l’on fait agir les deux linéarités successivement, cela donne
(x, y) 7→ f((x, y))

f ((λx + λ ′ x ′ , µy + µ ′ y ′ )) = λf((x, µy + µ ′ y ′ )) + λ ′ f((x, µy + µ ′ y ′ ))


= λµf((x, y)) + λµ ′ f((x, y ′ )) + λ ′ µf((x ′ , y)) + λ ′ µ ′ f((x ′ , y ′ )).

En développant, on obtient quatre termes.


Analysons le cas p = 3. Soit f : E3 → K une forme trilinéaire sur un K-espace vectoriel E. La trili-
(x, y, z) 7→ f((x, y, z))
néarité de f se traduit explicitement par :
• ∀ (x1 , x2 , y, z) ∈ E4 , ∀ (λ1 , λ2 ) ∈ K2 , f ((λ1 x1 + λ2 x2 , y, z)) = λ1 f ((x1 , y, z)) + λ2 f ((x2 , y, z))
et
• ∀ (x, y1 , y2 , z) ∈ E4 , ∀ (µ1 , µ2 ) ∈ K2 , f ((x, µ1 y1 + µ2 y2 , z)) = µ1 f ((x, y1 , z))) + µ2 f ((x, y2 , z))
et
• ∀ (x, y, z1 , z2 ) ∈ E4 , ∀ (ν1 , ν2 ) ∈ K2 , f ((x, y, ν1 z1 + ν2 z2 )) = ν1 f ((x, y, z1 ))) + ν2 f ((x, y, z2 )).
Si on fait agir les trois linéarités successivement, cela donne

f ((λ1 x1 + λ2 x2 , µ1 y1 + µ2 y2 , ν1 z1 + ν2 z2 )) = λ1 f ((x1 , µ1 y1 + µ2 y2 , ν1 z1 + ν2 z2 )) + λ2 f ((x2 , µ1 y1 + µ2 y2 , ν1 z1 + ν2 z2 ))


= λ1 µ1 f ((x1 , y1 , ν1 z1 + ν2 z2 )) + λ1 µ2 f ((x1 , y2 , ν1 z1 + ν2 z2 ))
+ λ2 µ1 f ((x2 , y1 , ν1 z1 + ν2 z2 )) + λ2 µ2 f ((x2 , y2 , ν1 z1 + ν2 z2 ))
= λ1 µ1 ν1 f ((x1 , y1 , z1 )) + λ1 µ1 ν2 f ((x1 , y1 , z2 ))
+ λ1 µ2 ν1 f ((x1 , y2 , z1 )) + λ1 µ2 ν2 f ((x1 , y2 , z2 ))
+ λ2 µ1 ν1 f ((x2 , y1 , z1 )) + λ1 µ1 ν2 f ((x2 , y1 , z2 ))
+ λ2 µ2 ν1 f ((x2 , y2 , z1 )) + λ1 µ2 ν2 f ((x2 , y2 , z2 )) .

On obtient une somme de 2 × 2 × 2 = 8 termes

c Jean-Louis Rouget, 2018. Tous droits réservés.


2 http ://www.maths-france.fr
1.2 Formes p-linéaires alternées, formes p-linéaires anti-symétriques
Définition 2. Soit E un K-espace vectoriel. Soient p > 2 puis f une forme p-linéaire sur E.
f est anti-symétrique si et seulement si pour tout (x1 , . . . , xp ) ∈ Ep et pour toute transposition τ = τi,j où (i, j) ∈
J1, pK2 et i 6= j,

f xτ(1) , . . . , xτ(p) = −f (x1 , . . . , xp ) .

Cette dernière égalité s’écrit plus explicitement (mais moins précisément)

f (x1 , . . . , xi , . . . , xj , . . . , xp ) = −f (x1 , . . . , xj , . . . , xi , . . . , xp ) .

On analyse maintenant l’effet d’une permutation quelconque des indices. On sait que toute permutation est un produit
de transpositions et donc ;
Théorème 1. Soit E un K-espace vectoriel. Soient p > 2 puis f une forme p-linéaire sur E. f est anti-symétrique si et
seulement si pour tout (x1 , . . . , xp ) ∈ Ep et pour toute permutation σ de J1, pK

f xσ(1) , . . . , xσ(p) = ε(σ)f (x1 , . . . , xp ) .

Démonstration . Soit σ ∈ Sp . On sait qu’il existe des transpositions τ1 , . . . , τk , k > 1, telles que σ = τ1 ◦ . . . ◦ τk . Pour
p
(x1 , . . . , xp ) ∈ E , on a alors

 
f xσ(1) , . . . , xσ(p) = f xτ1 ◦...◦τk (1) , . . . , xτ1 ◦...◦τk (p)
= (−1)k f (x1 , . . . , xp ) (par récurrence sur k)
= ε(σ)f (x1 , . . . , xp ) .

La réciproque est immédiate.


Définition 3. Soit E un K-espace vectoriel. Soient p > 2 puis f une forme p-linéaire sur E.
f est alternée si et seulement si pour tout (x1 , . . . , xp ) ∈ Ep , si il existe (i, j) ∈ J1, pK2 tel que i 6= j et xi = xj , alors
f (x1 , . . . , xp ) = 0.

Théorème 2. Soit E un K-espace vectoriel. Soient p > 2 puis f une forme p-linéaire sur E.
f est anti-symétrique si et seulement si f est alternée.
Démonstration .

• Supposons f alternée. Soient (x1 , . . . , xp ) ∈ Ep puis (i, j) ∈ J1, pK2 tel que i < j.

0 = f (x1 , . . . , xi + xj , . . . , xi + xj , . . . , xp )
= f (x1 , . . . , xi , . . . , xi , . . . , xp ) + f (x1 , . . . , xi , . . . , xj , . . . , xp ) + f (x1 , . . . , xj , . . . , xi , . . . , xp ) + f (x1 , . . . , xj , . . . , xj , . . . , xp )
= f (x1 , . . . , xi , . . . , xj , . . . , xp ) + f (x1 , . . . , xj , . . . , xi , . . . , xp ) .

et donc f (x1 , . . . , xj , . . . , xi , . . . , xp ) = −f (x1 , . . . , xi , . . . , xj , . . . , xp ). Ceci montre que f est anti-symétrique.


• Supposons f anti-symétrique. Soit (x1 , . . . , xp ) ∈ Ep . On suppose qu’il existe (i, j) ∈ J1, pK2 tel quei < j et xi = xj . Alors,

f (x1 , . . . , xi , . . . , xi , . . . , xp ) = f (x1 , . . . , xi , . . . , xj , . . . , xp ) = −f (x1 , . . . , xj , . . . , xi , . . . , xp ) = −f (x1 , . . . , xi , . . . , xi , . . . , xp ) ,

et donc 2f (x1 , . . . , xi , . . . , xi , . . . , xp ) = 0 puis f (x1 , . . . , xi , . . . , xi , . . . , xp ) = 0. Ceci montre que f est alternée. ❏

1.3 Formes n-linéaires alternées sur un espace de dimension n. Déterminant d’une famille
de n vecteurs dans une base
On analyse maintenant le cas particulier des formes n-linéaires alternées sur une espace de dimension n. Si vous vous sentez
dépassés par les pages de calculs qui suivent, vous pouvez aller directement à l’intitulé du théorème 3 et à la définition 4,

c Jean-Louis Rouget, 2018. Tous droits réservés.


3 http ://www.maths-france.fr
page 6. Le but de ce qui suit est de dégager petit à petit l’expression du déterminant d’une famille de vecteurs dans une
base.
On se donne E un espace de dimension n puis B = (e1 , . . . , en ) une base de E. On se donne ensuite f une forme n-linéaire
alternée sur E. Pour (x1 , . . . , xn ) ∈ En , on peut poser
n
X
∀j ∈ J1, nK, xj = ai,j ei ,
i=1

(de sorte que la matrice de la famille (x1 , . . . , xn ) dans la base (e1 , . . . , en ) est A = (ai,j )16i,j6n . Il s’agit alors de calculer
n n n
!
X X X
f (x1 , . . . , xn ) = f ai,1 ei , ai,2 ei , . . . , ai,n ei ,
i=1 i=1 i=1
en tenant compte du fait que f est n-linéaire, alternée et donc aussi anti-symétrique.
Pour appréhender cette expression pénible, commençons par le cas n = 2 (cas des formes bilinéaires alternées sur un
espace de dimension 2).

f (x1 , x2 ) = f (a1,1 e1 + a2,1 e2 , a1,2 e1 + a2,2 e2 )


= a1,1 a1,2 f (e1 , e1 ) + a1,1 a2,2 f (e1 , e2 ) + a2,1 a1,2 f (e2 , e1 ) + a2,1 a2,2 f (e2 , e2 ) (bilinéarité)
= a1,1 a2,2 f (e1 , e2 ) + a2,1 a1,2 f (e2 , e1 ) (f alternée)
= a1,1 a2,2 f (e1 , e2 ) − a2,1 a1,2 f (e1 , e2 ) (f anti-symétrique)
= (a1,1 a2,2 − a2,1 a1,2 ) f (e1 , e2 ) .
Analysons de même le cas n = 3 (cas des formes trilinéaires alternées sur un espace de dimension 3). Le développement
contient 3 × 3 × 3 = 27 termes puis 21 de ces termes disparaissent car f est alternée. A la dernière étape du calcul intervient
l’anti-symétrie de f.

f (x1 , x2 , x3 ) = f (a1,1 e1 + a2,1 e2 + a3,1 e3 , a1,2 e1 + a2,2 e2 + a3,2 e3 , a1,3 e1 + a2,3 e2 + a3,3 e3 )
= a1,1 a1,2 a1,3 f (e1 , e1 , e1 ) + a1,1 a1,2 a2,3 f (e1 , e1 , e2 ) + a1,1 a1,2 a3,3 f (e1 , e1 , e3 )
+ a1,1 a2,2 a1,3 f (e1 , e2 , e1 ) + a1,1 a2,2 a2,3 f (e1 , e2 , e2 ) + a1,1 a2,2 a3,3 f (e1 , e2 , e3 )
+ a1,1 a3,2 a1,3 f (e1 , e3 , e1 ) + a1,1 a3,2 a2,3 f (e1 , e3 , e2 ) + a1,1 a3,2 a3,3 f (e1 , e3 , e3 )
+ a2,1 a1,2 a1,3 f (e2 , e1 , e1 ) + a2,1 a1,2 a2,3 f (e2 , e1 , e2 ) + a2,1 a1,2 a3,3 f (e2 , e1 , e3 )
+ a2,1 a2,2 a1,3 f (e2 , e2 , e1 ) + a2,1 a2,2 a2,3 f (e2 , e2 , e2 ) + a2,1 a2,2 a3,3 f (e2 , e2 , e3 )
+ a2,1 a3,2 a1,3 f (e2 , e3 , e1 ) + a2,1 a3,2 a2,3 f (e2 , e3 , e2 ) + a2,1 a3,2 a3,3 f (e2 , e3 , e3 )
+ a3,1 a1,2 a1,3 f (e3 , e1 , e1 ) + a3,1 a1,2 a2,3 f (e3 , e1 , e2 ) + a3,1 a1,2 a3,3 f (e3 , e1 , e3 )
+ a3,1 a2,2 a1,3 f (e3 , e2 , e1 ) + a3,1 a2,2 a2,3 f (e3 , e2 , e2 ) + a3,1 a2,2 a3,3 f (e3 , e2 , e3 )
+ a3,1 a3,2 a1,3 f (e3 , e3 , e1 ) + a3,1 a3,2 a2,3 f (e3 , e3 , e2 ) + a3,1 a3,2 a3,3 f (e3 , e3 , e3 )
= a1,1 a2,2 a3,3 f (e1 , e2 , e3 ) + a1,1 a3,2 a2,3 f (e1 , e3 , e2 ) + a2,1 a1,2 a3,3 f (e2 , e1 , e3 )
+ a2,1 a3,2 a1,3 f (e2 , e3 , e1 ) + a3,1 a1,2 a2,3 f (e3 , e1 , e2 ) + a3,1 a2,2 a1,3 f (e3 , e2 , e1 )
= (a1,1 a2,2 a3,3 − a1,1 a3,2 a2,3 − a2,1 a1,2 a3,3 + a2,1 a3,2 a1,3 + a3,1 a1,2 a2,3 − a3,1 a2,2 a1,3 ) f (e1 , e2 , e3 ) .

n n n
!
X X X
Passons au cas général où n est quelconque. Quand on développe l’expression f ai,1 ei , ai,2 ei , . . . , ai,n ei par
i=1 i=1 i=1
. . × n} = nn termes. Chaque terme est du type
n-linéarité, on obtient une somme de |n × .{z
n facteurs
ai1 ,1 ai2 ,2 . . . ain ,n f (ei1 , . . . , ein ) ,
ou encore du type

aχ(1),1 aχ(2),2 . . . aχ(n),n f eχ(1) , . . . , eχ(n) ,
où χ est une application quelconque de J1, nK dans lui-même. On peut donc écrire
n n n
!
X X X X 
f ai,1 ei , ai,2 ei , . . . , ai,n ei = aχ(1),1 aχ(2),2 . . . aχ(n),n f eχ(1) , . . . , eχ(n) .
i=1 i=1 i=1 χ∈J1,nKJ1,nK

c Jean-Louis Rouget, 2018. Tous droits réservés.


4 http ://www.maths-france.fr
Dans cette somme, puisque f est alternée, les termes pour lesquels χ n’est pas une application injective (auquel cas, il existe
i 6= j tel que eχ(i) = eχ(j) ) disparaissent. Les termes qui n’ont pas disparu sont ceux pour lesquels χ est une application
injective de J1, nK dans lui-même. On admet (ceci sera démontré dans le chapitre « Dénombrements ») qu’une application
injective de J1, nK dans lui-même est automatiquement bijective ou encore qu’une application injective de J1, nK dans
lui-même est une permutation de J1, nK. Il reste

n n n
!
X X X
f (x1 , . . . , xn ) = f ai,1 ei , ai,2 ei , . . . , ai,n ei
i=1 i=1 i=1
X 
= aσ(1),1 aσ(2),2 . . . aσ(n),n f eσ(1) , . . . , eσ(n)
σ∈Sn
X
= aσ(1),1 aσ(2),2 . . . aσ(n),n ε(σ)f (e1 , . . . , en )
σ∈Sn
!
X
= ε(σ)aσ(1),1 aσ(2),2 . . . aσ(n),n f (e1 , . . . , en ) .
σ∈Sn

X
Pour (x1 , . . . , xn ) ∈ En , posons ∆ (x1 , . . . , xn ) = ε(σ)aσ(1),1 aσ(2),2 . . . aσ(n),n .
σ∈Sn
On vient de démontrer que si f est une forme n-linéaire alternée sur E, nécessairement

∃λ ∈ K/ f = λ∆.
Vérifions maintenant que ∆ est une forme n-linéaire alternée sur E.
• ∆ est une application de En dans K.
• Avec des notations évidentes,

 X  
∆ x1 , . . . , αxj + βxj′ , . . . , xn = ′
ε(σ)aσ(1),1 aσ(2),2 . . . αaσ(j),j + βaσ(j),j . . . aσ(n),n
σ∈Sn
X X

=α ε(σ)aσ(1),1 aσ(2),2 . . . aσ(j),j . . . aσ(n),n + β ε(σ)aσ(1),1 aσ(2),2 . . . aσ(j),j . . . aσ(n),n
σ∈Sn σ∈Sn

= α∆ (x1 , . . . , xj , . . . , xn ) + β∆ x1 , . . . , xj′ , . . . , xn .

∆ est donc effectivement linéaire par rapport à chacune de ses n variables ou encore ∆ est une forme n-linéaire sur E.
• Vérifions que ∆ est alternée. Soit (x1 , . . . , xn ) ∈ En tel qu’il existe (i, j) ∈ J1, nK2 tel que i < j et xi = xj . Soit τ = τi,j
la transposition qui échange les numéros i et j. On a vu dans le chapitre précédent (« Le groupe symétrique ») que les
permutations σ sont de deux types
- les permutations paires de signature 1, l’ensemble des permutations paires étant noté An ,
- les permutations impaires de signature −1, l’ensemble des permutations impaires étant obtenu en composant à droite
chaque permutation paire par la transposition fixée τ.
Ceci fournit

∆ (x1 , . . . , xi , . . . , xi , . . . , xn ) = ∆ (x1 , . . . , xi , . . . , xj , . . . , xn )
X
= ε(σ)aσ(1),1 . . . aσ(i),i . . . aσ(j),j . . . aσ(n),n
σ∈Sn
X
= aσ(1),1 . . . aσ(i),i . . . aσ(j),j . . . aσ(n),n
σ∈An
X
− aσ(1),1 . . . aσ(i),i . . . aσ(j),j . . . aσ(n),n
σ∈Sn \An
X
= aσ(1),1 . . . aσ(i),i . . . aσ(j),j . . . aσ(n),n
σ∈An
X
− aσ(τ(1)),1 . . . aσ(τ(i)),i . . . aσ(τ(j)),j . . . aσ(τ(n)),n
σ∈An

c Jean-Louis Rouget, 2018. Tous droits réservés.


5 http ://www.maths-france.fr
et donc

X
∆ (x1 , . . . , xi , . . . , xi , . . . , xn ) = aσ(1),1 . . . aσ(i),i . . . aσ(j),j . . . aσ(n),n
σ∈An
X
− aσ(1),1 . . . aσ(j),i . . . aσ(i),j . . . aσ(n),n
σ∈An
X
= aσ(1),1 . . . aσ(i),i . . . aσ(j),j . . . aσ(n),n
σ∈An
X
− aσ(1),1 . . . aσ(i),j . . . aσ(j),i . . . aσ(n),n
σ∈An
X
= aσ(1),1 . . . aσ(i),i . . . aσ(j),j . . . aσ(n),n
σ∈An
X
− aσ(1),1 . . . aσ(i),i . . . aσ(j),j . . . aσ(n),n (car xi = xj )
σ∈An

= 0.

Ceci montre que ∆ est une forme alternée. Il est alors immédiat que pour tout λ ∈ K, λ∆ est encore une forme n-linéaire
alternée.
En résumé, pour tout application f de En dans K, f est une forme n-linéaire alternée si et seulement si il existe λ ∈ K tel
que f = λ∆.
Montrons enfin que ∆ n’est pas nulle. Pour cela, calculons ∆ (e1 , . . . , en ). Dans ce cas, pour tout (i, j) ∈ J1, nK2 , on a
ai,j = δi,j (la i-ème coordonnée de ej dans la base (e1 , . . . , en ) est δi,j ) ou encore Mat(e1 ,...,en ) (e1 , . . . , en ) = In . Donc
X
∆ (e1 , . . . , en ) = ε(σ)δσ(1),1 δσ(2),2 . . . δσ(n),n .
σ∈Sn

Dans cette somme de n! termes, si σ est une permutation telle qu’il existe i ∈ J1, nK tel que σ(i) 6= i, alors le produit
δσ(1),1 δσ(2),2 . . . δσ(n),n est nul. Il ne reste que le terme où ∀i ∈ J1, nK, σ(i) = i ou encore il ne reste que le terme
correspondant à σ = IdJ1,nK . Donc,

∆ (e1 , . . . , en ) = ε IdJ1,nK δ1,1 δ2,2 . . . δn,n = 1.
Ceci montre que ∆ n’est pas nulle. Enfin, Si f est une forme n-linéaire alternée non nulle, il existe λ ∈ K tel que f = λ∆
puis

f (e1 , . . . , en ) = 1 ⇔ λ∆ (e1 , . . . , en ) = 1 ⇔ λ = 1 ⇔ f = ∆.
On peut énoncer le théorème fondamental puis définir la forme déterminant dans la base B :
Théorème 3. Soit E un K-espace vectoriel de dimension finie non nulle n ∈ N∗ . Soit B = (e1 , . . . , en ) une base fixée
de E.
• Il existe une et une seule forme n-linéaire alternée ∆ sur E vérifiant ∆ (e1 , . . . , en ) = 1.
De plus, pour tout (x1 , . . . , xn ) ∈ En , si MatB (x1 , . . . , xn ) = (ai,j )16i,j6n , alors
X
∆ (x1 , . . . , xn ) = ε(σ)aσ(1),1 aσ(2),2 . . . aσ(n),n .
σ∈Sn

• L’ensemble des formes n-linéaires alternées sur E est {λ∆, λ ∈ K} ou encore l’ensemble des formes n-linéaires alternées
sur E est un K-espace vectoriel de dimension 1, de base (∆).
• Pour toute f, forme n-linéaire alternée sur E, on a

f = f (e1 , . . . , en ) ∆.

c Jean-Louis Rouget, 2018. Tous droits réservés.


6 http ://www.maths-france.fr
Définition 4. Soit E un K-espace vectoriel de dimension finie non nulle n ∈ N∗ . Soit B = (e1 , . . . , en ) une base fixée
de E.
L’unique forme n-linéaire alternée sur E prenant la valeur 1 en la base B s’appelle la forme déterminant dans la
base B et se note detB .
n
X
n
De plus, pour (x1 , . . . , xn ) ∈ E , si on pose ∀j ∈ J1, nK, xj = ai,j ei , alors
i=1
X
detB (x1 , . . . , xn ) = ε(σ)aσ(1),1 aσ(2),2 . . . aσ(n),n .
σ∈Sn
 
a1,1 a1,2
Quand n = 2 (E est de dimension 2), si Mat(e1 ,e2 ) (x1 , x2 ) = , alors
a2,1 a2,2
det(e1 ,e2 ) (x1 , x2 ) = a1,1 a2,2 − a2,1 a1,2 .
 
a1,1 a1,2 a1,3
Quand n = 3 (E est de dimension 3), si Mat(e1 ,e2 ,e3 ) (x1 , x2 , x3 ) =  a2,1 a2,2 a2,3 , alors
a3,1 a3,2 a3,3

det(e1 ,e2 ,e3 ) (x1 , x2 , x3 ) = a1,1 a2,2 a3,3 − a1,1 a3,2 a2,3 + a2,1 a3,2 a1,3 − a2,1 a1,2 a3,3 + a3,1 a1,2 a2,3 − a3,1 a2,2 a1,3 .

1.4 Changement de base

Théorème 4. Soit E un K-espace vectoriel de dimension finie non nulle n ∈ N∗ . Soient B et B ′ deux bases de E. Alors

detB ′ = detB ′ (B) detB


ou encore

∀ (x1 , . . . , xn ) ∈ En , detB ′ (x1 , . . . , xn ) = detB ′ (B) detB (x1 , . . . , xn ) .


Démonstration . detB ′ est une forme n-linéaire alternée sur E. D’après le théorème 3, il existe λ ∈ K tel que detB ′ = λ detB .
En évaluant les deux membres de cette égalité en B, on obtient detB ′ (B) = λ detB (B) = λ et donc detB ′ = detB ′ (B) detB .

➱ Commentaire . Il est important de noter que quand on change de base, le déterminant d’une famille de vecteurs peut changer.

Une conséquence importante du théorème 4 est


Théorème 5. Soit E un K-espace vectoriel de dimension finie non nulle n ∈ N∗ . Soient B et B ′ deux bases de E. Alors

detB ′ (B) × detB (B ′ ) = 1


et en particulier,

detB (B ′ ) 6= 0.
Démonstration . D’après le théorème 4, detB ′ = detB ′ (B) detB . En évaluant les deux membres de cette égalité en B ′ , on
obtient detB ′ (B) detB (B ′ ) = detB ′ (B ′ ) = 1.

1.5 Critère d’indépendance d’une famille de n vecteurs en dimension n


La première utilisation des déterminants est fournie par le théorème suivant. Quand on saura calculer des déterminants
dans quelques paragraphes, on aura un outil très performant pour établir qu’une famille de n vecteurs est ou n’est pas
une base de E :
Théorème 6. Soit E un K-espace vectoriel de dimension finie non nulle n ∈ N∗ . Soit B une base de E. Alors

∀ (x1 , . . . , xn ) ∈ En , (x1 , . . . , xn ) base de E ⇔ detB (x1 , . . . , xn ) 6= 0.

c Jean-Louis Rouget, 2018. Tous droits réservés.


7 http ://www.maths-france.fr
Démonstration . Si (x1 , . . . , xn ) est une certaine base B ′ de E, le théorème 5 montre que detB (x1 , . . . , xn ) 6= 0.
Si (x1 , . . . , xn ) n’est pas une base de E, alors la famille (x1 , . . . , xn ) est liée (car card (x1 , . . . , xn ) = n = dim(E) < +∞). Donc, il
existe j ∈ J1, nK tel que xj est combinaison linéaire des autres vecteurs de la famille.
X
Posons xj = λi xi . Alors
16i6n
i6=j
 
 X 
detB (x1 , . . . , xj , . . . , xn ) = detB 
x1 , . . . , λi xi , . . . , xn 

16i6n
i6=j
X
= λi detB (x1 , . . . , xi , . . . , xi , . . . xn ) (linéarité par rapport au j-ème vecteur)
16i6n
i6=j

= 0 (detB est alternée). j

2 Déterminant d’une matrice carrée


2.1 Définitions et notations
Définition 5. Soit A = (ai,j )16i,j6n ∈ Mn (K).
Le déterminant de la matrice A, noté det(A), est le déterminant de la famille des colonnes de A dans la base
canonique de Mn,1 (K). Plus explicitement,
X
det(A) = ε(σ)aσ(1),1 . . . aσ(n),n .
σ∈Sn
 
a1,1 . . . a1,n a1,1 . . . a1,n
 .. .
..  se note ... ..

Le déterminant de la matrice  . .

.
an,1 . . . an,n an,1 . . . an,n
 
a c a c
Quand n = 2, det = = ad − bc.
b d b d
X
De manière générale, ε(σ)aσ(1),1 . . . aσ(n),n est une somme de n! termes (2 termes si n = 2, 6 termes si n = 3,
σ∈Sn
24 termes si n = 4, . . . ). aσ(1),1 . . . aσ(n),n est obtenu de la façon suivante : on effectue le produit d’un coefficient de
la première colonne, d’un coefficient de la deuxième colonne . . . et d’un coefficient de la dernière colonne, ces coefficients
appartenant à des lignes deux à deux distinctes ou encore aσ(1),1 . . . aσ(n),n est un produit de n facteurs choisis de sorte
que l’on ait exactement un coefficient par ligne et par colonne. On fait alors précéder ce terme d’un signe + ou − suivant
la parité de la permutation σ utilisée.

a1,1 a1,2 a1,3

Quand n = 3, a2,1 a2,2 a2,3 est une somme de 6 termes. Trois de ces termes sont précédés d’un signe + et trois
a3,1 a3,2 a3,3
d’un signe −.
Si σ = IdJ1,3K , le terme correspondant
•  est ε(σ)aσ(1),1 aσ(2),2 aσ(3),3 = a1,1 a2,2 a3,3 .
Si σ est le cycle 2 3 1 , le terme correspondant est a2,1 a3,2 a1,3 .

Si σ est le cycle 3 1 2 , le terme correspondant est a3,1 a1,2 a2,3 .

Si σ = τ1,2 , le terme correspondant est −a2,1 a1,2 a3,3 .

Si σ = τ1,3 , le terme correspondant est −a3,1 a2,2 a1,3 .

Si σ = τ2,3 , le terme correspondant est −a1,1 a3,2 a2,3 .


a1,1 a1,2 a1,3

Donc, a2,1 a2,2 a2,3 = a1,1 a2,2 a3,3 + a2,1 a3,2 a1,3 + a3,1 a1,2 a2,3 − a2,1 a1,2 a3,3 − a3,1 a2,2 a1,3 − a1,1 a3,2 a2,3 .
a3,1 a3,2 a3,3
On peut signaler une méthode, dite méthode de Sarrus, permettant de faire le tri entre ces différents termes. Nous
signalons la méthode car elle fait partie de la culture générale des classes préparatoires en maths mais cette méthode
s’avère être sans intérêt au bout du compte et nous ne l’utiliserons jamais.

c Jean-Louis Rouget, 2018. Tous droits réservés.


8 http ://www.maths-france.fr
La méthode de Sarrus peut être présentée de différentes manières. Les trois termes affectés d’un + peuvent être repérés
de manière géométrique dans le déterminant :

a1,1 a1,2 a1,3 a1,1 a1,2 a1,3 a1,1 a1,2 a1,3

a2,1 a2,2 a2,3 a2,1 a2,2 a2,3 a2,1 a2,2 a2,3

a3,1 a3,2 a3,3 a3,1 a3,2 a3,3 a3,1 a3,2 a3,3

Ce sont les trois termes « parallèles à la diagonale principale » :



a1,1 a1,2 a1,3

a2,1 a2,2 a2,3

a3,1 a3,2 a3,3

Les trois autres termes, précédés d’un signe −, sont les termes « parallèles à l’autre diagonale » :

a1,1 a1,2 a1,3

a2,1 a2,2 a2,3

a3,1 a3,2 a3,3

Ce « parallélisme » peut être présenté d’une autre façon. On écrit les coefficients du déterminant précédent et on complète
le tableau obtenu par deux lignes supplémentaires où on a recopié les deux premières lignes :

+ −

+ a1,1 a1,2 a1,3 −

+ a2,1 a2,2 a2,3 −


a3,1 a3,2 a3,3

a1,1 a1,2 a1,3

a2,1 a2,2 a2,3

2.2 Lien avec le déterminant d’une famille de vecteurs dans une base
Le théorème suivant est immédiat :
Théorème 7. Soient E un K-espace vectoriel de dimension finie non nulle n puis B une base de E.
Soient (x1 , . . . , xn ) ∈ En puis A = MatB (x1 , . . . , xn ). Alors,

detB (x1 , . . . , xn ) = det(A).

Théorème 8. Pour toute A ∈ Mn (K),

A ∈ GLn (K) ⇔ det(A) 6= 0.


Démonstration . En notant C1 , . . . , Cn , les colonnes de A et (E1 , . . . , En ) la base canonique de Mn,1 (K),

det(A) 6= 0 ⇔ det(E1 ,...,En ) (C1 , . . . , Cn ) 6= 0 ⇔ (C1 , . . . , Cn ) base de Mn,1 (K) ⇔ A ∈ GLn (K).

2.3 Propriétés du déterminant d’une matrice carrée


On s’intéresse au comportement du déterminant avec différentes opérations : ×, ., + et la transposition.
Théorème 9. Pour toute A ∈ Mn (K),
t

det A = det(A).

Posons A = (ai,j )16i,j6n puis t A = ai,j



où ∀(i, j) ∈ J1, nK2 , ai,j


Démonstration . 16i,j6n
= aj,i .

t  X ′ ′
X
det A = ε(σ)aσ(1),1 . . . aσ(n),n = ε(σ)a1,σ(1) . . . an,σ(n) .
σ∈Sn σ∈Sn

c Jean-Louis Rouget, 2018. Tous droits réservés.


9 http ://www.maths-france.fr
Analysons un terme ε(σ)a1,σ(1) . . . an,σ(n) de cette somme. En posant σ(1) = j1 , . . . , σ(n) = jn de sorte que σ−1 (j1 ) = 1, . . . ,
σ−1 (jn ) = n, on peut écrire a1,σ(1) . . . an,σ(n) = aσ−1 (j1 ),j1 . . . aσ−1 (jn ),jn .
En réordonnant ce dernier produit par ordre croissant des numéros de colonnes (et en tenant compte du fait que  {j1 , . . . , jn } =
{σ(1), . . . , σ(n)} = {1, . . . , n}), on obtient a1,σ(1) . . . an,σ(n) = aσ−1 (1),1 . . . aσ−1 (n),n . Enfin, on rappelle que ε σ−1 = ε(σ) et on a
donc

t  X  −1 
det A = ε σ aσ−1 (1),1 . . . aσ−1 (n),n .
σ∈Sn

Maintenant, l’application Sn → Sn est bijective car involutive et donc, en posant σ ′ = σ−1 ,


σ 7→ σ−1
X
det t A = ε σ ′ aσ ′ (1),1 . . . aσ ′ (n),n = det(A).
 

σ ′ ∈Sn

Le déterminant se comporte très bien aussi avec la multiplication des matrices :


Théorème 10.
• ∀(A, B) ∈ (Mn (K))2 , det(AB) = det(A) × det(B).
• det (In ) = 1.
1
• ∀A ∈ GLn (K), det A−1 =

.
det(A)
p p
• ∀A ∈ Mn (K), ∀p ∈ N, det (Ap ) = (det(A)) et ∀A ∈ GLn (K), ∀p ∈ Z, det (Ap ) = (det(A)) .
Démonstration .

• Soit (A, B) ∈ (Mn (K))2 . Si A ou B n’est pas inversible, Min{rg(A), rg(B)} < n puis rg(AB) 6 Min{rg(A), rg(B)} < n et donc AB
n’est pas inversible. Dans ce cas,

det(AB) = 0 = det(A)det(B).

Supposons maintenant A et B inversibles. Soient B la base canonique de Kn puis B ′ la base de Kn telle que A = PB
B puis B
′′
la
n B ′′ B ′′
base de K telle que B = PB ′ . Alors AB = PB puis, d’après le théorème 4,
 ′′   ′  ′′ 
det(AB) = det PB = detB B ′′ = detB B ′ detB ′ B ′′ = det PB det PB
  
B B B′ = det(A)det(B).

• Si B est la base canonique de Kn , In = PB


B puis
 
det (In ) = det PB
B = detB (B) = 1.

• Soit A ∈ GLn (K). Alors,


   
det(A) × det A−1 = det AA−1 = det (In ) = 1.

• Soit A ∈ Mn (K). Par récurrence, ∀p ∈ N, det (Ap ) = (det(A))p . Si de plus A est inversible, pour p entier naturel strictement
négatif,
 −1  −1 −1
det (Ap ) = det A−p = det A−p = (detA)−p = (detA)p .

On en déduit en particulier :
Théorème 11. Deux matrices semblables ont même déterminant.
Démonstration . Soit (A, B) ∈ (Mn (K))2 . On suppose qu’il existe P ∈ GLn (K) telle que B = P−1 AP. Alors

    1
det(B) = det P−1 AP = det P−1 det(A)det(P) = det(A)det(P) = det(A).
det (P)

Pour les deux dernières opérations, + et ., les calculs se passent moins bien. Déjà, en général, det(λA) 6= λdet(A) (alors
que Tr(λA) = λTr(A)). Par exemple, det (2I2 ) = 4 6= 2 = 2det (I2 ). Mais :

c Jean-Louis Rouget, 2018. Tous droits réservés.


10 http ://www.maths-france.fr
Théorème 12. ∀A ∈ Mn (K), ∀λ ∈ K, det (λA) = λn det(A).
Démonstration . On note C1 , . . . , Cn , les colonnes de A et B la base canonique de Mn,1 (K). Par n-linéarité,

det(λA) = detB (λC1 , . . . , λCn ) = λ × . . . × λ detB (C1 , . . . , Cn ) = λn det(A).


Il reste à préciser le comportement du déterminant avec l’addition


des matrices. Dans la plupart
des cas, det(A + B) 6=
1 0 0 0
det(A) + det(B). Par exemple, au format 2, det (E1,1 ) = = 0 et det (E2,2 ) =
0 1 = 0 mais

0 0
det (E1,1 + E2,2 ) = det (I2 ) = 1 6= det (E1,1 ) + det (E2,2 ) .
En fait, aucun résultat agréable ne peut être énoncé concernant le déterminant d’une somme de matrices. On peut
démontrer que, si n > 2, il existe une et une seule matrice carrée A telle que pour toute matrice carrée B, det(A + B) =
det(A) + det(B) à savoir A = 0.

3 Déterminant d’un endomorphisme


3.1 Définition

Soient E un K-espace vectoriel de dimension finie non nulle puis f ∈ L(E). Soient B et B ′ deux bases de E. Soient A
la matrice de f dans B et B la matrice de f dans B ′ . On sait que les matrices A et B sont semblables (B = P−1 AP où

P = PBB ) et donc A et B ont le même déterminant d’après le théorème 11. Ceci motive la définition suivante :

Définition 6. Soit E un K-espace vectoriel de dimension finie non nulle. Soit f ∈ L(E).
Le déterminant de f est le déterminant de sa matrice dans une base donnée B de E ou encore le nombre detB (f(B))
où B est une base donnée de E. Ce nombre ne dépend pas du choix de la base B.

3.2 Propriétés du déterminant d’un endomorphisme


Les propriétés usuelles du déterminant d’un endomorphisme se déduisent alors immédiatement des propriétés du détermi-
nant d’une matrice carrée (théorème 10, 11 et 12) :
Théorème 13. Soit E un K-espace vectoriel de dimension finie non nulle.

∀f ∈ L(E), (f ∈ GL(E) ⇔ det(f) 6= 0) .

Théorème 14. Soit E un K-espace vectoriel de dimension finie non nulle.


2
• ∀(f, g) ∈ (L(E)) , det(g ◦ f) = det(f) × det(g).
• det (IdE ) = 1.
1
• ∀f ∈ GL(E), det f−1 =

.
det(f)

Théorème 15. Soit E un K-espace vectoriel de dimension finie non nulle.


∀f ∈ L(E), ∀λ ∈ K, det(λf) = λn det(f).

4 Calculs de déterminants
Dans ce paragraphe, on apprend les différentes techniques de calcul d’un déterminant (qui se rajoutent à la possibi-
X
lité d’utiliser l’expression développée de det(A) : det(A) = ε(σ)aσ(1),1 . . . aσ(n),n ). On commence par un type de
σ∈Sn
déterminants de référence, les déterminants triangulaires.

c Jean-Louis Rouget, 2018. Tous droits réservés.


11 http ://www.maths-france.fr
4.1 Déterminant d’une matrice triangulaire
Théorème 16. Le déterminant d’une matrice triangulaire est égal au produit de ses coefficients diagonaux. En
particulier, le déterminant d’une matrice diagonale est égal au produit de ses coefficients diagonaux.

Démonstration . Soit A = (ai,j )16i,j6n ∈ Mn (K). Supposons A triangulaire supérieure. Alors, pour tout (i, j) ∈ J1, nK2 , si
i > j, on a ai,j = 0.
X
det(A) = ε(σ)aσ(1),1 . . . aσ(n),n (∗).
σ∈Sn

Soit σ ∈ Sn . S’il existe i ∈ J1, nK tel que σ(i) > i, alors aσ(i),i = 0 puis ε(σ)aσ(1),1 . . . aσ(n),n = 0. Dans la somme ci-dessus, ne
persistent donc que les termes pour les quels σ vérifie : ∀i ∈ J1, nK, σ(i) 6 i.
Soit donc σ un élément de Sn tel que ∀k ∈ J1, nK, σ(k) 6 k. Montrons alors par récurrence finie que ∀k ∈ J1, nK, σ(k) = k.
• σ(1) 6 1 et σ(1) > 1. Donc, σ(1) = 1.
• Soit k ∈ J1, n − 1K (si n = 1, il n’y a plus rien à faire). Supposons que ∀i ∈ J1, kK, σ(i) = i. Alors, σ(k + 1) ∈ J1, k + 1K mais,
σ devant être injective, σ(k + 1) ∈ / J1, kK. Donc, σ(k + 1) = k + 1.
Le résultat est démontré par récurrence.
Ainsi, dans la somme (∗), seul un terme persiste, le terme correspondant à σ = IdJ1,nK et donc
n
Y

det(A) = ε IdJ1,nK aIdJ1,nK (1),1 . . . aIdJ1,nK (n),n = ai,i .
i=1
t
A où t A est triangulaire supérieure.

Si A est triangulaire inférieure, on applique l’égalité det(A) = det

En particulier,
Théorème 17. Une matrice triangulaire est inversible si et seulement si ses coefficients diagonaux sont tous non nuls.

4.2 Transformations élémentaires sur les lignes et les colonnes


On étudie l’effet de différentes transformations des lignes ou des colonnes d’un déterminant sur la valeur de ce déterminant.
• Permutation des colonnes (ou des lignes) d’un déterminant. Puisque det est une forme n-linéaire anti-symétrique des
colonnes de la matrice, on a
 
∀σ ∈ Sn , det Cσ(1) . . . Cσ(n) = ε(σ)det C1 . . . Cn
et
  
Lσ(1) L1
..  . 
∀σ ∈ Sn , det   = ε(σ)det  ..  .
 
.
Lσ(n) Ln

1 3 −1 3 1 −1

Par exemple (en effectuant la transformation C1 ↔ C2 ), 2 0 5 = − 0 2 5
= −3 × 2 × 1 = −6.

0 0 1 0 0 1
 
• Si i 6= j, det C1 . . . Ci . . . Cj . . . Cn = det C1 . . . Ci . . . Cj + Ci . . . Cn
   
L1 L1
 ..   .. 
 .   . 
   
 Li   Li + Lj 
et de même, det  ...  = det  ..
   
.
   
   . 
 Lj   Lj 
   
 .  .
 ..  ..
 
 
Ln Ln
En effet, par linéarité par rapport à la j-ème colonne,

c Jean-Louis Rouget, 2018. Tous droits réservés.


12 http ://www.maths-france.fr
 
det C1 . . . Ci . . . Cj + Ci . . . Cn = det C1 . . . Ci . . . Cj . . . Cn

+ det C1 . . . Ci . . . Ci . . . Cn

= det C1 . . . Ci . . . Cj . . . Cn

(puisque det est alternée, le déterminant det C1 . . . Ci . . . Ci . . . Cn est nul car deux de ses colonnes sont
égales).
Par exemple, en appliquant les transformations C2 ← C2 + C1 , C3 ← C3 + C1 et C4 ← C4 + C1 , on obtient

1 −1 −1 −1 1 0 0 0

1 1 −1 −1 1 2 0 0
= = 1 × 2 × 2 × 2 = 8.
1 1
1 −1 1 2 2 0
1 1 1 1 1 2 2 2
 
• La linéarité par rapport à une colonne fournit aussi det C1 . . . λCj . . . Cn = λ det C1 . . . Cj . . . Cn
   
L1 L1
 ..   .. 
 .   . 
   
et de même pour une ligne det  λLi  = λ det 
 
 Li .

 .   . 
 ..   .. 
Ln Ln
Ces transformations fournissent de nouvelles idées pour calculer des déterminants. On utilise ces transformations pour
essayer le ramener le calcul d’un déterminant à celui d’un déterminant triangulaire. Par exemple :
Exercice 1. Calculer le déterminant de format n > 2 :

1 1 ... 1
.

1 0 . . . ..

∆n = . .
.. . . . . . . 1


1 ... 1 0

Solution 1. On applique les transformations : ∀j ∈ J2, nK, Cj ← Cj − C1 . Ces transformations ne modifient pas la valeur
de ∆n et on obtient :

1 0 . . . . . . 0
1 1 . . . 1 .. ..

. .. 1 −1
. .

1 0 . . . . . . .
.. = (−1)n−1 .
∆n = . = .. 0 .. ..

.. . . . . . . 1 .
.. .
1 . . . 1 0 .. . . . 0

1 0 . . . 0 −1

➱ Commentaire . Dans l’exercice, on a effectué en même temps plusieurs transformations élémentaires sur les colonnes.
On a doit avoir conscience qu’après chaque transformation effectuée une ancienne colonne a disparu et une nouvelle colonne est
apparue. L’ordre dans lequel on effectue ces transformations peut donc avoir de l’importance. Ce n’était pas le cas dans l’exercice
1 car la colonne C1 n’était jamais modifiée. Effectuer la transformation C2 ← C2 − C1 puis C3 ← C3 − C1 aboutit au même résultat
que si on effectue la transformation C3 ← C3 − C1 puis C2 ← C2 − C1 . Le problème se posera par contre dans l’exercice suivant.

Exercice 2. Calculer le déterminant de format n > 2 :



n
n−1 n−2 ... 2 1

n−1 n−1 n−2 2 1
.. ..


n−2 n−2 n−2 . .
∆n = .. .. . ..
.
..
. ..


. . .

2 2 2 ... 2 1

1 1 1 ... 1 1

c Jean-Louis Rouget, 2018. Tous droits réservés.


13 http ://www.maths-france.fr
Solution 2. On effectue successivement les transformations C1 ← C1 − C2 , puis C2 ← C2 − C3 puis Cn−1 ← Cn−1 − Cn ,
ce qui ne modifie pas la valeur du déterminant. On obtient :

n
n − 1 n − 2 . . . 2 1 1 1 1 . . . 1 1
n−1 n−1 n−2 2 1 0 1 1 1 1
.. .. .. ..


n−2 n−2 n−2 . . 0 0 1 . .
∆n = . . . = = 1.
.. .. .. .. .. .. .. . . . . . . .. ...
. . . .


.
2 2 2 . . . 2 1 0 0 0 . . . 1 1

1 1 1 ... 1 1 0 0 0 ... 0 1

➱ Commentaire . Dans l’exercice 2, l’ordre dans lequel on effectue les transformations est essentiel. Si on effectue les transfor-
mations C1 ← C1 − C2 puis C2 ← C2 − C3 , on aboutit au déterminant

1 1 n−2 ... 2 1


0 1 n−2 2 1


.. ..



0 0 n−2 . .
.
.. .. .. .. ..

. . . . .


0 0 2 ... 2 1

0 0 1 ... 1 1

Mais si on effectue les transformations C2 ← C2 − C3 puis C1 ← C1 − C2 , la colonne C2 dont il est question dans la deuxième
transformation n’est plus la colonne 2 initiale. On aboutit au déterminant

n−1 1 n−2 ... 2 1




n−2 1 n−2 2 1


.. ..


n−2 0 n−2 . .

.. .. .. .. ..

. . . . .

2 0 2 ... 2 1

1 0 1 ... 1 1

et ce n’est pas ce que l’on voulait.

4.3 Déterminants par blocs


Théorème 18. Soient n et p deux entiers naturels non nuls tels que p < n. Soit A l’élément de Mn (K) défini par
blocs par
 
B C
A=
0n−p,p D
où B ∈ Mp (K), D ∈ Mn−p (K) et C ∈ Mp,n−p (K).
Alors, det(A) = det(B) × det(D).
Démonstration . Fixons les matrices C et D. On note X1 , . . . , Xp les colonnes de la matrice B ou encore on pose
B = X1 . . . Xp . On considère l’application ϕ : (Mp,1 (K))p →

 K  .
B C
(X1 , . . . , Xp ) 7→ det
0n−p,p D
• Soient j ∈ J1, nK puis X1 , . . . , Xj , Xj′ , . . . , Xp ∈ (Mp,1 (K))p+1 et soit (λ, µ) ∈ K2 . Soit B (resp. B ′ , B ′′ ) l’élément de Mp (K) dont


les colonnes sont X1 , . . . , Xj , . . . , Xp (resp. X1 , . . . , Xj′ , . . . , Xp et X1 , . . . , λXj + µXj′ , . . . , Xp ). La j-ème colonne de la matrice
B ′′
 
C
est
0n−p,p D
λXj + µXj′ Xj′
     
Xj
=λ +µ .
0n−p,1 0n−p,1 0n−p,1
Par linéarité du déterminant par rapport à la j-ème colonne, on a donc

ϕ X1 , . . . , λXj + µXj′ , . . . , Xp = λϕ (X1 , . . . , Xj , . . . , Xp ) + µϕ X1 , . . . , Xj′ , . . . , Xp .


 

Ceci montre que ϕ est une forme p-linéaire sur Mp,1 (K).

c Jean-Louis Rouget, 2018. Tous droits réservés.


14 http ://www.maths-france.fr
 
p 2 B C
• Soit (X1 , . . . , Xp ) ∈ (Mp,1 (K)) tel qu’il existe (i, j) ∈ J1, pK tel que i 6= j et Xi = Xj . La i-ème colonne de la matrice
0n−p,p
D
   
Xi Xj
est et la j-ème est . Ces deux colonnes sont égales et donc le déterminant est nul. Ceci montre que ϕ est
0n−p,1 0n−p,1
alternée.
En résumé, ϕ est une forme p-linéaire alternée sur Mp (K) qui est de dimension p. On sait alors qu’il existe λ ∈ K tel que ϕ = λ detB
où B désigne la base canonique de Mp,1 (K). En évaluant en B les deux membres de cette égalité, on obtient
 
Ip C
λ = ϕ(B) = det .
0n−p,p D
 
Ip C
Ceci montre que pour tout (X1 , . . . , Xp ) ∈ Mp (K)p , ϕ (X1 , . . . , Xp ) = det detB (X1 , . . . , Xp ) ou encore, pour toute
0n−p,p D
   
B C Ip C
matrice B ∈ Mp (K), det = det(B)det .
0n−p,p D 0n−p,p D
 
Ip C
De même, l’application D 7→ det « est » une forme n − q-linéaire alternée des lignes de D. Donc, il existe µ ∈ K tel
0 D
 n−p,p   
Ip C Ip C
que pour tout D ∈ Mn−p (K), det = µ det(D). En évaluant en In−p , on obtient µ = det .
0n−p,p D 0n−p,p In−p
Ceci montre que pour toutes matrices B, C et D,
   
B C Ip C
det = det(B)det(D)det .
0n−p,p D 0n−p,p In−p
 
Ip C
Enfin, la matrice est triangulaire supérieure et ses coefficients diagonaux sont tous égaux à 1.
0n−p,p In−p
 
Ip C
Donc, det = 1 et finalement
0n−p,p In−p
 
B C
det = det(B)det(D).
0n−p,p D

➱ Commentaire . Le résultat précédent se généralise à toute matrice triangulaire par blocs : le déterminant d’une telle matrice
est le produit des déterminants des blocs diagonaux.

4.4 Développement suivant une ligne ou une colonne


4.4.1 Mineurs, cofacteurs

Définition 7. Soit A = (ak,l )16k,l6n ∈ Mn (K). Soit (i, j) ∈ J1, nK2 .


Le mineur mi,j associé au coefficient ai,j est le déterminant de format n − 1 obtenu en supprimant dans la matrice
A sa i-ème ligne et sa j-ème colonne :

a1,1 ... a1,j−1 a1,j+1 ... a1,n
.. .. .. ..



. . . .

ai−1,1 . . . ai−1,j−1 ai−1,j+1 . . . ai−1,n
mi,j = .
ai+1,1 . . . ai+1,j−1 ai+1,j+1 . . . ai+1,n

.. .. .. ..

. . . .

an,1 ... an,j−1 an,j+1 ... an,n

Le cofacteur Ai,j du coefficient ai,j est :



a1,1 ... a1,j−1 a1,j+1 ... a1,n
.. .. .. ..



. . . .

ai−1,1 . . . ai−1,j−1 ai−1,j+1 . . . ai−1,n
Ai,j = (−1)i+j mi,j = (−1)i+j

.
ai+1,1 . . . ai+1,j−1 ai+1,j+1 . . . ai+1,n
.. .. .. ..



. . . .

an,1 ... an,j−1 an,j+1 ... an,n

c Jean-Louis Rouget, 2018. Tous droits réservés.


15 http ://www.maths-france.fr

−1 3 0

Exemple. Le cofacteur du coefficient ligne 1, colonne 2, du déterminant 5 −1 4 est
2 2 1

5 4 5 4
A1,2 = (−1)1+2

= − = 3.
2 1 2 1

Analysons la répartition des signes attribués aux cofacteurs. (−1)i+j vaut 1 (ou encore « + ») quand i + j est pair et vaut
−1 (ou encore « − ») quand i + j est impair. Une situation où i + j est pair est quand i = j (cofacteur d’un coefficient de
la diagonale principale). Les cofacteurs des coefficients diagonaux sont les mineurs de ces coefficients affectés d’un +.
A partir de cette diagonale, quand on avance ou recule de 1 dans une ligne ou que l’on monte ou descend de 1 dans une
colonne, i + j change de parité et donc (−1)i+j change de signe. On obtient donc la répartition de signes suivantes :

+ − + . . . (−1)n (−1)n+1



− + − + (−1)n



.. .. ..
+ − + . . .


.. .. .. .. .. .

. . . . . +


. .

(−1)n
.. .. + −




(−1)n+1 (−1)n . . . + − +

4.4.2 La formule de développement suivant une ligne ou une colonne

Théorème 19. Soit A = (ak,l )16i,j6n ∈ Mn (K).


n
X
• ∀i ∈ J1, nK, det(A) = ai,j Ai,j (formule de développement suivant la i-ème ligne).
j=1
n
X
• ∀j ∈ J1, nK, det(A) = ai,j Ai,j (formule de développement suivant la j-ème colonne).
i=1

Démonstration . Commençons par développer suivant la première colonne C1 . Cette première colonne s’écrit

     
1 0 0

a1,1
  0  ..   . 
 .. 
 .. 



..


 . 
  
 .  
 .



 0






   . 
C1 = 
 ai,1
 = a1,1  + a 1  + an,1  .  = a1,1 E1 + . . . + ai,1 Ei + . . . + an,1 En
   
 i,1 
 .
  .   . 
0
 
 ..  .. 
      

..
   
     
an,1    .   0 
0 0 1
où (E1 , . . . , En ) est la base canonique de Mn,1 (K). Par linéarité par rapport à la première colonne, on a
n
X
det(A) = ai,1 ∆i
i=1

0 a1,2 ... ... a1,n

 . .. ..
 .

 . . .


 0 ai−1,2 . . . . . . ai−1,n


où ∆i =  1 ai,2 ... ... ai,n .

 0 ai+1,2 . . . . . . ai+1,n


 .. .. ..


 . . .

0 an,2 ... . . . an,n
On applique aux lignes du déterminant ∆i le cycle (2 3 . . . i 1 i + 1 . . . n) de longueur i et donc de signature (−1)i−1 . On obtient

c Jean-Louis Rouget, 2018. Tous droits réservés.


16 http ://www.maths-france.fr


1 ai,2 ... ... ai,n

0 a1,2 ... ... a1,n
.. .. ..
. . .


i−1
∆i = (−1) 0 ai−1,2 ... . . . ai−1,n


0 ai+1,2 ... . . . ai+1,n


.. .. ..



. . .

0 an,2 ... ... an,n
a1,2 ... ... a1,n


.. ..



. .

i−1
ai−1,2 ... ... ai−1,n
= (−1) (déterminant par blocs)

ai+1,2 ... ... ai+1,n
.. ..

. .

an,2 ... ... an,n

i−1
= (−1) mi,1 = Ai,1 (car (−1)i−1 = (−1)i+1 ).
n
X n
X
Finalement, det(A) = ai,1 (−1)i+1 mi,1 = ai,1 Ai,1 ce qui montre la formule de développement suivant la première colonne.
i=1 i=1

Passons au cas général. Soit j ∈ J1, nK. On applique aux colonnes de det(A) le cycle (2 3 . . . j 1 j + 1 . . . n) de longueur j et donc
de signature (−1)j−1 et on obtient

det(A) = (−1)j−1 det (Cj , C1 , . . . , Cj−1 , Cj+1 , . . . , Cn ) .


En appliquant la formule de développement suivant la première colonne à ce dernier déterminant (dont la première colonne est Cj ),
on obtient
n
X n
X n
X
det(A) = (−1)j−1 ai,j (−1)i+1 mi,j = ai,j (−1)i+j mi,j = ai,j Ai,j ,
i=1 i=1 i=1

ce qui montre la formule de développement suivant la j-ème colonne.


t

Enfin, si on applique la formule de développement suivant la i-ème colonne à det A (qui est égal à det(A)), on obtient (en notant

ai,j les coefficients de t A et Ai,j

les cofacteurs correspondants)
n n
t  X ′ ′
X
det(A) = det A = aj,i Aj,i = ai,j Ai,j
j=1 j=1

ce qui montre la formule de développement suivant la i-ème ligne.




3 0 4

Exemple. Soit ∆ = −1 0 −3 .
7 2 5
Si on développe ∆ suivant sa première colonne, cela donne

0 −3 0 4 0 4
∆ = 3 − (−1)
+ 7 = 3 × 6 + (−8) + 0 = 10
2 5 2 5 0 −3
et si on développe ∆ suivant sa deuxième colonne, cela donne

−1 −3
+ 0 3 4 − 2 3 4

∆ = −0 −1 −3
= (−2)(−5) = 10.
7 5 7 5
On aboutit bien sûr au même résultat. Ici, il fallait choisir de développer ∆ suivant sa deuxième colonne, ce qui rendait
immédiat le calcul. ❏

c Jean-Louis Rouget, 2018. Tous droits réservés.


17 http ://www.maths-france.fr
Exercice 3. Soient n > 1 puis (a0 , . . . , an−1 ) ∈ Cn . Pour z ∈ C, on pose

z 0 ... 0 a0



.. ..
−1 z . . a1


.. .. ..

Dn (z) = . . .

0 0 .
.. .. ..

. .


. z an−2

0 ... 0 −1 z + an−1

Calculer Dn (z) en fonction de z.


Solution 3. Dn (z) est un déterminant de format n.
On développe Dn (z) suivant sa dernière colonne en commençant par la fin. Puisque pour 0 6 k 6 n − 2, ak est situé à la
ligne k + 1, colonne n, on obtient

z 0 ... 0
. X

• z . . . .. n−2 n−2
X

k+1+n n−1
Dn (z) = (z + an−1 ) + a k (−1) ∆k = (z + a n−1 ) z + ak (−1)k+1+n ∆k ,
. . . 0 k=0


k=0
• • z
où ∆k est défini par blocs par :

z 0 ... 0 0 ... ...
0
.. . .. ..

. ..

• z . .
.. ..

..

. 0 .
.
• • z 0 ... ... 0
∆k = = (−1)n−1−k zk .


• • −1 • •
..

0 .

.. .. ..

. . . •
• • 0 . . . 0 −1

k n−1−k
Finalement,

n−2
X n−2
X
Dn (z) = zn + an−1 zn−1 + ak (−1)n+k+1 (−1)n−1−k zk = zn + an−1 zn−1 + ak zk
k=0 k=0
n−1
X
= zn + ak zk .
k=0

Exercice 4. (déterminant de Vandermonde)


Soient n > 2 puis (x0 , . . . , xn−1 ) ∈ Cn . On pose

1 1 1 ... 1

x0 x1 x2 . . . xn−1
2
x21 x22 . . . x2n−1
 
i−1
Van (x0 , . . . , xn−1 ) = det xj−1 = x0 .

16i,j6n .. .. .. ..
. . . .

xn−1 x1n−1 x2n−1 n−1
. . . xn−1
0

Calculer Van (x0 , . . . , xn−1 ) (on exprimera d’abord Vn+1 = Van (x0 , . . . , xn ) en fonction de Vn = Van (x0 , . . . , xn−1 )
Xn
à l’aide d’une transformation du type Ln+1 ← Ln+1 + λi−1 Li où les λi seront intelligemment choisis).
i=1

Solution 4. Soit (x0 , . . . , xn ) ∈ Cn+1 . Soient λ0 , . . . , λn−1 n nombres complexes. On effectue dans Van (x0 , . . . , xn ) la
Xn
transformation Ln+1 ← Ln+1 + λi−1 Li , ce qui ne modifie pas la valeur du déterminant. On obtient
i=1

c Jean-Louis Rouget, 2018. Tous droits réservés.


18 http ://www.maths-france.fr


1 1 1 ... 1 1


x0 x 1 x2 ... xn−1 xn

x20 2
x22 x2n−1 x2n

x 1 ...
Van (x0 , . . . , xn ) = .. .. .. .. ,
..


n−1 . . . .
.
x n−1 n−1 n−1 n−1
0 x 1 x2 ... xn−1 xn
P (x0 ) P (x1 ) P (x2 ) . . . P (xn−1 ) P (xn )
n−1
X n−1
Y
où P = Xn + λk Xk est un polynôme unitaire de degré n quelconque. On prend alors P = P0 = (X − xk ) (qui est
k=0 k=0
effectivement unitaire de degré n). On obtient un déterminant par blocs :

1 1 1 ... 1 1

x0 x 1 x 2 . . . x n−1 x n
x20 2 2 2 2

x 1 x 2 . . . x n−1 x n

Van (x0 , . . . , xn ) = . .. .. .. .. = P0 (xn ) Van (x0 , . . . , xn−1 ) .

.. . . . .

xn−1 xn−1 xn−1 . . . xn−1 n−1
xn
0 1 2 n−1
0 0 0 ... 0 P0 (xn )
Ainsi, pour tout n > 2, pour tout (x0 , . . . , xn ) ∈ Cn+1 ,
n−1
!
Y
Van (x0 , . . . , xn ) = (xn − xi ) Van (x0 , . . . , xn−1 ) .
i=0
Y
Montrons alors par récurrence que : ∀n > 2, ∀ (x0 , . . . , xn−1 ) ∈ Cn , Van (x0 , . . . , xn−1 ) = (xj − xi ).
06i<j6n−1

2
1 1
• Soit (x0 , x1 ) ∈ C . Van (x0 , x1 ) = = x1 − x0 . L’égalité est donc vraie quand n = 2.
x0x1
Y
• Soit n > 2. Supposons que ∀ (x0 , . . . , xn−1 ) ∈ Cn , Van (x0 , . . . , xn−1 ) = (xj − xi ).
06i<j6n−1
Soit (x0 , . . . , xn ) ∈ Cn+1 .

n−1
!
Y
Van (x0 , . . . , xn ) = Van (x0 , . . . , xn−1 ) (xn − xi )
i=0
Y n−1
Y
= (xj − xi ) × (xn − xi ) (par hypothèse de récurrence)
06i<j6n−1 i=0
Y
= (xj − xi ) .
06i<j6n

Y
On a montré par récurrence que : ∀n > 2, ∀ (x0 , . . . , xn−1 ) ∈ Cn , Van (x0 , . . . , xn−1 ) = (xj − xi ).
16i<j6n


1 1 1

Ainsi, par exemple, si j = e2iπ/3 , 1 j2 = (j − 1) j2 − 1 j2 − j .
 
j
1 j2 j
➱ Commentaire . Il est important de noter que Van (x0 , . . . , xn−1 ) 6= 0 si et seulement si les nombres xi sont deux à deux
distincts.

5 Quelques applications des déterminants


5.1 Inversibilité d’une matrice carrée, bijectivité d’un endomorphisme, indépendance
d’une famille de n vecteurs
Dans ce paragraphe, on rappelle des résultats antérieurs et on en profite pour réunir certains résultats disséminés dans les
chapitres précédents.

c Jean-Louis Rouget, 2018. Tous droits réservés.


19 http ://www.maths-france.fr
• Soit A ∈ Mn (K). A est dans GLn (K) si et seulement si l’une des propositions suivantes est vraie :
1- det(A) 6= 0
2-a. ∃B ∈ Mn (K)/ A × B = In et B × A = In (définition de l’inversibilité)
b. ∃B ∈ Mn (K)/ A × B = In (inversible ⇔ inversible à droite)
c. ∃B ∈ Mn (K)/ B × A = In (inversible ⇔ inversible à gauche)
3-a. Les colonnes de A constituent une base de Mn,1 (K).
b. Les lignes de A constituent une base de M1,n (K).
4- Ker(A) = {0} (où Ker(A) = {X ∈ Mn,1 (K)/ AX = 0}.
5-a. Im(A) = Mn,1 (K) (où Im(A) = {AX, X ∈ Mn,1 (K)}.
b. rg(A) = n.
• Soient E un K-espace de dimension finie non nulle n puis f ∈ L(E). f est dans GL(E) si et seulement si l’une des
propositions suivantes est vraie :
1- det(f) 6= 0
2-a. ∃g ∈ L(E)/ f ◦ g = IdE et g ◦ f = IdE (définition de l’inversibilité)
b. ∃g ∈ L(E)/ f ◦ g = IdE (inversible ⇔ inversible à droite)
c. ∃f ∈ L(E)/ g ◦ f = IdE (inversible ⇔ inversible à gauche)
3- L’image par f d’une base de E est une base de E.
a. f injectif.
b. Ker(f) = {0}.
5-a. f surjectif.
b. Im(f) = E.
c. rg(f) = n.
• Soient E un K-espace de dimension finie non nulle n puis B une base de E. Soit (u1 , . . . , un ) ∈ En . (u1 , . . . , un ) est une
base de E si et seulement si l’une des propositions suivantes est vraie :
1- detB (u1 , . . . , un ) 6= 0
2- MatB (u1 , . . . , un ) ∈ GLn (K)
3- (u1 , . . . , un ) est libre
4-a. (u1 , . . . , un ) est génératrice de E
b. rg (u1 , . . . , un ) = n.

5.2 Inverse d’une matrice carrée


Dans ce paragraphe, on établit une formule qui fournit une bonne fois pour toutes l’inverse d’une matrice carrée inversible.
Définition 8. Soit A = (ai,j )16i,j6n ∈ Mn (K).
La comatrice de A, notée com(A), est la matrice carrée de format n dont le coefficient ligne i, colonne j, 1 6 i, j 6 n,
est le cofacteur Ai,j de ai,j .

com(A) = (Ai,j )16i,j6n .

Théorème 20. ∀A ∈ Mn (K), A × t (com(A)) = t (com(A)) × A = (det(A))In .

Démonstration .
n
X
• Soit i ∈ J1, nK. Le coefficient ligne i, colonne i, de A × t (com(A)) est ai,j Ai,j (Ai,k étant le coefficient ligne k, colonne i, de
j=1
t
(com(A))). On reconnaît le développement de det(A) suivant sa i-ème ligne et donc le coefficient ligne i, colonne i, de A× t (com(A))
est det(A).
n
X
• Soit (i, j) ∈ J1, nK2 tel que i 6= j. Le coefficient ligne i, colonne j, de A × t (com(A)) est ai,k Aj,k . On reconnaît le développement
k=1
suivant la j-ème ligne du déterminant suivant :

c Jean-Louis Rouget, 2018. Tous droits réservés.


20 http ://www.maths-france.fr


a1,1 ... ... a1,n

.. ..

. .


ai,1 ... ... ai,n
i
.. ..
. .



ai,1 ... ... ai,n j
.. ..



. .

an,1 ... ... an,n

Les i-ème et j-ème lignes (avec i 6= j) de ce déterminant sont égales et donc ce déterminant est nul. Ainsi,

A × t (com(A)) = (δi,j det(A))16i,j6n = (det(A))In .


On montre de même que t (com(A)) × A = (det(A))In (en raisonnant sur les colonnes). ❏

En particulier,
Théorème 21. Soit A ∈ Mn (K). A ∈ GLn (K) ⇔ det(A) 6= 0. De plus, en cas d’inversibilité
1 t
A−1 = (com(A)).
det(A)

Démonstration . On sait déjà que A ∈ GLn (K) ⇔ det(A) 6= 0.

1 t 1 t
Si det(A) 6= 0, alors A × (com(A)) = In . Par suite, A ∈ GLn (K) et A−1 = (com(A)).
det(A) det(A)

 
3 −1 2
Exemple. Considérons par exemple la matrice A =  1 1 2 . En développant suivant la dernière ligne, on obtient
0 2 0
det(A) = −2(3 × 2 − 1 × 2) = −8 6= 0.
Donc, A est inversible et
 
1 2 −1 2 −1 2

2 −
 0 2 0 1 2   
−4 4 −4
 
1 1

1 2 3 2 3 2
A−1 =−  =− 0 0 −4  ,
 
8 − −
8
0 0 0 0 1 2 2 −6 4

 
 1 1 3 −1 3 −1 

0 −
2 0 2 1 1
ou encore
 
1/2 −1/2 1/2
A−1 = 0 0 1/2  .
−1/4 3/4 −1/2
Maintenant, la formule du théorème 21 n’est pas la « formule ultime » pour obtenir l’inverse d’une matrice inversible. On
l’utilise très peu et pour les matrices de format (3, 3) par exemple, on préfère très souvent inverser une telle matrice en
 ′ −1
l’interprétant comme une matrice de passage ( PB B = PBB ′ ).

Du théorème 21, on déduit immédiatement le cas particulier de l’inverse d’une matrice carrée de format 2 inversible.
 
a c
Théorème 22. Soit A = ∈ M2 (K). A ∈ GL2 (K) ⇔ ad − bc 6= 0. De plus, en cas d’inversibilité
b d
 
1 d −c
A−1 = .
ad − bc −b a

c Jean-Louis Rouget, 2018. Tous droits réservés.


21 http ://www.maths-france.fr
5.3 Orientation d’un R-espace vectoriel
Imaginons que (i, j, k) soit une base de l’espace R3 de dimension 3. La base (j, −k, i) a-t-elle la même orientation que la
base (i, j, k) ou bien la base (i + j + k, −i + j + k, −i − j + k) a-t-elle la même orientation que la base (i, j, k) ? Pas facile
de visualiser cela.
On va maintenant voir que les déterminants sont un outil puissant pour simplifier ce problème.
On se donne un R-espace vectoriel E de dimension finie non nulle puis B une base de E. Si B ′ est une autre base de E, on
sait que detB (B ′ ) 6= 0. On a donc exactement deux possibilités : ou bien detB (B ′ ) > 0, ou bien detB (B ′ ) < 0.
Au départ, detB (B) = 1 > 0. Si on modifie à peine un ou plusieurs des vecteurs de B pour obtenir une base B ′ « proche de
B », il est clair que le déterminant se modifie à peine (en deuxième année, on démontre que « le déterminant est continu »)
car ce déterminant est polynomial en les coordonnées des vecteurs de B ′ dans B. Donc, si B ′ « proche de B », detB (B)
reste strictement positif. Pour que ce déterminant change de signe, il faut d’abord qu’il s’annule, ce qui traduit le fait
que l’un des vecteurs de B ′ devient une combinaison linéaire des autres vecteurs de B ′ (et n’est plus une base). C’est le
moment où B ′ change d’orientation (dans le graphique qui suit, on fixe deux des vecteurs de B et on fait varier lentement
le troisième ) :

det = 1

det > 0

det = 0

det < 0

det = −1

Ce qui précède devrait suffire à motiver ce qui suit :


Théorème 23. Soit E un R-espace vectoriel de dimension finie non nulle. Soit R la relation définie sur l’ensemble des
bases de E par : pour toutes bases B et B ′ de E,

B R B ′ ⇔ detB (B ′ ) > 0.
R est une relation d’équivalence. De plus, il existe exactement deux classes d’équivalence pour la relation R.
Démonstration .

• Pour toute base B de E, detB (B) = 1 > 0. Donc, R est réflexive.


1
• Pour toutes bases B et B ′ de E, si detB (B ′ ) > 0, alors detB ′ (B) = > 0. Donc, R est symétrique.
detB (B ′ )
• Pour toutes bases B, B ′ et B ′′ de E, si detB (B ′ ) > 0 et detB ′ (B ′′ ) > 0, alors detB (B ′′ ) = detB (B ′ )detB ′ (B ′′ ) > 0. Donc, R est
transitive.
Ceci montre que R est une relation d’équivalence sur l’ensemble des bases de E.
Soient alors B1 une base donnée de E puis B2 la base de E obtenue en remplaçant le premier vecteur de B1 par son opposé. Alors,
detB1 (B2 ) = −1 < 0. Par suite, B1 et B2 ne sont pas en relation.
Si maintenant B est une base quelconque de E, ou bien detB1 (B) > 0 et dans ce cas, B R B1 , ou bien detB1 (B) < 0 et dans ce cas,
detB2 (B) = detB2 (B1 ) detB1 (B) > 0 puis B R B2 .
Il existe donc exactement deux classes d’équivalence, celle de B1 et celle de B2 . ❏

c Jean-Louis Rouget, 2018. Tous droits réservés.


22 http ://www.maths-france.fr
Définition 9. Soit E un R-espace vectoriel de dimension finie non nulle.
Pour B et B ′ bases données de E, on dit que B et B ′ ont la même orientation si et seulement si detB (B ′ ) > 0.
Orienter E, c’est choisir arbitrairement une base de référence B puis appeler bases directes toute base B ′ ayant la
même orientation que B et bases indirectes toute base B ′ n’ayant pas la même orientation que B.

Exemple. On suppose que R3 est orienté et que (e1 , e2 , e3 ) est une base directe de R3 . On veut savoir si (−e2 , −e3 , −e1 )
est une base directe ou indirecte de R3 . Par linéarité par rapport à chaque vecteur,

det(e1 ,e2 ,e3 ) (−e2 , −e3 , −e1 ) = (−1)3 det(e1 ,e2 ,e3 ) (e2 , e3 , e1 ) .
 
1 2 3
Ensuite, est un cycle de longueur 3 et donc de signature (−1)2 . Donc,
2 3 1
det(e1 ,e2 ,e3 ) (−e2 , −e3 , −e1 ) = (−1)3 (−1)2 det(e1 ,e2 ,e3 ) (e1 , e2 , e3 ) = −1 < 0.
(−e2 , −e3 , −e1 ) est une base indirecte de R3 . ❏

5.4 Calculs d’aires et de volumes


On munit le plan d’un repère orthonormé direct O, −
u,−
→ → 
v . On se donne quatre points A, B, C et D deux à deux distincts
tels que ABCD soit un parallélogramme.

D C
b b

θ
b b


→ A H B
v

O −

u

 
[ .
L’aire du parallélogramme ABCD est AB × HD = AB × AD × sin θ = AB × AD × sin BAD
−→ −−→
L’aire algébrique du parallélogramme ABCD (aire affectée d’un signe tenant compte du fait que l’on aille de AB à AD
dans le sens direct ou indirect) est
−→ −−→
AB × AD × sin AB, AD .

Soient alors M et M ′ deux points du plan, tous deux distincts de O, d’affixes respectives z = x + iy et z ′ = x ′ + iy ′ .
−−→ −−−→ −−→ −−−→
z × z ′ = (x − iy)(x ′ + iy ′ ) = (xx ′ + yy ′ ) + i(xy ′ − yx ′ ) = OM.OM ′ + i det(→
− v ) OM, OM

u ,→

.
 −−→  −−−→
Mais d’autre part, en posant θ = − →u , OM et θ ′ = − →
u , OM ′ ,

′ ′
−−→ −−−→ −−→ −−−→
z × z ′ = |z|e−iθ |z ′ |eiθ = OM OM ′ ei(θ −θ)
= OM OM ′ cos OM, OM ′ + i OM OM ′ sin OM, OM ′ .

Donc,
−−→ −−−→′ −−→ −−−→ −−→ −−−→ −−→ −−−→
OM.OM = OM OM ′ cos OM, OM ′ et det(→
− v ) OM, OM

u ,→

= OM OM ′ sin OM, OM ′ .

L’aire algébrique du parallélogramme ABCD est donc


−→ −−→ −→ −−→
AB × AD × sin AB, AD = det(→
− v ) AB, AD ,

u ,→

et son aire géométrique est


−→ −−→
A = det(→ v ) AB, AD .
− −

u ,→

En résumé,

c Jean-Louis Rouget, 2018. Tous droits réservés.


23 http ://www.maths-france.fr
Db Cb

−→ −−→
A = det(→ v ) AB, AD
− −

u ,→

b b


→ A B
v

O −

u

Puisque l’aire d’un triangle est la moitié de l’aire d’un parallélogramme, on a aussi

Cb b

1 −→ −−→
A= v ) AB, AD
− −

det(→
u ,→
2

b b


→ A B
v

O −

u

On montre de même que le volume algébrique d’un parallélépipède ABCDEFGH, dans l’espace de dimension 3 muni d’un
repère orthonormé direct O, −
u,−
→ v ,−
→ → 
w est
−→ −−→ −→
V = det(→
u , v , w) AB, AD, AE ,
− −
→ −

le volume géométrique étant la valeur absolue de ce déterminant.

c Jean-Louis Rouget, 2018. Tous droits réservés.


24 http ://www.maths-france.fr

Vous aimerez peut-être aussi