Vous êtes sur la page 1sur 21

Algèbre linéaire de MPSI

I - Structure d’espace vectoriel


K désigne R ou C.

1) Définition
On appelle K-espace vectoriel tout triplet (E, +, .) où :
1) E est un ensemble dont les éléments sont appelés vecteurs.

2) + est une loi de composition interne sur E telle que (E, +) soit un groupe abélien.
L’élément neutre 0 est appelé vecteur nul.

3) . : K × E → E est une loi de composition externe vérifiant :


(λ, x) → λ.x
∗ ∀(λ, µ) ∈ K2 ∀x ∈ E (λ + µ).x = λ.x + µ.x ;
∗ ∀λ ∈ K ∀(x, y) ∈ E λ.(x + y) = λ.x + λ.y ;
∗ ∀(λ, µ) ∈ K2 ∀x ∈ E λ.(µ.x) = (λµ).x ;
∗ ∀x ∈ E 1.x = x.

Exemples : 1) (K, +, .) où . est la multiplication dans K.


2) L’ensemble E D des applications d’un ensemble D dans un espace vectoriel E (les opéra-
tions dans E D étant définies grâce à celles de E : f +g : x → f(x)+g(x) ; λ.f : x → λ.f(x)).

2) Propriétés élémentaires
• ∀x ∈ E 0.x = 0.
• ∀λ ∈ K λ.0 = 0.
• ∀(λ, x) ∈ K × E λ.x = 0 ⇔ (λ = 0 ou x = 0).
• ∀(λ, x) ∈ K × E (−λ).x = −(λ.x) = λ.(−x).

3) Espace vectoriel produit


 
Soit (Ek , +, .) 1≤k≤n une famille de K-espaces vectoriels.
L’ensemble E1 × · · · × En muni des lois + et . définies par :
• (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
• λ.(x1 , . . . , xn ) = (λ.x1 , . . . , λ.xn )
est un K-espace vectoriel, appelé espace vectoriel produit de E1 , . . . , En .
Exemples : 1) L’exemple canonique est Kn .
2) C s’identifie à R2 en tant que R-espace vectoriel.

II - Sous-espaces vectoriels
E désigne un K-espace vectoriel.

1) Définition
Soit F une partie de E. On dit que F est un sous-espace vectoriel de E si et seulement si la restriction
de la loi + à F × F et la restriction de la loi . à K × F induisent sur F une structure de K-espace
vectoriel.
Algèbre linéaire de MPSI Page 2

2) Caractérisations
Une partie F de E est un sous-espace vectoriel de E si et seulement si
• 0 ∈ F et
∀(x, y) ∈ F 2 x + y ∈ F et
∀(λ, x) ∈ K × F λ.x ∈ F ;
ou bien
• 0 ∈ F et
∀λ ∈ K ∀(x, y) ∈ F 2 λ.x + y ∈ F .

3) Intersection de sous-espaces vectoriels


Théorème : l’intersection d’une famille quelconque de sous-espaces vectoriels de E est un sous-espace
vectoriel de E.

Attention ! En général, l’union de deux sous-espaces vectoriels de E n’est pas un sous-espace vectoriel
de E (c’en est un si et seulement si l’un des deux sous-espaces considérés est inclus dans
l’autre. . . ).

4) Sous-espace engendré par une partie ou une famille


Soit A une partie de E. On appelle sous-espace vectoriel engendré par A l’intersection de tous les
sous-espaces vectoriels de E contenant A, notée Vect A.
Vect A est le plus petit (au sens de l’inclusion) des sous-espaces de E contenant A.
p
Vect A est l’ensemble formé du vecteur nul et des vecteurs de la forme λk .ak , où les λk sont des
k=1
scalaires et les ak des vecteurs de A (Vect ∅ = {0}).
Si (xi )i∈I est une famille de vecteurs de E, on note Vect (xi )i∈I les sous-espace engendré par la partie
{xi , i ∈ I}.

5) Somme de deux sous-espaces vectoriels


Définition : soient F et G deux sous-espaces vectoriels de E, on appelle somme de F et G la partie
de E notée F + G définie par : F + G = {x ∈ E / ∃(y, z) ∈ F × G x = y + z}.

Théorème : F + G est un sous-espace vectoriel de E. C’est le plus petit sous-espace vectoriel de E


contenant F et G (autrement dit F + G = Vect (F ∪ G)).

6) Sous-espaces vectoriels supplémentaires


Définition : deux sous-espaces vectoriels F et G de E sont dits supplémentaires dans E si et seulement
si tout vecteur de E se décompose de façon unique comme somme d’un vecteur de F et
d’un vecteur de G, c’est-à-dire si et seulement si :
∀x ∈ E ∃!(y, z) ∈ F × G x = y + z .

Théorème : les assertions suivantes sont équivalentes :


a) F et G sont supplémentaires dans E.
b) E ⊂ F + G et F ∩ G = {0}.

Attention ! Ne pas confondre un supplémentaire et le complémentaire. Si x est un vecteur de E qui


n’appartient pas à F , x n’est pas pour autant nécessairement dans G ! On peut seulement
affirmer a priori que x s’écrit y + z, avec (y, z) ∈ F × G et z = 0 . . .
Algèbre linéaire de MPSI Page 3

III - Translations, sous-espaces affines


Soit E un K-espace vectoriel.

1) Translations
Définition : pour tout vecteur a de E, on appelle translation de vecteur a l’application τ a : x → a + x,
de E dans E .

Propriétés : 1) τ 0 = IE et ∀ (a, b) ∈ E 2 τ a ◦ τ b = τ a+b .


2) Pour tout a de E, τ a est bijective et τ −1
a = τ −a .
3) L’ensemble des translations de E est un sous-groupe commutatif du groupe des bijec-
tions de E dans E.

2) Sous-espaces affines
Définition : on appelle sous-espace affine de E toute partie W de E de la forme a + F , où F est un
sous-espace vectoriel de E et où l’on note :
a + F = τ a (F ) = {a + x, x ∈ F }

Exemples : 1) Pour tout a de E, a + {0} = {a}.


2) Pour v vecteur non nul de E, et a ∈ E, a + Vect v est la droite affine passant par a
dirigée par v.

Théorème et définition : soit W = a + F un sous-espace affine de E ; alors pour tout b de W , on a


W = b + F ; par contre, le sous-espace vectoriel F est unique, on l’appelle
la direction de W .

Définition : soient W et W ′ deux sous-espaces affines de E. On dit que W est parallèle à W ′ si et


seulement si la direction de W est incluse dans celle de W ′ .

Attention ! Cette relation n’est pas symétrique. On dira que W et W ′ sont parallèles si et seulement
si leurs directions sont égales. Par exemple en dimension 3, on peut avoir une droite
parallèle à un plan, deux droites parallèles ou deux plans parallèles.

3) Intersection de deux sous-espaces affines


Soient W = a + F et W ′ = a′ + F ′ deux sous-espace affines de E.
• L’intersection W ∩ W ′ est, soit vide, soit un sous-espace affine de direction F ∩ F ′ .
• Si F + F ′ = E, alors W ∩ W ′ est non vide (c’est donc un sous-espace affine de direction F ∩ F ′ ).
• Si F et F ′ sont supplémentaires, W ∩ W ′ est un singleton.

IV - Applications linéaires

1) Définition
Soient E et F deux K-espaces vectoriels et u une application de E dans F .
On dit que u est linéaire (ou encore un morphisme d’espaces vectoriels) si et seulement si :

∀(x, y) ∈ E 2 u(x + y) = u(x) + u(y)
∀λ ∈ K ∀x ∈ E u(λ.x) = λ.u(x)
(ou bien : ∀λ ∈ K ∀(x, y) ∈ E 2 u(λ.x + y) = λ.u(x) + u(y) )
Si, de plus :
• u est bijective, on dit que u est un isomorphisme (E et F sont dits isomorphes) ;
• E = F , on dit que u est un endomorphisme de E ;
• E = F et u bijective, on dit que u est un automorphisme de E ;
• F = K, on dit que u est une forme linéaire sur E.
Algèbre linéaire de MPSI Page 4

Notations : on désigne par

• L(E, F ) l’ensemble des applications linéaires de E dans F ;


• L(E) l’ensemble des endomorphismes de E.
• E ∗ l’ensemble des formes linéaires sur E, appelé dual de E (ne pas confondre E ∗ et E\{0} !).

Propriétés : soit u ∈ L(E, F ).


1) u(0E ) = 0F .

2) Si E ′ est un sous-espace vectoriel de E, alors u(E ′ ) est un sous-espace vectoriel de F .

3) Si F ′ est un sous-espace vectoriel de F , alors u−1 (F ′ ) est un sous-espace vectoriel de E.

2) Image
Définition : soit u ∈ L(E, F ). On appelle image de u le sous-espace u(E) de F noté Im u :
Im u = {y ∈ F / ∃x ∈ E u(x) = y} = {u(x), x ∈ E} .

Propriété : u est surjective si et seulement si Im u = F .

3) Noyau
Définition : soit u ∈ L(E, F ). On appelle noyau de u le sous-espace u−1 ({0F }) de E noté Ker u :
Ker u = {x ∈ E / u(x) = 0F }.
Propriété : u est injective si et seulement si Ker u = {0E }
(ou encore si et seulement si : ∀x ∈ E u(x) = 0F ⇒ x = 0E ).

4) Équations linéaires
Étant donnés u dans L (E, F ) et b dans F , la résolution de l’équation linéaire u(x) = b est la recherche
de l’ensemble S des vecteurs x de E tels que u(x) = b.
S est vide si et seulement si b n’appartient pas à Im u.
Lorsque b est dans Im u, S est non vide et pour tout x0 dans S, S est l’ensemble des vecteurs de E de
la forme x0 + z, z décrivant Ker u :
S = x0 + Ker u = {x0 + z, z ∈ Ker u} .

5) Exemples fondamentaux d’isomorphismes


• Tous les supplémentaires dans E d’un même sous-espace vectoriel de E sont isomorphes.
• Soit u ∈ L(E, F ). Tout supplémentaire de Ker u dans E est isomorphe à Im u.
• Soient F et G deux sous-espaces vectoriels de E. L’application ϕ : F ×G −→ F + G est
(y, z) −→ y+z
linéaire surjective. C’est un isomorphisme si et seulement si F ∩ G = {0}.

6) Opérations sur les applications linéaires


a) Structure de L(E, F )
Si E et F sont deux K-espaces vectoriels, alors (L(E, F ), +, .) est un K-espace vectoriel.
b) Composition des applications linéaires
Si E, F, G sont des K-espaces vectoriels et si u ∈ L (E, F ), v ∈ L (F, G), alors v ◦ u ∈ L (E, G).
Pour φ fixé dans L (E, F ), l’application v → v ◦ φ est une application linéaire de L (F, G) dans L (E, G).
Pour ψ fixé dans L (F, G), l’application u → ψ ◦u est une application linéaire de L (E, F ) dans L (E, G).
Algèbre linéaire de MPSI Page 5

Théorème : si u est un isomorphisme de E dans F , alors u−1 est linéaire (donc un isomorphisme) de
F dans E.

c) Structure de L(E)
Si E est un K-espace vectoriel, alors (L(E), +, ., ◦) est une K-algèbre.
Théorème et définition : soit GL(E) l’ensemble des automorphismes de E. (GL(E), ◦) est un groupe
(non abélien en général), appelé groupe linéaire de E.

V - Projecteurs et symétries

1) Projecteurs
Définition : soient F et G deux sous-espaces supplémentaires de E ; l’application p de E dans E qui
à tout vecteur x de E associe le vecteur y de F tel que x = y + z avec (y, z) ∈ F × G est
appelée projecteur (ou projection vectorielle) de E sur F parallèlement à G.

Propriétés : soit p le projecteur de E sur F parallèlement à G.


a) p est un endomorphisme de E.
b) Ker p = G et Im p = F ; F est l’ensemble des vecteurs invariants par p.
c) IE − p est le projecteur de E sur G parallèlement à F .
Caractérisation : soit p ∈ L(E). p est un projecteur si et seulement si p ◦ p = p.
Dans ce cas, p est le projecteur de E sur Im p parallèlement à Ker p.

2) Symétries vectorielles
Définition : soient F et G deux sous-espaces supplémentaires de E ; l’application s de E dans E qui
à tout vecteur x de E associe le vecteur y − z de E où (y, z) est le couple de F × G tel
que x = y + z est appelée symétrie vectorielle par rapport à F parallèlement à G.

Propriétés : soit s la symétrie vectorielle par rapport à F parallèlement à G.


a) s est un automorphisme involutif de E.
b) L’ensemble des vecteurs invariants par s est F ; l’ensemble des vecteurs transformés
en leur opposé est G.
c) −s est la symétrie vectorielle par rapport à G parallèlement à F .
d) Si p est le projecteur de E sur F parallèlement à G, on a les relations :
1
s = 2p − IE , p = · (IE + s) .
2
Caractérisation : soit s ∈ L(E). s est une symétrie vectorielle si et seulement si s ◦ s = IE .
Alors s est la symétrie par rapport à F = {x ∈ E / s(x) = x} = Ker (s − IE )
parallèlement à G = {x ∈ E / s(x) = −x} = Ker (s + IE ).

VI - Familles libres, génératrices ; bases

1) Familles génératrices
Définition : soit F = (xi )i∈I une famille finie de vecteurs de E. On dit qu’un vecteur x de E est
combinaison linéaire
 des vecteurs de F si et seulement s’il existe une famille (λi )i∈I ∈ KI
telle que x = λi .xi .
i∈I
Définition : soit F une famille finie de vecteurs de E. On dit que F est une famille génératrice de
E si et seulement si tout vecteur de E est combinaison linéaire des vecteurs de F (i.e.
Vect F = E).
Algèbre linéaire de MPSI Page 6

Propriétés : 1) Toute sur-famille d’une famille génératrice est génératrice.


2) Soit (xi )i∈I une famille finie, génératrice de E et J une partie de I. (xi )i∈J est aussi
une famille génératrice de E si et seulement si, pour tout k de I\J, xk est combinaison
linéaire des vecteurs de (xi )i∈J .

2) Familles libres
Définition : soit F = (x1 , . . . , xp ) une famille finie de vecteurs de E. On dit que F est libre si et
seulement si la seule combinaison linéaire nulle des vecteurs de F est celle dont tous les
coefficients sont nuls :  p 

p
∀(λ1 , . . . , λp ) ∈ K λk .xk = 0 =⇒ ∀k ∈ Np λk = 0 .
k=1
Une famille quelconque (xi )i∈I de vecteurs de E est dite libre si et seulement si toutes ses
sous-familles finies sont libres.
Une partie A de E est dite libre si et seulement si la famille (x)x∈A est libre.
Par convention, ∅ est libre.

Propriétés : 1) Soit x ∈ E. La famille (x) formée du seul vecteur x est libre si et seulement si x est
non nul.
2) Toute sous-famille d’une famille libre est libre.
3) Une famille (xi )i∈I est libre si et seulement si, pour toute famille de scalaires (λi )i∈I à
support fini, 
λi .xi = 0 ⇒ ∀i ∈ I λi = 0.
i∈I
4) Si une partie A de E est libre et si x est un vecteur de E, A ∪ {x} est libre si et
seulement si x n’est pas combinaison linéaire des vecteurs de A (i.e. x ∈
/ Vect A).

3) Familles liées
Définition : une famille F de vecteurs de E (resp. une partie A de E) est dite liée si et seulement
si elle n’est pas libre. On dit alors que les vecteurs de F (resp. de A) sont linéairement
dépendants.
Deux vecteurs sont dits colinéaires si et seulement s’ils sont linéairement dépendants.

Caractérisation : 1) Une famille F de vecteurs de E est liée si et seulement s’il existe des vecteurs
x1 , . . . , xp de F et une famille (λ1 , . . . , λp ) de scalaires non tous nuls telle que
p

λk .xk = 0 (relation de dépendance linéaire).
k=1
2) Une famille d’au moins deux vecteurs est liée si et seulement si l’un au moins de
ses vecteurs est combinaison linéaire des autres.
3) Deux vecteurs x, y sont colinéaires si et seulement si : x = 0 ou ∃λ ∈ K y = λ.x.

Propriétés : 1) Toute sur-famille d’une famille liée est liée ; toute famille contenant le vecteur nul est
liée.
2) Si une partie A de E est libre et si x est un vecteur de E, A∪{x} est liée si et seulement
si x est combinaison linéaire des vecteurs de A (i.e. x ∈ Vect A).

4) Bases
Définition : soit F une famille finie de vecteurs de E.
On dit que F est une base de E si et seulement si F est libre et génératrice.
Une famille B = (ei )i∈I de vecteurs de E est une base de E si et seulement si tout vecteur 
de E s’écrit
de manière unique comme combinaison linéaire des vecteurs de B. Dans ce cas, si x = λi .ei , la
i∈I
famille (λi )i∈I est appelée la famille des coordonnées de x dans la base B.
Algèbre linéaire de MPSI Page 7

5) Caractérisation des familles libres et génératrices, des bases


Soit (x1 , . . . , xp ) une famille de vecteurs de E. On lui associe l’application linéaire φ de Kp dans E qui,
p
à (λ1 , . . . , λp ) associe la combinaison linéaire λk xk .
k=1
Propriétés : 1) (x1 , . . . , xp ) est libre si et seulement si φ est injective ;
2) Im φ = Vect (x1 , . . . , xp ) ;
(x1 , . . . , xp ) est génératrice si et seulement si φ est surjective ;
3) (x1 , . . . , xp ) est une base de E si et seulement si φ est un isomorphisme.

6) Image d’une famille de vecteurs par une application linéaire


E et F sont deux K-espaces vectoriels.
Théorème : soient u ∈ L(E, F ), F = (xi )i∈I une famille finie de vecteurs de E et u(F) = (u(xi ))i∈I .
a) Si F est une famille génératrice de E, alors u(F) est une famille génératrice de Im u.
b) Si F est liée, alors u(F) est liée.
c) Si F est libre et u injective, alors u(F) est libre.
Théorème : soit u ∈ L(E, F ) et B une base de E.
a) u est surjective si et seulement si u(B) est une famille génératrice de F .
b) u est injective si et seulement si u(B) est libre.
c) u est bijective si et seulement si u(B) est une base de F .

7) Caractérisation d’une application linéaire par l’image d’une base


Théorème : soient E et F deux K-espaces vectoriels, B = (ei )i∈I une base de E et (yi )i∈I une famille
de vecteurs de F (indexées par le même ensemble I).
Il existe une unique application linéaire u de E dans F telle que :
∀i ∈ I u(ei ) = yi .
En outre :
∗ u est injective si et seulement si la famille (yi )i∈I est libre.
∗ u est surjective si et seulement si la famille (yi )i∈I est génératrice de F .
∗ u est bijective si et seulement si la famille (yi )i∈I est une base de F .

VII - Notion de dimension


Définition : on dit qu’un K-espace vectoriel est de dimension finie si, et seulement si, il admet une
famille génératrice finie.
Lemme de Steinitz
Si E est un K-espace vectoriel admettant une famille génératrice à p éléments (p ∈ N∗ ), alors toute
famille d’au moins p + 1 éléments est liée.
Existence d’une base
Tout espace vectoriel de dimension finie non réduit à {0} admet au moins une base.
Théorème et définition : soit E un K-espace vectoriel de dimension finie, non réduit à {0}.
1) E admet au moins une base finie B.
2) Toutes les bases de E ont le même cardinal n.
Cet entier est appelé dimension de E et est noté dim E ou dimK E.
On convient que {0} est de dimension nulle.
Caractérisation des bases :
Soit E un K-espace vectoriel de dimension n et F une famille de p vecteurs de E.
• Si F est libre, alors p ≤ n avec égalité si et seulement si F est une base de E.
• Si F est génératrice, alors p ≥ n avec égalité si et seulement si F est une base de E.
Algèbre linéaire de MPSI Page 8

VIII - Théorème de la base incomplète


Soit E un K-espace vectoriel de dimension finie.
Pour toute famille libre L de E et toute famille génératrice G de E, il existe au moins une base B de E
obtenue en complétant L à l’aide de vecteurs de G.
En particulier, pour toute famille libre L de E, il existe au moins une base B de E obtenue en complétant
L à l’aide de vecteurs de E.

IX - Sous-espaces d’un espace vectoriel de dimension finie

1) Dimension d’un sous-espace


Théorème : soit E un K-espace vectoriel de dimension finie et F un sous-espace vectoriel de E.
F est de dimension finie et dim F ≤ dim E.
De plus, F = E si et seulement si dim F = dim E.

Définition : on appelle rang d’une famille de vecteurs de E la dimension du sous-espace vectoriel de


E engendré par cette famille.

2) Sous-espaces vectoriels supplémentaires


Caractérisation : soient F et G deux sous-espaces vectoriels non réduits à {0} d’un espace vectoriel
E de dimension finie. F et G sont supplémentaires dans E si et seulement s’ils
admettent pour bases respectives deux parties complémentaires d’une base de E.

Conséquence : si E = F ⊕ G , alors dim E = dim F + dim G.

Théorème : tout sous-espace vectoriel d’un espace vectoriel E de dimension finie admet au moins un
supplémentaire dans E.
Théorème : soient F et G deux sous-espaces vectoriels d’un espace vectoriel E de dimension finie.
E = F ⊕ G ⇔ (F ∩ G = {0} et dim F + dim G = dim E) .

3) Dimension d’une somme quelconque de sous-espaces


Théorème : soient F et G deux sous-espaces vectoriels d’un espace vectoriel E de dimension finie
dim(F + G) = dim F + dim G − dim(F ∩ G) (formule de Grassmann).

Conséquence : soient F et G deux sous-espaces vectoriels d’un espace vectoriel E de dimension finie
E = F ⊕ G ⇔ (F + G = E et dim F + dim G = dim E) .

X - Théorème du rang

1) Théorème d’isomorphisme
Théorème : deux espaces vectoriels E et F de dimension finie sont isomorphes si et seulement s’ils ont
la même dimension.

2) Rang d’une application linéaire


Théorème du rang
Soit u ∈ L(E, F ). Si E est de dimension finie, alors Im u est de dimension finie et
dim E = dim Im u + dim Ker u.
Définition : soit u ∈ L(E, F ) avec E de dimension finie. On appelle rang de u la dimension de Im u,
notée rg u.
Algèbre linéaire de MPSI Page 9

Propriété : si E et F sont de dimension finie et si u ∈ L(E, F ), alors :


u injective ⇒ dim E ≤ dim F ; u surjective ⇒ dim E ≥ dim F ;

Caractérisation des isomorphismes


Si E et F sont de même dimension finie (dim E = dim F = n) et si u ∈ L(E, F ), alors les propositions
suivantes sont équivalentes :
• u est bijective ;
• u est injective (i.e. Ker u = {0}) ;
• u est surjective (i.e. rg u = n) ;
• u est inversible à droite ;
• u est inversible à gauche.

Propriété : le rang d’une application linéaire est invariant par composition avec un isomorphisme.

XI - Opérations sur les dimensions


Théorème : soient E et F deux K-espaces vectoriels de dimension finie.
a) E × F est de dimension finie et : dim E × F = dim E + dim F .
b) L (E, F ) est de dimension finie et : dim L (E, F ) = dim E × dim F .
Dém : on considère (ej )1≤j≤p une base de E et (fi )1≤i≤n une base de F .
1) En posant v1 = (e1 , 0F ) , · · · , vp = (ep , 0F ) ; vp+1 = (0E , f1 ) , · · · , vp+n = (0E , fn ) , on vérifie que
(vi )1≤i≤p+n est une base de E × F .

2) Pour tout élément (i, j) de Nn × Np , on désigne par ui,j l’unique application linéaire de E vers F
telle que (δ j,k désignant le symbole de Kronecker ) :
∀k ∈ Np ui,j (ek ) = δ j,k .fi
On vérifie que (ui,j )1≤i≤n est une base de L (E, F ).
1≤j≤p

XII - Matrices — Généralités

1) Définition - notations
Soient n et p deux entiers naturels non nuls.
On appelle matrice de type (n, p) à coefficients dans K tout tableau M constitué de n lignes et p colonnes
d’éléments de K. On écrit M = (ai,j )1≤i≤n , ai,j étant le terme situé à l’intersection de la ie ligne et de
1≤j≤p
la j e colonne de M.
Mn,p (K) désigne l’ensemble des matrices de type (n, p) à coefficients dans K.
Mn (K) désigne l’ensemble Mn,n (K) des matrices carrées d’ordre n à coefficients dans K.

2) Matrice d’une application linéaire


Soient E et F deux K-espaces vectoriels de bases respectives B = (e1 , . . . , ep ) et C = (f1 , . . . , fn ).
Pour u ∈ L(E, F ), on appelle matrice de u dans les bases B et C la matrice MB,C (u) de Mn,p (K) dont
les colonnes contiennent les coordonnées des vecteurs u(e1 ), . . . , u(ep ) dans la base C de F :
n
MB,C (u) = (ai,j )1≤i≤n avec ∀j ∈ Np u(ej ) = ai,j .fi .
1≤j≤p i=1
NB : le nombre de lignes n est la dimension de l’espace d’arrivée ;
le nombre de colonnes p est la dimension de l’espace de départ.
Pour u ∈ L(E), on appelle matrice de u dans la base B la matrice carrée MB (u) de Mp (K) dont les
colonnes contiennent les coordonnées des vecteurs u(e1 ), . . . , u(ep ) dans la même base B de E.
Algèbre linéaire de MPSI Page 10

XIII - Opérations sur les matrices

1) Structure de Mn,p (K)


Soient A = (ai,j )1≤i≤n , B = (bi,j )1≤i≤n , et λ ∈ K. On pose, par définition :
1≤j≤p 1≤j≤p
A + B = (ai,j + bi,j )1≤i≤n et λ.A = (λai,j )1≤i≤n .
1≤j≤p 1≤j≤p
Théorème : (Mn,p (K), +, .) est un K-espace vectoriel de dimension np.
La base canonique de Mn,p (K) est (Ei,j )1≤i≤n où Ei,j est la matrice élémentaire dont tous les termes
1≤j≤p
sont nuls, sauf celui situé à l’intersection de la ie ligne et de la j e colonne, qui vaut 1 :
Eij = (δ k,i δ ℓ,j )1≤k≤n .
1≤ℓ≤p
Avec les notations précédentes, l’application u → MB,C (u) est un isomorphisme de L (E, F ) sur Mn,p (K).
Inversement, étant donnée A ∈ Mn,p (K), on note souvent Can A l’application linéaire de Kp dans Kn
de matrice A dans les bases canoniques.

2) Produit matriciel
Définition : soient A = (ai,j )1≤i≤m et B = (bj,k )1≤j≤n .
1≤j≤n 1≤k≤p
A × B est la matrice de type (m, p) définie par : A × B = (ci,k )1≤i≤m où :
1≤k≤p
n

∀(i, k) ∈ Nm × Np ci,k = ai,j bj,k .
j=1
Propriété : si u ∈ L(E, F ) a pour matrice A dans les bases B et C, si X est la matrice colonne des
coordonnées d’un vecteur x de E dans la base B, alors le produit AX est la matrice colonne
des coordonnées de u(x) dans la base C.

3) Structure de Mn (K)
(Mn (K), +, ., ×) est une K-algèbre (non commutative pour n ≥ 2). Avec les notations précédentes,
l’application u → MB (u) est un isomorphisme d’algèbres de L (E) sur Mn (K).
L’élément neutre de la multiplication est la matrice identité d’ordre n : In = (δ ji )1≤i,j≤n .
Définition : soit A ∈ Mn (K). On dit que :

• a1,1 , . . . , an,n constituent la diagonale principale de A ;


• A est une matrice scalaire si et seulement si A est de la forme λ.In , λ ∈ K ;
• A est une matrice diagonale si et seulement si i = j ⇒ ai,j = 0 ;
dans ce cas on note A = diag(a1,1 , . . . an,n ) ;
• A est une matrice triangulaire supérieure si et seulement si i > j ⇒ ai,j = 0 ;
• A est une matrice triangulaire inférieure si et seulement si i < j ⇒ ai,j = 0.

Propriétés : les matrices scalaires forment un corps isomorphe à K.


Les matrices diagonales forment une sous-algèbre commutative de (Mn (K), +, ., ×).
Les matrices triangulaires supérieures (resp. inférieures) forment une sous-algèbre de
(Mn (K), +, ., ×).

4) Matrices carrées inversibles


Soit A ∈ Mn (K) ; A est inversible si et seulement si
∃A′ ∈ Mn (K) A × A′ = A′ × A = In
Soit GLn (K) l’ensemble des matrices carrées d’ordre n inversibles. (GLn (K), ×) est un groupe (non
commutatif en général), isomorphe au groupe linéaire (GL(E), ◦) si E est un K-espace vectoriel de
dimension n.
Algèbre linéaire de MPSI Page 11

Théorème : soit A ∈ Mn (K). Les assertions suivantes sont équivalentes :


a) A est inversible.
b) ∃B ∈ Mn (K) A × B = In (dans ce cas A−1 = B ).
c) ∃C ∈ Mn (K) C × A = In (dans ce cas A−1 = C ).

Propriété : une matrice triangulaire est inversible si et seulement si les éléments de sa diagonale
principale sont tous non nuls.

5) Transposition
Définition : soit A = (ai,j )1≤i≤n ∈ Mn,p (K). On appelle transposée de A la matrice de Mp,n (K),
1≤j≤p
notée t A, définie par
t
A = (a′i,j ) 1≤i≤p où ∀(i, j) ∈ Np × Nn a′i,j = aj,i .
1≤j≤n
Propriétés :

1) L’application Mn,p (K) → Mp,n (K) est un isomorphisme de K-espaces vectoriels.


A → tA

2) ∀(A, B) ∈ Mm,n (K) × Mn,p (K) t (AB) = t B × t A.

3) Soit A ∈ Mn (K). A est inversible si et seulement si t A est inversible, auquel cas (t A)−1 = t (A−1 ).

Définition : soit A ∈ Mn (K). On dit que :


∗ A est symétrique si et seulement si t A = A
(∀(i, j) ∈ N2n ai,j = aj,i ) ;
∗ A est antisymétrique si et seulement si t A = −A
(∀(i, j) ∈ N2n ai,j = −aj,i ; en particulier ∀i ∈ Nn ai,i = 0 ).

Propriété : les matrices symétriques d’une part, antisymétriques d’autre part, forment deux sous-
n (n + 1) n (n − 1)
espaces supplémentaires de Mn (K), de dimensions respectives et .
2 2

XIV - Changements de bases

1) Matrice d’un système de vecteurs dans une base


Soit B une base d’un K-espace vectoriel E de dimension n et F = (x1 , . . . , xp ) une famille de vecteurs de
E. On appelle matrice de F dans la base B la matrice M de type (n, p) dont la j e colonne (1 ≤ j ≤ p)
contient les coordonnées du vecteur xj dans la base B.

2) Matrice de passage
Soient B et B′ deux bases d’un K-espace vectoriel E de dimension n. On appelle matrice de passage de
B à B′ la matrice de la famille B′ dans la base B, notée PB,B′ .
NB : PB,B′ est la matrice dans la base B de l’endomorphisme de E qui transforme B en B′ ; c’est aussi
la matrice de IE dans les bases B′ (dans E considéré comme espace de départ) et B (dans E
considéré comme espace d’arrivée).

Propriétés : soient B et B′ deux bases de E.


a) si X et X ′ sont les matrices colonnes des coordonnées d’un vecteur u de E dans les
bases B et B′ respectivement, on a : X = PB,B′ X ′ .
b) PB,B′ est inversible et son inverse est la matrice de passage de B′ à B.
c) Si B′′ est une troisième base de E, on a : PB,B′′ = PB,B′ × PB′ ,B′′ .
Algèbre linéaire de MPSI Page 12

3) Changement de bases pour une application linéaire


Théorème : soient B et B′ deux bases de E, P = PB,B′ , C et C ′ deux bases de F , Q = PC,C ′ et
f ∈ L(E, F ). Si A est la matrice de u dans les bases B, C et A′ la matrice de u dans les
bases B′ , C ′ , alors :
A′ = Q−1 AP .

4) Changement de base pour un endomorphisme


Théorème : soient B et B′ deux bases de E, P = PB,B′ et u ∈ L(E, F ). Si A est la matrice de u dans
la base B et A′ la matrice de u dans la base B′ , alors :
A′ = P −1 AP .

Définition : deux matrices carrées A et B d’ordre n sont semblables si et seulement si :


∃P ∈ GLn (K) B = P −1 AP .
i.e. si et seulement si A et B représentent un même endomorphisme dans deux bases.

XV - Rang d’une matrice


Définition : soit A ∈ Mn,p (K). On appelle rang de A le rang du système de ses p vecteurs colonnes
dans Kn , noté rg A.

Théorème : soient E et F deux K-espaces vectoriels de dimensions respectives p et n, rapportés aux


bases B et C. Si u est une application linéaire de E dans F , de matrice A dans les bases
B et C, alors :
rg u = rg A
Conséquences :

1) Soit A ∈ Mn,p (K). rg A = r si et seulement si A est de la forme UJr V , où U, V sont deux matrices
carrées inversibles et Jr = (αi,j ) est définie par : αi,j = 1 si i = j ≤ r, αi,j = 0 sinon.

2) rg t A = rg A (le rang d’une matrice est aussi le rang du système de ses vecteurs lignes).

3) Le rang d’une matrice est inchangé lorsqu’on la multiplie par une matrice carrée inversible.

4) Une matrice carrée d’ordre n est inversible si et seulement si son rang est égal à n.

XVI - Opérations élémentaires sur les matrices

1) Définitions
On appelle opération élémentaire sur une matrice A de Mn,p (K) :
1) l’échange de deux lignes (resp. colonnes) de A
(codage Li ↔ Lj (resp. Ci ↔ Cj )) ;

2) la multiplication d’une ligne (resp. colonne) de A par un scalaire non nul


(codage Li ← λ.Li (resp. Ci ← λ.Ci ) avec λ = 0) ;

3) l’ajout à une ligne (resp. colonne) le produit d’une autre ligne (resp. colonne) de A par un scalaire
quelconque
(codage Li ← Li + λ.Lj (resp. Ci ← Ci + λ.Cj ) avec j = i).
Algèbre linéaire de MPSI Page 13

2) Interprétation en termes de produit matriciel


NB : si A ∈ Mn,p (K) et si Ei,j est une matrice élémentaire de Mn (K), alors le produit Ei,j × A est la
matrice de Mn,p (K) dont la ie ligne est constituée par la j e ligne de A et dont toutes les autres
lignes sont nulles. Il en résulte les correspondances suivantes :
Opération Interprétation matricielle
Li ← Li + λ.Lj A ← (In + λ.Ei,j )A
.
Li ← λ.Li A ← (In + (λ − 1).Ei,i )A
Li ↔ Lj A ← (In − Ei,i − Ej,j + Ei,j + Ej,i )A
Théorème : les opérations élémentaires sur les lignes de A transforment A en une matrice de même
rang (on vérifie que les matrices In + λ.Ei,j (j = i), In + (λ − 1).Ei,i (λ = 0) et
In − Ei,i − Ej,j + Ei,j + Ej,i sont inversibles).

NB : les opérations sur les colonnes de A s’obtiennent par multiplication à droite par des matrices
carrées d’ordre p inversibles analogues.

3) Applications
a) Calcul du rang d’une matrice
La phase de descente de l’algorithme du pivot de Gauss permet, en utilisant exclusivement des opéra-
tions élémentaires sur les lignes, de transformer toute matrice A de Mn,p (K) en une matrice de la forme
suivante (en anglais row echelon form, voir la fonction ref de certaines calculatrices) :
 
piv1 * · · · * * * ··· ··· * * * ··· *
 0 0 · · · 0 piv2 * · · · · · · * * * ··· * 
 
 .. 
 0 0 ··· 0 0 0 ··· . * * * ··· * 
 .. .. .. .. .. .. 
 . 
Aref =  . . . . . * * * · · · * 
 0
 0 ··· 0 0 0 · · · · · · 0 pivr * · · · *  
 0 0 ··· 0 0 0 ··· ··· 0 0 0 ··· 0 
 
 . . . . . . . . . 
 .. .. .. .. .. .. .. .. .. 
0 0 ··· 0 0 0 ··· ··· 0 0 0 ··· 0
où piv1 , . . . , pivr sont des scalaires non nuls, les pivots.
Le nombre r desdits pivots n’est autre que le rang de la matrice A (puisqu’elle a même rang que Aref ).
b) Calcul de l’inverse d’une matrice carrée
La phase de remontée de l’algorithme du pivot de Gauss permet, toujours par des opérations élémen-
taires sur les lignes, de transformer la matrice Aref précédente en une matrice de la forme suivante (en
anglais reduced row echelon form, fonction rref) :
 
1 * ··· * 0 * ··· ··· * 0 * ··· *
 0 0 ··· 0 1 * ··· ··· * 0 * ··· * 
 
 ..
 0 0 ··· 0 0 0 ··· . * 0 * ··· *  
 . . . . . . 
 . . .. .. .. .. * 0 * · · · * 
Arref =  . . 

 0 0 · · · 0 0 0 · · · · · · 0 1 * · · · * 
 0 0 ··· 0 0 0 ··· ··· 0 0 0 ··· 0 
 
 . . .. .. .. .. .. .. .. 
 .. .. . . . . . . . 
0 0 ··· 0 0 0 ··· ··· 0 0 0 ··· 0
(on a divisé la ligne de chaque pivot par ledit pivot et fait ensuite apparaître des 0 au dessus dudit
pivot, le tout “en remontant”).
La matrice initiale A est inversible si et seulement si n = p = r, auquel cas Arref n’est autre que In ,
ce qui fournit une méthode “pratique” de calcul de l’inverse de A lorsqu’elle existe : en effet, si je note
Ω1 , . . . , Ωk les matrices associées aux opérations élémentaires sur les lignes utilisées pour transformer
A en Arref = In , j’ai
Ωk . . . Ω1 A = In d’où A−1 = Ωk . . . Ω1 = Ωk . . . Ω1 In (!!)
Algèbre linéaire de MPSI Page 14

Il en résulte que A−1 s’obtient en faisant subir à la matrice In , successivement et dans le même ordre,
les opérations élémentaires sur les lignes qui permettent de transformer A en In .
c) Résolution d’un système linéaire
Par des opérations élémentaires sur les lignes, on transforme tout système linéaire AX = B en un
système équivalent ayant une matrice de la forme Arref ci-dessus. Les n − r dernières lignes sont de la
forme : 0 = β j (β j étant l’expression au second membre résultant des opérations sur les lignes, expression
“constante”, indépendante des inconnues du système, pouvant par contre dépendre de paramètres
initialement présents dans les coefficients du système. . . ).
Ces n − r dernières lignes sont les conditions de compatibilité du système. En effet, l’ensemble S des
solutions est non vide si et seulement si les β j , j ∈ [[r + 1, n]], sont tous nuls.
Lorsque lesdites conditions de compatibilité sont satisfaites, on achève la résolution en renvoyant au
second membres les p−r inconnues ne correspondant pas aux colonnes des pivots (inconnues auxiliaires)
et l’on exprime les r inconnues correspondant aux colonnes des pivots (inconnues principales) en fonc-
tion des coefficients du système et des inconnues auxiliaires, qui peuvent être choisies arbitrairement.
Cela fournit une représentation paramétrique de l’ensemble des solutions. Noter la présence de p − r
paramètres, alors que l’on savait que S (ici non vide !) était un sous-espace affine de Kp de direction
Ker Can A, justement de dimension p − r (cf. le théorème du rang !!).
On en déduit une “solution particulière” a et une base de Ker Can A, en faisant apparaître la “solution
générale” comme élément d’un sous-espace affine de la forme W = a+Vect (v1 , . . . , vp−r ) (les coefficients
des vecteurs v1 , . . . , vp−r étant les inconnues auxiliaires). On a ainsi S ⊂ W , avec S de dimension p − r
et W de dimension au plus p − r : par conséquent S = W , Ker Can A = Vect (v1 , . . . , vp−r ) et donc
(v1 , . . . , vp−r ) est une base de Ker Can A.

Exemple : appliquons la première phase de l’algorithme du pivot au système ci-dessous, les 3 paramètres
x′ , y ′ , z ′ étant donnés dans R3
 
 x + 2y − z + t = x′  x + 2y − z + t = x′
(S) 3x + 6y + z − 2t = y ′ ⇐⇒ 4z − 5t = y ′ − 3x′
 ′ 
5x + 10y + 3z − 5t = z 0 = z ′ − 2y′ + x′
 
1 2 −1 1
Ainsi, (S), sa matrice A =  3 6 1 −2  et u = Can A sont de rang 2. Il est apparu une
5 10 3 −5
condition de compatibilité : l’ensemble S des solutions est non vide si et seulement si (x′ , y ′ , z ′ ) vérifient
la relation x′ − 2y′ + z ′ = 0. Noter qu’il s’agit d’une équation cartésienne du sous-espace de R3 engendré
par les 4 vecteurs colonnes de A, ainsi que de Im u : en effet S est non vide si et seulement si l’on peut
écrire (x′ , y ′ , z ′ ) comme combinaison linéaire des vecteurs colonnes de A, ou encore si et seulement s’il
existe (x, y, z, t) dans R4 tel que u (x, y, z, t) = (x′ , y ′ , z ′ ), c’est-à-dire si et seulement si (x′ , y ′ , z ′ ) ∈ Im u.
Achevons la résolution dans le cas particulier (x′ , y ′ , z ′ ) = (1, 1, 1) (qui vérifie la condition !). Effectuons
la phase de remontée et faisons apparaître les inconnues principales et auxiliaires :
 1 1  1 1

 x + 2y − t = 
 x = − 2y + t
4 2 2 4
(S) ⇐⇒ ⇐⇒

 5 1  z = −1
 5
z − t = − + t
4 2 2 4
Soit :    
1 1 1 5
(S) ⇐⇒ (x, y, z, t) = , 0, − , 0 + y · (−2, 1, 0, 0) + t · , 0, , 1 .
  2 2 4 4
1 1
Donc a = , 0, − , 0 est solution “particulière” et la direction de S est :
2 2
  
1 5  
Ker u = Vect (−2, 1, 0, 0) , , 0, , 1 = Vect (−2, 1, 0, 0) , (1, 0, 5, 4) .
4 4
Noter que Ker u est aussi l’ensemble des coefficients des combinaisons linéaires nulles des vecteurs
colonnes C1 , C2 , C3 , C4 de A : en particulier
−2C1 + C2 = 0 et C1 + 5C3 + 4C4 = 0.
Algèbre linéaire de MPSI Page 15

d) Cas particulier des systèmes de Cramer


Un système linéaire est dit de Cramer si et seulement si r = n = p. La matrice associée est alors carrée
et inversible, le système admet donc une solution unique, quel que soit le second membre.
Pour la résolution pratique, l’algorithme du pivot de Gauss fonctionne évidemment.
Toutefois, si le système (avec la même matrice A inversible) doit être résolu avec divers second membres,
il pourra être plus judicieux de déterminer une fois pour toute A−1 , la résolution du système pour chaque
second membre Y se réduisant alors au calcul direct du produit A−1 Y .

XVII - Déterminants

1) Groupe symétrique
a) Définitions — Notations
On note, pour n ∈ N, n ≥ 2, Nn l’ensemble [[1, n]] et Sn l’ensemble des bijections de Nn dans lui-même,
appelées permutations de Nn .
• (Sn , ◦) est un groupe, non commutatif dès que n est au moins égal à 3, dit groupe symétrique de
Nn ; son cardinal est n!.
 
1 2 3 ··· n
• Un élément σ de Sn est parfois noté : σ = .
σ (1) σ (2) σ (3) · · · σ (n)
• La loi ◦ est souvent notée multiplicativement, ◦ étant remplacé par un point, voire par rien.
• On appelle cycle tout élément γ de Sn pour lequel il existe ℓ dans N, ℓ ≥ 2, et ℓ éléments distincts
a1 , . . . , aℓ de Nn tels que γ soit défini par :
∀i ∈ Nℓ−1 γ (ai ) = ai+1 , γ (aℓ ) = a1 , ∀x ∈ Nn \ {a1 , . . . , aℓ } γ (x) = x
(i.e. γ opère une “permutation circulaire” sur a1 , . . . , aℓ et laisse fixes les autres éléments de Nn ).
 
ℓ est la longueur du cycle γ, l’ensemble {a1 , . . . , aℓ } est le support de γ ; on note γ = a1 a2 . . . aℓ
(sans virgules).
• On appelle transposition tout cycle de longueur 2 : τ = (a b) échange a et b et laisse fixes les autres
éléments de Nn .

Attention ! les transpositions (a b) et (b a) sont égales, mais, si a, b, c sont distincts dans Nn , les cycles
de longueur 3 (a b c) et (a c b) sont différents, bien qu’ayant même support. Par contre,
(a b c) = (b c a) = (c a b).

NB : Pour a, b, c distincts dans Nn , on vérifie facilement que (a b) (b c) = (a b c). On en déduit que


(b c) (a b) = (c b) (b a) = (c b a), d’où la non commutativité de Sn pour n ≥ 3 . . .

Propriété : si γ est un cycle de longueur ℓ, alors γ ℓ = INn (et ℓ est le plus petit des entiers naturels
non nuls k tels que γ k = INn ).
Si τ est une transposition, τ −1 = τ (τ est une involution).

Attention ! Une puissance d’un cycle n’est pas nécessairement un cycle : (1 2 3 4)2 = (1 3) (2 4) . . .

b) Décomposition en produit de transpositions

Théorème : toute permutation σ, élément de Sn , peut s’écrire comme produit (i.e. comme composée)
de transpositions.
Exemple : soit σ le cycle (1 2 3 4) dans S4 ; j’applique l’algorithme fourni par la démonstration par
récurrence du théorème précédent, qui conduit à poser successivement :
   
1 2 3 4 1 2 3 4
σ1 = (1 4) σ = ; σ 2 = (1 3) σ1 = = (1 2) ;
2 3 1 4 2 1 3 4
finalement : σ = (1 4) (1 3) (1 2).
Algèbre linéaire de MPSI Page 16

Attention ! Il n’y a pas unicité de cette décomposition en produit de transpositions : on peut allonger
arbitrairement ce type de produit en ajoutant des facteurs de la forme τ τ ; il peut y avoir
aussi des égalités moins triviales : voir par exemple, pour le cycle ci-dessus,
(1 2 3 4) = (1 4) (1 3) (1 2) = (1 2) (2 3) (3 4) .

c) Signature d’une permutation

Définition : soit σ ∈ Sn ; on dit que le couple (i, j) de N2n est une inversion pour σ si et seulement si
i<j et σ (i) > σ (j) .
On note Inv (σ) le nombre d’inversions pour σ.
La signature de σ est ε (σ) = (−1)Inv(σ) (ε (σ) ∈ {−1, 1}).
Les permutations de signature 1 sont dites permutations paires,
les permutations de signature −1 sont dites permutations impaires.
Calcul pratique : σ étant donnée par les deux lignes habituelles contenant i et σ (i), j’ajoute une
troisième ligne où j’indique, pour chaque valeur de i, le nombre Ni d’entiers j de Nn tels que (i, j) soit
une inversion pour σ. Inv (σ) étant la somme des Ni , j’en déduis ε (σ).
 
1 2 3 4 5 6 7 ←i
Exemple : σ = ; Inv (σ) = 10 ; ε (σ) = 1.
6 3 1 5 2 7 4 ← σ (i)
5 2 0 2 0 1 0 ← Ni

Propriété : ε (INn ) = 1 ; pour toute transposition τ , ε (τ ) = −1.


Théorème fondamental : l’application ε : Sn → {−1, 1} est un morphisme de groupes de
σ  → ε (σ)
(Sn , ◦) dans ({−1, 1} , ×). En particulier,
     
∀ σ, σ′ ∈ S2n ε σσ′ = ε (σ) ε σ′ .
Conséquences : 1) Si σ s’écrit comme produit de k transpositions, alors ε (σ) = (−1)k ;
2) Les permutations paires forment un sous-groupe An de (Sn , ◦), appelé
groupe alterné.
3) Pour n ≥ 2, soit τ une transposition de Sn ; l’application σ → τ σ est une
involution de Sn qui échange An et Sn \An , donc tous deux de cardinal n!/2.

2) Applications multilinéaires
a) Notion d’application p -linéaire
Soient E, F deux K-espaces vectoriels, p ∈ N, p ≥ 2 et f une application de E p dans F .
f est p -linéaire sur E si et seulement si, pour tout j de Np et tout (x1 , . . . , xj−1 , xj+1 , . . . , xp ) fixé dans
E p−1 , la j-ième application partielle, de E dans F , qui à x associe f (x1 , . . . , xj−1 , x, xj+1 , . . . , xp ) , est
linéaire (on dit que f est linéaire par rapport à chacune des p variables).
Pour p = 2, on dit bilinéaire.
Les formes p -linéaires sur E sont les applications p -linéaires de E p dans K.
Exemples : dans un R-espace vectoriel euclidien orienté de dimension 3, les applications (;u, ;v) → ;u.;v
et (;u, ;v) → ;u ∧ ;v sont bilinéaires, l’application (;u, ;v, w)
; → [;u, ;v , w]
; = (;u ∧ ;v) .w
; (produit
mixte) est une forme 3 -linéaire.

Propriétés : 1) L’ensemble des formes p -linéaires sur E est un K-espace vectoriel.


2) Si f est p -linéaire et si l’un des vecteurs xj est nul, alors f (x1 , . . . , xp ) = 0.

b) Applications p -linéaires symétriques, antisymétriques et alternées


Soient f p -linéaire sur E et σ ∈ Sp ; on note σ · f l’application p -linéaire sur E définie par
 
∀ (x1 , . . . , xp ) ∈ E p (σ · f ) (x1 , . . . , xp ) = f xσ(1) , . . . , xσ(p) .
Algèbre linéaire de MPSI Page 17

Définition : une application f p -linéaire sur E est dite :


∗ symétrique si et seulement si : ∀σ ∈ Sp σ · f = f ;
∗ antisymétrique si et seulement si : ∀σ ∈ Sp σ · f = ε (σ) .f ;
∗ alternée si et seulement si f (x1 , . . . , xp ) est nul dès que deux des xj sont égaux, c’est-
à-dire si et seulement si :
 
∀ (x1 , . . . , xp ) ∈ E p ∃ (i, j) ∈ N2p i = j et xi = xj ⇒ f (x1 , . . . , xp ) = 0 .
Caractérisation à l’aide des transpositions : soit f p -linéaire sur E ;
• f est symétrique si et seulement si, pour toute transposition τ de Sp , τ · f = f ;
• f est antisymétrique si et seulement si, pour toute transposition τ de Sp , τ · f = −f.

Théorème : soit f p -linéaire sur E ; f est alternée si et seulement si f est antisymétrique.

Idée de la dém. Si f est antisymétrique et (x1 , . . . , xp ) tel que xi = xj , utiliser τ · f avec τ = (i j).
Réciproquement, si f est alternée, considérer une transposition τ = (i j) (i < j) et montrer que τ · f =
−f en développant par multilinéarité l’expression :
f (x1 , . . . , xi−1 , xi + xj , xi+1 , . . . , xj−1 , xi + xj , xj+1 , . . . , xp )
Propriétés : 1) L’ensemble Ap (E) des formes p -linéaires alternées sur E est un K-espace vectoriel.
2) Soient f ∈ Ap (E) et (x1 , . . . , xp ) ∈ E p ; on ne modifie pas f (x1 , . . . , xp ) en ajoutant
à l’un des xj une combinaison linéaire des autres. En particulier, si (x1 , . . . , xp ) est liée,
alors f (x1 , . . . , xp ) = 0.

Attention ! Si l’on multiplie l’un des xj par un scalaire λ, f (x1 , . . . , xp ) est multiplié par λ ;
Si l’on multiplie tous les xj par un scalaire λ, f (x1 , . . . , xp ) est multiplié par λp :
f (λx1 , . . . , λxp ) = λp f (x1 , . . . , xp ) .

Symétrisée, antisymétrisée : si f est p -linéaire sur E, alors S (f) = σ · f est p -linéaire symétrique
σ∈Sp

et A (f ) = ε (σ) . (σ · f ) est p -linéaire antisymétrique.
σ∈Sp

Idée de la dém. (non exigible) choisir une transposition τ et constater que :


 
τ · S (f) = τ · (σ · f) = (τ σ) · f = S (f) ,
σ∈S p σ∈Sp
en réindexant, grâce à l’involution de Sp définie par σ → τ σ. De même,
     
τ · A (f ) = ε (σ) . τ · (σ · f ) = − ε (τ σ) . (τ σ) · f = −A (f) .
σ∈Sp σ∈Sp

3) Déterminants
a) Déterminant d’un système de vecteurs dans une base

Soient E un K-espace vectoriel de dimension n, B = (e1 , . . . , en ) une base de E ; l’application


f: En → K
n
 n

(x1 , . . . , xn ) → ai,i si ∀j ∈ Nn xj = ai,j .ei
i=1 i=1
est une forme n-linéaire sur E. D’après le paragraphe précédent, in fine, l’application
detB : En → K
 n
 n

(x1 , . . . , xn ) →
 ε (σ) ai,σ(i) si ∀j ∈ Nn xj = ai,j .ei
σ∈Sn i=1 i=1
est une forme n-linéaire alternée sur E, appelée déterminant dans la base B. En outre detB B = 1.
Algèbre linéaire de MPSI Page 18

Théorème fondamental
Si E est un K-espace vectoriel de dimension n, l’espace An (E) des formes n-linéaires alternées sur E
est une droite vectorielle.
Pour toute base B = (e1 , . . . , en ) de E, detB est l’unique forme n-linéaire alternée prenant la valeur 1
en B et
∀f ∈ An (E) f = λ. detB où λ = f (B) = f (e1 , . . . , en ) .
 n
En outre, si ∀j ∈ Nn xj = ai,j .ei ,
i=1
alors le déterminant dans la base B du système de vecteurs (x1 , . . . , xn ) est
 n
  n
detB (x1 , . . . , xn ) = ε (σ) ai,σ(i) = ε (σ) aσ(j),j
σ∈Sn i=1 σ∈Sn j=1
(le nombre de vecteurs est égal à la dimension de l’espace).
NB : on obtient directement l’égalité de ces deux sommes par réindexation,
en remplaçant σ par σ−1 . . .

Caractérisation des bases


Soient E un K-espace vectoriel de dimension n, B = (e1 , . . . , en ) une base de E et (x1 , . . . , xn ) un
système de n vecteurs de E.
• (x1 , . . . , xn ) est une base de E si et seulement si detB (x1 , . . . , xn ) = 0 ;
• (x1 , . . . , xn ) est une famille liée si et seulement si detB (x1 , . . . , xn ) = 0.

b) Déterminant d’un endomorphisme

Théorème et définition :
Soient E un K-espace vectoriel de dimension n, u ∈ L (E) ; il existe un unique scalaire, noté det u,
appelé déterminant de u, tel que :
 
∀f ∈ An (E) ∀ (x1 , . . . , xn ) ∈ E n f u (x1 ) , . . . , u (xn ) = (det u) · f (x1 , . . . , xn ) .
 
En outre, pour toute base B = (e1 , . . . , en ) de E : det u = detB u (e1 ) , . . . , u (en ) .

Propriétés : soit E un K-espace vectoriel de dimension n.

1) det IE = 1.

2) ∀λ ∈ K ∀u ∈ L (E) det (λ · u) = λn · det u.

3) ∀ (u, v) ∈ L (E)2 det (u ◦ v) = (det u) · (det v).

4) Un endomorphisme u de E est un automorphisme si et seulement si det u = 0, auquel cas


1
det u−1 = .
det u
Attention ! Rien pour det (u + v) . . .

Exemple : pour σ ∈ Sn et B = (e1 , . . . , en ) base de E, soit u l’endomorphisme de E défini par


∀j ∈ Nn u (ej ) = eσ(j)
detB étant une forme n-linéaire antisymétrique, il vient :
   
det u = detB u (e1 ) , . . . , u (en ) = detB eσ(1) , . . . , eσ(n) = ε (σ) · detB B = ε (σ) .
Algèbre linéaire de MPSI Page 19

c) Déterminant d’une matrice carrée 


 a1,1 . . .


 a1,n 
Définition : soit M = (ai,j ) ∈ Mn (K), on appelle déterminant de M, noté det M ou  ... ..
 
. ,
 
 an,1 . . . an,n 
le déterminant du système des vecteurs colonnes de M dans la base canonique de Kn :
 n  n

det M = ε (σ) ai,σ(i) = ε (σ) aσ(j),j .
σ∈Sn i=1 σ∈Sn j=1

Remarque fondamentale
Soit u ∈ L (E), det u est égal au déterminant de la matrice de u dans toute base de E.

Propriétés
1) det In = 1.

2) ∀λ ∈ K ∀M ∈ Mn (K) det (λ · M) = λn · det M.

3) ∀ (M, N) ∈ Mn (K)2 det (M × N) = (det M) · (det N).

1
4) M ∈ Mn (K) est inversible si et seulement si det M = 0, auquel cas det M −1 = .
det M
5) ∀M ∈ Mn (K) det t M = det M.

6) det M est aussi le déterminant du système des vecteurs lignes de M dans la base canonique de Kn .

4) Calcul des déterminants


a) Déterminant d’une matrice triangulaire par blocs

Propriété : le déterminant d’une matrice triangulaire est le produit de ses éléments diagonaux.

Théorème : le déterminant d’une matrice triangulaire par blocs est le produit des déterminants des
blocs diagonaux.

NB : la “phase de descente” de l’algorithme du pivot de Gauss permet de se ramener à une matrice


triangulaire pour calculer un déterminant d’ordre n au prix d’un nombre d’opérations de l’ordre
de n2 .

b) Développement d’un déterminant

Définition : soit M = (ai,j ) ∈ Mn (K) ; pour tout couple (i, j) dans N2n ,
le cofacteur de l’élément d’indice (i, j) dans M est le scalaire
Ai,j = (−1)i+j det Mi,j
où Mi,j est la matrice de Mn−1 (K) obtenue à partir de M
en supprimant la ligne i et la colonne j.

Théorème : soit M = (ai,j ) ∈ Mn (K) ; on a :


1) développement par rapport à la colonne j : pour j fixé dans Nn ,
n

det M = ai,j Ai,j
i=1

2) développement par rapport à la ligne i : pour i fixé dans Nn ,


n

det M = ai,j Ai,j
j=1
Algèbre linéaire de MPSI Page 20

5) Applications des déterminants


a) Comatrice — Inversion des matrices carrées

Théorème et définition : soit M ∈ Mn (K) ; on appelle comatrice de M la matrice des cofacteurs


des éléments de M :
Com M = (Ai,j )1≤i,j≤n .
On a alors les relations :
M × t (Com M ) = t (Com M) × M = (det M) .In
donc, si det M = 0 :
1
M −1 = · t (Com M) .
det M
Exemple : si ad − bc = 0,
 −1      
a c 1 d −c a c d −b
= · (en effet Com = ).
b d ad − bc −b a b d −c a

b) Formules de Cramer
   
x1 b1
Soit (S) : MX = B un système de Cramer, avec M ∈ GLn (K) , X =  ...  et B =  ... .
   
xn bn
La solution de (S) est donnée par :
det Mj
∀j ∈ Nn xj =
det M
où Mj ∈ Mn (K) est obtenue à partir de M en remplaçant
 la colonne j par le second membre B.
ax + by =c
Exemple : si ab′ − ba′ = 0, la solution du système est donnée par :
a′ x + b′ y = c′
   
 c b   a c 
 ′ ′   ′ ′ 
 c b   a c 
cb′ − bc′ ac′ − ca′
x=   = et y =   = .
 a b  ab′ − ba′  a b  ab′ − ba′
 ′ ′   ′ ′ 
 a b   a b 

c) Orientation d’un R-espace vectoriel

Théorème et définition : soit E un R-espace vectoriel de dimension n ≥ 1 ; deux bases B et B′ de


E sont dites de même orientation si et seulement si la matrice de passage
PB,B′ a un déterminant strictement positif.
En regroupant les bases de E selon leur orientation, on obtient une parti-
tion de l’ensemble des bases de E en exactement deux classes.
Orienter E, c’est choisir l’une de ces deux classes, dont les éléments sont
appelés bases directes, les autres étant les bases rétrogrades (ou indirectes).
 
Propriétés : 1) Soit σ ∈ Sn ; les bases (e1 , . . . , en ) et eσ(1) , . . . , eσ(n) sont de même orientation si et
seulement si σ est une permutation paire.
 
2) Soit u ∈ GL (E) ; les bases (e1 , . . . , en ) et u (e1 ) , . . . , u (en ) sont de même orientation
si et seulement si det u > 0.

d) Applications à la géométrie affine


Penser à écrire un déterminant pour obtenir une équation cartésienne d’un hyperplan donné par un
point et une base de la direction :
−−→ 
• en dimension 2, M ∈ A + Vect (;u) ⇔ detB AM, ;u = 0
−−→ 
• en dimension 3, M ∈ A + Vect (;u, ;v) ⇔ detB AM, ;u, ;v = 0
Algèbre linéaire de MPSI Page 21

e) Applications à la géométrie euclidienne


Produit mixte de n vecteurs en dimension n
Soit E un espace vectoriel euclidien orienté de dimension n. La matrice de passage entre deux bases
orthonormales directes de E a pour déterminant +1. Par conséquent, le déterminant d’un système
(;u1 , . . . , ;un ) de n vecteurs de E dans une base orthonormale directe de E est indépendant du choix de
cette base orthonormale directe.  
Il est appelé produit mixte de (;u1 , . . . , ;un ), noté ;u1 , . . . , ;un (ou encore Det (;u1 , . . . , ;un ), par exemple
dans le programme officiel. . . ).
Produit vectoriel de deux vecteurs en dimension 3
Soit E un espace vectoriel euclidien orienté de dimension 3. Etant donnés deux vecteurs ;a et ;b de E, le
produit vectoriel ;a ∧ ;b est l’unique vecteur de E tel que
   
∀;u ∈ E ;a, ;b, ;u = ;a ∧ ;b · ;u ( · étant le symbole du produit scalaire)
 
(cette définition intrinsèque, justifiée par l’isomorphisme canonique entre E et son dual, ;u → ;a, ;b, ;u
étant une forme linéaire sur E, redonne bien sûr les coordonnées de ;a ∧ ;b dans n’importe quelle base
orthonormale directe, en fonction de celles de ;a et ;b . . . ).
Calculs d’aires  −− 
 → −→  −−

Dans un plan euclidien orienté,  AB, AC  donne l’aire du parallélogramme ABDC (où D = C + AB)
1  −−
→ −→ 
et ·  AB, AC  donne l’aire du triangle ABC.
2
Calculs de volumes  −− 
 → −→ −−→ 
Dans un espace euclidien orienté de dimension 3,  AB, AC, AD  donne le volume du parallélépipède
−−
→ −→ −−→ 1  −−→ −→ −−→ 
construit sur AB, AC, AD et ·  AB, AC, AD  donne le volume du tétraèdre ABCD.
6