Académique Documents
Professionnel Documents
Culture Documents
1) Définition
On appelle K-espace vectoriel tout triplet (E, +, .) où :
1) E est un ensemble dont les éléments sont appelés vecteurs.
2) + est une loi de composition interne sur E telle que (E, +) soit un groupe abélien.
L’élément neutre 0 est appelé vecteur nul.
2) Propriétés élémentaires
• ∀x ∈ E 0.x = 0.
• ∀λ ∈ K λ.0 = 0.
• ∀(λ, x) ∈ K × E λ.x = 0 ⇔ (λ = 0 ou x = 0).
• ∀(λ, x) ∈ K × E (−λ).x = −(λ.x) = λ.(−x).
II - Sous-espaces vectoriels
E désigne un K-espace vectoriel.
1) Définition
Soit F une partie de E. On dit que F est un sous-espace vectoriel de E si et seulement si la restriction
de la loi + à F × F et la restriction de la loi . à K × F induisent sur F une structure de K-espace
vectoriel.
Algèbre linéaire de MPSI Page 2
2) Caractérisations
Une partie F de E est un sous-espace vectoriel de E si et seulement si
• 0 ∈ F et
∀(x, y) ∈ F 2 x + y ∈ F et
∀(λ, x) ∈ K × F λ.x ∈ F ;
ou bien
• 0 ∈ F et
∀λ ∈ K ∀(x, y) ∈ F 2 λ.x + y ∈ F .
Attention ! En général, l’union de deux sous-espaces vectoriels de E n’est pas un sous-espace vectoriel
de E (c’en est un si et seulement si l’un des deux sous-espaces considérés est inclus dans
l’autre. . . ).
1) Translations
Définition : pour tout vecteur a de E, on appelle translation de vecteur a l’application τ a : x → a + x,
de E dans E .
2) Sous-espaces affines
Définition : on appelle sous-espace affine de E toute partie W de E de la forme a + F , où F est un
sous-espace vectoriel de E et où l’on note :
a + F = τ a (F ) = {a + x, x ∈ F }
Attention ! Cette relation n’est pas symétrique. On dira que W et W ′ sont parallèles si et seulement
si leurs directions sont égales. Par exemple en dimension 3, on peut avoir une droite
parallèle à un plan, deux droites parallèles ou deux plans parallèles.
IV - Applications linéaires
1) Définition
Soient E et F deux K-espaces vectoriels et u une application de E dans F .
On dit que u est linéaire (ou encore un morphisme d’espaces vectoriels) si et seulement si :
∀(x, y) ∈ E 2 u(x + y) = u(x) + u(y)
∀λ ∈ K ∀x ∈ E u(λ.x) = λ.u(x)
(ou bien : ∀λ ∈ K ∀(x, y) ∈ E 2 u(λ.x + y) = λ.u(x) + u(y) )
Si, de plus :
• u est bijective, on dit que u est un isomorphisme (E et F sont dits isomorphes) ;
• E = F , on dit que u est un endomorphisme de E ;
• E = F et u bijective, on dit que u est un automorphisme de E ;
• F = K, on dit que u est une forme linéaire sur E.
Algèbre linéaire de MPSI Page 4
2) Image
Définition : soit u ∈ L(E, F ). On appelle image de u le sous-espace u(E) de F noté Im u :
Im u = {y ∈ F / ∃x ∈ E u(x) = y} = {u(x), x ∈ E} .
3) Noyau
Définition : soit u ∈ L(E, F ). On appelle noyau de u le sous-espace u−1 ({0F }) de E noté Ker u :
Ker u = {x ∈ E / u(x) = 0F }.
Propriété : u est injective si et seulement si Ker u = {0E }
(ou encore si et seulement si : ∀x ∈ E u(x) = 0F ⇒ x = 0E ).
4) Équations linéaires
Étant donnés u dans L (E, F ) et b dans F , la résolution de l’équation linéaire u(x) = b est la recherche
de l’ensemble S des vecteurs x de E tels que u(x) = b.
S est vide si et seulement si b n’appartient pas à Im u.
Lorsque b est dans Im u, S est non vide et pour tout x0 dans S, S est l’ensemble des vecteurs de E de
la forme x0 + z, z décrivant Ker u :
S = x0 + Ker u = {x0 + z, z ∈ Ker u} .
Théorème : si u est un isomorphisme de E dans F , alors u−1 est linéaire (donc un isomorphisme) de
F dans E.
c) Structure de L(E)
Si E est un K-espace vectoriel, alors (L(E), +, ., ◦) est une K-algèbre.
Théorème et définition : soit GL(E) l’ensemble des automorphismes de E. (GL(E), ◦) est un groupe
(non abélien en général), appelé groupe linéaire de E.
V - Projecteurs et symétries
1) Projecteurs
Définition : soient F et G deux sous-espaces supplémentaires de E ; l’application p de E dans E qui
à tout vecteur x de E associe le vecteur y de F tel que x = y + z avec (y, z) ∈ F × G est
appelée projecteur (ou projection vectorielle) de E sur F parallèlement à G.
2) Symétries vectorielles
Définition : soient F et G deux sous-espaces supplémentaires de E ; l’application s de E dans E qui
à tout vecteur x de E associe le vecteur y − z de E où (y, z) est le couple de F × G tel
que x = y + z est appelée symétrie vectorielle par rapport à F parallèlement à G.
1) Familles génératrices
Définition : soit F = (xi )i∈I une famille finie de vecteurs de E. On dit qu’un vecteur x de E est
combinaison linéaire
des vecteurs de F si et seulement s’il existe une famille (λi )i∈I ∈ KI
telle que x = λi .xi .
i∈I
Définition : soit F une famille finie de vecteurs de E. On dit que F est une famille génératrice de
E si et seulement si tout vecteur de E est combinaison linéaire des vecteurs de F (i.e.
Vect F = E).
Algèbre linéaire de MPSI Page 6
2) Familles libres
Définition : soit F = (x1 , . . . , xp ) une famille finie de vecteurs de E. On dit que F est libre si et
seulement si la seule combinaison linéaire nulle des vecteurs de F est celle dont tous les
coefficients sont nuls : p
p
∀(λ1 , . . . , λp ) ∈ K λk .xk = 0 =⇒ ∀k ∈ Np λk = 0 .
k=1
Une famille quelconque (xi )i∈I de vecteurs de E est dite libre si et seulement si toutes ses
sous-familles finies sont libres.
Une partie A de E est dite libre si et seulement si la famille (x)x∈A est libre.
Par convention, ∅ est libre.
Propriétés : 1) Soit x ∈ E. La famille (x) formée du seul vecteur x est libre si et seulement si x est
non nul.
2) Toute sous-famille d’une famille libre est libre.
3) Une famille (xi )i∈I est libre si et seulement si, pour toute famille de scalaires (λi )i∈I à
support fini,
λi .xi = 0 ⇒ ∀i ∈ I λi = 0.
i∈I
4) Si une partie A de E est libre et si x est un vecteur de E, A ∪ {x} est libre si et
seulement si x n’est pas combinaison linéaire des vecteurs de A (i.e. x ∈
/ Vect A).
3) Familles liées
Définition : une famille F de vecteurs de E (resp. une partie A de E) est dite liée si et seulement
si elle n’est pas libre. On dit alors que les vecteurs de F (resp. de A) sont linéairement
dépendants.
Deux vecteurs sont dits colinéaires si et seulement s’ils sont linéairement dépendants.
Caractérisation : 1) Une famille F de vecteurs de E est liée si et seulement s’il existe des vecteurs
x1 , . . . , xp de F et une famille (λ1 , . . . , λp ) de scalaires non tous nuls telle que
p
λk .xk = 0 (relation de dépendance linéaire).
k=1
2) Une famille d’au moins deux vecteurs est liée si et seulement si l’un au moins de
ses vecteurs est combinaison linéaire des autres.
3) Deux vecteurs x, y sont colinéaires si et seulement si : x = 0 ou ∃λ ∈ K y = λ.x.
Propriétés : 1) Toute sur-famille d’une famille liée est liée ; toute famille contenant le vecteur nul est
liée.
2) Si une partie A de E est libre et si x est un vecteur de E, A∪{x} est liée si et seulement
si x est combinaison linéaire des vecteurs de A (i.e. x ∈ Vect A).
4) Bases
Définition : soit F une famille finie de vecteurs de E.
On dit que F est une base de E si et seulement si F est libre et génératrice.
Une famille B = (ei )i∈I de vecteurs de E est une base de E si et seulement si tout vecteur
de E s’écrit
de manière unique comme combinaison linéaire des vecteurs de B. Dans ce cas, si x = λi .ei , la
i∈I
famille (λi )i∈I est appelée la famille des coordonnées de x dans la base B.
Algèbre linéaire de MPSI Page 7
Théorème : tout sous-espace vectoriel d’un espace vectoriel E de dimension finie admet au moins un
supplémentaire dans E.
Théorème : soient F et G deux sous-espaces vectoriels d’un espace vectoriel E de dimension finie.
E = F ⊕ G ⇔ (F ∩ G = {0} et dim F + dim G = dim E) .
Conséquence : soient F et G deux sous-espaces vectoriels d’un espace vectoriel E de dimension finie
E = F ⊕ G ⇔ (F + G = E et dim F + dim G = dim E) .
X - Théorème du rang
1) Théorème d’isomorphisme
Théorème : deux espaces vectoriels E et F de dimension finie sont isomorphes si et seulement s’ils ont
la même dimension.
Propriété : le rang d’une application linéaire est invariant par composition avec un isomorphisme.
2) Pour tout élément (i, j) de Nn × Np , on désigne par ui,j l’unique application linéaire de E vers F
telle que (δ j,k désignant le symbole de Kronecker ) :
∀k ∈ Np ui,j (ek ) = δ j,k .fi
On vérifie que (ui,j )1≤i≤n est une base de L (E, F ).
1≤j≤p
1) Définition - notations
Soient n et p deux entiers naturels non nuls.
On appelle matrice de type (n, p) à coefficients dans K tout tableau M constitué de n lignes et p colonnes
d’éléments de K. On écrit M = (ai,j )1≤i≤n , ai,j étant le terme situé à l’intersection de la ie ligne et de
1≤j≤p
la j e colonne de M.
Mn,p (K) désigne l’ensemble des matrices de type (n, p) à coefficients dans K.
Mn (K) désigne l’ensemble Mn,n (K) des matrices carrées d’ordre n à coefficients dans K.
2) Produit matriciel
Définition : soient A = (ai,j )1≤i≤m et B = (bj,k )1≤j≤n .
1≤j≤n 1≤k≤p
A × B est la matrice de type (m, p) définie par : A × B = (ci,k )1≤i≤m où :
1≤k≤p
n
∀(i, k) ∈ Nm × Np ci,k = ai,j bj,k .
j=1
Propriété : si u ∈ L(E, F ) a pour matrice A dans les bases B et C, si X est la matrice colonne des
coordonnées d’un vecteur x de E dans la base B, alors le produit AX est la matrice colonne
des coordonnées de u(x) dans la base C.
3) Structure de Mn (K)
(Mn (K), +, ., ×) est une K-algèbre (non commutative pour n ≥ 2). Avec les notations précédentes,
l’application u → MB (u) est un isomorphisme d’algèbres de L (E) sur Mn (K).
L’élément neutre de la multiplication est la matrice identité d’ordre n : In = (δ ji )1≤i,j≤n .
Définition : soit A ∈ Mn (K). On dit que :
Propriété : une matrice triangulaire est inversible si et seulement si les éléments de sa diagonale
principale sont tous non nuls.
5) Transposition
Définition : soit A = (ai,j )1≤i≤n ∈ Mn,p (K). On appelle transposée de A la matrice de Mp,n (K),
1≤j≤p
notée t A, définie par
t
A = (a′i,j ) 1≤i≤p où ∀(i, j) ∈ Np × Nn a′i,j = aj,i .
1≤j≤n
Propriétés :
3) Soit A ∈ Mn (K). A est inversible si et seulement si t A est inversible, auquel cas (t A)−1 = t (A−1 ).
Propriété : les matrices symétriques d’une part, antisymétriques d’autre part, forment deux sous-
n (n + 1) n (n − 1)
espaces supplémentaires de Mn (K), de dimensions respectives et .
2 2
2) Matrice de passage
Soient B et B′ deux bases d’un K-espace vectoriel E de dimension n. On appelle matrice de passage de
B à B′ la matrice de la famille B′ dans la base B, notée PB,B′ .
NB : PB,B′ est la matrice dans la base B de l’endomorphisme de E qui transforme B en B′ ; c’est aussi
la matrice de IE dans les bases B′ (dans E considéré comme espace de départ) et B (dans E
considéré comme espace d’arrivée).
1) Soit A ∈ Mn,p (K). rg A = r si et seulement si A est de la forme UJr V , où U, V sont deux matrices
carrées inversibles et Jr = (αi,j ) est définie par : αi,j = 1 si i = j ≤ r, αi,j = 0 sinon.
2) rg t A = rg A (le rang d’une matrice est aussi le rang du système de ses vecteurs lignes).
3) Le rang d’une matrice est inchangé lorsqu’on la multiplie par une matrice carrée inversible.
4) Une matrice carrée d’ordre n est inversible si et seulement si son rang est égal à n.
1) Définitions
On appelle opération élémentaire sur une matrice A de Mn,p (K) :
1) l’échange de deux lignes (resp. colonnes) de A
(codage Li ↔ Lj (resp. Ci ↔ Cj )) ;
3) l’ajout à une ligne (resp. colonne) le produit d’une autre ligne (resp. colonne) de A par un scalaire
quelconque
(codage Li ← Li + λ.Lj (resp. Ci ← Ci + λ.Cj ) avec j = i).
Algèbre linéaire de MPSI Page 13
NB : les opérations sur les colonnes de A s’obtiennent par multiplication à droite par des matrices
carrées d’ordre p inversibles analogues.
3) Applications
a) Calcul du rang d’une matrice
La phase de descente de l’algorithme du pivot de Gauss permet, en utilisant exclusivement des opéra-
tions élémentaires sur les lignes, de transformer toute matrice A de Mn,p (K) en une matrice de la forme
suivante (en anglais row echelon form, voir la fonction ref de certaines calculatrices) :
piv1 * · · · * * * ··· ··· * * * ··· *
0 0 · · · 0 piv2 * · · · · · · * * * ··· *
..
0 0 ··· 0 0 0 ··· . * * * ··· *
.. .. .. .. .. ..
.
Aref = . . . . . * * * · · · *
0
0 ··· 0 0 0 · · · · · · 0 pivr * · · · *
0 0 ··· 0 0 0 ··· ··· 0 0 0 ··· 0
. . . . . . . . .
.. .. .. .. .. .. .. .. ..
0 0 ··· 0 0 0 ··· ··· 0 0 0 ··· 0
où piv1 , . . . , pivr sont des scalaires non nuls, les pivots.
Le nombre r desdits pivots n’est autre que le rang de la matrice A (puisqu’elle a même rang que Aref ).
b) Calcul de l’inverse d’une matrice carrée
La phase de remontée de l’algorithme du pivot de Gauss permet, toujours par des opérations élémen-
taires sur les lignes, de transformer la matrice Aref précédente en une matrice de la forme suivante (en
anglais reduced row echelon form, fonction rref) :
1 * ··· * 0 * ··· ··· * 0 * ··· *
0 0 ··· 0 1 * ··· ··· * 0 * ··· *
..
0 0 ··· 0 0 0 ··· . * 0 * ··· *
. . . . . .
. . .. .. .. .. * 0 * · · · *
Arref = . .
0 0 · · · 0 0 0 · · · · · · 0 1 * · · · *
0 0 ··· 0 0 0 ··· ··· 0 0 0 ··· 0
. . .. .. .. .. .. .. ..
.. .. . . . . . . .
0 0 ··· 0 0 0 ··· ··· 0 0 0 ··· 0
(on a divisé la ligne de chaque pivot par ledit pivot et fait ensuite apparaître des 0 au dessus dudit
pivot, le tout “en remontant”).
La matrice initiale A est inversible si et seulement si n = p = r, auquel cas Arref n’est autre que In ,
ce qui fournit une méthode “pratique” de calcul de l’inverse de A lorsqu’elle existe : en effet, si je note
Ω1 , . . . , Ωk les matrices associées aux opérations élémentaires sur les lignes utilisées pour transformer
A en Arref = In , j’ai
Ωk . . . Ω1 A = In d’où A−1 = Ωk . . . Ω1 = Ωk . . . Ω1 In (!!)
Algèbre linéaire de MPSI Page 14
Il en résulte que A−1 s’obtient en faisant subir à la matrice In , successivement et dans le même ordre,
les opérations élémentaires sur les lignes qui permettent de transformer A en In .
c) Résolution d’un système linéaire
Par des opérations élémentaires sur les lignes, on transforme tout système linéaire AX = B en un
système équivalent ayant une matrice de la forme Arref ci-dessus. Les n − r dernières lignes sont de la
forme : 0 = β j (β j étant l’expression au second membre résultant des opérations sur les lignes, expression
“constante”, indépendante des inconnues du système, pouvant par contre dépendre de paramètres
initialement présents dans les coefficients du système. . . ).
Ces n − r dernières lignes sont les conditions de compatibilité du système. En effet, l’ensemble S des
solutions est non vide si et seulement si les β j , j ∈ [[r + 1, n]], sont tous nuls.
Lorsque lesdites conditions de compatibilité sont satisfaites, on achève la résolution en renvoyant au
second membres les p−r inconnues ne correspondant pas aux colonnes des pivots (inconnues auxiliaires)
et l’on exprime les r inconnues correspondant aux colonnes des pivots (inconnues principales) en fonc-
tion des coefficients du système et des inconnues auxiliaires, qui peuvent être choisies arbitrairement.
Cela fournit une représentation paramétrique de l’ensemble des solutions. Noter la présence de p − r
paramètres, alors que l’on savait que S (ici non vide !) était un sous-espace affine de Kp de direction
Ker Can A, justement de dimension p − r (cf. le théorème du rang !!).
On en déduit une “solution particulière” a et une base de Ker Can A, en faisant apparaître la “solution
générale” comme élément d’un sous-espace affine de la forme W = a+Vect (v1 , . . . , vp−r ) (les coefficients
des vecteurs v1 , . . . , vp−r étant les inconnues auxiliaires). On a ainsi S ⊂ W , avec S de dimension p − r
et W de dimension au plus p − r : par conséquent S = W , Ker Can A = Vect (v1 , . . . , vp−r ) et donc
(v1 , . . . , vp−r ) est une base de Ker Can A.
Exemple : appliquons la première phase de l’algorithme du pivot au système ci-dessous, les 3 paramètres
x′ , y ′ , z ′ étant donnés dans R3
x + 2y − z + t = x′ x + 2y − z + t = x′
(S) 3x + 6y + z − 2t = y ′ ⇐⇒ 4z − 5t = y ′ − 3x′
′
5x + 10y + 3z − 5t = z 0 = z ′ − 2y′ + x′
1 2 −1 1
Ainsi, (S), sa matrice A = 3 6 1 −2 et u = Can A sont de rang 2. Il est apparu une
5 10 3 −5
condition de compatibilité : l’ensemble S des solutions est non vide si et seulement si (x′ , y ′ , z ′ ) vérifient
la relation x′ − 2y′ + z ′ = 0. Noter qu’il s’agit d’une équation cartésienne du sous-espace de R3 engendré
par les 4 vecteurs colonnes de A, ainsi que de Im u : en effet S est non vide si et seulement si l’on peut
écrire (x′ , y ′ , z ′ ) comme combinaison linéaire des vecteurs colonnes de A, ou encore si et seulement s’il
existe (x, y, z, t) dans R4 tel que u (x, y, z, t) = (x′ , y ′ , z ′ ), c’est-à-dire si et seulement si (x′ , y ′ , z ′ ) ∈ Im u.
Achevons la résolution dans le cas particulier (x′ , y ′ , z ′ ) = (1, 1, 1) (qui vérifie la condition !). Effectuons
la phase de remontée et faisons apparaître les inconnues principales et auxiliaires :
1 1 1 1
x + 2y − t =
x = − 2y + t
4 2 2 4
(S) ⇐⇒ ⇐⇒
5 1 z = −1
5
z − t = − + t
4 2 2 4
Soit :
1 1 1 5
(S) ⇐⇒ (x, y, z, t) = , 0, − , 0 + y · (−2, 1, 0, 0) + t · , 0, , 1 .
2 2 4 4
1 1
Donc a = , 0, − , 0 est solution “particulière” et la direction de S est :
2 2
1 5
Ker u = Vect (−2, 1, 0, 0) , , 0, , 1 = Vect (−2, 1, 0, 0) , (1, 0, 5, 4) .
4 4
Noter que Ker u est aussi l’ensemble des coefficients des combinaisons linéaires nulles des vecteurs
colonnes C1 , C2 , C3 , C4 de A : en particulier
−2C1 + C2 = 0 et C1 + 5C3 + 4C4 = 0.
Algèbre linéaire de MPSI Page 15
XVII - Déterminants
1) Groupe symétrique
a) Définitions — Notations
On note, pour n ∈ N, n ≥ 2, Nn l’ensemble [[1, n]] et Sn l’ensemble des bijections de Nn dans lui-même,
appelées permutations de Nn .
• (Sn , ◦) est un groupe, non commutatif dès que n est au moins égal à 3, dit groupe symétrique de
Nn ; son cardinal est n!.
1 2 3 ··· n
• Un élément σ de Sn est parfois noté : σ = .
σ (1) σ (2) σ (3) · · · σ (n)
• La loi ◦ est souvent notée multiplicativement, ◦ étant remplacé par un point, voire par rien.
• On appelle cycle tout élément γ de Sn pour lequel il existe ℓ dans N, ℓ ≥ 2, et ℓ éléments distincts
a1 , . . . , aℓ de Nn tels que γ soit défini par :
∀i ∈ Nℓ−1 γ (ai ) = ai+1 , γ (aℓ ) = a1 , ∀x ∈ Nn \ {a1 , . . . , aℓ } γ (x) = x
(i.e. γ opère une “permutation circulaire” sur a1 , . . . , aℓ et laisse fixes les autres éléments de Nn ).
ℓ est la longueur du cycle γ, l’ensemble {a1 , . . . , aℓ } est le support de γ ; on note γ = a1 a2 . . . aℓ
(sans virgules).
• On appelle transposition tout cycle de longueur 2 : τ = (a b) échange a et b et laisse fixes les autres
éléments de Nn .
Attention ! les transpositions (a b) et (b a) sont égales, mais, si a, b, c sont distincts dans Nn , les cycles
de longueur 3 (a b c) et (a c b) sont différents, bien qu’ayant même support. Par contre,
(a b c) = (b c a) = (c a b).
Propriété : si γ est un cycle de longueur ℓ, alors γ ℓ = INn (et ℓ est le plus petit des entiers naturels
non nuls k tels que γ k = INn ).
Si τ est une transposition, τ −1 = τ (τ est une involution).
Attention ! Une puissance d’un cycle n’est pas nécessairement un cycle : (1 2 3 4)2 = (1 3) (2 4) . . .
Théorème : toute permutation σ, élément de Sn , peut s’écrire comme produit (i.e. comme composée)
de transpositions.
Exemple : soit σ le cycle (1 2 3 4) dans S4 ; j’applique l’algorithme fourni par la démonstration par
récurrence du théorème précédent, qui conduit à poser successivement :
1 2 3 4 1 2 3 4
σ1 = (1 4) σ = ; σ 2 = (1 3) σ1 = = (1 2) ;
2 3 1 4 2 1 3 4
finalement : σ = (1 4) (1 3) (1 2).
Algèbre linéaire de MPSI Page 16
Attention ! Il n’y a pas unicité de cette décomposition en produit de transpositions : on peut allonger
arbitrairement ce type de produit en ajoutant des facteurs de la forme τ τ ; il peut y avoir
aussi des égalités moins triviales : voir par exemple, pour le cycle ci-dessus,
(1 2 3 4) = (1 4) (1 3) (1 2) = (1 2) (2 3) (3 4) .
Définition : soit σ ∈ Sn ; on dit que le couple (i, j) de N2n est une inversion pour σ si et seulement si
i<j et σ (i) > σ (j) .
On note Inv (σ) le nombre d’inversions pour σ.
La signature de σ est ε (σ) = (−1)Inv(σ) (ε (σ) ∈ {−1, 1}).
Les permutations de signature 1 sont dites permutations paires,
les permutations de signature −1 sont dites permutations impaires.
Calcul pratique : σ étant donnée par les deux lignes habituelles contenant i et σ (i), j’ajoute une
troisième ligne où j’indique, pour chaque valeur de i, le nombre Ni d’entiers j de Nn tels que (i, j) soit
une inversion pour σ. Inv (σ) étant la somme des Ni , j’en déduis ε (σ).
1 2 3 4 5 6 7 ←i
Exemple : σ = ; Inv (σ) = 10 ; ε (σ) = 1.
6 3 1 5 2 7 4 ← σ (i)
5 2 0 2 0 1 0 ← Ni
2) Applications multilinéaires
a) Notion d’application p -linéaire
Soient E, F deux K-espaces vectoriels, p ∈ N, p ≥ 2 et f une application de E p dans F .
f est p -linéaire sur E si et seulement si, pour tout j de Np et tout (x1 , . . . , xj−1 , xj+1 , . . . , xp ) fixé dans
E p−1 , la j-ième application partielle, de E dans F , qui à x associe f (x1 , . . . , xj−1 , x, xj+1 , . . . , xp ) , est
linéaire (on dit que f est linéaire par rapport à chacune des p variables).
Pour p = 2, on dit bilinéaire.
Les formes p -linéaires sur E sont les applications p -linéaires de E p dans K.
Exemples : dans un R-espace vectoriel euclidien orienté de dimension 3, les applications (;u, ;v) → ;u.;v
et (;u, ;v) → ;u ∧ ;v sont bilinéaires, l’application (;u, ;v, w)
; → [;u, ;v , w]
; = (;u ∧ ;v) .w
; (produit
mixte) est une forme 3 -linéaire.
Idée de la dém. Si f est antisymétrique et (x1 , . . . , xp ) tel que xi = xj , utiliser τ · f avec τ = (i j).
Réciproquement, si f est alternée, considérer une transposition τ = (i j) (i < j) et montrer que τ · f =
−f en développant par multilinéarité l’expression :
f (x1 , . . . , xi−1 , xi + xj , xi+1 , . . . , xj−1 , xi + xj , xj+1 , . . . , xp )
Propriétés : 1) L’ensemble Ap (E) des formes p -linéaires alternées sur E est un K-espace vectoriel.
2) Soient f ∈ Ap (E) et (x1 , . . . , xp ) ∈ E p ; on ne modifie pas f (x1 , . . . , xp ) en ajoutant
à l’un des xj une combinaison linéaire des autres. En particulier, si (x1 , . . . , xp ) est liée,
alors f (x1 , . . . , xp ) = 0.
Attention ! Si l’on multiplie l’un des xj par un scalaire λ, f (x1 , . . . , xp ) est multiplié par λ ;
Si l’on multiplie tous les xj par un scalaire λ, f (x1 , . . . , xp ) est multiplié par λp :
f (λx1 , . . . , λxp ) = λp f (x1 , . . . , xp ) .
Symétrisée, antisymétrisée : si f est p -linéaire sur E, alors S (f) = σ · f est p -linéaire symétrique
σ∈Sp
et A (f ) = ε (σ) . (σ · f ) est p -linéaire antisymétrique.
σ∈Sp
3) Déterminants
a) Déterminant d’un système de vecteurs dans une base
Théorème fondamental
Si E est un K-espace vectoriel de dimension n, l’espace An (E) des formes n-linéaires alternées sur E
est une droite vectorielle.
Pour toute base B = (e1 , . . . , en ) de E, detB est l’unique forme n-linéaire alternée prenant la valeur 1
en B et
∀f ∈ An (E) f = λ. detB où λ = f (B) = f (e1 , . . . , en ) .
n
En outre, si ∀j ∈ Nn xj = ai,j .ei ,
i=1
alors le déterminant dans la base B du système de vecteurs (x1 , . . . , xn ) est
n
n
detB (x1 , . . . , xn ) = ε (σ) ai,σ(i) = ε (σ) aσ(j),j
σ∈Sn i=1 σ∈Sn j=1
(le nombre de vecteurs est égal à la dimension de l’espace).
NB : on obtient directement l’égalité de ces deux sommes par réindexation,
en remplaçant σ par σ−1 . . .
Théorème et définition :
Soient E un K-espace vectoriel de dimension n, u ∈ L (E) ; il existe un unique scalaire, noté det u,
appelé déterminant de u, tel que :
∀f ∈ An (E) ∀ (x1 , . . . , xn ) ∈ E n f u (x1 ) , . . . , u (xn ) = (det u) · f (x1 , . . . , xn ) .
En outre, pour toute base B = (e1 , . . . , en ) de E : det u = detB u (e1 ) , . . . , u (en ) .
1) det IE = 1.
Remarque fondamentale
Soit u ∈ L (E), det u est égal au déterminant de la matrice de u dans toute base de E.
Propriétés
1) det In = 1.
1
4) M ∈ Mn (K) est inversible si et seulement si det M = 0, auquel cas det M −1 = .
det M
5) ∀M ∈ Mn (K) det t M = det M.
6) det M est aussi le déterminant du système des vecteurs lignes de M dans la base canonique de Kn .
Propriété : le déterminant d’une matrice triangulaire est le produit de ses éléments diagonaux.
Théorème : le déterminant d’une matrice triangulaire par blocs est le produit des déterminants des
blocs diagonaux.
Définition : soit M = (ai,j ) ∈ Mn (K) ; pour tout couple (i, j) dans N2n ,
le cofacteur de l’élément d’indice (i, j) dans M est le scalaire
Ai,j = (−1)i+j det Mi,j
où Mi,j est la matrice de Mn−1 (K) obtenue à partir de M
en supprimant la ligne i et la colonne j.
b) Formules de Cramer
x1 b1
Soit (S) : MX = B un système de Cramer, avec M ∈ GLn (K) , X = ... et B = ... .
xn bn
La solution de (S) est donnée par :
det Mj
∀j ∈ Nn xj =
det M
où Mj ∈ Mn (K) est obtenue à partir de M en remplaçant
la colonne j par le second membre B.
ax + by =c
Exemple : si ab′ − ba′ = 0, la solution du système est donnée par :
a′ x + b′ y = c′
c b a c
′ ′ ′ ′
c b a c
cb′ − bc′ ac′ − ca′
x= = et y = = .
a b ab′ − ba′ a b ab′ − ba′
′ ′ ′ ′
a b a b