Académique Documents
Professionnel Documents
Culture Documents
On généralise ici les notions étudiées en 1re année au cas d’un ensemble d’indices I non nécessairement
fini (complément hors programme en PSI).
1) Combinaisons linéaires
Définition : le support d’une famille de scalaires (λi )i∈I ∈ KI est {i ∈ I / λi = 0}. On note K(I)
l’ensemble des familles de scalaires à support fini.
Définition : soit F = (xi )i∈I une famille de vecteurs de E. On dit qu’un vecteur x de E est combinaison
linéaire des vecteurs de F si et seulement s’il existe une famille (λi )i∈I ∈ K(I) telle que
x= λi .xi (il s’agit d’une somme finie de vecteurs de E. . . ).
i∈I
2) Bases
a) Familles génératrices
Soit F une famille de vecteurs de E. On dit que F est une famille génératrice de E si et seulement si
tout vecteur de E est combinaison linéaire des vecteurs de F.
b) Sous-espace engendré par une famille de vecteurs
Soit F une famille de vecteurs de E et F l’ensemble des combinaisons linéaires des vecteurs de F.
F est un sous-espace vectoriel de E ; c’est le plus petit sous-espace de E contenant les vecteurs de F.
F est noté Vect F, appelé le sous-espace vectoriel de E engendré par F (F est une famille génératrice
de Vect F !).
NB : une famille F est génératrice de E si et seulement si Vect F = E.
c) Familles libres
Soit F = (xi )i∈I une famille de vecteurs de E. On dit que F est libre si et seulement si la seule
combinaison linéaire nulle des vecteurs de F est celle dont tous les coefficients sont nuls :
∀(λi )i∈I ∈ K(I) λi .xi = 0 =⇒ ∀i ∈ I λi = 0 .
i∈I
F est libre si et seulement si toutes ses sous-familles finies sont libres.
Une partie A de E est dite libre si et seulement si la famille (x)x∈A est libre.
Par convention, ∅ est libre.
d) Bases
Soit F une famille de vecteurs de E.
On dit que F est une base de E si et seulement si F est libre et génératrice.
Une famille B = (ei )i∈I de vecteurs de E est une base de E si et seulement si tout vecteur de E s’écrit
de manière unique comme combinaison linéaire des vecteurs de B. Dans ce cas, si x = λi .ei , la
i∈I
famille (λi )i∈I est appelée la famille des coordonnées de x dans la base B.
Exemple : X k k∈N
est une base de K [X], appelée la base canonique de K [X].
Théorème : soient E et F deux K-espaces vectoriels, B = (ei )i∈I une base de E et (yi )i∈I une famille
de vecteurs de F (indexées par le même ensemble I).
Il existe une unique application linéaire u de E dans F telle que : ∀i ∈ I u(ei ) = yi .
En outre ladite application linéaire u vérifie :
∗ Im u = Vect(yi )i∈I : u est surjective si et seulement si la famille (yi )i∈I engendre F .
∗ u est injective si et seulement si la famille (yi )i∈I est libre.
∗ u est bijective si et seulement si la famille (yi )i∈I est une base de F .
NB : dans le cas particulier où E = K(I) , muni de la base canonique (ei )i∈I , où ei = (δi,j )j∈I , Ker u est
l’ensemble des familles de coefficients des relations de dépendance linéaire de la famille (yi )i∈I
(la famille nulle mise à part !).
II - Structure d’algèbre
1) Définition
On appelle K-algèbre tout quadruplet (A, +, ., ×) où :
1) (A, +, .) est un K-espace vectoriel ;
2) Exemples
1) K-algèbre commutative (K[X], +, ., ×) des polynômes à coefficients dans K.
2) K-algèbre (L(E), +, ., ◦) des endomorphismes d’un K-espace vectoriel E.
3) K-algèbre (Mn (K), +, ., ×) des matrices carrées d’ordre n à coefficients dans K.
Propriété : si les Ei sont tous de dimension finie, alors Ei est de dimension finie égale à dim Ei .
i∈I i∈I
1. Compléments d’algèbre linéaire Page 3
Attention ! Il ne suffit pas que les intersections des sous-espaces pris deux à deux soient réduites à
{0} (voir par exemple trois droites vectorielles distinctes dans un plan).
Dém. Je remarque tout d’abord que les assertions a) et b) sont toutes deux équivalentes à l’injectivité
de l’application linéaire ϕ : a) signifie par définition d’une somme directe que tout élément de Im ϕ
admet au plus un antécédent, tandis que b) signifie que Ker ϕ = {0}. J’en déduis par transitivité de
l’équivalence que a) et b) sont équivalentes.
Je montre ensuite l’équivalence entre b) et c) par double implication :
• b) ⇒ c) : je suppose b) et, pour prouver c), je fixe arbitrairement i dans I et je considère un
vecteur x élément de Ei ∩ Ej . Ainsi, d’une part x est élément de Ei , d’autre part x s’écrit
j=i
• c) ⇒ b): par contraposition, je suppose “non b)”, je dispose donc d’une famille (xi )i∈I dans Ei
i∈I
de vecteurs dont la somme est nulle alors que les xi ne sont pas tous nuls. Soit donc i0 tel que
xi0 = 0. xi0 appartient à Ei0 et donc xj = −xi0 est un vecteur non nul de Ei0 ∩ Ej , ce
j=i0 j=i0
qui prouve “non c)” et achève la démonstration.
x= pi (x) .
i∈I
(En effet, soit x = xj cette décomposition ; pour i fixé dans I, x s’écrit
j∈I
x = xi + yi , où xi ∈ Ei et yi = xj ∈ Fi ,
j=i
par conséquent xi est bien égal à pi (x), par définition de la projection pi .)
NB : la famille (pi )i∈I d’endomorphismes de E vérifie :
∗ pi = IdE (d’après la propriété précédente) ;
i∈I
Exercice : établir réciproquement que, si (pi )i∈I est une famille d’endomorphismes de E vérifiant les
deux propriétés ci-dessus, alors les pi sont des projecteurs de E, E = Im pi et (pi )i∈I est — au sens
i∈I
précédent — la famille de projecteurs associée à cette décomposition de E.
NB : on se permet parfois d’écrire u = ui ◦ pi car l’image de pi est incluse dans l’ensemble de départ
i∈I
de ui . . .
6) En dimension finie
Ici, E est un K-espace vectoriel de dimension finie.
Les résultats précédents s’appliquent bien sûr dans le cas particulier de la dimension finie.
On a en outre le :
Théorème : soit (Ei )i∈I une famille finie de sous-espaces vectoriels de E.
a) les Ei , i ∈ I, sont en somme directe si et seulement si dim Ei = dim Ei ;
i∈I i∈I
b) dans le cas où les Ei sont en somme directe, E est égal à Ei si et seulement si
i∈I
dim E = dim Ei .
i∈I
Exemple : si (ei )i∈I est une famille finie de vecteurs non nuls de E, les droites vectorielles K.ei sont en
somme directe si et seulement si la famille (ei )i∈I est libre.
2) Soit a ∈ E\H ; H ∩ K.a = {0} (sinon a serait élément de H) ; de plus F = H + K.a est un
sous-espace de E contenant H et a, donc F = H d’où — grâce au 1) — F = E ; en conclusion, H et K.a
sont supplémentaires, ce qu’il fallait démontrer.
3) Soient H1 et H2 deux hyperplans de E, distincts (s’ils sont égaux, ils sont isomorphes !). Si j’avais
H1 ⊂ H2 , j’aurais H2 = E d’après 1), d’où une contradiction. Comme les rôles sont symétriques,
/ H2 et H2 ⊂
j’ai H1 ⊂ / H1 ; il en résulte (classique !) que H1 ∪ H2 n’est pas stable par l’addition,
donc est strictement inclus dans E. Fixons donc a ∈ E\ (H1 ∪ H2 ) ; d’après 2), H1 et H2 sont
des supplémentaires de la même droite K.a ; il sont par conséquent isomorphes d’après le théorème
précédent.
1. Compléments d’algèbre linéaire Page 7
Exemples :
1) Si E est de dimension finie n ≥ 1, les hyperplans de E sont les sous-espaces de dimension n − 1.
2) Dans K [X], pour α ∈ K, l’ensemble des multiples de X −α, polynôme de degré 1, admet pour supplé-
mentaire la droite vectorielle K0 [X] = K ; c’est donc un hyperplan de K [X], égal à {P ∈ K [X] / P (α) = 0}
(le noyau de la forme linéaire P → P (α)).
NB : si ϕ est une forme linéaire non nulle sur E et H = Ker ϕ, alors ϕ est surjective (son image est un
sous-espace vectoriel de K différent de {0} !) et ses lignes de niveau (les ensembles d’équation
ϕ (x) = k, k ∈ K) sont les hyperplans affines de E de direction H.
NB : la relation “est semblable à” est une relation d’équivalence sur Mn (K), mais la description des
classes d’équivalence est non triviale. Nous ne verrons que des conditions nécessaires : si A et B
sont semblables, alors elles ont le même rang, le même déterminant, etc.
NB : dans Mn (R), le calcul précédent montre que, avec les mêmes notations,
n n
Tr At B = Tr t AB = ai,j bi,j
i=1 j=1
qui n’est autre que le produit scalaire canonique de A et B dans Mn (R).
On vérifie que, pour ce produit scalaire, le sous-espace des matrices symétriques et celui des
matrices antisymétriques sont supplémentaires orthogonaux.
3) Exemples de déterminants
a) Matrices aI + bU
Soit U la matrice de Mn (K) dont tous les coefficients valent 1 et I la matrice identité de Mn (K). Pour
(a, b) ∈ K2 on a
det (aI + bU ) = (a + nb) an−1 .
b) Matrices tridiagonales
Pour a, b, c dans K, la suite (∆n )n∈N∗ définie par
a c 0 ··· 0
.. ..
b a c . .
∀n ∈ N ∗
∆n = 0 .. .. (déterminant d’ordre n)
b . . 0
.. .. ..
. . . a c
0 ··· 0 b a
vérifie la relation de récurrence linéaire double
∀n ≥ 3 ∆n = a∆n−1 − bc∆n−2 (à retrouver par deux développements consécutifs. . . ).
On en déduit l’expression de ∆n en fonction de n grâce à l’équation caractéristique associée, sachant
que
∆1 = a et ∆2 = a2 − bc.
On peut remarquer (habilement) que la relation ci-dessus reste vraie pour n = 2 en posant ∆0 = 1, ce
qui peut simplifier les calculs. . .
c) Produit tensoriel
a c
Pour A = ∈ M2 (K) et B ∈ Mn (K), on définit par blocs la matrice
b d
aB cB
A⊗B = ∈ M2n (K) . On a det (A ⊗ B) = det (A)n det (B)2 .
bB dB
4) Déterminant de Vandermonde
Pour tout n dans N, on définit la fonction Vn+1 de Kn+1 dans K par
1 a0 a20 · · · an0
1 a1 a21 · · · an1
. .. .. ..
∀ (a0 , . . . , an ) ∈ Kn Vn+1 (a0 , . . . , an ) = .. . . . j−1
= det ai−1
.. .. .. .. 1≤i,j≤n+1
. . . .
1 an a2n · · · ann
On peut montrer que :
∀ (a0 , . . . , an ) ∈ Kn+1 Vn+1 (a0 , . . . , an ) = (aj − ai ) .
0≤i<j≤n
Noter que l’on pouvait prévoir que ce déterminant est non nul si et seulement si les aj sont distincts
deux à deux ; en effet c’est le déterminant de la matrice, dans les bases canoniques, de l’application
linéaire
φ : Kn [X] → Kn+1
P → P (a0 ) , . . . , P (an )
liée aux polynômes de Lagrange évoqués ci-après.
1. Compléments d’algèbre linéaire Page 11
Pour expliciter ce polynôme d’interpolation P , il suffit de remarquer que les polynômes Li définis par
X − ak
∀i ∈ {0, . . . , n} Li = .
ai − ak
k=i
vérifient :
1 si i = j
∀ (i, j) ∈ {0, . . . , n}2 Li (aj ) = δ i,j = (symbole de Kronecker). (1)
0 si i = j
On en déduit par unicité de P que
n
P = bi .Li .
i=0
NB : les relations (1) signifient que les Li sont les antécédents par φ des vecteurs de la base canonique
de Kn+1 . Si besoin, on peut retrouver l’expression de Li à partir de ces relations : Li est de degré
au plus n, admet les n racines distinctes (ak )k=i et Li (ai ) = 1, cette dernière relation permettant
de déterminer le coefficient dominant de Li .
• Il n’y a que deux classes d’équivalence, car si B, B′ sont comme ci-dessus et si B′′ est un troisième
base de E, alors
det PB,B′′ = − det PB′ ,B′′
donc l’un de ces deux déterminants est positif, c’est-à-dire que B′′ est soit dans la classe de B, soit
dans la classe de B′ .
NB : le choix de l’une des deux orientations est purement conventionnel. Sur une droite, il s’agit
intuitivement de “mettre une flèche” d’un côté ou de l’autre, pour définir un axe. En dimension
2 ou 3, il y a des orientations “usuelles” : sens trigonométrique dans le plan, orientation testée
par diverses méthodes (trois doigts, bonhomme d’Ampère, tire-bouchon. . . ) en dimension 3.
Propriété : soit u ∈ GL (E) ; la base B′ = u (e1 ) , . . . , u (en ) est de même orientation que
B = (e1 , . . . , en ) si et seulement si det u > 0.
Dém. Il suffit de remarquer que, si A désigne la matrice de u dans B, alors
PB,B ′ = MB u (e1 ) , . . . , u (en ) = A
et donc
det PB,B′ = det A = det u,
d’où le résultat !
NB : ce résultat n’est pas très efficace en pratique, mais il a un intérêt théorique, faisant apparaître
l’expression des solutions sous forme de “fonctions rationnelles”. . .