Vous êtes sur la page 1sur 43

– LINFO1112 –

Algèbre
Synthèse

Auteurs : Formation académique :


Guillaume Jadin Sinf Bac1

2018 - 2020
– Lisez-moi –

Avant de vous plonger dans cette magnifique synthèse, il y a quelques points à


préciser :

— Cette synthèse, ô combien incroyable, ne remplace en aucun cas le cours et


les (excellents) TPs.
Il s’agit bien là d’une version synthétique, vulgarisée et un peu simpli-
fiée du cours pour des personnes qui ont été complètement larguées à
cause d’un manque de bagage, d’intérêt et/ou de rigueur tout au long
de l’année.

— Gardez toujours à l’esprit que cette synthèse n’a pas été rédigé par
génie mathématique (malheureusement).
Ce qui signifie que si une chose, dite en cours et/ou aux TPs, est
contraire à ce que dit cette synthèse ; c’est l’explication du cours/TP
qui prime (dans ce cours ci en tout cas).

— Ce fichier comporte une grande partie de théorie venant du cours et


du syllabus ainsi qu’une petite partie d’application (dans les sections
"En Pratique") venant des TPs et contenant quelques explications et
précisions parfois oubliées car tellement évidentes quand on connais
la matière.
Ainsi, cette dernière doit être vue non pas comme une méthode pour
résoudre un type d’exercice mais bien comme un moyen de faire des
liens entre les théories et leurs applications.

— De manière générale, dans ce cours, le corps K représente l’ensemble


des réels R.

Voilà, c’est tout.


Table des matières

I Systèmes linéaires, matrices et


déterminants 1
1 Rappels 1
1.1 Système Trivial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Méthode d’Horner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

2 Notions fondamentales 2
2.1 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.1.1 Matrices Complètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.2 Système Homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.3 Types de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.4 Opérations élémentaires sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.5 Échelonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.5.1 Forme Réduite de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.6 Addition de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.6.1 Somme directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.7 Multiplication de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.8 Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.9 Inversion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.9.1 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.9.1.1 Pour inverser une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.10 Matrices élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.11 Matrices carrées régulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.12 Autres concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

3 Déterminant des matrices carrées 7


3.1 Règles élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.2 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.2.1 Pour trouver le déterminant des matrices carrées d’ordres 1 et 2 . . . . . . . . . . 8
3.2.2 Pour trouver le déterminant des matrices carrées d’ordre n . . . . . . . . . . . . . 8
3.2.2.1 Méthode des cofacteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.2.2.2 Règle de Sarrus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.3 Proposition sur le déterminant d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.3.1 Proposition sur le déterminant d’une matrice régulière . . . . . . . . . . . . . . . . 9
3.4 Existence du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.4.1 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.4.1.1 Pour trouver un lien entre le déterminant d’une matrice et de sa sous-matrice 9

4 Matrice des cofacteurs 10


4.1 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.1.1 Pour calculer les comatrices des matrices 1×1 . . . . . . . . . . . . . . . . . . . . 10
4.1.2 Pour calculer les comatrices des matrices 2×2 . . . . . . . . . . . . . . . . . . . . 10
4.1.3 Pour calculer les comatrices des matrices 3×3 . . . . . . . . . . . . . . . . . . . . 10

5 Rang des matrices 11


5.1 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5.1.1 Pour déterminer le rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 11

I
6 Règle de Cramer 11
6.1 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
6.1.1 Pour trouver les inconnues des systèmes d’ordre 2 avec Cramer . . . . . . . . . . . 12
6.1.2 Pour trouver les inconnues des systèmes d’ordre 3 avec Cramer . . . . . . . . . . . 13

II Espaces vectoriels 14
1 Espaces vectoriels (ev) 14
1.1 Vecteur nul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2 Combinaisons linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.1 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.1.1 Pour trouver les scalaires d’une expression de plusieurs vecteurs . . . . . 15

2 Sous-espaces vectoriels (sev) 15


2.1 Notions fondamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Opérations sur les sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 Sous-espaces vectoriels engendrés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4.1 Pour prouver qu’un ensemble quelconque est un sev . . . . . . . . . . . . . . . . . . 16
2.4.2 Pour prouver que deux sev sont égaux . . . . . . . . . . . . . . . . . . . . . . . . . 17

3 Bases 17
3.1 Réflexions utiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.1 Pour déterminer si une suite est génératrice . . . . . . . . . . . . . . . . . . . . . . 18
3.2.2 Pour déterminer si une suite est libre . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.3 Distinctions pratiques entre « générateur » et « libre » . . . . . . . . . . . . . . . . 18
3.2.4 Pour trouver une base du sev d’un ensemble de solutions d’une équation . . . . . . 19

4 Dimension 19
4.1 Notions fondamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.2 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.2.1 Pour calculer les dimensions de deux espaces . . . . . . . . . . . . . . . . . . . . . 20

5 Rang des matrices dans un espace vectoriel 20


5.1 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.1.1 Pour trouver la dimension de l’espace annulateur d’une matrice . . . . . . . . . . . 21

III Applications linéaires 22


1 Notions fondamentales 22
1.1 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.1.1 Pour vérifier si une application est linéaire . . . . . . . . . . . . . . . . . . . . . . 22
1.2 Noyau et Image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.2.1 Nullité et Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.2.2 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.2.2.1 Pour déterminer le noyau d’une application linéaire, sa base et sa dimension 24
1.2.2.2 Pour déterminer l’image d’une application linéaire, sa base et sa dimension 24
1.3 Autres concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2 Contruction d’applications linéaires 24


2.1 Inversibilité des applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Représentation matricielle des applications linéaires . . . . . . . . . . . . . . . . . . . . . . 25
2.3 Changements de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

II
IV Espaces euclidiens 27
1 Produits scalaires 27
1.1 Normes et distances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2 Bases 28
2.1 Bases orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2 Bases orthonormées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1 Pour déterminer si une base d’un ev est orthogonale . . . . . . . . . . . . . . . . . 29
2.3.2 Pour déterminer si une base d’un ev est orthonormée . . . . . . . . . . . . . . . . 29
2.3.3 Pour calculer une base orthonormée d’un sev . . . . . . . . . . . . . . . . . . . . . 30

3 Projections orthogonales 30
3.1 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.1.1 Pour déterminer la projection d’un point sur un sev grâce au produit scalaire . . . 31
3.1.2 Pour déterminer la distance entre un point et sa projection . . . . . . . . . . . . . 32

4 Algorithme de Gram-Schmidt 32
4.1 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.1.1 Pour construire une base orthogonale à partir d’une base quelconque avec Gram-
Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

V Opérateurs linéaires 33
1 Notions fondamentales 33
1.1 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.2 Espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.3 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.4 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.4.1 Pour déterminer le polynôme caractéristique à partir d’une matrice . . . . . . . . . 34
1.4.2 Pour déterminer les valeurs propres et vecteurs propres d’une matrice . . . . . . . 34
1.4.3 Pour déterminer si une matrice est inversible en connaissant ses valeurs propres . 36

2 Diagonalisation 36
2.1 Multiplicités des valeurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2 En Pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2.1 Pour vérifier si une matrice est diagonalisable dans Rn . . . . . . . . . . . . . . . 37
2.2.2 Pour exprimer une matrice diagonalisable A sous la forme P · D · P −1 . . . . . . . 38

III
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE

Première partie
Systèmes linéaires, matrices et
déterminants
1 Rappels
1.1 Système Trivial
En mathématiques, on qualifie de trivial un énoncé dont on juge la vérité évidente à la lecture, ou
encore un objet mathématique dont on estime que l’existence va de soi et que son étude n’a pas d’intérêt :
Exemple : x = y est un système trivial.

1.2 Méthode d’Horner


La méthode d’Horner est un procédé permettant de factoriser un polynôme en un produit de polynômes
de degré plus petit.
Utile pour trouver les racines d’une matrice ayant un déterminant sous forme de polynôme cubique.

Il se réalise de la manière suivante :


Imaginons un polynôme p(λ) = −λ3 − 3λ2 + 4
L’on peut deviner, par tâtonnements, que λ = 1 est une racine car :

p(1) = −1 − 3 + 4
= 0

Ensuite, dans un tableau, l’on ajoute :


— À gauche, la racine (horner).

— En haut, les termes de l’équation.

— En bas, l’addition (en mauve) des termes et la multiplication d’horner avec les solutions trouvées
(en rouge) ainsi que le report de ces valeurs sur la section suivante (en rouge flèché).

Ainsi, nous obtenons :

p(λ) = (λ − 1).(−λ2 − 4λ − 4)
= −(λ − 1).(λ2 + 4λ + 4)
= −(λ − 1).(λ + 2)2

⇒ racines : {−2, −2, 1}

1
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE

2 Notions fondamentales
2.1 Matrices
La matrice représente un système d’équation de ce style :

 a11 x1 + · · · + a1n xn =

 b1
..
.
am1 x1 + · · · + amn xn =

bm

en un tableau à m lignes et n colonnes où chaque ligne correspond à une équation du système. Nous
avons :
 
a11 · · · a1n
 .. .. 
 . . 
am1 ··· amn
qui représente la matrice des coefficients du système, et
 
b1
 .. 
 . 
bm
qui représente la colonne des termes indépendants.

2.1.1 Matrices Complètes


 
a11 ··· a1n b1
 .. .. .. 
 . . . 
am1 ··· amn bm

Ce tableau est appelée matrice complète du système car l’on a ajouté à la matrice des coefficients du
système, la colonne des termes indépendants (b1 , · · · , bm ).

2.2 Système Homogène


Un système d’équations algébriques linéaires est dit homogène si les seconds membres b1 , · · · , bm sont
tous nuls :

 a11 x1 + · · · + a1n xn = 0


..
.
am1 x1 + · · · + amn xn = 0

2.3 Types de Matrices


Cette sous-section rassemble les différents types de matrices présents dans cette synthèse.
Ainsi, il est possible que certaines défnitions ne soient pas claires si vous n’avez pas encore abordé les
sections suivantes.

— Les matrices qui n’ont qu’une seule ligne sont appelées matrices lignes.

— Les matrices qui n’ont qu’une seule colonne sont appelées matrices colonnes.

— Les matrices dont le nombre de lignes = nombre de colonnes sont appelées matrices carrées
(noté A ∈ Kn×n où n est le nombre de lignes/colonnes).

2
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE

— L’ordre d’une matrice carrée est le nombre de ses lignes ou de ses colonnes.

— La diagonale principale d’une matrice carrée est formée des entrées dont les indices sont
égaux :
1 0 5 8
 
2 1 7 6
Exemple : 
7
 Où les 1 représentent la diagonale principale.
8 1 0
0 9 4 1
— Une matrice diagonale est une matrice carrée dont toutes les entrées, hors de la diagonale
principale, 
sont nulles : 
1 0 0 0
0 5 0 0
Exemple :  0 0 2 0

0 0 0 8
— La matrice nulle est la matrice où toutes les entrées sont nulles.

— La
 matrice unité (ou matrice identité) est représenté comme suit :
1 0 0 0

0 1 0 0
0 0 1 0 Où les 1 représentent la diagonale principale.
 

0 0 0 1
Elle est défini par :
In = (δij )1≥i,j≥n

0 si i 6= j

δij =
1 si i = j
La fonction δij ainsi définie est appelée symbole de Kronecker.

— Une matrice triangulaire supérieure (resp. inférieure) est une matrice carrée dont les valeurs
sous (resp. 
au-dessus) la
diagonale principale sont nulles :
1 9 1 3
0 5 2 7
Exemple :  0 0 2 4

0 0 0 8
— Une matrice symétrique est une matrice qui est égale à sa transposée, c’est-à-dire :
At = A.
— Une matrice élémentaire (voir sous-section 2.10)

— Une matrices carrée régulière (voir sous-section 2.11)

— Une matrice orthogonale est une matrice unitaire inversible, à coefficients dans R, où son inverse
est égal à sa transposée, c’est-à-dire :
A ∈ Rn×n , A−1 = At
— Une matrice de plein rang est une matrice carrée où son nombre de lignes est égal à son rang.

2.4 Opérations élémentaires sur les matrices


Il existe 3 types d’opérations sur les équations d’un système (et donc sur les matrices) :

I. Dans un système d’équations, on peut remplacer une des équations par la somme de celle-ci et
d’une multiplication d’une autre équation du système sans modifier l’ensemble des solutions.
II. Dans un système d’équations, on peut échanger deux équations sans modifier l’ensemble des
solutions.
III. Dans un système d’équations, on peut multiplier les deux membres d’une équations par un élément

3
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE

NON NUL du corps de base de K sans modifier l’ensemble des solutions.

2.5 Échelonnement
Une matrice ayant comme propriétés :
— Un nombre d’entrées nulles au début de chaque ligne (sauf éventuellement la 1ère),
— qui augmente à chaque ligne,
— avec une augmentation stricte (d’une différence de 1) pour les lignes avant une ligne non-nulle ;
est appelée matrice à ligne échelonnées.

Dans une ligne non nulle, la première entrée non nulle est appelée pivot de la ligne. Ainsi, une matrice
à lignes échelonnées prend cette forme :
0 1 2 3 4 5
 
0 0 0 6 7 8 
(aij ) 1 ≥ i ≥ 5 = 0 0 0 0 9 10
 

0 0 0 0 0 0 
1≥j≥6
0 0 0 0 0 0
Les pivots ici sont a12 = 1, a24 = 6 et a35 = 9.
En revanche, la matrice suivante n’est pas à ligne échelonnées :
0 0 1 2
 
0 0 0 3
0 0 0 4
 

0 0 0 0

2.5.1 Forme Réduite de Gauss-Jordan


Une matrice sous forme réduite de Gauss-Jordan est une matrice à lignes échelonnées ayant les
valeurs au-dessus des pivots établient à 0 (où les "∗" sont des réels quelconques) :
0 ··· 0 1 ∗ ··· ∗ 0 ∗ ··· ∗ 0 ∗ ···
 
 0 ··· 0 0 0 ··· 0 1 ∗ ··· ∗ 0 ∗ ··· 
 0 ··· 0 0 0 ··· 0 0 0 ··· 0 1 ∗ ··· 
 

···

2.6 Addition de Matrices


Pour additionner deux matrices entre elles, il faut que respectivement le nombre de lignes et de colonnes
de la matrice A = nombre de lignes et de colonnes de la matrice B.

La résolution se
 fait comme
 suit:
1 3 0 0

Si A = 1 0 et B = 7 5
1 2 2 1
Alors, 
1+0 3+0 1 3
  

A . B = 1 + 7 0 + 5 = 8 5
1+2 2+1 3 3

2.6.1 Somme directe


Pour toutes matrices
L quelconques A (de taille m × n) et B (de taille p × q), il existe la somme directe
de A et B, notée A B et définie par :

4
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE

0 0
 
a11 ··· a1n ···
 .. .. .. .. 
 . ··· . . ··· . 
0 0
 
am1 ··· amn ···
A B=
L
 0 0

··· b11 ··· b1q 
 . .. .. .. 
 
 .. ··· . . ··· . 
0 ··· 0 bp1 ··· bpq
Exemple :
1 3 2 0 0
 
1 3 2 L 1 6 2 3 1 0 0
   
=
2 3 1 8 1 0 0 0 1 6

0 0 0 8 1

2.7 Multiplication de Matrices


Pour multiplier deux matrices entre elles, il faut que le nombre de ligne de la matrice A = nombre de
colonnes de la matrice B.

La résolution se
 fait comme
 suit
 :
0 1 0 1

Si A = et B =
0 0 0 0
Alors, 
(0.0 + 1.0) (0.1 + 1.0) 0 0
  
A.B= =
(0.0 + 0.0) (0.1 + 0.0) 0 0
PS : Le produit des matrices N’EST PAS commutatif : AB 6= BA
————————————————————————————————–
La mutiplication matricielle peut s’écrire plus simplement. En effet, le système linéaire de m équations à n
inconnues :

 a11 x1 + · · · + a1n xn = b1


..
.
am1 x1 + · · · + amn xn = bm

s’écrit simplement ⇒ A.X=B


 
a11 · · · a1n
 .. ..  est la matrice des coefficients du système,
où A =  . . 
am1 ··· amn
 
x1
X =  ...  est la matrice-colonne des inconnues, et
 

xn
 
b1
b =  ...  est la matrice-colonne des termes indépendants.
 

bm

2.8 Transposition
La matrice At est appelée transposée de la matrice A ; elle est obtenue en écrivant en colonnes les
lignes de A et vice-versa [ou en effectuant une symétrie orthogonale sur la diagonale principale de la
matrice] :

5
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE

1 2 3 4
 
5 6 7 8
Si A = 
9
;
10 11 12
13 14 15 16

1 5 9 13
 
2 6 10 14
Alors, la matrice transposée At = 

3 7 11 15

4 8 12 16

2.9 Inversion
Une matrice A ∈ Km×n est dite inversible à gauche (resp. à droite) s’il existe une matrice B ∈ Kn×m
telle que B · A = In (resp. A · B = Im ).
Toute matrice B satisfaisant ces deux conditions (inversible à gauche ET à droite) est appelée : inverse de
A.
De plus, toute matrice-ligne (resp. matrice-colonne) non nulle est inversible à droite (resp. à gauche).
 
b1
 .
a1 · · · an .  ..  = I1
bn

La matrice inverse de A se note ⇒ A−1

NB :
— Une matrice est inversible ssi son déterminant est 6= de 0.
— Pour qu’une matrice soit inversible à gauche et à droite, il faut nécéssairement qu’elle
soit carrée.

2.9.1 En Pratique
2.9.1.1 Pour inverser une matrice
Une manière d’inverser une matrice P ∈ R2×2 est de former une matrice R2×4 en combinant la matrice
P et la matrice unité (les dimensions doivent correspondre) comme ceci :
1 1 1 0
 
0 1 0 1
Ensuite, on applique aux deux parties les mêmes opérations élémentaires afin de ramener la partie gauche
à la forme réduite de Gauss-Jordan. Si la partie à gauche correspond à la matrice unitaire, alors la matrice
est inversible, sinon elle ne l’est pas.
OU
On peut aussi trouver l’inverse de toute matrice carrée régulière (voir sous-section 2.11) grâce à la formule :
A−1 = (det(A))−1 . (cof (A))t (voir section 4)

2.10 Matrices élémentaires


Une matrice élémentaire de type I est une matrice qui ne diffère d’une matrice unité que par une seule
entrée située hors de la diagonale principale. Une telle matrice est donc carré, et de la forme :
1
 
 1 
.
 
E=
 .. 

 
 λ 
1

6
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE

où l’entrée λ est non nulle et d’indice i,j avec i 6= j, les autres entrées hors de la diagonale principale étant
nulles.

2.11 Matrices carrées régulières


Une matrice carrée est régulière ssi elle est inversible, càd

det A 6= 0.
Si une matrice carrée satisfait les conditions équivalentes :
a) A est inversible (à gauche et à droite) ;
b) A est un produit de matrices élémentaires ;
c) Toute matrice U sous forme réduite de Gauss-Jordan obtenue en effectuant des opérations élémen-
taires sur les lignes de A est la matrice unité In ;
d) La matrice In peut être obtenue en effectuant des opérations élémentaires sur les lignes de A ;
e) Le système homogène A . X = 0 n’admet que la solution triviale ;
f) Pour tout b ∈ Kn , le système A. X = b admet une et une seule solution.
Alors cette matrice carrée est qualifiée de régulière (ou d’inversible). Les matrices non régulières sont
appelées singulières.

2.12 Autres concepts


Cette sous-section rassemble les différents concepts liés de près ou de loin aux matrices (toutes parties
confondues) et qui ne sont pas définis dans les autres sections.

— La trace d’une matrice carrée A, noté Tr(A), est définie comme la somme des coefficients
présents sur ladiagonaleprincipale de A.
3 3 4
Ainsi, si A = 1 2 0, alors Tr(A) = 3 + 2 + 7 = 12
0 1 7

3 Déterminant des matrices carrées


À chaque matrice carrée A sur un corps K, on propose d’associer un élément de K, appelé déterminant
de A, noté dét A.
— Le déterminant d’une matrice permet de déterminer si cette matrice est inversible ou non.
— Il permet aussi de trouver l’aire (resp. le volume) d’un parallélogramme construit sur deux (resp.
trois) vecteurs.

3.1 Règles élémentaires


1. Le déterminant de la matrice identitée est égal à 1 :
det In = 1
2. Si 2 lignes d’une matrice sont identiques, alors son déterminant vaut 0 :
 
a1 ∗
 ai ∗ 
det 
 aj ∗  = 0,
 si ai ∗ = aj ∗ pour i 6= j
an ∗
     
a1 ∗ a1 ∗ a1 ∗
3. det αx + βy  = α · det  x  + β · det  y 
an ∗ an ∗ an ∗

7
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE

 t  
a b a b
4. det = det
c d c d
   
c d a b
5. det = cb − ad = − det
a b c d

3.2 En Pratique
3.2.1 Pour trouver le déterminant des matrices carrées d’ordres 1 et 2
Pour les matrices d’ordres 1 ou 2, cela est facile. On pose :

det (a) = a pour a ∈ K


et
 
a b
det = ad – bc pour a, b, c, d ∈ K ;
c d

3.2.2 Pour trouver le déterminant des matrices carrées d’ordre n


Pour des matrices carrées d’ordre n, la méthode des diagonales pour calculer le déterminant devient
rapidement très compliquées lorsque n augmente.
Ainsi, il existe d’autres méthodes qui ne prennent pas en compte la taille de n :

3.2.2.1 Méthode des cofacteurs


Appelée aussi la méthode des mineures ou 
la méthode de Laplace
1 0 1

Exemple : Si on a une matrice G = 2 1 1 , alors :


0 3 1
1 1 2 1 2 1
     
G = 1. – 0. + 1.
3 1 0 1 0 3
En retrouvant deux matrices d’ordre 2, nous pouvons donc appliquer la méthode de base pour trouver
leur déterminant respectif (une matrice multipliée par un scalaire nul devient une matrice nulle).

Ce qui nous donne au final ⇒ det(G) = -2 - 0 + 6 = 4

3.2.2.2 Règle de Sarrus


! ! ! UNIQUEMENT pour les matrice 3x3 ! ! !
1 0 1
 

Exemple : Si on a une matrice G = 2 1 1 , alors :


0 3 1

det(G) = [(1.1.1) + (0.1.0) + (1.2.3)] − [(1.1.0) + (0.2.1) + (1.1.3)]


= [1 + 0 + 6] − [0 + 0 + 3]
=7−3
=4

La marche à suivre demande de la concentration :


— Dans le sens de la diagonale principale, il faut additionner chaque diagonale possible DANS CE
SENS.
— Dans le sens OPPOSÉ à la diagonale principale, il faut soustraire chaque diagonale possible DANS
CE SENS.

8
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE

— Enfin, tous les éléments de chaque diagonale doivent être ensuite multipliés entre eux.
— Comme la matrice est d’ordre 3 dans ce cas, il doit y avoir 3 éléments dans chaque diagonale prise.
Si la diagonale n’est pas complète, il faut reprendre le terme opposé qui va compléter la diagonale.

3.3 Proposition sur le déterminant d’une matrice


Pour A, B ∈ Kn×n ,
1. det A 6= 0 si et seulement si A est régulière
2. det(AB) = det(A). det(B)
3. det(At ) = det(A)

3.3.1 Proposition sur le déterminant d’une matrice régulière


Pour A, B ∈ Kn×n avec A régulière,
1. det(A−1 ) = (det(A))−1
2. det(ABA−1 ) = det(B)

3.4 Existence du déterminant


Pour une matrice d’ordre 1, le déterminant est défini par :
det(a) = a

Pour les matrices d’ordres 2, 3, 4,... ; la définition est légèrement plus complexe :
1. Fixons un entier n ≥ 2.
2. Supposons avoir défini le déterminant des matrices d’ordre n − 1.
—————————————————————
— Soit A ∈ Kn×n une matrice carrée d’ordre n.
— Pour i, j = 1, · · · , n, on note Aij la matrice d’ordre n − 1 qui a été obtenue en supprimant la
i-ème ligne et la j-ème colonne de A.

Pour k = 1, · · · , n, on pose :
Pn
δk (A) = l=1 (−1)
l+k
alk . det(Alk ).

3.4.1 En Pratique
3.4.1.1 Pour trouver un lien entre le déterminant d’une matrice et de sa
sous-matrice
Dans le cas général, pour n et c1 , · · · , cn quelconques :
— Établir un lien entre det An−1 et detAn ⇔ 
cn cn−1 cn−2 ··· c1
cn−1 cn−1
 cn−2 ··· c1 
An = cn−2 cn−2
 cn−2 ··· c1 
 .. .. .. .. .. 

 . . . . .
c1 c1 c1 ··· c1
On observe que  
cn−1 cn−2 ··· c1
cn−2 cn−2 ··· c1 
An−1 = . .. .. .. 
 
 .. . . .
c1 c1 · · · c1
Alors, l’on prend la colonne 1 (c1 ) et on la soustrait par la colonne 2 (c2 ) :

9
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE

 
cn − cn−1 cn−1 cn−2 ··· c1
 0 cn−1 cn−2 ··· c1 
0
 
An = 
 cn−2 cn−2 ··· c1 
.. .. .. .. .. 

. . . . .


0 c1 c1 · · · c1
⇔ On peut donc déterminer que, sur la colonne 1,
det An = (cn − cn−1 ) · det An−1 .

4 Matrice des cofacteurs


Dans la sous-section 3.4, nous avons déterminé la valeur du déterminant.
Désormais, nous pouvons déterminer que l’expression :
(−1)i+j . det(Aij )
qui apparaît dans le développements du déterminant est appelée : cofacteur d’indices i,j de la matrice A.

La matrice
cof(A) = ((−1)i+j . det(Aij )1≥i,j≥n
est appelée matrice des cofacteurs (ou comatrice) de A.

Exemple :
−1
1
  
a b d −b
= · ;
c d ad − bc −c a
• 
ad − bc est
 le déterminant,
d −b
• est la comatrice transposée.
−c a

4.1 En Pratique
4.1.1 Pour calculer les comatrices des matrices 1×1
La comatrice de toute matrice de taille (1,1) est la matrice identité I1 = (1).

4.1.2 Pour calculer les comatrices des matrices 2×2


   
a b d −c
cof = .
c d −b a

4.1.3 Pour calculer les comatrices des matrices 3×3


 
a22 a23 a21 a23 a a22
+ a32 − + 21

 a33 a31 a33 a31 a32 
   
a11 a12 a13 
 a12

a13 a a13 a a12 
com a21 a23  =  + 11 − 11

a22 − a32

a33 a31 a33 a31 a32 
a31 a32 a33 



 
 a12 a13 a a13 a a12 
+ − 11 + 11

a22 a23 a21 a23 a21 a22

Enfin, il suffit de :
(1) Trouver le déterminant de chaques sous-matrices
(2) Appliquer les signes aux valeurs trouvées en (1)
Pour trouver la comatrice.

10
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE

5 Rang des matrices


Définition Le rang d’une matrice échelonnée, réduite ou non, correspond au nombre de lignes possédant
un pivot (6= 0).
C’est également le rang de la matrice initiale (non échelonnée) car les opérations élémentaires sur les
matrices conservent chacune le rang.

5.1 En Pratique
Cette sous-section fait appel à des notions abordées dans la deuxième partie sur les espaces
vectoriels ! ! !

5.1.1 Pour déterminer le rang d’une matrice


On peut déterminer le rang en procédant à une élimination via la méthode de Gauss-Jordan et en
examinant la forme échelonnée obtenue :

Exemple : Soit la matrice :


1 0 2 3
 
2 0 4 6
A=
0
,
2 2 0
1 2 4 3
Il existe plusieurs manière pour déterminer le rang :
(1) En procédant à une élimination via la méthode de Gauss-Jordan et en examinant la forme
échelonnée obtenue. (+ sûr mais + long)
(2) En vérifiant s’il existe des combinaisons linéaires. (- sûr mais - long) (voir 5 Rang des matrices
dans un espace vectoriel pour des explications théoriques)

(1) : En appliquant des opération élémentaires sur la matrice, l’on obtient la matrice échelonnée :
1 0 2 3
 
0 1 1 0
A= 0 0 0 0

0 0 0 0
Ainsi, le rang correspond au nombre de ses lignes qui sont non nulles, c’est-à-dire de rang 2 .

(2) : On appelle l1 , l2 , l3 , l4 ; les vecteurs formés par les quatre lignes de A.


On remarque que :
l2 = 2l1 . Donc le rang de A est égal à celui de la famille (l1 , l3 , l4 ).
l4 = l1 + l3 . Donc le rang de (l1 , l3 , l4 ) est égal à celui de (l1 , l3 ).
l1 et l3 sont linéairement indépendantes.
Donc (l1 , l3 ) est de rang 2 .

6 Règle de Cramer
Le système de n équations à n inconnues, de forme générale :
a11 x1 + a12 x2 + · · · + a1n xn =

 λ1
 a21 x1 + a22 x2 + · · · + a2n xn =

λ2

..

 .
an1 x1 + an2 x2 + · · · + ann xn =

λn

11
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE

est représenté sous la forme d’un produit matriciel :


     
a11 a12 · · · a1n x1 λ1
 a21 a22 · · · a2n   x2   λ2 
 .. .. .. ..  ×  ..  =  ..  ⇔ A.X = Λ
     
 . . . .   .   . 
an1 an2 · · · ann xn λn
où la matrice A, carrée, contient les coefficients des inconnues, le vecteur colonne X contient ces inconnues
et le vecteur colonne Λ contient les membres de droite des équations du système ; les coefficients et les
inconnues font partie d’un même corps commutatif.
Le théorème affirme alors que le système admet une unique solution si et seulement si sa matrice
A est inversible (déterminant non nul), et cette solution est alors donnée par :
det(Ak )
xk =
det(A)
où Ak est la matrice carrée formée en remplaçant la k-ième colonne de A par le vecteur colonne Λ.
aij si j 6= k
Ak = (ak|ij ) avec ak|ij =
λi si j = k

Un système carré (i.e. avec autant d’équations que d’inconnues) est dit de Cramer si le détermi-
nant de sa matrice est non nul.
Lorsque le système (toujours carré) n’est pas de Cramer (i.e. lorsque le déterminant de A est nul) :

– Si le déterminant d’une des matrices Ak est non nul, alors le système n’a pas de solution ;
– La réciproque est fausse : il peut arriver que le système n’ait pas de solution bien que les déterminants
det(Ak ) soient tous nuls. Un exemple en est donné par :
x+y+z =1
x+y+z =2
x+y+z =3

6.1 En Pratique
6.1.1 Pour trouver les inconnues des systèmes d’ordre 2 avec Cramer
Si ad − bc 6= 0, le système
ax + by = e
cx + dx = f
a pour unique solution :
e b a e
f d ed − bf c f af − ec
x= = , y= = .
a b ad − bc a b ad − bc
c d c d
Exemple numérique :
24.3 − 16.2 40
4x + 2y = 24 x= = =5
8 8

2x + 3y = 16 4.16 − 2.24 16
y= = =2
8 8

12
SYSTÈMES LINÉAIRES, MATRICES ET DÉTERMINANTS ALGÈBRE

6.1.2 Pour trouver les inconnues des systèmes d’ordre 3 avec Cramer
a1 x1 + b1 x2 + c1 x3 = d1
a2 x1 + b2 x2 + c2 x3 = d2
a3 x1 + b3 x2 + c3 x3 = d3

Posons :
     
a1 b1 c1 x1 d1
A = a2 b2 c2  , X = x2  et Λ = d2  .
a3 b3 c3 x3 d3

Le système admet une solution unique si et seulement si det(A) 6= 0 :


d1 b1 c1
d2 b2 c2
det(A1 ) d3 b3 c3
x1 = =
det(A) det(A)

a1 d 1 c1
a2 d 2 c2
det(A2 ) a3 d 3 c3
x2 = =
det(A) det(A)

a1 b1 d1
a2 b2 d2
det(A3 ) a3 b3 d3
x3 = =
det(A) det(A)

Ou plus simplement :
det(A1 )
   
x1
1
X = x2  = . det(A2 ).
det(A)
x3 det(A3 )
– Pour que le système n’admette aucune solution, il suffit que :

det(A) = 0 et (det(A1 ) 6= 0 ou det(A2 ) 6= 0 ou det(A3 ) 6= 0).


– Dans le cas
det(A) = det(A1 ) = det(A2 ) = det(A3 ) = 0,
on peut avoir, soit une infinité de solutions, soit aucune.

13
ESPACES VECTORIELS ALGÈBRE

Deuxième partie
Espaces vectoriels
1 Espaces vectoriels (ev)
Soit K un corps (commutatif),
Soit E un ensemble muni de deux lois de composition :

L’une interne et notée additivement :

+ : E × E −→ E
(x, y) 7−→ x + y

L’autre externe et noté multiplicativement :

· : E × K −→ E
(x, α) 7−→ xα

On dit que E est un espace vectoriel sur K si les conditions suivantes sont satisfaites :
A) E est un groupe commutatif pour +.
B) Pour x, y ∈ E et α, β ∈ K,

x(α + β) = xα + xβ
(x + y)α = xα + yα
x(αβ) = (xα)β
x.1 = x

—————————————————————
— Les éléments de E sont alors appelés vecteurs,
— Les éléments de K sont appelés scalaires
• Les scalaires sont le plus souvent des nombres réels ou, plus généralement, des nombres complexes.
On parle alors d’espace vectoriel réel ou complexe, respectivement.
NB : Le résultat de la multiplication d’un vecteur x et d’un scalaire α est conventionnellement noté xα,
même si l’on peut aussi l’écrire αx.

1.1 Vecteur nul


Noté 0, le vecteur nul est caractérisé par la propriété :
x + 0 = x pour tout x ∈ E
Ainsi, on montre que
x·0=0
Le symbole "zéro" à gauche est le scalaire nul (∈ K) [∈ R dans ce cours],
le symbole "zéro" à droite est le vecteur nul (∈ E).

1.2 Combinaisons linéaires


Soit v1 , · · · , vn , un nombre fini de vecteurs d’un espace vectoriel E.
Une combinaison linéaire (ou combili) de v1 , · · · , vn est un vecteur x ∈ E qui admet une décomposition
comme somme de multiples de v1 , · · · , vn :
x = v1 α1 + · · · + vn αn

14
ESPACES VECTORIELS ALGÈBRE

pour certains coefficients α1 , · · · , α ∈ K.

Exemple :

(x1 , · · · , xn ) + (y1 , · · · , yn ) = (x1 + y1 , · · · , xn + yn )


(x1 , · · · , xn )α = (x1 α, · · · , xn α)

*Valable aussi pour les fonctions, les polynômes, les matrices et les droites sur un plan.

1.2.1 En Pratique
1.2.1.1 Pour trouver les scalaires d’une expression de plusieurs vecteurs
Pour trouver les valeurs de α1 , α2 , α3 ∈ R dans une expression du type
w = α1 · v1 + α2 · v2 + α3 · v3 ,
et dans le cas où :

1 1 1
       
−1
v1 = 1 , v2 =  1  , v3 =  0  , w = 0 ;
1 1 −1 0
Il suffit de :
(1) Assembler v1 , v2 et v3 en une matrice et d’y ajouter w en tant que colonne des termes indépendants.
(2) Simplifier la matrice principale en une matrice de Gauss-Jordan, grâce aux opérations élémentaires,
pour trouver les valeurs de α1 , α2 et de α3 .
Si nous suivons cette démarche, nous avons alors :
1 −1 1 1 1 0 0 1
   
2
 1 1 0 0 = 0 1 0 −1 
2
1 1 −1 0 0 0 1 0
Ce qui nous donne comme solution :
S = {α1 , α2 , α3 | 21 , −1
2 , 0}

NB : Lors de l’assemblage des vecteurs v en une matrice A, il est préférable de mettre les éléments
x des vecteurs v sur les colonnes de la matrice, c’est-à-dire
 
x11 x21 x31
A = (v1 v2 v3 ) = (x1∗ x2∗ x3∗ ) =  x12 x22 x32 
x13 x23 x33

2 Sous-espaces vectoriels (sev)


2.1 Notions fondamentales
Une partie V d’un espace vectoriel E sur un corps K est un sous-espace vectoriel (ou plus simplement,
un sous-espace)(ou en abrégé, sev) si les conditions suivantes sont respectées :
1. 0 ∈ V .
2. Pour x ∈ V et α ∈ K, on a xα ∈ V .
3. Pour x, y ∈ V , on a x + y ∈ V .

De manière équivalente, un sous-espace vectoriel de E est une partie non vide de E qui est stable
par combinaison linéaires :
Pour v1 , · · · , vn ∈ V ,
Pour α1 , · · · , αn ∈ K,

15
ESPACES VECTORIELS ALGÈBRE

v1 α1 + · · · + vn αn ∈ V .

De plus, une vérification directe montre que tout sous-espace vectoriel est lui-même un espace vectoriel.
Exemple :
– L’ensemble des solutions d’un système de m équations linéaires homogènes à n inconnues est un
sous-espace vectoriel de Kn .

*Valable aussi pour les fonctions, les polynômes, les droites sur un plan et les matrices.

2.2 Opérations sur les sous-espaces vectoriels


A. Intersection :
Si V1 , · · · , Vn sont les sev d’un ev E, l’intersection V1 ∩ · · · ∩ Vn est un sev de E.

B. Somme :
Si V1 , · · · , Vn sont les sev d’un ev E, on définit la somme de V1 , · · · , Vn par :

V1 + · · · + Vn = {v1 + · · · + vn | v1 ∈ V1 , · · · , vn ∈ Vn }
Une vérification directe montre que cet ensemble est un sev de E.

On dit que la somme V1 , · · · , Vn est directe si la condition suivante est satisfaite :

Pour v1 ∈ V1 , · · · , vn ∈ Vn ,
v1 + · · · + vn = 0 ⇒ v1 = · · · = vn = 0
C’est-à-dire qu’il n’y a pas de combinaisons linéaires entre les vecteurs.
La somme V1 + · · · + Vn est alors notée V1 ⊕ · · · ⊕ Vn .

EN RÉSUMÉ : Deux sous-espaces En et Fn sont en sommes directes si leur intersection est


le vecteur nul.
En ∩ Fn = {0n } ⇒ E n ⊕ Fn

2.3 Sous-espaces vectoriels engendrés


Le sev V (∈ E) est appelé sous-espace vectoriel engendré par v1 , · · · , vn et est noté sevhv1 , · · · , vn i.

Il est le plus petit sev de E contenant v1 , · · · , vn , puisque tout sev qui contient v1 , · · · , vn contient
aussi les combinaisons linéaires de ces vecteurs.
En résumé, un sous-espace vectoriel engendré n’a pas de combinaison linéaire entre ses vecteurs v1 , · · · , vn .

2.4 En Pratique
2.4.1 Pour prouver qu’un ensemble quelconque est un sev
Il faut vérifier si l’ensemble quelconque possède les caractéristiques d’un sev (voir plus haut) :

Dans R4 , on considère l’ensemble vectoriel


E := {(x1 , x2 , x3 , x4 ) t.q x1 + x2 + x3 + x4 = 0}.
1. Remplacer les inconnues (x) par 0 et vérifier si l’équation est juste :
(0, 0, 0, 0) ∈ E puisque 0 + 0 + 0 + 0 = 0
OK
2. Soient x ∈ E et α ∈ R, vérifier si :

16
ESPACES VECTORIELS ALGÈBRE

αx1 + αx2 + αx3 + αx4 = α(x1 + x2 + x3 + x4 )


OK
3. Soient x, y ∈ E, vérifier si :
(x1 + y1 ) + (x2 + y2 ) + (x3 + y3 ) + (x4 + y4 ) = (x1 + x2 + x3 + x4 ) + (y1 + y2 + y3 + y4 )
OK
Ainsi, nous avons prouvé que E ∈ R4 .

2.4.2 Pour prouver que deux sev sont égaux


Si nous avons
E le sev de R3 engendré par les vecteurs v1 = (2, 3, −1) et v2 = (1, −1, −2), noté sevhv1 , v2 i,
F le sev de R3 engendré par les vecteurs w1 = (3, 7, 0) et w2 = (5, 0, −7), noté sevhw1 , w2 i ;

Il suffit de montrer qu’il est possible d’écrire les vecteurs d’un des deux sev comme combinaison li-
néaire des vecteurs de l’autre sev.
L’on remarque dans notre exemple que
w1 = 2v1 − v2
w2 = v1 + 3v2
Ainsi, tout les éléments de E peuvent s’écrire comme une combinaison linéaire des vecteurs générateurs de
F et inversément.
Cela prouve que E = F .

3 Bases
Soit e = (e1 , · · · , en ) une suite de vecteurs d’un ev E sur un corps K.

• On dit que la suite e est libre (ou que les vecteurs e1 , · · · , en sont linéairement indépendants) ssi il
n’y a pas de combinaisons linéaires possible entre les différents éléments de la suite e.
Pour convention, la suite vide () est aussi considérée comme libre, et on convient que le sev engendré
par cette suite est {0} (qui est en effet le plus petit de tous les sev).

• On dit que la suite e est une suite génératice de E si le sev engendré par les vecteurs de cette suite
génère l’espace E dans son ensemble :
sevhv1 , · · · , vn i = E,
ce qui revient à dire que, si n est le nombre d’éléments dans la suite e et que
— n < dim(E) ⇒ e ne sera jamais génératrice de E.
— n = dim(E) ⇒ si e est libre, alors e sera génératrice.
— n > dim(E) ⇒ e n’est initialement pas libre. Après avoir rendu la suite libre, si n = dim(E),
alors la suite e sera génératrice mais pas libre (car l’on reprend sa forme initiale).

• Enfin, on dit que la suite e est une base de E si elle est à la fois libre et génératrice.
Pour convention, la suite vide () est une base de l’espace nul {0}.

NB : Si e1 est une base de E1 et e2 est une base de E2 , où E1 , E2 ∈ E, alors, l’extension (pas l’ad-
dition) de la base e1 avec e2 forme une base de E.

3.1 Réflexions utiles


— Par vecteurs linéairement indépendants pour avoir une suite libre, on entend par là deux choses :
• qu’un des vecteurs ne doit pas être une combinaison linéaire des autres :
v3 = v1 − v2 ⇒ suite pas libre.
• qu’après échelonnement de la matrice, aucune ligne n’est le vecteur nul (il n’y a donc pas de
combinaison linéaire).

17
ESPACES VECTORIELS ALGÈBRE

3.2 En Pratique
3.2.1 Pour déterminer si une suite est génératrice
Montrer que tout vecteur v = (x, y) ∈ R2 peut s’écrire comme une combinaison linéaire des vecteurs
u1 = (1, 1) et u2 = (−1, 1) :
!
1 −1 x 1 0 (x+y)
 
⇔ 2
1 1 y 0 1 (y−x)
2

Grâce à des opérations élémentaires sur les matrices, on obtient :


(x+y) (y−x)
1. Une unique solution : 2 et 2 ···
2. qui est valide peut importe la valeur du x ou du y.

3.2.2 Pour déterminer si une suite est libre


Montrer que u1 = (1, 1) et u2 = (−1, 1) sont linéairement indépendants :
1 −1 0 1 0 0
   

1 1 0 0 1 0
Grâce à des opérations élémentaires sur les matrices, on observe que les vecteurs u1 et u2 sont linéairement
indépendants (c’est-à-dire qu’aucun des deux vecteurs n’est la combinaison linéaire de l’autre) (pas de
vecteur nul après opérations élémentaires).

Contre-exemple :
Montrer que u1 = (1, 2, 3), u2 = (−1, −1, 1) et u3 = (1, 3, 7) sont linéairement indépendants :
1 −1 1 0 1 0 2 0
   
 2 −1 3 0  ⇔  0 1 1 0 
3 1 7 0 0 0 0 0
Les trois vecteurs ne sont pas linéairement indépendant car :
Le troisième vecteur est combinaison linéaire des deux premiers,
DONC qu’il est devenu un vecteur nul,
ET DONC qu’il n’y a que deux pivots sur une matrice à trois vecteurs.

3.2.3 Distinctions pratiques entre « générateur » et « libre »


Prenons un ev E = R3 et essayons de déterminer :
– Une suite libre qui n’est pas génératrice :
Si le nombre d’éléments dans la suite 6= dimension de E, exemple :
La suite e composée d’un unique élément v1 = (1, 0, 0) est
libre mais pas génératrice de R3 .
– Une suite génératrice qui n’est pas libre :
Si un seul des vecteurs est la somme (resp. différence) de plusieurs OU si deux vecteurs sont égaux,
exemple :
La suite e = (v1 , v2 , v3 , v4 ),
où v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (0, 0, 1) et v4 = (1, 1, 0),
est génératrice de R3 mais n’est pas libre car v4 = v1 + v2 .

18
ESPACES VECTORIELS ALGÈBRE

3.2.4 Pour trouver une base du sev d’un ensemble de solutions d’une équa-
tion
On considère le système homogène Ax = 0 de 5 équations à 4 inconnues où
2 3 4
 
−5  
1 x1
4 3 −4
A= 1 1 x2 
 ∈ R , x = x3  ∈ R .
 5×4
  4
−1 −1
−2 2 −2 2


x4
0 5 2 −3
Pour trouver une base du sev des solution de Ax = 0, il faut :
1. Échelonner la matrice A :
1 1 −1
 
−1
0 5 2 −3
0 0 0 0
 
A⇒
0 0 0 0

0 0 0 0
Nous pouvons déjà affirmer que le rang A = 2.
2. Déterminer quelles sont les variables libres et leurs attribuer des valeurs réelles :
Dans notre cas, les variables libres sont x3 et x4 car ce sont les seules valeurs qui ne sont pas des
pivots dans notre matrice échelonnée (contrairement à x1 et x2 ).
Ainsi, nous pouvons attribuer à x3 et à x4 des valeurs réelles pour trouver une base de deux vecteurs
(car deux variables libres) précis de l’ensemble des solutions.
On choisira donc que
— Pour le vecteur 1 ⇒ x3 = 1 et x4 = 0
— Pour la vecteur 2 ⇒ x3 = 0 et x4 = 1
3. Trouver les valeurs des variables non-libres :
x1 − x2 + x3 = 0

− x4
5x2 + 2x3 − 3x4 = 0
On remplace x3 et x4 par les valeurs choisies au point précédent et on isole les variables non-libres :
— Vecteur 1 :
x1 − x2 + 1 = 0 x1 = −7
 
⇔ 5
5x2 + 2 = 0 x2 = −2 5
— Vecteur 2 :
x1 − x2 − 1 = 0 x1 = 58
 

5x2 − 3 = 0 x2 = 35
4. Écrire l’ensemble de solution :
S = sev < (( −7
5 , 5 , 1, 0), ( 5 , 5 , 0, 1)) >
−2 8 3

4 Dimension
4.1 Notions fondamentales
La dimension d’un ev finiment engendré est le nombre d’élément d’une base quelconque.

Théorème Toutes les bases d’un espace vectoriel finiment engendré ont le même nombre d’éléments.

Corollaire Dans un ev E de dimension finie n,


1. de toute suite génératrice, on peut extraire une base ;
2. toute suite génératrice de n éléments est une base ;
3. toute suite libre peut être prolongée en base ;
4. toute suite libre de n éléments est une base.

19
ESPACES VECTORIELS ALGÈBRE

Proposition : Formule de Grassmann


Si V et W sont deux sev de dimension finie d’un ev E,
alors, V + W est de dimension finie ; ainsi que
dim(V ) + dim(W ) = dim(V + W ) + dim(V ∩ W )
dim(V + W ) = dim(V ) + dim(W ) − dim(V ∩ W ).
NB : si un sev engendré V ∈ E se note sevhv1 , · · · , vn i, alors v1 , · · · , vn est une base de l’espace E
et sa dimension est de taille n (car un sev engendré est le plus petit sev de E [pas de combinaisons
linéaires])

4.2 En Pratique
4.2.1 Pour calculer les dimensions de deux espaces
On considère, dans R4 les vecteurs :
v1 = (1, 2, 3, 4), v2 = (1, 1, 1, 3), v3 = (2, 1, 1, 1), v4 = (−1, 0, −1, 2), v5 = (2, 3, 0, 1).
Soit F , l’ev engendré par {v1 , v2 , v3 },
Soit G, l’ev engendré par {v4 , v5 },

Calculez les dimensions de F , G, F ∩ G et F + G :

1. Parce que v1 , v2 , v3 et v4 , v5 sont linéairement indépendant, on peut déjà déterminer que :


dim F = 3 car F = sevhv1 , v2 , v3 i
dim G = 2 car G = sevhv4 , v5 i
2. On
 additionne
 F  et G pour
 trouver F + G et onfait apparaître les pivots en 
échelonnant F + G :
1 1 2 −1 2 1 1 2 −1 2 1 0 0 0 25
 
2 1 1  0 3 2 1 1 0 3 0 1 0 0 −9
3 1 1 + −1 0 = 3 1 1 −1 0 ⇔ 0 0 1 0 7 
       

4 3 1 2 1 4 3 1 2 1 0 0 0 1 11 2
On obtient donc une matrice d’ordre 4, ainsi dim(F + G) = 4.

NB : Comme le but est de trouver le nombre de pivots, il n’y a pas besoin de mettre la matrice
F + G sous forme réduite de Gauss-Jordan, la forme échelonnée suffit.

3. Selon la formule de Grassmann ci-dessus, nous pouvons trouver facilement F ∩ G :

Si on a dim(F ∩ G) = dim(F ) + dim(G) − dim(F + G),


Alors,
dim(F ∩ G) = (3 + 2) − 4
= 1

5 Rang des matrices dans un espace vectoriel


Cette section met en lien le concept de rang des matrices, vu dans la première partie, avec celui
d’espaces vectoriels.
 
a11 · · · a1n
Soit A =  ... ..  ∈ Km×n une matrice quelconque de genre (m, n) sur un corps K, que
. 

am1 · · · amn
l’on décompose par ligne :
 
a1∗
A =  ... 
 

am∗

20
ESPACES VECTORIELS ALGÈBRE

et par colonnes :

A = (a∗1 a∗n .

···

Chacune des lignes ai∗ est un n-uple : ai∗ ∈ Kn ,


on peut considérer le sev de Kn engendré par ces lignes :
L(A) = sevha∗1 , · · · , a∗n i ⊂ Kn ,

ce sev, que l’on appelle espace des lignes de A.

De même, on peut considérer l’espace des colonnes de A, défini par :


C(A) = sevha1∗ , · · · , an∗ i ⊂ Km .
Le théorème suivant indique d’ailleurs que ces sev ont la même dimension :

Théorème Soit A une matrice de dimension m × n sur un corps K. La dimension du sev de Km


engendré par les n colonnes de A est égale à la dimension du sev de Kn engendré par les m lignes de A :

dim C(A) = dim L(A)

Définition On appelle rang d’une matrice A ∈ Km×n la dimension du sev C(A) de Km engendré par
les n colonnes de A ou, ce qui revient au même d’après le théorème précédent, la dimension du sev L(A)
de Kn engendré par les lignes de A.
Grâce à cette définition, l’on détermine que
rang A ≤ min(m, n)
rang A = rang At .

L’on remarque que si rang A = n alors les lignes de A forment une suite génératrice de Kn , et récipro-
quement.

5.1 En Pratique
5.1.1 Pour trouver la dimension de l’espace annulateur d’une matrice
1 2 0 3
 

Nous avons A = 0 1 0 1
1 −1 1 1
— Trouver le rang de la matrice A : 
1 0 0 1

A = 0 1 0 1 ⇒ rang(A) = 3
0 0 1 1
— Trouver la dimension de l’espace annulateur de A :
Pour trouver cela, il faut soustraire le nombre de colonnes d’une matrice n × m par son
rang. Ainsi, nous avons
m − rang(A) = dimension espace annulateur de A
4 − 3 = 1
Dès lors, la dimension de l’espace annulateur de A vaut 1.

21
APPLICATIONS LINÉAIRES ALGÈBRE

Troisième partie
Applications linéaires
1 Notions fondamentales
Définition Soient E et F , deux ev sur un même corps K. Un application A : E → F est dite linéaire
si les conditions suivantes sont satisfaites :
1. A(x + y) = A(x) + A(y) pour x, y ∈ E.
2. A(xα) = A(x)α pour x ∈ E et α ∈ K.

De manière équivalente, l’application A est linéaire si


A(xα + yβ) = A(x)α + A(y)β

pour x, y ∈ E et α, β ∈ K.

De plus, une vérification directe montre que :


– L’ensemble des applications linéaires de E dans F est un sev de l’espace de toutes les applications
de E dans F .
– La composée de deux applications linéaires est linéaire.

———–

La notion suivante est étroitement liée à celle d’application linéaire :


Une équation linéaire est une équation de la forme

A(X) = b
où A : E → F est une application linéaire entre deux ev E et F , et b ∈ F .
⇒ Résoudre cette équation consiste à trouver tous les vecteurs x ∈ E qui sont envoyés sur b par A.

Une telle équation satisfait le principe de superposition des solutions :

Proposition Si x1 , x2 ∈ E sont respectivement les solutions de A(X) = b1 et A(X) = b2 ; alors pour


α1 , α2 ∈ K, le vecteur α1 x1 + α2 x2 ∈ E est solution de A(X) = α1 b1 + α2 b2 .
⇒ Ce principe de superposition des solutions n’est donc qu’une reformulation de l’hypothèse que A est
linéaire.

Proposition Une application L est linéaire si :


1. x ∈ E ; y ∈ E ⇔ ADDITIVITÉ
⇒ L(x + y) = L(x) + L(y) ∈ F
2. x ∈ E ; α ∈ R ⇔ MULTIPLICATIVITÉ (par un scalaire)
⇒ L(αx) = αL(x) ∈ F

1.1 En Pratique
1.1.1 Pour vérifier si une application est linéaire
Nous avons : L : R2 → R3 , (x, y) 7→ (x + y, x − 2y, 0).

(x, y) ∈ R2
(u, v) ∈ R2

22
APPLICATIONS LINÉAIRES ALGÈBRE

(a) L((x, y) + (u, v)) ? = L(x, y) + L(u, v)

L(x + u, y + v) = [(x + u + y + v), (x + u − 2(x + v)), 0]


= [(x + y) + (u + v), (x + u − 2y − 2v), 0]
= [(x + y) + (u + v), (x − 2y + u − 2v), 0]
= [(x + y, x − 2y, 0), (u + v, u − 2v, 0)]
= L(x, y, 0) + L(u, v, 0) OK

(b) L(αx, αy) ? = αL(x, y)

L(αx, αy) = [(αx + αy), (αx − 2αy), α0]


= [α(x + y, x − 2y, 0)]
= αL(x, y) OK

Donc, cette application est bien une application linéaire.

1.2 Noyau et Image


À toute application linéaire A : E → F , on fait correspondre un sev de E appelé noyau de A, défini
par :
Ker A = {x ∈ E | A(x) = 0}
et un sev de F appelé image de A, défini par :

Im A = {A(x) ∈ F | x ∈ E}
ou, de manière équivalente, par :
Im A = {y ∈ F | ∃x ∈ E tel que A(x) = y}.
⇒ Pour vérifier que 0 ∈ Ker A, càd que A(0) = 0 ; il faut remplacer α par 0 dans la relation A(xα) = A(x)α.

Proposition Une application A : E → F est :


Injective ssi Ker A = {0} ;
Surjective ssi Im A = F ;
Bijective ssi injective et surjective.

La dimension du noyau (dim Ker) équivaut au nombre de paramètre dans la solution du système
d’équation A(x) = 0 (au sens vectoriel [x et 0 sont des vecteurs])
dim Im A + dim Ker A = dim E
(voir Rang et Nullité).

1.2.1 Nullité et Rang


La nullité de A est la dimension du noyau de A :
null A = dim Ker A.

Le rang d’une application linéaire A : E → F est la dimension de l’image de A :


rang A = dim Im A.

Ainsi, l’on peut déduire que


null A + rang A = dim E.

1.2.2 En Pratique
L : R[x]62 → R2 : P (x) 7→ L(P (x)) = [P (0), P 0 (0) + P 00 (0)]

23
APPLICATIONS LINÉAIRES ALGÈBRE

1.2.2.1 Pour déterminer le noyau d’une application linéaire, sa base et sa


dimension
(   )
P (0) 0
  
c
• Ker L = P (x) = ax + bx + c |
2
= =
P 0 (0) + P 00 (0) b + 2a 0
 
 a
0 0 1   0 c = 0 c = 0
  
Ux = b = ⇔ ⇔
2 1 0 0 2a + b = 0 b = −2a
c
S = {(α, −2α, 0) | α ∈ R}

— Ainsi, Ker L = sev <(1, -2, 0)> où (1, -2, 0) est une base de Ker L

— Et donc null L = 1 (car il n’y a que un seul paramètre dans la solution du système [à savoir α]).

— NB : Dans certains cas, il est intéressant d’échelonner la matrice U (si elle ne l’est pas déjà) pour
obtenir un système plus simple à résoudre.

1.2.2.2 Pour déterminer l’image d’une application linéaire, sa base et sa


dimension
• Im L = {y ∈ F |L(x) = y, ∀x ∈ E} (  )
 
c α
! P (x) = ax2 + bx + c | L(P (x)) = , Im L = | α, β ∈ R
2a + b β
— Ainsi, Im L = sev < (1, 0), (0, 1) >

— Et donc rang L = 2 (car il y a deux vecteurs dans la solution du système)

— Les deux vecteurs de la base de Im L forment en réalité la base canonique de l’espace F ,


c’est-à-dire, l’espace R2
c’est-à-dire, la matrice identité I2

1.3 Autres concepts


Cette sous-section rassemble les différents concepts liés de près ou de loin aux applications linéaires
(toutes parties confondues) et qui ne sont pas définis dans les autres sections.

— Un endomorphisme linéaire ou endomorphisme d’espace vectoriel, noté End(E) ou L(E),


est une application linéaire d’un espace vectoriel E dans lui-même.

2 Contruction d’applications linéaires


Soient E et F , deux ev sur un même corps K. On suppose que E est de dimension finie.

2.1 Inversibilité des applications linéaires


– L’application linéaire A : E → F est inversible à gauche (resp. à droite) s’il existe une application
linéaire B : F → E, appelée inverse de A à gauche (resp. à droite), telle que B ◦ A = IE (resp. A ◦ B = IF ).

– L’application linéaire A : E → F est inversible s’il existe une application linéaire B : F → E, ap-
pelée inverse de A, telle que B ◦ A = IE et A ◦ B = IF .

A ◦ B est la composée de fonction de A et de B.

24
APPLICATIONS LINÉAIRES ALGÈBRE

⇒ Bien entendu, si une application linéaire est inversible, elle est à la fois inversible à gauche et à
droite, et inversément. Aussi, elle admet un unique inverse à gauche, qui est aussi l’unique inverse à droite
et donc plus simplement l’unique inverse.

En effet, si l’on a B ◦ A = IE et A ◦ B 0 = IF , alors on peut calculer la composée B ◦ A ◦ B 0 de


deux manière différentes :
(B ◦ A) ◦ B 0 = IE ◦ B 0 = B 0
ET
(B ◦ (A ◦ B 0 ) = B ◦ IF = B
donc B = B 0 .
L’inverse d’une application A (INVERSIBLE ! ! !) est notée A−1 .

Proposition Pour qu’une application linéaire soit inversible à gauche (resp. à droite), il faut et il suffit
qu’elle soit injective (resp. surjective).

Pour qu’une application linéaire soit inversible, il faut et il suffit qu’elle soit bijective.

Corollaire Soit A : E → F une application linéaire. On suppose dim E = n et dim F = m (avec m, n


finis). Respectivement, les conditions (1) à (4) et (1’) à (4’) sont équivalentes :
1) A est injective 1’) A est surjective
2) A est inversible à gauche 2’) A est inversible à droite
3) null A = 0 3’) null A = n - m
4) rang A = n 4’) rang A = m
En particulier, si n = m, alors toutes les conditions ci-dessus sont équivalentes ; ce qui revient à dire que
A est inversible et donc que A est bijective.

2.2 Représentation matricielle des applications linéaires


Soient E et F , deux ev de dimension finie sur un même coprs K.
Soit e = (e1 , · · · , en ), une base de E et f = (f1 , · · · , fm ), une base de F .
À toute application linéaire A : E → F , on associe une matrice f (A)e ∈ Km×n par :
Pm
f (A)e ∈ K = (aij )1≤i≤m ; 1≤j≤n si A(ej ) = i=1 fi aij .
m×n

La j-ème colonne de la matrice f (A)e est donc formée des coordonnées par rapport à la base f de A(ej ),
l’image par A du j-ème vecteur de la base e.

Proposition 1
1. Pour tout scalaire α,

f (αA)e = αf (A)e .
2. Si A et B sont deux applications linéaires de E vers F ,

f (A + B)e = f (A)e + f (B)e .

3. Soit g = (g1 , · · · , gl ) une base d’une troisième ev G. Si A : E → F et B : F → G sont des application


linéaires,

g (B ◦ A)e = g (B)f . f (A)e .

Proposition 2 Soient e et f , respectivement les bases des ev E et F . Pour toute application linéaire
A : E → F,
rang A = rang f (A)e .

25
APPLICATIONS LINÉAIRES ALGÈBRE

2.3 Changements de base


Il est important de remarquer que ce qui précède s’applique également dans le cas où F = E, et où
A = IE est l’identité sur E.
Si les bases e et f sont les mêmes, alors un simple calcul montre que l’on obtient bien la matrice unité :

e (IE )e = In ;
cependant, si f =6 e, alors la matrice f (IE )e n’est pas la matrice unité ; c’est la matrice dont la j-ème
colonne est formée des coordonnées du vecteur ej (= IE (ej )) par rapport à la base f . Elle permet de
contrôler les changements de base.

Proposition Soient e et e0 , deux bases d’un ev E de dimension n (finie). La matrice de changement de


base e (IE )e0 est régulière, et
−1
e (IE )e0 = e0 (IE )e
De plus, pour toute matrice régulière P ∈ Kn×n il existe des base f et f 0 de E telles que
P = e (IE )f et P = f 0 (IE )e0 .

Ainsi, l’on peut déduire que


P = e (IE )f
P −1 = e0 (IE )f 0
P = f 0 (IE )e0

et que
det e0 (A)e0 = det e (A)e .
Ce dernier montre que le déterminant de la matrice de A par rapport à une base de E ne dépend pas du
choix de la base. On peut donc poser :

det(A) = det e (A)e ,


où e est une base quelconque de E. Comme la composée des applications linéaires correspond au produit
des matrices qui les représentent, on a pour A, B : E → E :
det(A ◦ B) = det A . det B

26
ESPACES EUCLIDIENS ALGÈBRE

Quatrième partie
Espaces euclidiens
Dans certains espaces vectoriels, tels que l’espace usuel, il est possible de calculer la longueur d’un
vecteur ou l’angle entre deux vecteurs au moyen d’un produit scalaire.
Dans cette section, nous allons nous concentrer sur le produit scalaire, et non sur la norme.

1 Produits scalaires
Définitions
Une Forme Bilinéaire Symétrique sur un espace vectoriel E, sur le corps R est une application
(·|·) : E × E → R
satisfaisant les conditions suivantes :
1. Bilinéarité : pour x, y, z ∈ E et α, β ∈ R,
(xα + yβ|z) = α(x|z) + β(y|z).
(z|xα + yβ) = (z|x)α + (z|y)β.
2. Symétrie : pour x, y ∈ E,
(y|x) = (x|y).

Un Produit Scalaire est une forme bilinéaire symétrique qui possède EN PLUS la propriété suivante :
3. Définie positivité : pour x ∈ E, x 6= 0,
(x|x) > 0.
La bilinéarité entraîne par ailleurs
(0|0) = 0.

Un Espace Euclidien est un espace muni d’un produit scalaire.

Autres notations du produit scalaire


(x|y) ⇔ x·y ⇔ (x, y) ⇔ hx, yi ⇔ hx|yi

Exemples
Le produit scalaire usuel sur Rn est noté et défini par
((x1 , · · · , xn ) | (y1 , · · · , yn )) = x1 y1 + · · · + xn yn .
D’autres formes bilinéaires symétriques peuvent être définies de la manière suivante :
Soit A ∈ Rn une matrice symétrique, c’est-à-dire telle que At = A et x, y ∈ Rn×1 ,
(x|y)A = xt · A · y.
La bilinéarité de (·|·)A résulte des propriétés du produit matriciel ainsi que de l’hypothèse que A est
symétrique.
Cela permet d’assurer que
(y|x)A = (x|y)A pour x, y ∈ Rn .
De plus, l’on peut aussi définir une forme bilinéaire symétrique sur des espaces , des ensembles (des
fonctions continues sur une intervalle [intégrales]) ou sur d’autres scalaires.

27
ESPACES EUCLIDIENS ALGÈBRE

Comparaison de concepts : Le produit scalaire peut être comparé, en programmation, à une fonction
de deux arguments noté (a|b) où a et b peuvent être des fonctions, des réels, des inconnues,...

Exemple : Si
a = 1 − x2
b = x
R1
(a|b) = 0
ab.
Alors,
R1
(a|b) = 0
(1 − x2 ) · x
1
(a|b) =
4

1.1 Normes et distances


Dans un espace euclidien E, on définit la norme d’un vecteur x par
kxk = (x|x) ∈ R
p

kxk2 = (x|x) ∈ R
La norme, c’est la "longueur" du vecteur.

Proposition L’application k · k : E → R satisfait les conditions qui définissent une norme (abstraite) au
sens de l’analyse, à savoir :
(I) kxk ≥ 0 pour tout x ∈ E.
(II) kxk = 0 entraîne x = 0 (où 0 est un vecteur).
(III) kαxk = |α| · kxk pour x ∈ E et α ∈ R.
(IV ) kx + yk ≤ kxk + kyk pour x, y ∈ E.

Démonstration :
(I) est claire,
(II) découle directement de la définie positivité du produit scalaire,
(III) résulte de sa linéarité,
(IV) doit utiliser le lemme suivant pour être établie :

Lemme (Inégalité de Cauchy-Schwarz). Pour x, y ∈ E,


(x|y) ≤ |(x|y)| ≤ kxk · kyk.

2 Bases
2.1 Bases orthogonales
Définition
Deux vecteurs x, y d’un espace euclidien E sont dits orthogonaux si
(x|y) = 0.
NB : Comme (y|x) = (x|y), cette relation est symétrique.

Application
Une base e = (e1 , · · · , en ) d’un espace euclidien E est dite orthogonale si les vecteurs de base sont
orthogonaux deux à deux (toute base réduite à un élément est considérée comme orthogonale) :
(ei |ej ) = 0 si i 6= j.

28
ESPACES EUCLIDIENS ALGÈBRE

2.2 Bases orthonormées


Théorème
Tout espace euclidien de dimension finie non nulle admet une base orthonormée.

Exemple
Il suffit de de prouver l’existence d’une base orthonormée :
— Si l’espace est de dimension 1, le théorème est clair.
— On peut donc supposer que dim E > 2, raisonner par induction et supposer que l’énoncé est vrai
pour les espaces euclidiens de dimension < dim E.

Application
Une base orthogonale e = (e1 , · · · , en ) d’un espace euclidien E est dite orthonormée si la norme
de tout les vecteurs de base sont égaux à 1 :
||ei || = 1 ∀ i = 1, · · · , n.

Si ||ei || =
6 1 (pour un ou plusieurs i), alors il est possible de transformer la base orthogonale e en une
base orthonormée.
Ainsi, si e = (e1 , · · · , en ) est une base orthogonale, alors la suite e0 = (e01 , · · · , e0n ) définie par
ei
e0i =
||ei ||
est une base orthonormée.

2.3 En Pratique
2.3.1 Pour déterminer si une base d’un ev est orthogonale
Nous avons
e = ((1, 0, 0), (0, 1, 0), (0, 0, 1))
P3
(x|y) = i=1 xi yi , pour x, y ∈ R3 .
Pour déterminer si la base e est orthogonale, il faut vérifier, pour tout les éléments de e, que (ei |ej ) = 0
(i 6= j) :
P3
— (e1 |e2 ) = i=1 e1i · e2i = (1 · 0) + (0 · 1) + (0 · 0) = 0
P3
— (e1 |e3 ) = i=1 e1i · e3i = (1 · 0) + (0 · 0) + (0 · 1) = 0
P3
— (e2 |e3 ) = i=1 e2i · e3i = (0 · 0) + (1 · 0) + (0 · 1) = 0
Ainsi, e est une base orthogonale.

2.3.2 Pour déterminer si une base d’un ev est orthonormée


Nous avons
e = ((1, 0, 0), (0, 1, 0), (0, 0, 1))
P3
(x|y) = i=1 xi yi , pour x, y ∈ R3 .
Pour déterminer si la base e est orthonormée, il faut :
1. Vérifier que la base est orthogonale (voir plus haut)
2. Vérifier que, pour tout les éléments de e, que ||ei || = 1 :
qP
3 √
— ||e1 || = (e1 |e1 ) = i=1 e1i · e1i = (1 · 1) + (0 · 0) + (0 · 0) = 1 = 1
p p
qP
3 √
— ||e2 || = (e2 |e2 ) = i=1 e2i · e2i = (0 · 0) + (1 · 1) + (0 · 0) = 1 = 1
p p
qP
3 √
— ||e3 || = (e3 |e3 ) = i=1 e3i · e3i = (0 · 0) + (0 · 0) + (1 · 1) = 1 = 1
p p

Ainsi, e est une base orthonormée.

29
ESPACES EUCLIDIENS ALGÈBRE

2.3.3 Pour calculer une base orthonormée d’un sev


Nous avons
E = {(x, y) ∈ R2 |y = 0}
P2
(x|y) = i=1 xi yi (x, y ∈ R2 )
Pour trouver une base orthonormée de E, il faut :
1. Établir une base générique (avec inconnues) :
Comme, selon les critères du sev E, y = 0, nous pouvons créer une base e (∈ R2 ) où
e = (k, 0) (k ∈ R)
2. Trouver la valeur des inconnues définies au point précédent pour compléter la base :
Étant donné qu’une base est orthonormée si ||e|| = 1, alors :
p ||e|| = 1
(e|e) = 1
(k · k) + (0√· 0) = 1
p

k2 = 1
k = 1
Ainsi, la base orthonormée de l’espace E est e = (1, 0).

3 Projections orthogonales
On parle ici de sous-espaces qui sont orthogonaux entre eux.

Définiton
Soit E un espace euclidien de dimension finie.
Pour toute partie V ⊂ E, l’orthogonal V ⊥ est l’ensemble des vecteurs orthogonaux à tous les vecteurs de
V :
V ⊥ = (x ∈ E|(x|v) = 0 pour tout v ∈ V ).
Cet ensemble est un sous-espace vectoriel de E.

Proposition
Soit V un sous-espace d’un espace euclidien E.
Pour tout x ∈ E, il existe un et un seul vecteur p ∈ V tel que x − p ∈ V ⊥ .
De plus, si (e1 , · · · , er ) est une base orthonormée de V , alors
r
X
p= ei (ei |x).
i=1

En français : p s’écrit comme la combinaison linéaire de tout les éléments de la base orthonormée avec,
pour coefficients, le produit scalaire entre x et l’élément de cette base orthonormé (ei ).
Le vecteur p est appelé projection orthogonale du vecteur x sur le sous-espace V .

30
ESPACES EUCLIDIENS ALGÈBRE

EN RÉSUMÉ : La projection orthogonale d’un vecteur x dans un sous-espace V est un


point de ce sous-espace
tel que x − p n’est pas dans V mais est orthogonal à ce sous-espace
c’est-à-dire qu’il est orthogonal à tout les vecteurs de ce sous-espace V .

EN ENCORE PLUS RÉSUMÉ :


Le point p se trouve dans V et x − p est orthogonal à tout les vecteurs de V .

Corollaire Pour tout sous-espace vectoriel V d’un espace euclidien E de dimension finie,
E = V ⊕ V ⊥.

donc
dim V ⊥ = dim E − dim V .
De plus,
(V ⊥ )⊥ = V .

3.1 En Pratique
3.1.1 Pour déterminer la projection d’un point sur un sev grâce au produit
scalaire
Nous avons
x = (2, 1) ∈ R2
E = {(a, b) ∈ R2 |b = 0}
P2
(u|v) = i=1 ui vi (u, v ∈ R2 )
Pour trouver la projection px de x sur E, il faut :
1. Trouver une base orthonormée de E (voir 2.3.3 Pour calculer une base orthonormée d’un sev) :
e = (1, 0) où ||e|| = 1
2. Trouver la projection px :
Selon la théorie (voir plus haut), nous savons que, dans le cas de notre exemple :
px = (e|x)e
1
Auquel nous ajoutons pour ajuster la longueur du vecteur à sa projection.
||e||
Ce qui nous donne
(e|x)
px = e
||e||
Ainsi, nous pouvons déterminer que :
(e|x)
px = e
||e||
(1 · 2) + (0 · 1)
= e
1
= 2·e
= 2 · (1, 0)
= (2, 0)
Ainsi, la projection px de x sur E est px = (2, 0).

31
ESPACES EUCLIDIENS ALGÈBRE

3.1.2 Pour déterminer la distance entre un point et sa projection


Nous avons
x = (2, 1) ∈ R2
E = {(a, b) ∈ R2 |b = 0}
P2
(u|v) = i=1 ui vi (u, v ∈ R2 )
Pour trouver la distance entre x et sa projection p, il faut :
1. Calculer p (voir 3.1.1 Pour déterminer la projection d’un point sur un sev grâce au produit scalaire) :
p = (2, 0)
2. Calculer la distance d(x, p) :
La formule pour calculer la distance (euclidienne) entre deux vecteurs est :
pPn
d(x, p) = i=1 (xi − pi ) ,
2

où n est le nombre d’élément dans x et dans p.


(Voir la page Wikipédia "Distance (mathématiques)" pour plus d’informations)
Ce qui, dans notre cas, nous donne :
= p(x1 − p1 )2 + (x2 − p2 )2
p
d(x, p)
= √ (2 − 2)2 + (1 − 0)2
= 0 + 12
= 1
Ainsi, la distance entre x et sa projection p est d(x, p) = 1.

4 Algorithme de Gram-Schmidt
Objectif La technique des projections orthogonales permet de construire systématiquement une base
orthogonale à partir d’une base quelconque.

4.1 En Pratique
4.1.1 Pour construire une base orthogonale à partir d’une base quelconque
avec Gram-Schmidt
1. Choisir un vecteur parmis la base existante :
u1 = e1
e i
2. Appliquer la formule e0i = (où ||ei || est la norme de ei ) au vecteur u1 établi précédemment
||ei ||
pour que la norme de ce vecteur soit égale à 1.

3. Pour les autres vecteurs de la base, on les réduits à leurs projections orthonormées par rapport
aux vecteurs précédemment calculés :
u2 = e2 − (e2 |u01 )u01
Ainsi, on s’arrange pour que le vecteur u2 soit orthonormé par rapport au vecteur u01 ,

On répète le 2) pour u2 , et on trouve u02 ,


u3 = e3 − (e3 |u02 )u02 − (e3 |u01 )u01
Ainsi, on s’arrange pour que le vecteur u3 soit orthonormé par rapport aux vecteurs u01 et u02 .

32
OPÉRATEURS LINÉAIRES ALGÈBRE

Cinquième partie
Opérateurs linéaires
Un opérateur linéaire est une application linéaire d’un ev dans lui-même.

On peut donc considérer un opérateur linéaire, sur un ev, comme une re-transformation de cet espace,
et envisager de trouver :
— les vecteurs fixes sous cette transformation, ou,
— les vecteurs transformés en leurs opposés, ou,
— Plus généralement les vecteurs dont l’image est un multiple d’eux-mêmes, appelés vecteurs propres
de l’opérateur.

1 Notions fondamentales
1.1 Valeurs propres et vecteurs propres
• Soit A : E → E, un opérateur linéaire sur un ev E, sur un corps arbitraire K.
Un vecteur propre de A est un vecteur v ∈ E non nul tel que
A(v) = vλ pour un certain λ ∈ K.
En français : L’opérateur A appliqué au vecteur v permet d’obtenir une valeur proportionnelle à v,
à une constante près, où cette constante est la valeur propre λ.

• Le scalaire propre λ est appelé valeur propre de A associée à v ; on dit aussi que v est un vecteur
propre de A de valeur propre λ.

• L’équation A(v) = vλ peut aussi s’écrire


λIE (v) − A(v) = (λIE − A)(v) = 0,
ainsi, le vecteur propre v est dans le noyau de λIE − A.

NB : Comme nous sommes limité aux nombres réels R dans ce cours, certains opérateurs linéaires peuvent
ne pas avoir de valeur propre, ni vecteur propre.

1.2 Espaces propres


• Donc, pour tout λ ∈ K, on appelle espace propre de valeur propre λ le sous-espace défini par
E(λ) = Ker(λIE − A)
En français : l’espace des vecteurs propres E associé à cette valeur propre λ est le noyau de
l’opérateur λIE − A.

• Si on a des solutions non nulles au système d’équation (λIE − A)(v) = 0, il faut alors que :
det(λIE − A) = 0

1.3 Polynôme caractéristique


• L’on appelle polynôme caractéristique :
P cA (X) = det(XIE − A).
En français : le déterminant de λIE − A où λ est remplacé par X (Il s’agit juste d’une question de
notation).

Ce polynôme est unitaire, c’est-à-dire que le coefficient du terme de plus haut degré est 1, et son
degré est égal à la dimension de E :

33
OPÉRATEURS LINÉAIRES ALGÈBRE

deg P cA = dim E

• Notons qu’il existe 2 expressions pour calculer le polynôme caractéristique :


1. P cA = det(A − λIn )
2. P cA = det(λIn − A) voir |*|
Ces deux expressions présentent chacunes des avantages et des inconvéniants :
1. P cA = det(A − λIn ) :
+ L’équation P cA (0) = det(A) est toujours vrai
– Le polynôme caractéristique n’est pas unitaire
2. P cA = det(λIn − A) :
+ Le polynôme caractéristique est unitaire
– Lorsque la matrice A est d’ordre impair et det(A) 6= 0 ⇒ P cA (0) 6= det(A)
|*| Dès lors, pour obtenir une égalité entre ces deux expressions, il faut que
det(A − λIn ) = (−1)n · det(λIn − A)

1.4 En Pratique
1.4.1 Pour déterminer le polynôme caractéristique à partir d’une matrice
3 2
 
Si A = , il faut :
3 −2
1. Trouver la matrice B(= λI − A), où P cA = p(λ) = det(B) :
1 0 λ−3
     
−3 −2 −2
λI − A = λ · + =
0 1 −3 2 −3 λ+2
2. Calculer le polynôme caractéristique P cA (= p(λ)) (le déterminant de la matrice B trouvée en 1.) :
∆ = (λ − 3) · (λ + 2) − 6
∆ = (−1)2 · (λ2 − λ − 12)
(−1) · (λ − λ − 12) =
2 2
λ2 − λ − 12 = 0
Ainsi, P cA = λ2 − λ − 12 ⇔ POLYNÔME CARACTÉRISTIQUE.

Pour aller plus loin Nous pouvons prendre de l’avance sur la sous-section 1.4.2 en trouvant les
valeurs propres (les racines) de ce polynôme caractéristique :

3. Calculer les valeurs propres (λ) :



1 ± 1 + 48
λ=
2
λ1 = 4 λ2 = −3
Ainsi, λ = {4, −3} ⇔ VALEURS PROPRES.

1.4.2 Pour déterminer les valeurs propres et vecteurs propres d’une matrice
1 0
 
Si A = , il faut :
0 2
1. Calculer le polynôme caractéristique P cA (= p(λ)) (voir 1.4.1 Pour déterminer le polynôme caracté-
ristique à partir d’une matrice) :
p(λ) = (1 − λ) · (2 − λ)
2. Calculer les racines de p(λ) :
(= aux VALEURS PROPRES de A(λi ))
On trouve que λ1 = 1 et λ2 = 2 car p(0) = (1 − 0).(2 − 0)

34
OPÉRATEURS LINÉAIRES ALGÈBRE

3. Pour chaque valeur propre trouvée en 3., trouver les valeurs de x tel que Ax = λx [⇔ (A−λI)·x = 0] :
(où λ est la valeur propre)
(= aux VECTEURS PROPRES de A(xλi ))
[ ! ! ! Le système DOIT être AU MOINS une fois indéterminé]
 
a
Si x ∈ R2 , x =
b
• Racine 1 → λ = 1 :
 A  ·  x = 1x
1 0 a a
· = .
0 2 b b
a = a → IN DÉT ERM IN AT ION


2b = b → b = 0
1
 
E(1) = {(a, 0)|a ∈ R} = sevh(1, 0)i ⇒ xλ1 =
0
• Racine 2 → λ = 2 :
 A  ·  x = 2x
1 0 a 2a
· = .
0 2 b 2b
a = 2a → a = 0


2b = 2b → IN DÉT ERM IN AT ION
0
 
E(2) = {(0, b)|b ∈ R} = sevh(0, 1)i ⇒ xλ2 =
1
NB : Le calcul des valeurs de x au 4. peut aussi être réalisé grâce à une élimination de
Gauss-Jordan.
4. Finalement, on peut noter les valeurs et vecteurs propres trouvés de cette façon :
λ = {1, 2}
E(1) = sevh(1, 0)i
E(2) = sevh(0, 1)i
Remarques :
— Imaginons un système à valeur propre λ où :
 −2x + y + z = 0

⇔ x − 2y + z = 0
x + y − 2z = 0

 a = α | α ∈ R → IN DÉT ERM IN AT ION

⇔ b = α
c = α

Dans ce cas, on remarque que a = b = c mais que le degré d’indétermination du système vaut 1 car
il y a 1 ligne qui est combinaison des 2 autres.
Ainsi, on a que :
E(λ) = {(α, α, α)|α ∈ R} = sevh(1, 1, 1)i
— Le nombre de vecteurs propres engendré par leur valeur propre doit correspondre avec le degré
d’indétermination du système :
Imaginons un système à valeur propre λ où :
 a = α | α ∈ R → IN DÉT ERM IN AT ION

⇔ b = β | α ∈ R → IN DÉT ERM IN AT ION


c = α+β

Dans ce cas, le degré d’indétermination du système vaut 2.
Ainsi, on a que :
 =
E(λ) α + β)|α, β ∈ R} = sevh(1, 1, 2), (0, 1, 1)i
 {(α,β,
1 0
où les vecteurs propres 1 et 1 sont linéairement indépendants car il s’agit d’une base
2 1
du système.

35
OPÉRATEURS LINÉAIRES ALGÈBRE

1.4.3 Pour déterminer si une matrice est inversible en connaissant ses


valeurs propres
Si 0 est valeur propre de A

0 est racine du polynôme caractéristique

det(A) = 0

A N’EST PAS INVERSIBLE ! ! !

2 Diagonalisation
A désigne un opérateur linéaire sur un espace E de dimension finie sur un corps K.

On dit que l’opérateur A est diagonalisable s’il existe une base e de E par rapport à laquelle la matrice
e (A)e est diagonale.

L’objectif principal de la diagonalisation est de pouvoir écrire une matrice carrée A (∈ Rn×n ) sous la
forme
A = P · Λ · P −1
où Λ est une matrice diagonale.
L’une des utilisation de cette forme est de pouvoir calculer la puissance d’une matrice, c’est-à-dire :
Ak = P · Λk · P −1

Théorème Spectral : Pour une matrice réelle A ∈ Rn×n , les conditions suivantes sont équivalentes :
(a) Il existe une matrice orthogonale Q ∈ Rn×n telle que Q−1 · A · Q = Λ soit une matrice diagonale.
(b) Il existe une base orthonormée (par rapport au produit scalaire usuel) de Rn .
La base est constituée des vecteurs propres de A.
Cette condition sera la plus utilisée dans ce cours
(c) La matrice A est symétrique.
Si l’un de ces trois points est vrai, alors, la matrice A est diagonalisable.
De plus, la matrice Λ peut être trouvée soit :
— Grâce à la propriété (a) où D = diag(λi ).
— En construisant une matrice diagonale composée des valeurs propres de A.

Règle 1 D’après le théorème spectral ci-dessus,


Une matrice symétrique est toujours diagonalisable

Règle 2
On définit :
— La matrice P comme la matrice dont les colonnes sont les VECTEURS PROPRES.
— La matrice Λ où la diagonale principale est composée des VALEURS PROPRES.
(Les vecteurs propres dans P doivent être dans le MÊME ORDRE que les valeurs propres dans Λ.
— A est la matrice de départ.

On a :
A·P =P ·Λ
On peut déduire que :
A = P · Λ · P −1
ou
Λ = P −1 · A · P

36
OPÉRATEURS LINÉAIRES ALGÈBRE

2.1 Multiplicités des valeurs propres


Le point (b) du théorème spectral sur la diagonalisation nous énonce qu’il existe une base de Rn
composée de n vecteurs propres de A.

Pour appliquer cela, il faut utiliser la condition sur les multiplicités des valeurs propres énonce que
0 ≤ mg (λi ) ≤ ma (λi ) ≤ n
où :
mg (λi ), la multiplicité géométrique, est la dimension de l’espace propre associée à une valeur
propre λi
(= nombre de vecteurs propres, dans la base de l’espace propre, associés à λi )
(= degrés d’indétermination de Ax = λx)

ma (λi ), la multiplicité algébrique, est le nombre de fois qu’une valeur propre λi apparaît dans
le polynôme caractéristique
(= nombre de valeurs propres λi associées au polynôme caractéristique)

n, la dimension de A (dim A).

Pour que les vecteurs propres forment une base de Rn , il faut que la matrice A soit de plein rang, et
donc que :
— Chaque valeur propre doit être associée à un vecteur propre,
— Une valeur propre double, triple ou quadruple doit avoir respectivement 2, 3, ou 4 vecteurs propres
associés.
Cela nous permet d’arriver à la conclusion que
mg (λi ) = ma (λi ),
qui permet finalement de dire que A est DIAGONALISABLE.

2.2 En Pratique
2.2.1 Pour vérifier si une matrice est diagonalisable dans Rn
Nous allons utiliser la deuxième propriété du théorème spectral

4 2
 
−1
Si A = 0 5 0, il faut :
0 0 5
1. Calculer les valeurs propres et les vecteurs propres (voir 1.4.2 Pour déterminer les valeurs propres
et vecteurs propres d’une matrice) :
λ = {4, 5, 5}
E(4) = sevh(1, 0, 0)i
E(5) = sevh(−1, 1, 0), (2, 0, 1)i
2. Vérifier que chaque valeur propre ∈ R :
Vrai car énoncé dans le titre.
3. Vérifier la condition sur les multiplicités :
— ma (4) = 1 = mg (4) : Vrai car la valeur propre 4 :
(a) Apparaît 1 seule fois dans le polynôme caractéristique,
(b) A bien 1 seul vecteur de base.
— ma (5) = 2 = mg (5) : Vrai car la valeur propre 5 :
(a) Apparaît 2 fois dans le polynôme caractéristique,

37
OPÉRATEURS LINÉAIRES ALGÈBRE

(b) A bien 2 vecteurs de base.


4. Vérifier si les vecteurs propres forment bien une base de R3 (car 3 vecteurs propres) :
Il faut stocker les vecteurs propres dans une matrice
1 −1 2
 

P = 0 1 0
0 0 1
L’on remarque que la matrice est triangulaire supérieure (donc déjà échelonnée).
Ce qui permet de déterminer que :
rang(P ) = 3

Les vecteurs propres sont linéairement indépendants

Ils forment une base de R3
5. Vérifier votre réponse, grâce à la formule :
A·P =P ·D
6. La matrice A est diagonalisable.

2.2.2 Pour exprimer une matrice diagonalisable A sous la forme P · D · P −1


4 2
 
−1
Si A = 0 5 0, il faut :
0 0 5
1. Vérifier si la matrice A est diagonalisable (les valeurs utilisées dans cet exemple sont celles trouvées
au point précédent)
2. Trouver P −1 (où P est la matrice des vecteurs propres) :
1 1 −2
 

P −1 = 0 1 0 
0 0 1
3. Trouver D (qui est la matrice diagonale des valeurs propres associées aux vecteurs propres) :
4 0 0
 

D = 0 5 0
0 0 5

38

Vous aimerez peut-être aussi