Académique Documents
Professionnel Documents
Culture Documents
2 Systèmes linéaires 8
2.1 Quelques exemples élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Résolution des systèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.1 La méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.2 Matrices augmentées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4 Quelques méthodes de résolution de systèmes carrées . . . . . . . . . . . . . . . . 12
2.4.1 Calcul de l’inverse d’une matrice carrée : méthode Ax = y . . . . . . . . . 12
2.4.2 Résolution d’un système linéaire par la méthode x = A−1 b . . . . . . . . . 13
2.4.3 Résolution d’un système linéaire par la méthode de Cramer . . . . . . . . 13
1
Chapitre 1
Le déterminant d’une matrice carrée A est un nombre det A qu’on associe à A qui apparaı̂t
dans beaucoup de formules. Quand les coefficients de la matrice sont donnés, la notation usuelle
pour son déterminant est le membre de gauche suivant, mais les autres notations sont utilisées.
a11 a12 a13 a11 a12 a13
a21 a22 a23 = det a21 a22 a23 = |A| = det A.
a31 a32 a33 a31 a32 a33
Les délimiteurs | | sont réservés aux déterminants, et les délimiteurs ( ) et [ ] aux matrices. On
dit déterminant d’ordre n pour le déterminant d’une matrice n × n. (La matrice aussi s’appelle
souvent une matrice carrée d’ordre n).
Il y a au moins 4 façons différentes mais équivalentes à définir les déterminants, mais aucune
d’elles n’est simple. Donc on va se concentrer sur le calcul des déterminants et sur leurs propriétés
principales. Seulement après cela on donnera une des définitions de déterminants, et quelques
applications théoriques de cette définition (ex. la règle de Cramer).
|a| = det(a) = a.
On ne distingue pas trop entre une matrice 1 × 1, son unique coefficient, et son déterminant.
Le déterminant d’une matrice 3 × 3 se calcule par la règle de Sarrus. Cette règle est utilisée
uniquement pour les déterminants d’ordre 3. Elle est fausse pour toute autre taille. On recopie
2
CHAPITRE 1. RAPPEL SUR LE CACLCUL DU DÉTERMINANT D’UNE MATRICE
les deux premières colonnes de la matrice comme les 4ème et 5ème colonnes d’une matrice
augmentée.
a11 a12 a13 a11 a12
det a21
a22 a23 a21 a22 = |A| = det A.
a31 a32 a33 a31 a32
det A = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a11 a23 a32 − a12 a21 a33 . (1.2)
Il y a ceux qui préfèrent ajouter deux lignes à la matrice plutôt que deux colonnes, mais cela
revient à la même chose. Avec un peu d’expérience, on peut apprendre à appliquer la règle de
Sarrus sans écrire explicitement les colonnes ou lignes supplémentaires. Par exemple
1 2 3 1 2 3 1 2
A = 4 5 6 ⇒ 4 5 6 4 5
7 8 9 7 8 9 7 8
det A = 1 × 5 × 9 + 2 × 6 × 7 + 3 × 4 × 8 − 3 × 5 × 7 − 1 × 6 × 8 − 2 × 4 × 9
= 45 + 84 + 96 − 105 − 48 − 72 = 0.
Pourquoi on ne fait pas comme ça pour les grands déterminants. Il y a des formules pour les
déterminants de taille supérieure analogues aux formules (1.1) et (1.2) ci-dessus. Mais dans la
formule pour les déterminants d’ordre 4 il y a 24 termes, et dans celle pour l’ordre 5 il y a 120
termes. Pour l’ordre n il y a n! = 1 × 2 × 3 × ... × n termes. La moitié des termes sont avec le
signe + et l’autre moitié avec le signe -. Il est extrêmement lent d’appliquer ces formules aux
calculs.
Théorème 1.1.3. Si l’une des lignes (ou colonne) de A est nulle alors det A = 0.
Théorème 1.1.4. Si l’on ajoute à une ligne (resp. à une colonne) une combinaison linéaire des
autres lignes (resp. des autres colonnes), alors le déterminant ne change pas.
Théorème 1.2.1. Le déterminant d’une matrice triangulaire est le produit de ses coefficients
diagonaux.
Théorème 1.2.2. Si l’on ajoute à une ligne une combinaison linéaire des autres lignes, alors
le déterminant ne change pas.
Exemple 1.2.3.
1 2 3 1 2 3
4 5 6 = 0 −3 −6
7 8 9 0 −6 −12
1 2 3
= 0 −3 −6
0 0 0
= 1 × (−3) × 0
= 0
a) det(t A) = detA,
(−1)i+j où i désigne la ligne du coefficient et j sa colonne. Par exemple pour une matrice carrée
d’ordre 3, le développement par rapport à la premiere ligne donne
a11 a12 a13
a21 a22 a23 = a11 a22 a23 − a12 a21 a23 + a13 a21 a22 .
a32 a33 a31 a33 a31 a32 (1.3)
a31 a32 a33
Cette méthode est généralement associée aux operations élémentaires afin de faire apparaitre le
maximun de 0 (zéro) à l’interieur du déterminant. Pour une matrice carrée n × n, on dit qu’on
a un maximun de zéro, si on a au moins n − 1 zéro sur une ligne (ou sur une colonne). On
developpe alors sur la ligne (ou sur la colonne) où on a le maximun de zéro.
Cette méthode a pour but de réduire sur la taille de la matrice.
Théorème 1.4.3. Soit A une matrice d’ordre n. A est inversible si et seulement si det A 6= 0.
Première étape. On juxtapose A et la matrice identité I pour former une matrice 3 × 6 (ou
en général n × 2n) :
1 1 1 1 0 0
(A|I) = 1 2 3 0 1 0 .
2 4 5 0 0 1
On applique des opérations élémentaires et des pivotages vers le bas pour mettre cette matrice
en forme échelonnée. Dans ce cas particulier on pivote deux fois pour trouver
1 1 1 1 0 0 1 1 1 1 0 0
0 1 2 −1 1 0 0 1 2 −1 1 0 .
0 2 3 −2 0 1 0 0 −1 0 −2 1
A la fin de cette étape, A devient échelonnée et on peut détecter si A est inversible ou non.
C’est-à-dire, si on fait apparaı̂tre une ligne qui est nulle à gauche du bar, alors A n’est pas
inversible et on arrête. Mais dans l’exemple, A est inversible et on continue.
Deuxième étape. On applique des opérations élémentaires et pivotages vers le haut pour
transformer la moitié gauche en la matrice identité I. On fait ces pivotages en commençant à
droite et en bas, parce qu’on peut montrer que c’est le plus rapide. Dans notre exemple, faisons
d’abord L3 ← −L3 , pour simplifier les pivots.
1 1 1 1 0 0
0 1 2 −1 1 0 .
0 0 1 0 2 −1
Puis on pivote vers le haut autour du pivot de la troisième ligne par L2 ← L2 − 2L3 et L1 ←
L1 − L3 :
1 1 0 1 −2 1
0 1 0 −1 −3 2 .
0 0 1 0 2 −1
Finalement on pivoite vers le haut autour du pivot de la deuxième ligne en faisant L1 ← L1 −L2 :
1 0 0 1 1 1
0 1 0 −1 −3 2 .
0 0 1 0 2 −1
Pour chaque (i, j) ∈ {1, ..., n}2 , on appelle mineur de la place (i, j) (ou mineur de aij dans
A, le déterminant ∆ij d’ordre n − 1 obtenu en supprimant dans A la i-ème ligne et la j-ième
colonne.
Exemple 1.4.5. Soit A la matrice définie par
1 2 3
A= 4 5 6
7 8 9
5 6
le mineur de la place (1, 1) est ∆11 = det
8 9
Définition 1.4.6. Soit A = (aij )1≤i,j≤n une matrice carrée d’ordre n (n ≥ 2).
Pour chaque (i, j) ∈ {1, ..., n}2 , on appelle cofacteur de la place (i, j) (ou cofacteur de aij dans
A et on note Aij le scalaire definit par Aij = (−1)i+j ∆ij .
Exemple 1.4.7. Soit A la matrice définie par
1 2 3
A= 4 5 6
7 8 9
Systèmes linéaires
5y = 10 (L01 )
0
(S1 )
x − y = −1 (L02 )
0 = 10 (L01 )
(S20 )
x − y = −1 (L02 )
La première ligne ne peut jamais être réalisée, et l’on conclut que (S2 ) n’a pas de solution.
3) Résolution de
2x − 2y = −2 (L1 )
(S3 )
x − y = −1 (L2 )
8
CHAPITRE 2. SYSTÈMES LINÉAIRES
On remarque que la première ligne est égale à deux fois la seconde. Par conséquent, le système
(S3 ) est équivalent à
x − y = −1
L’ensemble des couples (x, y) vérifiant cette relation est
{(y − 1, y) : y ∈ R}
Conclusion : D’après ces exemples, pour les systèmes 2 × 2, au moins trois cas de figure
peuvent se présenter : ou bien le système a une seule solution, ou bien il n’en a pas, ou bien il en
a une infinité. Nous allons voir dans ce chapitre que même pour les systèmes linéaires généraux,
il n’y a pas d’autre scénario possible.
Notation : Dans tout ce chapitre, les systèmes considérés sont à coeficients dans R ou C.
Dans un souci de simplification des notations, nous adopterons la convention que le symbole K
désigne R ou C. On rappelle que K n désigne l’ensemble des n-uplets d’éléments de K, c’est-à-dire
l’ensemble des (u1 , ..., un ) avec chaque ui appartenant à K.
2.2 Définitions
Définition 2.2.1. Soit n ∈ N∗ et p ∈ N∗ . On appelle système linéaire de n équations à p
inconnues à coefficients dans K (ou encore système n × p) tout système d’équations du type
a11 x1 + ... + a1p xp = b1
(S) .............................
an1 x1 + ... + anp xp = bn
Définition 2.2.2. Si b1 = ... = bn = 0, le système est dit homogène. Pour un système linéaire
général (S) de p équations à n inconnues, le système
a11 x1 + ... + a1p xp = 0
0
(S ) .............................
an1 x1 + ... + anp xp = 0
Définition 2.2.3. Soit (S) un système linéaire n × p. On appelle solution de (S) tout p-uplet
(u1 , ..., un ) de K p tel que
a11 u1 + ... + a1p up = b1
(S) .............................
an1 u1 + ... + anp up = bn
Définition 2.2.4. Soit (S) un système n × p. Notons aij (avec i ∈ {1, ..., n} et j ∈ {1, ..., p})
ses coefficients. On appelle matrice associée au système (S) la matrice A définie par
a11 a12 . . . a1j . . . a1p
a21 a22 . . . a2j . . . a2p
.. .. .. .. .. ..
. . . . . .
A= ai1 ai2 . . . aij . . . aip .
.. .. .. .. .. ..
. . . . . .
an1 an2 . . . anj . . . anp
est
1 1 1
A = 2 1 −1
1 2 2
La notation matricielle permet de récrire les systèmes linéaires sous forme très condensée. En
effet, considérons un système linéaire de n équations à p inconnues :
a11 x1 + ... + a1p xp = b1
(S) .............................
an1 x1 + ... + anp xp = bn
x1 b1
Notons A la matrice associée à ce système, x = ... et b = ... . Le système (S) se
xp bn
récrit
Ax = b
se récrit
2 0 −1 x1 5
= .
1 1 1 x2 −1
Définition 2.2.7. Deux systèmes (S1 ) et (S2 ) sont dits équivalents s’ils ont le même ensemble
de solutions, c’est-à-dire si toute solution de (S1 ) est solution de (S2 ) et vice versa.
sont équivalents.
Définition 2.2.8. On dit qu’un système carré est triangulaire si l’on a aij = 0 pour tout
couple (i, j) tel que i < j (système triangulaire inférieur, i.e la matrice associée au système est
triangulaire inférieure )
ou bien
aij = 0 pour tout couple (i, j) tel que i > j (système triangulaire supérieur, i.e la matrice
associée au système est triangulaire supérieure).
Un système triangulaire est dit à diagonale non nulle s’il est triangulaire et si tous les termes
diagonaux sont non nuls.
x3 − 5x4 = 0
x4 = −1
Les opérations élémentaires sur les équations d’un système linéaire jouent sur les coefficients
et le membre de droite, et on peut les faire dans la matrice augmentée. Cela évite de réécrire
constamment des x, y, z, + et =. Les opérations élémentaires sur les lignes d’une matrice sont
les analogues des opérations élémentaires sur les équations d’un système, donc :
? La permutation de deux lignes de la matrice.
? La multiplication d’une ligne de la matrice par un réel non nul.
? L’addition d’un multiple d’une ligne à une autre ligne.
Une matrice est en forme échelonnée en ligne si chaque ligne (non identiquement nulle) commence
avec strictement plus de zéros que la ligne précédente. La matrice augmentée ci-dessus se réduit
à sa forme échelonnée en ligne par les opérations élémentaires suivantes sur ses lignes :
1 3 2 8 1 3 2 8 1 3 2 8
1 4 1 10 −→ 0 1 −1 2 −→ 0 1 −1 2 .
0 1 −1 3 0 1 −1 3 0 0 0 1
Ces opérations correspondent à une réduction du système linéaire ci-dessus au système
x + 3y + 2z = 8
y−z =2
0=1
Remarque 2.4.1. Dans cette méthode, l’ordre des indices est très important.
1 1 1
Exemple 2.4.2. Soit A = 1 2 3 , calculer A−1 .
2 4 5
Définition 2.4.4. On dit qu’un systàme linéaire (S) de n équations à n inconnues est de Cra-
mer s’il admet une unique solution.
∆i
La solution de l’équation Ax = b est donnée par xi = , i = 1, ..., n.
∆
Exemple 2.4.6. Résoudre le système suivant par la méthode de Cramer.
x+y+z =2
2x + y + z = 2
x + 2y + 2z = 6
14
CHAPITRE 3. RÉDUCTION DES MATRICES CARRÉES
Théorème 3.1.7. (de Cayley-Hamilton) Soient A est une matrice carrée d’ordre n et
Exemple 3.1.11. Déterminer les valeurs propres et une base de chaque sous espace propre de
la matrice
1 3 0
A = 0 −2 1 .
1 1 1
Exercice 3.1.12. Déterminer les valeurs propres et une base de chaque sous-espace propre de
la matrice :
−1 −1 −1
A = −1 −3 1 .
0 0 −2
Définition 3.2.3. Une matrice A est dite diagonalisable si elle est semblable à une matrice
diagonale.
Définition 3.2.5. Soit α0 ∈ K une racine d’un polynôme P et m ∈ N∗ . On dit que α0 est
d’ordre de multiplicité m s’il existe polynôme H tel que H(α0 ) 6= 0 et P (α) = (α − α0 )m H(α).
En d’autres termes le plus grand entier m ≥ 1 tel que (α − α0 )m divise P est appelé ordre de
multiplicité de la racine α0 .
Définition 3.2.6. Un polynôme non constant est dit sindé si la somme des ordres de multiplicité
de ses racines est égale au degré de ce polynôme.
ii) Si le polynôme πA n’est pas scindé dans K, alors A n’est pas diagonalisable dans K.
iii) Si au contraire πA est scindé alors pour chaque racine λ on résout le système homogène
(A − λIn )X = 0, où X est une matrice colonne de K n . L’ensemble des solutions de ce système
est le sous-espace propre V(λ). La résolution conduit à une base (e)λ de V(λ), donc à dimV(λ).
iv) Si, pour l’un des λ, on a dimV(λ) < m(λ), où m(λ) est la multiplicité de λ comme ra-
cine de πA , alors A n’est pas diagonalisable.
v) Sinon A est diagonalisable, et la juxtaposition des bases (e)λ donne une base de K n , formée
de vecteurs propres. On en déduit la matrice de passage P de la base canonique à la base (e), et
l’égalité D = P −1 AP , où D est diagonale et ses coefficients diagonaux sont les valeurs propres
de A, dans l’ordre des vecteurs propres de la base (e).
vi) On part de la matrice Cλ = A − λIn que l’on transforme, par des opérations sur les lignes,
en une matrice triangulaire Bλ .
vii) Les valeurs propres de A sont les λ tels que Bλ est non inversible c’est-à-dire les valeurs qui
annulent au moins un coefficient diagonal de Bλ .
viii) Pour chacune de ces valeurs, le sous espace propre est obtenu en résolvant le système
Bλ X = 0, qui est équivalent au système (A − λIn )X = 0.
Théorème 3.2.7. (Un cas particulier important). Soit n = dimE. Si A admet n valeurs propres
distinctes, alors A est diagonalisable.
3.3 Applications
3.3.1 Calcul des puissances d’une matrice
Théorème 3.3.1. Soit A une matrice carrée diagonalisable. Pour tout n ∈ N∗ on a
An = P Dn P −1 .
Calculer An .
Xn = An X0 .
x0 1
avec X0 = y0 = −1 .
z0 2
Remarque 3.3.5. On ne traite que les systèmes à coefficients constants, c’est à dire où A ne
dépend pas de t.
propres associés. Alors, l’ensemble des solutions de x0 (t) = Ax(t), sur I un intervalle quelconque,
est un K-espace vectoriel de dimension n, et
Si, de plus, on fixe la condition initiale x(0) = x0 , la solution existe et est unique.
3.4 Trigonalisation
i) Pour trigonaliser une matrice, il n’y a pas de méthode globale à connaı̂tre a priori.
ii) La trigonalisabilité d’une matrice s’obtient après le calcul de son polynôme caractéristique
et le constat que ce polynôme est scindé sur le corps de référence de la matrice.
iii) Si la matrice est considérée comme matrice complexe, elle est donc toujours trigonalisable.
iv) On verra les différentes situations pouvant se présenter pour une matrice 3 × 3.
1er cas : A a deux valeurs propres, l’une simple, l’autre double et A n’est pas
diagonalisable.
Toute matrice carrée non diagonalisable est semblable à une matrice triangulaire supérieure
T particulièrement simple, dı̂te de Jordan de la forme suivante :
i) Tous les coefficients ne se trouvant ni sur la diagonale de T, ni sur la diagonale d’au dessus
sont nuls.
ii) Sur la diagonale on écrit les valeurs propres inscrites autant de fois que l’ordre de multi-
plicité.
iii) Sur la diagonale juste au dessus on a des 0 et des 1. Les 0 se mettent dans les colonnes
des valeurs propres. On met des 1 ailleurs.
Par exemple en dimension3 : Une valeur propre simple a et une valeur propre double b
telle que l’espace propre associé à la valeur propre de b soit de dimension 1. T est de la
forme
a 0 0
T = 0 b 1 .
0 0 b
Exemple 3.4.1. Trigonaliser la matrice suivante
3 −1 −1
A = −1 2 0 .
3 −2 0
2eme cas : A a une valeur propre triple, et un espace propre associé de dimension 2.
Exemple 3.4.2. Trigonaliser la matrice suivante
1 0 0
A = 0 0 −1 .
0 1 2
3eme cas : A a une valeur propre triple, et un espace propre associé de dimension 1.
Trigonalisation en réduite de Jordan
iii) e02 tel que Ae02 = e01 + λe02 soit e01 = Ae02 − λe02 , et on veut que e01 6= 0, donc e02 ∈
/ V(λ).
Ainsi e03 doit donc vérifier (A − λI3 )2 e03 = (A − λI3 )e02 = e01 6= 0
iv) On détermine alors ker(A − λI3 )2 = {x ∈ R3 : (A − λI3 )2 x = 0}. On en déduit alors e03 ,
puis e02 et e01 .
Formes bilinéaires-Formes
quadratiques
Exercice 4.1.2. Les applications suivantes sont-elles des formes bilinéaires symétriques sur E :
1. E = R2 , b(x, y) = x1 y1 + x2 y2 avec x = (x1 , x2 ) et y = (y1 , y2 ).
Z 1
2. E = C ([−1, 1], R), b(f, g) =
0 f (t)g(t)dt.
−1
Dans la suite, on suppose E de dimension finie n ≥ 1. Soit B = (e1 , ..., en ) une base de E. Soit
b une forme bilinéaire symétrique sur E × E.
Définition 4.1.3. On appelle matrice de b dans la base B la matrice symétrique A = (aij )1≤i,j≤n
d’ordre n qui a pour coefficients aij = b(ei , ej ). Si x et y sont des éléments de E dont les vecteurs
colonnes de coordonnées dans la base B sont X et Y respectivement, on a
b(x, y) = X t AY.
Exercice 4.1.4.
1. L’applications suivante est-elle une formes bilinéaire symétrique sur E = R2
20
CHAPITRE 4. FORMES BILINÉAIRES-FORMES QUADRATIQUES
2. Déterminer la matrice A de b dans la base B = (e1 , e2 ) avec e1 = (1, 1), e2 (3, −2).
Proposition 4.1.5. Une forme bilinéaire b sur E est dite symétrique (respectivement anti-
symétrique) si et seulement si sa matrice dans une base quelconque B = (e1 , ..., en ) de E est
symétrique (respectivement antisymétrique).
Définition 4.1.6. On appelle rang d’une forme bilinéaire b sur E, le rang de sa matrice dans
une base quelconque.
Proposition 4.1.8. Une forme bilinéaire b est non dégénérée si et seulement si un de ses
discriminants est non nul.
A0 =t P AP.
Définition 4.2.1. Soit b une forme bilinéaire symétrique sur E. On appelle forme quadratique
associée à la forme bilinéaire b l’application h : E → K définie par h(x) = b(x, x).
On dit alors que b est la forme polaire de h.
Définition 4.2.4. Soient h une forme quadratique sur E et b sa forme polaire. Deux éléments
x et y sont ditd orthogonaux pour h ou conjugués si b(x, y) = 0.
Pour toute partie A de E, on appelle ortogonal de A et noté A⊥ l’ensemble défini par
A⊥ = {y ∈ E : ∀x ∈ E, b(x, y) = 0}.
Définition 4.2.5. Soient h une forme quadratique sur E et b sa forme polaire. On appelle noyau
de h, noté ker(h) est l’ensemble défini
ker(h) = {y ∈ E : ∀x ∈ E, b(x, y) = 0} = E ⊥ .
Proposition 4.2.6. Une forme quadratique h est dite non dégénérée si et seulement si son
noyau est réduit à {0}, i.e ker(h) = {0E }.
Définition 4.2.7. Pour toute forme quadratique h sur E, il existe une base B = (e1 , ..., en ) de
E telle que la matrice de h dans cette base soit diagonale, donc qu’on ait par rapport à cette base
n
X
h(x) = λi x2i .
i=1
Remarque 4.2.8. Lorsque la base est orthogonale, le rang se calcule directement. C’est le
nombre de λi non nuls.
∀x ∈ E, h1 (ϕ(x)) = h2 (x).
Définition 4.2.11. le couple (p, q) où p désigne le nombre de carrés précédé du signe + et
q = r − p le nombre de carrés précédé du signe − (r étant le rang de h) est appélé la signature
ou le type de h.
Définition 4.2.12.
∗ Une forme quadratique h de rang r sur est dite positive (respectivement négative) si h(x) ≥
0 (respectivement h(x) ≤ 0) pour tout x ∈ E. Une forme indéfinie n’est ni positive si
négative.
∗ Une forme quadratique sur Rn est définie positive si elle est de signature (n, 0). Elle est
définie négative si elle est de signature (0, n).
1er cas
Il existe i0 tel que ai0 6= 0, i.e
n
X X
h(x) = ai x2i + 2 aij xi xj .
i=1 i<1
Supposons que a1 6= 0, l’idée est de regrouper tous les termes contenant x1 puis de faire appa-
raitre un début de carré.
On procède de même avec x2 , puis ainsi de suite jusqu’à obtenir une somme de carrée.
Exercice 4.2.14.
1. Réduire en somme de carrée la forme quadratique h sur R3 définie par
2eme cas
Tous les ai sont nuls. L’idée est de regrouper tous les termes contenant x1 et x2 , puis on utilise
l’égalité
1h i
x1 x2 = (x1 + x2 )2 − (x1 − x2 )2 .
4
On réitère le même avec x3 et x4 , puis ainsi de suite jusqu’à obtenir une somme de carrée.
Exercice 4.2.15.
1. Réduire en somme de carrée la forme quadratique h sur R3 définie par
h(x) = x1 x2 + x1 x3 + x2 x3 + x3 x4 .