Vous êtes sur la page 1sur 25

Année Académique 2020-2021

Cours d’algèbre linéaire en L2A-L2P

ESTPO / Burkina Faso 1 Dr Issa ZABSONRE ©2020


Table des matières

1 Rappel sur le caclcul du déterminant d’une matrice 2


1.1 Déterminants d’ordre 1, 2 et 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Calcul du déterminants par pivot de Gauss . . . . . . . . . . . . . . . . . . . . . 3
1.3 Développement par rapport à une ligne ou une colonne . . . . . . . . . . . . . . . 4
1.4 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4.1 Calcul de l’inverse d’une matrice carrée : méthode du pivot de Gauss . . . 5
1.4.2 Calcul de l’inverse d’une matrice carrée : méthode des cofacteurs . . . . . 6
1.5 Déterminant avec paramètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Systèmes linéaires 8
2.1 Quelques exemples élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Résolution des systèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.1 La méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.2 Matrices augmentées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4 Quelques méthodes de résolution de systèmes carrées . . . . . . . . . . . . . . . . 12
2.4.1 Calcul de l’inverse d’une matrice carrée : méthode Ax = y . . . . . . . . . 12
2.4.2 Résolution d’un système linéaire par la méthode x = A−1 b . . . . . . . . . 13
2.4.3 Résolution d’un système linéaire par la méthode de Cramer . . . . . . . . 13

3 Réduction des matrices carrées 14


3.1 Eléments propres d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.1.1 Valeurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.1.2 Sous espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Diagonalisation en dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3.1 Calcul des puissances d’une matrice . . . . . . . . . . . . . . . . . . . . . 17
3.3.2 Résolulion des systèmes matriciels . . . . . . . . . . . . . . . . . . . . . . 17
3.3.3 Résolulion des systèmes différentiels linéaires du 1er ordre . . . . . . . . . 17
3.4 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

4 Formes bilinéaires-Formes quadratiques 20


4.1 Formes bilinéaires symétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.2 Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2.1 Classification des formes quadratiques . . . . . . . . . . . . . . . . . . . . 22
4.2.2 Décomposition d’une forme quadratique : méthode de Gauss . . . . . . . 23

1
Chapitre 1

Rappel sur le caclcul du déterminant


d’une matrice

Le déterminant d’une matrice carrée A est un nombre det A qu’on associe à A qui apparaı̂t
dans beaucoup de formules. Quand les coefficients de la matrice sont donnés, la notation usuelle
pour son déterminant est le membre de gauche suivant, mais les autres notations sont utilisées.
 
a11 a12 a13 a11 a12 a13

a21 a22 a23 = det  a21 a22 a23  = |A| = det A.

a31 a32 a33 a31 a32 a33

Les délimiteurs | | sont réservés aux déterminants, et les délimiteurs ( ) et [ ] aux matrices. On
dit déterminant d’ordre n pour le déterminant d’une matrice n × n. (La matrice aussi s’appelle
souvent une matrice carrée d’ordre n).
Il y a au moins 4 façons différentes mais équivalentes à définir les déterminants, mais aucune
d’elles n’est simple. Donc on va se concentrer sur le calcul des déterminants et sur leurs propriétés
principales. Seulement après cela on donnera une des définitions de déterminants, et quelques
applications théoriques de cette définition (ex. la règle de Cramer).

NB : Seules les matrices carrées ont des déterminants.

1.1 Déterminants d’ordre 1, 2 et 3


Le déterminant d’une matrice 1 × 1 est son coefficient :

|a| = det(a) = a.

On ne distingue pas trop entre une matrice 1 × 1, son unique coefficient, et son déterminant.

Le déterminant d’une matrice 2 × 2 est donné par :



a11 a12
a21 a22 = a11 a22 − a21 a12 . (1.1)

Le déterminant d’une matrice 3 × 3 se calcule par la règle de Sarrus. Cette règle est utilisée
uniquement pour les déterminants d’ordre 3. Elle est fausse pour toute autre taille. On recopie

2
CHAPITRE 1. RAPPEL SUR LE CACLCUL DU DÉTERMINANT D’UNE MATRICE

les deux premières colonnes de la matrice comme les 4ème et 5ème colonnes d’une matrice
augmentée.  
a11 a12 a13 a11 a12

det a21
 a22 a23 a21 a22  = |A| = det A.

a31 a32 a33 a31 a32

Le déterminant est la somme et différence de 6 termes correspondant aux 6 grandes diagonales


de la matrice augmentée. Spécifiquement, on fait la somme des 3 produits le long des longues
diagonales de sens \ \ \, puis on soustrait les 3 produits le long des longues diagonales de sens
///.

det A = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a11 a23 a32 − a12 a21 a33 . (1.2)

Il y a ceux qui préfèrent ajouter deux lignes à la matrice plutôt que deux colonnes, mais cela
revient à la même chose. Avec un peu d’expérience, on peut apprendre à appliquer la règle de
Sarrus sans écrire explicitement les colonnes ou lignes supplémentaires. Par exemple
   
1 2 3 1 2 3 1 2
A =  4 5 6  ⇒  4 5 6 4 5 
7 8 9 7 8 9 7 8

det A = 1 × 5 × 9 + 2 × 6 × 7 + 3 × 4 × 8 − 3 × 5 × 7 − 1 × 6 × 8 − 2 × 4 × 9
= 45 + 84 + 96 − 105 − 48 − 72 = 0.

Pourquoi on ne fait pas comme ça pour les grands déterminants. Il y a des formules pour les
déterminants de taille supérieure analogues aux formules (1.1) et (1.2) ci-dessus. Mais dans la
formule pour les déterminants d’ordre 4 il y a 24 termes, et dans celle pour l’ordre 5 il y a 120
termes. Pour l’ordre n il y a n! = 1 × 2 × 3 × ... × n termes. La moitié des termes sont avec le
signe + et l’autre moitié avec le signe -. Il est extrêmement lent d’appliquer ces formules aux
calculs.

Théorème 1.1.1. L’application det est antisymétrique, c’est-à-dire que


   
a11 a12 . . . a1j . . . a1n a21 a22 . . . a2j . . . a2n
 a21 a22 . . . a2j . . . a2n   a11 a12 . . . a1j . . . a1n 
   
 .. .. .. .. .. ..   .. .. .. .. .. .. 
 . . . . . .   . . . . . . 
det 
 ai1 ai2 . . . aij . . . = − det  .
 ain 
 ai1 ai2 . . . aij
 . . . ain 

 .. .. .. .. .. ..   .. .. .. .. .. .. 
 . . . . . .   . . . . . . 
an1 an2 . . . anj . . . ann an1 an2 . . . anj . . . ann

Théorème 1.1.2. Pour tout λ ∈ K et A ∈ Mn (K), on a det(λA) = λn det A.

Théorème 1.1.3. Si l’une des lignes (ou colonne) de A est nulle alors det A = 0.

Théorème 1.1.4. Si l’on ajoute à une ligne (resp. à une colonne) une combinaison linéaire des
autres lignes (resp. des autres colonnes), alors le déterminant ne change pas.

1.2 Calcul du déterminants par pivot de Gauss


Les deux théorèmes suivants permettent de calculer les déterminants efficacement.

ESTPO / Burkina Faso 3 Dr Issa ZABSONRE ©2020


CHAPITRE 1. RAPPEL SUR LE CACLCUL DU DÉTERMINANT D’UNE MATRICE

Théorème 1.2.1. Le déterminant d’une matrice triangulaire est le produit de ses coefficients
diagonaux.

Ce théorème s’applique aux matrices triangulaires supérieures, aux matrices triangulaires


inférieures, et aux matrices diagonales.

4 0 0 0 0
4 0 0 0
1 2 3 0 5 0 0 0
0 −2 −7 = 1×(−2)×5 = −10, −12 1 0 0 4×1×2×3 = 24, 0 0

2 0 0 = −120.
56 32 2 0
0 0 5 0 0 0 3 0
25 17 8 3
0 0 0 0 −1

Le déterminant d’une matrice identité est donc det I = 1. Par exemple



1 0 0 0 0

0 1 0 0 0

det I5 = 0 0 1 0 0 1 × 1 × 1 × 1 × 1 = 1.
0 0 0 1 0

0 0 0 0 1

Théorème 1.2.2. Si l’on ajoute à une ligne une combinaison linéaire des autres lignes, alors
le déterminant ne change pas.

Exemple 1.2.3.

1 2 3 1 2 3

4 5 6 = 0 −3 −6

7 8 9 0 −6 −12

1 2 3

= 0 −3 −6
0 0 0

= 1 × (−3) × 0

= 0

Théorème 1.2.4. Soit A et B des matrices carrées de la même taille. On a :

a) det(t A) = detA,

b) det(AB) = det A × det B,

c) det(A + B) 6= det A + det B en général.

1.3 Développement par rapport à une ligne ou une colonne


La méthode du développement par rapport à une ligne ou une colonne est une méthode
alternative à celle du pivot de Gauss. La règle de signe des coefficients est celui du nombre

ESTPO / Burkina Faso 4 Dr Issa ZABSONRE ©2020


CHAPITRE 1. RAPPEL SUR LE CACLCUL DU DÉTERMINANT D’UNE MATRICE

(−1)i+j où i désigne la ligne du coefficient et j sa colonne. Par exemple pour une matrice carrée
d’ordre 3, le développement par rapport à la premiere ligne donne

a11 a12 a13
a21 a22 a23 = a11 a22 a23 − a12 a21 a23 + a13 a21 a22 .

a32 a33 a31 a33 a31 a32 (1.3)
a31 a32 a33

Cette méthode est généralement associée aux operations élémentaires afin de faire apparaitre le
maximun de 0 (zéro) à l’interieur du déterminant. Pour une matrice carrée n × n, on dit qu’on
a un maximun de zéro, si on a au moins n − 1 zéro sur une ligne (ou sur une colonne). On
developpe alors sur la ligne (ou sur la colonne) où on a le maximun de zéro.
Cette méthode a pour but de réduire sur la taille de la matrice.

1.4 Matrices inversibles


Définition 1.4.1. On dit que A ∈ Mn (K) est inversible si il existe B ∈ Mn (K) telle que
AB = BA = I et dans ce cas on note B = A−1 appelée matrice inverse de A.

Remarque 1.4.2. Si B existe, elle est la seule à vérifier cette propriété.

Théorème 1.4.3. Soit A une matrice d’ordre n. A est inversible si et seulement si det A 6= 0.

1.4.1 Calcul de l’inverse d’une matrice carrée : méthode du pivot de Gauss


La méthode du pivot de Gauss détecte si une matrice carrée A est inversible ou non, et quand
A est inversible, on calcule A−1 .
On travaille sur une matrice particulière
 
1 1 1
A =  1 2 3 .
2 4 5

Première étape. On juxtapose A et la matrice identité I pour former une matrice 3 × 6 (ou
en général n × 2n) :  
1 1 1 1 0 0
(A|I) =  1 2 3 0 1 0 .
2 4 5 0 0 1
On applique des opérations élémentaires et des pivotages vers le bas pour mettre cette matrice
en forme échelonnée. Dans ce cas particulier on pivote deux fois pour trouver
   
1 1 1 1 0 0 1 1 1 1 0 0
 0 1 2 −1 1 0   0 1 2 −1 1 0  .

0 2 3 −2 0 1 0 0 −1 0 −2 1

A la fin de cette étape, A devient échelonnée et on peut détecter si A est inversible ou non.
C’est-à-dire, si on fait apparaı̂tre une ligne qui est nulle à gauche du bar, alors A n’est pas
inversible et on arrête. Mais dans l’exemple, A est inversible et on continue.

Deuxième étape. On applique des opérations élémentaires et pivotages vers le haut pour
transformer la moitié gauche en la matrice identité I. On fait ces pivotages en commençant à

ESTPO / Burkina Faso 5 Dr Issa ZABSONRE ©2020


CHAPITRE 1. RAPPEL SUR LE CACLCUL DU DÉTERMINANT D’UNE MATRICE

droite et en bas, parce qu’on peut montrer que c’est le plus rapide. Dans notre exemple, faisons
d’abord L3 ← −L3 , pour simplifier les pivots.
 
1 1 1 1 0 0
 0 1 2 −1 1 0 .

0 0 1 0 2 −1
Puis on pivote vers le haut autour du pivot de la troisième ligne par L2 ← L2 − 2L3 et L1 ←
L1 − L3 :  
1 1 0 1 −2 1
 0 1 0 −1 −3 2  .

0 0 1 0 2 −1
Finalement on pivoite vers le haut autour du pivot de la deuxième ligne en faisant L1 ← L1 −L2 :
 
1 0 0 1 1 1
 0 1 0 −1 −3 2  .

0 0 1 0 2 −1

A la fin la matrice est (I|A−1 ). Donc on trouve


 
1 1 1
A−1 =  −1 −3 2  .
0 2 −1

1.4.2 Calcul de l’inverse d’une matrice carrée : méthode des cofacteurs


Définition 1.4.4. Soit A = (aij )1≤i,j≤n une matrice carrée d’ordre n (n ≥ 2).

Pour chaque (i, j) ∈ {1, ..., n}2 , on appelle mineur de la place (i, j) (ou mineur de aij dans
A, le déterminant ∆ij d’ordre n − 1 obtenu en supprimant dans A la i-ème ligne et la j-ième
colonne.
Exemple 1.4.5. Soit A la matrice définie par
 
1 2 3
A= 4 5 6 
7 8 9
 
5 6
le mineur de la place (1, 1) est ∆11 = det
8 9
Définition 1.4.6. Soit A = (aij )1≤i,j≤n une matrice carrée d’ordre n (n ≥ 2).

Pour chaque (i, j) ∈ {1, ..., n}2 , on appelle cofacteur de la place (i, j) (ou cofacteur de aij dans
A et on note Aij le scalaire definit par Aij = (−1)i+j ∆ij .
Exemple 1.4.7. Soit A la matrice définie par
 
1 2 3
A= 4 5 6 
7 8 9

le cofacteur de la place (1, 1) est A11 = (−1)1+1 ∆11

ESTPO / Burkina Faso 6 Dr Issa ZABSONRE ©2020


CHAPITRE 1. RAPPEL SUR LE CACLCUL DU DÉTERMINANT D’UNE MATRICE

Définition 1.4.8. Soient n ≥ 2 et A ∈ Mn (K). On appelle comatrice de A, la matrice carrée


d’ordre n notée Com(A), définie par Com(A) = (Aij )1≤i,j≤n (n ≥ 2) où Aij est le cofacteur de
la place (i, j) dans A et on note Aij .

Théorème 1.4.9. Soit A une matrice inversible. Alors


1 t
A−1 = Com(A)
det A

1.5 Déterminant avec paramètres


Dans le calcul de certains déterminants dont certains des coefficients sont des paramètres réels
ou complexes, on peut parfois être amener à effectuer des opérations élémentaires afin de faire
apparaitre ”un facteur ou plusieurs facteurs communs”. Ainsi, le calcul d’un tel déterminant
pourra se faire plus ”aisement”.

Exemple 1.5.1. Calculer le déterminant de la matrice carrée A définie par


 
m 6 −6
A =  −1 m + 4 0 .
0 6 m−2

NB : On utilisera parfois cette technique au chapitre 3.

ESTPO / Burkina Faso 7 Dr Issa ZABSONRE ©2020


Chapitre 2

Systèmes linéaires

Au lycée, vous avez appris à résoudre des systèmes de 2, 3 voire 4 équations à 2, 3 ou 4


inconnues. Ce chapitre est consacré à la théorie des systèmes linéaires comportant un nombre
arbitraire d’équations et d’inconnues. Il s’agit notamment de présenter une méthode générale de
résolution de tels systèmes.

2.1 Quelques exemples élémentaires


Donnons d’abord quelques exemples de résolution de systèmes de deux équations à deux
inconnues.
1) Résolution de 
2x + 3y = 8 (L1 )
(S1 )
x − y = −1 (L2 )
Il s’agit de déterminer l’ensemble des couples de réels (x, y) qui satisfont les deux lignes du
système (S1 ).
Pour ce faire, on peut procéder ainsi : on retranche 2(L2 ) à (L1 ), et on obtient le système

5y = 10 (L01 )

0
(S1 )
x − y = −1 (L02 )

dont l’ensemble des solutions est le même que celui de (S1 ).


Il est clair que la ligne (L01 ) est équivalente à y = 2, et en reportant dans (L02 ), on obtient x = 1.
En conclusion, (S1 ) a pour unique solution le couple (1, 2).
2) Résolution de 
2x − 2y = 8 (L1 )
(S2 )
x − y = −1 (L2 )
Cette fois-ci, si l’on retranche 2(L2 ) à (L1 ), on obtient le système

0 = 10 (L01 )

(S20 )
x − y = −1 (L02 )

La première ligne ne peut jamais être réalisée, et l’on conclut que (S2 ) n’a pas de solution.
3) Résolution de 
2x − 2y = −2 (L1 )
(S3 )
x − y = −1 (L2 )

8
CHAPITRE 2. SYSTÈMES LINÉAIRES

On remarque que la première ligne est égale à deux fois la seconde. Par conséquent, le système
(S3 ) est équivalent à
x − y = −1
L’ensemble des couples (x, y) vérifiant cette relation est

{(y − 1, y) : y ∈ R}

Le système (S3 ) a donc une infinité de solutions.

Conclusion : D’après ces exemples, pour les systèmes 2 × 2, au moins trois cas de figure
peuvent se présenter : ou bien le système a une seule solution, ou bien il n’en a pas, ou bien il en
a une infinité. Nous allons voir dans ce chapitre que même pour les systèmes linéaires généraux,
il n’y a pas d’autre scénario possible.

Notation : Dans tout ce chapitre, les systèmes considérés sont à coeficients dans R ou C.
Dans un souci de simplification des notations, nous adopterons la convention que le symbole K
désigne R ou C. On rappelle que K n désigne l’ensemble des n-uplets d’éléments de K, c’est-à-dire
l’ensemble des (u1 , ..., un ) avec chaque ui appartenant à K.

2.2 Définitions
Définition 2.2.1. Soit n ∈ N∗ et p ∈ N∗ . On appelle système linéaire de n équations à p
inconnues à coefficients dans K (ou encore système n × p) tout système d’équations du type

 a11 x1 + ... + a1p xp = b1




(S) .............................




an1 x1 + ... + anp xp = bn

avec aij ∈ K pour 1 ≤ i ≤ n et 1 ≤ j ≤ p Un tel système est dit carré si p = n.

Définition 2.2.2. Si b1 = ... = bn = 0, le système est dit homogène. Pour un système linéaire
général (S) de p équations à n inconnues, le système

 a11 x1 + ... + a1p xp = 0




0
(S ) .............................




an1 x1 + ... + anp xp = 0

est appelé système homogène associé à (S).

Définition 2.2.3. Soit (S) un système linéaire n × p. On appelle solution de (S) tout p-uplet
(u1 , ..., un ) de K p tel que 

 a11 u1 + ... + a1p up = b1



(S) .............................




an1 u1 + ... + anp up = bn

ESTPO / Burkina Faso 9 Dr Issa ZABSONRE ©2020


CHAPITRE 2. SYSTÈMES LINÉAIRES

Définition 2.2.4. Soit (S) un système n × p. Notons aij (avec i ∈ {1, ..., n} et j ∈ {1, ..., p})
ses coefficients. On appelle matrice associée au système (S) la matrice A définie par
 
a11 a12 . . . a1j . . . a1p
 a21 a22 . . . a2j . . . a2p 
 
 .. .. .. .. .. .. 
 . . . . . . 
A=  ai1 ai2 . . . aij . . . aip  .

 
 .. .. .. .. .. .. 
 . . . . . . 
an1 an2 . . . anj . . . anp

Exemple 2.2.5. La matrice associée au système suivant




 x11 + x12 + x13 = 2



2x21 + x22 − x23 = 2




x31 + 2x32 + 2x33 = 6

est  
1 1 1
A =  2 1 −1 
1 2 2
La notation matricielle permet de récrire les systèmes linéaires sous forme très condensée. En
effet, considérons un système linéaire de n équations à p inconnues :


 a11 x1 + ... + a1p xp = b1



(S) .............................




an1 x1 + ... + anp xp = bn

   
x1 b1
Notons A la matrice associée à ce système, x =  ...  et b =  ... . Le système (S) se
   

xp bn
récrit
Ax = b

Exemple 2.2.6. Le système



 2x1 − x3 = 5
(S)
x1 + x2 + x3 = −1

se récrit     
2 0 −1 x1 5
= .
1 1 1 x2 −1

Définition 2.2.7. Deux systèmes (S1 ) et (S2 ) sont dits équivalents s’ils ont le même ensemble
de solutions, c’est-à-dire si toute solution de (S1 ) est solution de (S2 ) et vice versa.

ESTPO / Burkina Faso 10 Dr Issa ZABSONRE ©2020


CHAPITRE 2. SYSTÈMES LINÉAIRES

Exemple : Les systèmes


 
 x1 = 1  x1 + x2 = 0
et
x1 − x2 = 2 x1 − x2 = 2
 

sont équivalents.

Définition 2.2.8. On dit qu’un système carré est triangulaire si l’on a aij = 0 pour tout
couple (i, j) tel que i < j (système triangulaire inférieur, i.e la matrice associée au système est
triangulaire inférieure )
ou bien
aij = 0 pour tout couple (i, j) tel que i > j (système triangulaire supérieur, i.e la matrice
associée au système est triangulaire supérieure).
Un système triangulaire est dit à diagonale non nulle s’il est triangulaire et si tous les termes
diagonaux sont non nuls.

Exemple : Le système suivant est triangulaire supérieur à diagonale non nulle :




 x1 + 5x2 + x4 = 1




 x2 + x3 = −5

x3 − 5x4 = 0








x4 = −1

2.3 Résolution des systèmes


2.3.1 La méthode du pivot de Gauss
Cette méthode a pour but de transformer tout système carré en un système triangulaire
superieur à l’aide d’opéarations élémentaires. La résolution du système triangulaire ainsi obtenu
se fait du bas vers le haut.

Exemple 2.3.1. Résoudre le système suivant par la méthode du pivot de Gauss.




 x+y+z =2



2x + y − z = 2




x + 2y + 2z = 6

2.3.2 Matrices augmentées


Définition 2.3.2. La matrice augmentée d’un système linéaire de n équations en p inconnues
est la matrice de n lignes et p + 1 colonnes regroupant les coefficients des inconnues et, dans
la dernière colonne, le membre de droite du système. Par commodité la dernière colonne est
séparée des autres par une ligne verticale.

ESTPO / Burkina Faso 11 Dr Issa ZABSONRE ©2020


CHAPITRE 2. SYSTÈMES LINÉAIRES

Voici un système linéaire et sa matrice augmentée.




 x + 3y + 2z = 8  
1 3 2 8



x + 4y + z = 10  1 4 1 10  .

0 1 −1 3




y−z =3

Les opérations élémentaires sur les équations d’un système linéaire jouent sur les coefficients
et le membre de droite, et on peut les faire dans la matrice augmentée. Cela évite de réécrire
constamment des x, y, z, + et =. Les opérations élémentaires sur les lignes d’une matrice sont
les analogues des opérations élémentaires sur les équations d’un système, donc :
? La permutation de deux lignes de la matrice.
? La multiplication d’une ligne de la matrice par un réel non nul.
? L’addition d’un multiple d’une ligne à une autre ligne.
Une matrice est en forme échelonnée en ligne si chaque ligne (non identiquement nulle) commence
avec strictement plus de zéros que la ligne précédente. La matrice augmentée ci-dessus se réduit
à sa forme échelonnée en ligne par les opérations élémentaires suivantes sur ses lignes :
     
1 3 2 8 1 3 2 8 1 3 2 8
 1 4 1 10  −→  0 1 −1 2  −→  0 1 −1 2  .

0 1 −1 3 0 1 −1 3 0 0 0 1
Ces opérations correspondent à une réduction du système linéaire ci-dessus au système


 x + 3y + 2z = 8



y−z =2




0=1

qui n’a pas de solution.


Remarque 2.3.3. Ces méthodes ci-dessus s’applique à tout système quelque soit sa
taille.

2.4 Quelques méthodes de résolution de systèmes carrées


Dans la suite, on s’intéresse uniquement aux systèmes carrées.

2.4.1 Calcul de l’inverse d’une matrice carrée : méthode Ax = y


Soit A une matrice
 carrée
 d’ordre
 n inversible.
 Pour déterminer A−1 , on résoud le systèmes
x1 y1
 x2   y2 
   
 ..   .. 
 .   . 
Ax = y, où x =   xi  et y =  yi  sont des matrices colonnes (à n lignes). On exprime
  
   
 ..   .. 
 .   . 
xn yn
les xi en fonctions des yi , i = 1, ..., n. Les xi donnent les lignes de A−1 yi , ses colonnes et les
coefficients des yi donnent les coefficients de A−1 .

ESTPO / Burkina Faso 12 Dr Issa ZABSONRE ©2020


CHAPITRE 2. SYSTÈMES LINÉAIRES

Remarque 2.4.1. Dans cette méthode, l’ordre des indices est très important.
 
1 1 1
Exemple 2.4.2. Soit A =  1 2 3  , calculer A−1 .
2 4 5

2.4.2 Résolution d’un système linéaire par la méthode x = A−1 b


Soit (S) : Ax = b un système linéaire carré. Si la matrice A associé à (S) est inversible, alors
la solution x du système est donné par x = A−1 b.

Exemple 2.4.3. Résoudre le système suivant par la méthode x = A−1 b.




 x+y+z =2



2x + y + z = 2




x + 2y + 2z = 6

2.4.3 Résolution d’un système linéaire par la méthode de Cramer


Dans cette section, nous présentons une méthode alternative à celle du pivot de Gauss pour
résoudre les systèmes linéaires de n équations à n inconnues.

Définition 2.4.4. On dit qu’un systàme linéaire (S) de n équations à n inconnues est de Cra-
mer s’il admet une unique solution.

Théorème 2.4.5. Un système est de Cramer si et seulement si le déterminant de la matrice


associée est non nul.

Pour résoudre Ax = b, on calcule ∆ = det A, le déterminant principal, puis le déterminant


∆i associé à l’inconnue xi défini par

a11 a12 . . . a1i−1 b1 a1i+1 . . . a1n

a21 a22 . . . a2i−1 b2 a2i+1 . . . a2n

.. .. .. .. .. ..
. . . . . .
∆i = .
a
i1 a i2 . .. aii1 bi aii+1 ... ain

.. .. .. .. .. ..
. . . . . .

an1 an2 . . . ani−1 bn ani+1 . . . ann

∆i
La solution de l’équation Ax = b est donnée par xi = , i = 1, ..., n.

Exemple 2.4.6. Résoudre le système suivant par la méthode de Cramer.

 x+y+z =2




2x + y + z = 2




x + 2y + 2z = 6

ESTPO / Burkina Faso 13 Dr Issa ZABSONRE ©2020


Chapitre 3

Réduction des matrices carrées

Dans tout ce chapitre, on pose K = R ou C.

3.1 Eléments propres d’une matrice


3.1.1 Valeurs propres
Définition 3.1.1. (Valeurs propres d’une matrice carrée)
Un scalaire λ ∈ K est appelé valeur propre dans K de la matrice A ∈ Mn (K), si l’une des
propriétés équivalentes suivantes est vérifiée :
i) A − λIn n’est pas inversible.
ii) det(A − λIn ) = 0.
iii) Il existe une matrice unicolonne X ∈ Mn,1 (K) non nulle telle que AX = λX.

L’ensemble des valeurs propres (dans K) de A s’appelle le spectre de A et se note :

SpK (A) = {λ ∈ K : il existe X ∈ Mn,1 (K), AX = λX}.

Définition 3.1.2. Soit A ∈ Mn (K). On appelle polynôme caractéristique de A et on note πA


le polynôme défini par πA (λ) = det(A − λIn ).
Remarque 3.1.3. λ est une valeur propre de A si et seulement λ est une racine du polynôme
caractéristique πA de A.

La méthode la plus générale, en dehors de toute autre étude ou considération géométrique


consiste à calculer det(A − λIn ) = 0, ce qui se fait généralement par opérations élémentaires, et
à regarder ses valeurs d’annulation.
Exemple 3.1.4. Calculer les valeurs propres de la matrice A définie par
 
0 1 1
A=  1 0 1 .
1 1 0
Remarque 3.1.5. Une matrice carré d’ordre n possède au plus n valeurs propres
distincts.
Théorème 3.1.6. (Valeurs propres des matrices triangulaires).
Les valeurs propres d’une matrices triangulaire ou diagonale sont ses éléments diagonaux.

14
CHAPITRE 3. RÉDUCTION DES MATRICES CARRÉES

Théorème 3.1.7. (de Cayley-Hamilton) Soient A est une matrice carrée d’ordre n et

πA (λ) = det(A − λIn ) = λn + an−1 λn−1 + ... + a1 λ + a0

son polynôme caractéristique (polynôme d’indéterminée λ), alors en remplaçant formellement λ


par la matrice A dans le polynôme, le résultat est la matrice nulle, i.e

πA (A) = det(A − λIn ) = An + an−1 An−1 + ... + a1 A + a0 In = 0n .

Remarque 3.1.8. Si A est inversible, le théorème de Cayley-Hamilton permet de determiner


A−1 en fonction des puissances de A et In .

3.1.2 Sous espaces propres


Définition 3.1.9. (Vecteurs propres d’une matrice)
Une matrice unicolonne x ∈Mn,1(K) est un vecteur propre de A associé à la valeur propre λ
0
 .. 
de A si et seulement si x 6=  .  et Ax = λx.
0
Définition 3.1.10. On appelle sous-espace propre associée à la valeur propre λ de de la Matrice
A, le sous-espace, notée V(λ) défini par :

V(λ) = {x ∈ K n : Ax = λx} = {x ∈ K n : (A − λIn )x = 0}

Exemple 3.1.11. Déterminer les valeurs propres et une base de chaque sous espace propre de
la matrice  
1 3 0
A =  0 −2 1  .
1 1 1
Exercice 3.1.12. Déterminer les valeurs propres et une base de chaque sous-espace propre de
la matrice :  
−1 −1 −1
A =  −1 −3 1  .
0 0 −2

3.2 Diagonalisation en dimension finie


Définition 3.2.1. Deux matrices carrées d’ordre n, A et B, sont semblables s’il existe une
matrice inversible P telle que A = P BP −1 .

Théorème 3.2.2. Si A et B sont semblables alors det(A) = det(B).

Définition 3.2.3. Une matrice A est dite diagonalisable si elle est semblable à une matrice
diagonale.

Différentes étapes pour diagonaliser une matrice carrée A


Définition 3.2.4. Un zéro (ou racine) d’un polynôme P est un scalaire α tel que P (α) = 0.

ESTPO / Burkina Faso 15 Dr Issa ZABSONRE ©2020


CHAPITRE 3. RÉDUCTION DES MATRICES CARRÉES

Définition 3.2.5. Soit α0 ∈ K une racine d’un polynôme P et m ∈ N∗ . On dit que α0 est
d’ordre de multiplicité m s’il existe polynôme H tel que H(α0 ) 6= 0 et P (α) = (α − α0 )m H(α).
En d’autres termes le plus grand entier m ≥ 1 tel que (α − α0 )m divise P est appelé ordre de
multiplicité de la racine α0 .

Définition 3.2.6. Un polynôme non constant est dit sindé si la somme des ordres de multiplicité
de ses racines est égale au degré de ce polynôme.

Pour diagonaliser une matrice carrée A, on procède comme suit :

i) On calcule le polynôme caractéristique πA de la matrice A puis les racines dans K de ce


polynôme.

ii) Si le polynôme πA n’est pas scindé dans K, alors A n’est pas diagonalisable dans K.

iii) Si au contraire πA est scindé alors pour chaque racine λ on résout le système homogène
(A − λIn )X = 0, où X est une matrice colonne de K n . L’ensemble des solutions de ce système
est le sous-espace propre V(λ). La résolution conduit à une base (e)λ de V(λ), donc à dimV(λ).

iv) Si, pour l’un des λ, on a dimV(λ) < m(λ), où m(λ) est la multiplicité de λ comme ra-
cine de πA , alors A n’est pas diagonalisable.

v) Sinon A est diagonalisable, et la juxtaposition des bases (e)λ donne une base de K n , formée
de vecteurs propres. On en déduit la matrice de passage P de la base canonique à la base (e), et
l’égalité D = P −1 AP , où D est diagonale et ses coefficients diagonaux sont les valeurs propres
de A, dans l’ordre des vecteurs propres de la base (e).

Les calculs précédents peuvent s’effectuer avec la méthode du pivot :

vi) On part de la matrice Cλ = A − λIn que l’on transforme, par des opérations sur les lignes,
en une matrice triangulaire Bλ .

vii) Les valeurs propres de A sont les λ tels que Bλ est non inversible c’est-à-dire les valeurs qui
annulent au moins un coefficient diagonal de Bλ .

viii) Pour chacune de ces valeurs, le sous espace propre est obtenu en résolvant le système
Bλ X = 0, qui est équivalent au système (A − λIn )X = 0.

Théorème 3.2.7. (Un cas particulier important). Soit n = dimE. Si A admet n valeurs propres
distinctes, alors A est diagonalisable.

Exemple 3.2.8. Diagonaliser les matrices suivantes


   
1 3 0 3 −1 1
A= 0 −2 1  , B =  1 1 −1  .
1 1 1 2 −2 2

ESTPO / Burkina Faso 16 Dr Issa ZABSONRE ©2020


CHAPITRE 3. RÉDUCTION DES MATRICES CARRÉES

3.3 Applications
3.3.1 Calcul des puissances d’une matrice
Théorème 3.3.1. Soit A une matrice carrée diagonalisable. Pour tout n ∈ N∗ on a

An = P Dn P −1 .

Exemple 3.3.2. Soit la matrice réelle


 
1 3 0
A =  0 −2 1  .
1 1 1

Calculer An .

3.3.2 Résolulion des systèmes matriciels


 
xn
Soit (S) un système matriciel défini par Xn+1 = AXn avec Xn =  yn  et X0 donné. Si A
zn
est diagonalisable alors la soltion Xn de (S) est donné par

Xn = An X0 .

Exemple 3.3.3. Résoudre du système suivant



 xn+1 = xn + 3yn
yn+1 = −2yn + zn
zn+1 = xn + yn + zn ,

   
x0 1
avec X0 =  y0  =  −1  .
z0 2

3.3.3 Résolulion des systèmes différentiels linéaires du 1er ordre


Définition
 3.3.4.
 Soit A est une matrice carrée d’ordre n à coéfficients dans R ou C, et
x1 (t)
 x2 (t) 
x(t) =  .  un vecteur de classe C k sur I un intervalle de R. on appelle système linéaire
 
 .. 
xn (t)
d’ordre 1 à coefficients constants et sans second membre tout système de la forme x0 (t) = Ax(t).
Résoudre ce système, c’est trouver tous les vecteurs x(t) qui le vérifient.

Remarque 3.3.5. On ne traite que les systèmes à coefficients constants, c’est à dire où A ne
dépend pas de t.

Cas où A est diagonalisable


Théorème 3.3.6. Soit A est une matrice carrée d’ordre n à coefficients dans K (R ou C),
diagonalisable. On note (λ1 , λ2 , ...., λn ) les valeurs propres et (v1 , v2 , ...., vn ) une base de vecteurs

ESTPO / Burkina Faso 17 Dr Issa ZABSONRE ©2020


CHAPITRE 3. RÉDUCTION DES MATRICES CARRÉES

propres associés. Alors, l’ensemble des solutions de x0 (t) = Ax(t), sur I un intervalle quelconque,
est un K-espace vectoriel de dimension n, et

x(t) = α1 eλ1 t v1 + α2 eλ2 t v2 + ... + αn eλn t vn , αi ∈ K, i = 1, 2, ..., n.

Si, de plus, on fixe la condition initiale x(0) = x0 , la solution existe et est unique.

Cas où A est diagonalisable sur C mais pas sur R


Si on résout le système sur C, les valeurs propres complexes non réelles sont deux à deux
conjuguées et on peut prendre des vecteurs propres deux à deux conjugués. Pour un tel couple
de valeurs propres :
vec(eλt v, eλt v) = vec(Re(eλt v), Im(eλt v)).
 0
 x = x+y
Exemple 3.3.7. Résoudre le système différentiel suivant : y 0 = −x + 2y + z
 0
z = x+z

3.4 Trigonalisation
i) Pour trigonaliser une matrice, il n’y a pas de méthode globale à connaı̂tre a priori.
ii) La trigonalisabilité d’une matrice s’obtient après le calcul de son polynôme caractéristique
et le constat que ce polynôme est scindé sur le corps de référence de la matrice.
iii) Si la matrice est considérée comme matrice complexe, elle est donc toujours trigonalisable.
iv) On verra les différentes situations pouvant se présenter pour une matrice 3 × 3.

1er cas : A a deux valeurs propres, l’une simple, l’autre double et A n’est pas
diagonalisable.
Toute matrice carrée non diagonalisable est semblable à une matrice triangulaire supérieure
T particulièrement simple, dı̂te de Jordan de la forme suivante :
i) Tous les coefficients ne se trouvant ni sur la diagonale de T, ni sur la diagonale d’au dessus
sont nuls.
ii) Sur la diagonale on écrit les valeurs propres inscrites autant de fois que l’ordre de multi-
plicité.
iii) Sur la diagonale juste au dessus on a des 0 et des 1. Les 0 se mettent dans les colonnes
des valeurs propres. On met des 1 ailleurs.
Par exemple en dimension3 : Une valeur propre simple a et une valeur propre double b
telle que l’espace propre associé à la valeur propre de b soit de dimension 1. T est de la
forme  
a 0 0
T =  0 b 1 .
0 0 b
Exemple 3.4.1. Trigonaliser la matrice suivante
 
3 −1 −1
A =  −1 2 0 .
3 −2 0

ESTPO / Burkina Faso 18 Dr Issa ZABSONRE ©2020


CHAPITRE 3. RÉDUCTION DES MATRICES CARRÉES

2eme cas : A a une valeur propre triple, et un espace propre associé de dimension 2.
Exemple 3.4.2. Trigonaliser la matrice suivante
 
1 0 0
A =  0 0 −1  .
0 1 2

3eme cas : A a une valeur propre triple, et un espace propre associé de dimension 1.
Trigonalisation en réduite de Jordan

On cherche B 0 = (e01 , e02 , e03 ), base de R3 , telle que :


i) On cherche e03 ∈ / V(λ) donc (A − λI3 )e03 6= 0.
ii) e3 tel que Ae3 = e02 + λe03 soit e02 = Ae03 − λe03 .
0 0

iii) e02 tel que Ae02 = e01 + λe02 soit e01 = Ae02 − λe02 , et on veut que e01 6= 0, donc e02 ∈
/ V(λ).
Ainsi e03 doit donc vérifier (A − λI3 )2 e03 = (A − λI3 )e02 = e01 6= 0
iv) On détermine alors ker(A − λI3 )2 = {x ∈ R3 : (A − λI3 )2 x = 0}. On en déduit alors e03 ,
puis e02 et e01 .

Exemple 3.4.3. Trigonaliser la matrice suivante


 
0 1 1
A =  −1 1 1  .
−1 1 2

ESTPO / Burkina Faso 19 Dr Issa ZABSONRE ©2020


Chapitre 4

Formes bilinéaires-Formes
quadratiques

Dans ce qui suit, E est un espace vectoriel sur un corps K.

4.1 Formes bilinéaires symétriques


Définition 4.1.1. Une application b : E × E → K est appelée une forme bilinéaire quand

∀x1 , x2 , y ∈ E, λ ∈ K, b(x1 + λx2 , y) = b(x1 , y) + λb(x2 , y)


∀x, y1 , y2 ∈ E, λ ∈ K, b(x, y1 + λy2 ) = b(x, y1 ) + λb(x, y2 ).

(bilinéarité = linéarité à gauche + linéarité à droite).


On dit que b est symétrique (respectivement antisymétrique)

∀x, y ∈ E, b(x, y) = b(y, x) (respectivement si b(x, y) = −b(y, x)).

b est dite alternée si b(x, x) = 0.

Exercice 4.1.2. Les applications suivantes sont-elles des formes bilinéaires symétriques sur E :
1. E = R2 , b(x, y) = x1 y1 + x2 y2 avec x = (x1 , x2 ) et y = (y1 , y2 ).
Z 1
2. E = C ([−1, 1], R), b(f, g) =
0 f (t)g(t)dt.
−1

Dans la suite, on suppose E de dimension finie n ≥ 1. Soit B = (e1 , ..., en ) une base de E. Soit
b une forme bilinéaire symétrique sur E × E.

Définition 4.1.3. On appelle matrice de b dans la base B la matrice symétrique A = (aij )1≤i,j≤n
d’ordre n qui a pour coefficients aij = b(ei , ej ). Si x et y sont des éléments de E dont les vecteurs
colonnes de coordonnées dans la base B sont X et Y respectivement, on a

b(x, y) = X t AY.

Exercice 4.1.4.
1. L’applications suivante est-elle une formes bilinéaire symétrique sur E = R2

b(x, y) = 3x1 y1 − 2x2 y2 + x1 y2 + x2 y1 .

20
CHAPITRE 4. FORMES BILINÉAIRES-FORMES QUADRATIQUES

2. Déterminer la matrice A de b dans la base B = (e1 , e2 ) avec e1 = (1, 1), e2 (3, −2).

Proposition 4.1.5. Une forme bilinéaire b sur E est dite symétrique (respectivement anti-
symétrique) si et seulement si sa matrice dans une base quelconque B = (e1 , ..., en ) de E est
symétrique (respectivement antisymétrique).

Définition 4.1.6. On appelle rang d’une forme bilinéaire b sur E, le rang de sa matrice dans
une base quelconque.

Définition 4.1.7. Soit b une forme bilinéaire sur E.


∗ On dit que b est non dégénérée si son rang est égal à dimension de E.
∗ On appelle discriminant de b dans la base B = (e1 , ..., en ), le déterminant de la matrice
de b dans la base B.

Proposition 4.1.8. Une forme bilinéaire b est non dégénérée si et seulement si un de ses
discriminants est non nul.

Soit B 0 une autre base de E et P la matrice de changement de base de B à B 0 .

Proposition 4.1.9. (Changement de base pour les f.b.s.)


La matrice A’ de la forme bilinéaire symétrique dans la nouvelle base B 0 est

A0 =t P AP.

4.2 Formes quadratiques


Dans la suite du chapitre, le corps K est supposé de caractéristique différente de 2, ce qui
veut dire que 2 6= 0 dans K.

Définition 4.2.1. Soit b une forme bilinéaire symétrique sur E. On appelle forme quadratique
associée à la forme bilinéaire b l’application h : E → K définie par h(x) = b(x, x).
On dit alors que b est la forme polaire de h.

Théorème 4.2.2. L’application h : E → K est une forme quadratique associée à la forme


bilinéaire b si et seulement si
∗ pour tout x ∈ E, pour tout λ ∈ K, h(λx) = λ2 h(x).
1 
∗ pour tout x, y ∈ E, b(x, y) = h(x + y) − h(x) − h(y) .
2
Définition 4.2.3. Soit B = (e1 , ..., en ) une base de E.
∗ On appelle matrice de une forme quadratique h dans la base B la matrice de sa forme
polaire b dans la base B.
∗ On dit que h est non dégénérée (respectivement dégénérée) si sa forme polaire b est non
dégénérée (respectivement dégénérée). Le rang de h est celui de b.

Définition 4.2.4. Soient h une forme quadratique sur E et b sa forme polaire. Deux éléments
x et y sont ditd orthogonaux pour h ou conjugués si b(x, y) = 0.
Pour toute partie A de E, on appelle ortogonal de A et noté A⊥ l’ensemble défini par

A⊥ = {y ∈ E : ∀x ∈ E, b(x, y) = 0}.

ESTPO / Burkina Faso 21 Dr Issa ZABSONRE ©2020


CHAPITRE 4. FORMES BILINÉAIRES-FORMES QUADRATIQUES

Définition 4.2.5. Soient h une forme quadratique sur E et b sa forme polaire. On appelle noyau
de h, noté ker(h) est l’ensemble défini

ker(h) = {y ∈ E : ∀x ∈ E, b(x, y) = 0} = E ⊥ .

Proposition 4.2.6. Une forme quadratique h est dite non dégénérée si et seulement si son
noyau est réduit à {0}, i.e ker(h) = {0E }.

Définition 4.2.7. Pour toute forme quadratique h sur E, il existe une base B = (e1 , ..., en ) de
E telle que la matrice de h dans cette base soit diagonale, donc qu’on ait par rapport à cette base
n
X
h(x) = λi x2i .
i=1

La matrice A de h dans cette base est


 
b(e1 , e1 ) 0 ... ... 0

 0 b(e2 2, e ) 0 . . . 0 

 .. .. .. .. .. 
A=  . . . . . .

 .. .. .. .. .. 
 . . . . . 
0 ... . . . 0 b(en , en )

Remarque 4.2.8. Lorsque la base est orthogonale, le rang se calcule directement. C’est le
nombre de λi non nuls.

4.2.1 Classification des formes quadratiques


Définition 4.2.9. Deux formes quadratiques h1 et h2 sur E sont dites équivalentes s’il existe
un automorphisme ϕ de E tel que

∀x ∈ E, h1 (ϕ(x)) = h2 (x).

Si b1 et b2 sont les formes polaires associées respectivement à h1 et h2 , h1 équivalent à h2 revient


à dire qu’il existe un automorphisme ϕ de E tel que

∀x, y ∈ E, b1 (ϕ(x), ϕ(y)) = b2 (x, y).

Le problème de la classification revient à trouver des conditions nécessaires et suffisantes pour


que deux formes quadratiques équivalentes

Théorème 4.2.10. (Loi d’inertie de Sylvester)


Soit h une forme quadratique de rang r sur Rn , alors h est équivalente à une forme quadratique
du type
x21 + x22 + ... + x2p − x2p+1 − ... − x2r ,
où p est un entier qui dépend que de h.

Définition 4.2.11. le couple (p, q) où p désigne le nombre de carrés précédé du signe + et
q = r − p le nombre de carrés précédé du signe − (r étant le rang de h) est appélé la signature
ou le type de h.

ESTPO / Burkina Faso 22 Dr Issa ZABSONRE ©2020


CHAPITRE 4. FORMES BILINÉAIRES-FORMES QUADRATIQUES

Définition 4.2.12.
∗ Une forme quadratique h de rang r sur est dite positive (respectivement négative) si h(x) ≥
0 (respectivement h(x) ≤ 0) pour tout x ∈ E. Une forme indéfinie n’est ni positive si
négative.
∗ Une forme quadratique sur Rn est définie positive si elle est de signature (n, 0). Elle est
définie négative si elle est de signature (0, n).

4.2.2 Décomposition d’une forme quadratique : méthode de Gauss


Théorème 4.2.13. (Loi d’inertie de Sylvester)
Soit h une forme quadratique non nulle sur E. Alors il existe `1 , `2 , ..., `r des formes linéaires de
E, a1 , a2 , ..., ar des réels non nuls tel que
r
X
h(x) = ai `2i (x).
i=1

En outre rgh = r et ker(h) = {x ∈ Rn : `1 (x) = `2 (x) = ... = `r (x) = 0}

1er cas
Il existe i0 tel que ai0 6= 0, i.e
n
X X
h(x) = ai x2i + 2 aij xi xj .
i=1 i<1

Supposons que a1 6= 0, l’idée est de regrouper tous les termes contenant x1 puis de faire appa-
raitre un début de carré.
On procède de même avec x2 , puis ainsi de suite jusqu’à obtenir une somme de carrée.

Exercice 4.2.14.
1. Réduire en somme de carrée la forme quadratique h sur R3 définie par

h(x) = 2x21 + 3x22 − x1 x2 − x2 x3 + 2x1 x3 .

2. Détermine une base orthogonale pour h.

2eme cas
Tous les ai sont nuls. L’idée est de regrouper tous les termes contenant x1 et x2 , puis on utilise
l’égalité
1h i
x1 x2 = (x1 + x2 )2 − (x1 − x2 )2 .
4
On réitère le même avec x3 et x4 , puis ainsi de suite jusqu’à obtenir une somme de carrée.

Exercice 4.2.15.
1. Réduire en somme de carrée la forme quadratique h sur R3 définie par

h(x) = x1 x2 + x1 x3 + x2 x3 + x3 x4 .

2. Détermine une base orthogonale pour h.

ESTPO / Burkina Faso 23 Dr Issa ZABSONRE ©2020

Vous aimerez peut-être aussi