Vous êtes sur la page 1sur 9

Chapitre 1.

Applications linéaires
I Applications linéaires
Dans ce paragraphe, E, F et G sont trois K-ev (K un corps commutatif).
Soit  : E  F . On dit que  est linéaire/un morphisme du K-ev E vers le K-ev F lorsque :
u , u ' E ,  (u  u ' )   (u )   (u ' )
u  E ,   K ,  (  u )     (u )
Ce qui est équivalent à : ∀(𝛼, 𝛽) ∈ 𝐾 , ∀(𝑢, 𝑢′) ∈ 𝐸 , 𝜑(𝛼. 𝑢 + 𝛽. 𝑢′) = 𝛼. 𝜑(𝑢) + 𝛽. 𝜑(𝑢′)

Vocabulaire :
 L’ensemble des applications linéaires de E vers F est noté L ( E , F ) , c’est un K-espace vectoriel
pour l’addition et la multiplication par un scalaire.
 Une application linéaire de E vers E s’appelle aussi un endomorphisme de E, et L ( E , E ) est
Polycopié de cours plutôt noté L(E ) .
 Une application linéaire de E vers K s’appelle forme linéaire de E. L ( E , K ) est noté E * .
L’ensemble des formes linéaires de E s’appelle le dual de E.
 Soit   L( E , F ) . Si  est bijective, alors  1  L( F , E ) . On dit alors que  est un
On ne peut plus expliquer le monde, isomorphisme de E vers F. Deux espaces vectoriels sont dits isomorphes lorsqu’il existe un
isomorphisme de l’un vers l’autre.
faire ressentir sa beauté  Automorphisme de E

= application linéaire bijective de E dans E
= isomorphisme de E dans E.
à ceux qui n'ont aucune connaissance profonde des mathématiques L’ensemble des automorphismes de E est noté GL(E ) .
Exemples :
Richard Feynman - Prix Nobel de physique  L’application nulle de E dans F est linéaire.
 L’application identité de E dans E est linéaire.
 Les applications linéaires de R dans R sont exactement les applications de la forme x  a  x
où a  R .
 Pour tout   K , l’application f : E  E , appelée homothétie de rapport  est linéaire.
u  .u
 L’application D : D1 (R , R )  F(R , R ) est linéaire.
ff'
Noyau et image
Soit   L( E , F ) .
Le noyau de  est ker  x  E,  ( x)  0E . ker  est un sous-espace vectoriel de E.
L’image de  est Im   (E )   (u), u  E  v  F , u  E,  (u)  v .
Im  est un sous-espace vectoriel de F.
 est injective  ker  0E  .
 est surjective si et seulement si Im   F .

Propriétés
Enseignant : Aziz IFZARNE  La composée, quand elle est définie, de deux applications linéaires est linéaire. Ainsi ( L( E ),,) est
un anneau.
 Si A est une partie finie de E, alors  (Vect (A)) = Vect (  (A)).

Algèbre III Prof. Aziz Ifzarne Page 1 sur 18 Algèbre III Prof. Aziz Ifzarne Page 2 sur 18
II Applications linéaires en dimension finie Chapitre 2. Matrices
Dans ce paragraphe :
E est un K-ev de dimension finie p  1 . F est un K-ev de dimension finie n  1 .

Proposition :
Bien que le calcul matriciel proprement dit n'apparaisse qu'au début
E et F sont isomorphes si et seulement si ils ont la même dimension.
du XIXème siècle, les matrices, en tant que tableaux de nombres, ont une
longue histoire d'applications à la résolution d'équations linéaires. En
Détermination d’une application linéaire par la donnée des images des vecteurs d’une base
1854, Arthur Cayley publie un traité sur les transformations géométriques
Théorème :
utilisant les matrices de façon beaucoup plus générale que tout ce qui a été fait
Soit B E  (e1 , e 2 ,...e p ) une base de E. avant lui.
Soit (v1 , v 2 ,...v p ) un p-uplet de vecteurs quelconques de F. Actuellement, le calcul matriciel trouve ses applications dans plusieurs
domaines scientifique : Informatique, physique, gestion, recherche
Alors il existe une unique application linéaire  de E dans F telle que i  1, p ,  (ei )  vi
opérationnelle, … etc

Rang d’une application linéaire


Le rang de   L( E, F ) est rg  dim(Im  ) Dans toute la suite, K désigne un corps commutatif (souvent R ou C), m,n,p sont des
déf
entiers strictement positifs.

Théorème du rang : I. Matrices


Soit   L( E , F ) . Alors dim E  dim(ker  )  dim(Im  ) .
 Une matrice à n lignes et p colonnes à coefficients dans K est un tableau à double
Conséquences entrée
Si on note dim E  p , dim F  n , rg( )  r , alors :
rn ;r  p
r  p   injective ; r  n   surjective ; r  n  p   bijective

aussi noté A=(ai,j)1≤i≤n,1≤j≤p, où les éléments ai,j appartiennent à K. Chaque


coefficient ai , j est placé sur la i-ème ligne et la j-ème colonne. (n,p) est le type (ou
format) de la matrice A.
 Si n=1, A est dite matrice ligne. Si p=1, A est dite matrice colonne.

 L’espace vectoriel Mn,p(K) :


On note Mn,p(K) l'ensemble des matrices à n lignes et p colonnes.
On définit la somme de deux matrices en ajoutant les coefficients termes à termes,
et la multiplication d'une matrice par un scalaire λ∈K en multipliant chaque
coefficient de la matrice par λ. Muni de ces deux opérations, Mn,p(K) est un espace
vectoriel.
 La dimension de Mn,p(K) est np. Une base de Mn,p(K) est donnée par les
matrices (Ei,j)1≤i≤n,1≤j≤p, où tous les coefficients de la matrice Ei,j sont nuls sauf
celui de la i-ème ligne et de la j-ème colonne qui vaut 1. Cette base s'appelle
la base canonique de Mn,p(K).
En effet : A  a
i, j
i, j Ei , j

Algèbre III Prof. Aziz Ifzarne Page 3 sur 18 Algèbre III Prof. Aziz Ifzarne Page 4 sur 18
 Si A=(ai,j)∈Mm,n(K) et si B=(bj,k)∈Mn,p(K), on appelle produit de A et B la  Une matrice A=(ai,j)1≤i,j≤n est triangulaire supérieure si ai,j=0 dès que i>j. Le
matrice notée AB=(ci,j) de Mm,p(K) définie par produit de deux matrices triangulaires supérieures est une matrice triangulaire
supérieure.
 Une matrice A=(ai,j)1≤i,j≤n est triangulaire inférieure si ai,j=0 dès que i<j. Le
produit de deux matrices triangulaires inférieures est une matrice triangulaire
inférieure.
 Une matrice M∈Mn(K) est dite inversible s'il existe M′∈Mn(K) telle que
pour tout i∈{1,…,m} et tout j∈{1,…,p}. Remarquons que pour que le produit AB soit
MM′=M′M=In.
défini, il faut que le nombre de colonnes de A soit égal au nombre de lignes de B.
M′ s'appelle l'inverse de M et est noté M-1.
Propriétés du produit L'ensemble des matrices inversibles de taille n est noté GLn(K). C'est un groupe
Pour tous A, A' M n , p (K ), B, B ' M p ,q (K ), C  M q ,r (K ),   K , on a : pour le produit matriciel.
(1) ( A  B)  C  A  ( B  C )  A  B  C Si A et B sont inversibles, alors AB est inversible d'inverse B-1 A-1.
(2) ( A  A' )  B  A  B  A' B
(3) A  ( B  B' )  A  B  A  B '
 A0  I n
 Puissance d’une matrice : Pour A  M n (K ) ,  k 1
k  N , A  A A
k
(4) (A)  B   .( A  B)  A  ( .B )
(5) A  I p  A et I p  B  B
1 0  0 Si A,B∈Mp(K) sont telles que AB=BA, alors
 
0 1   
Où I p    ( i , j )1i  n avec  i , j  1 si i  j , 0 sinon.
   0 1 j  n
 
0  0 1
 
I p s’appelle la matrice unité (ou identité) d’ordre p.
m  N *, A m  B m  ( A  B)  ( A m 1  A m 2 B  ...  B m 1 )

Attention : il n’y a pas commutativité du produit matriciel en général. Il en découle II. Matrices et applications linéaires
que les identités remarquables connues sur les réels ne restent plus valides pour les E et F désignent des espaces vectoriels de dimensions respectives p et n,
matrices.
 A  B peut être défini mais pas B  A B=(ei)1≤i≤p et C=(fi)1≤i≤n sont des bases respectives.
dont
Exemple : A de type (n, p) , B de type ( p, q ) avec q  n  Matrice d’une famille de vecteurs : La matrice dans la base B d'une
 A  B et B  A peuvent être définies mais pas de même type famille (x1,…,xr) de vecteurs de E est la matrice M∈Mp,r(K) dont la jème colonne
Exemple : A de type (n, p) , B de type ( p, n) avec p  n est constituée par les coordonnée de xj dans la base B.
 A  B et B  A peuvent être définies, de même type mais différentes.  Matrice d’une application linéaire : Si u∈L(E,F), on appelle matrice de u dans
Exemple : A de type (n, n) , B de type (n, n) : les bases B et C la matrice de Mn,p(K) dont les vecteurs colonnes sont les
 Il n’y a pas intégrité non plus: A×B=0 n’implique pas forcement que A=0 ou
coordonnées des vecteurs (u(e1),…,u(ep)) dans la base C=(f1,…,fn). On la
B=0.
note Mat(B,C)(u) (ou M(u,B,C)).
 Si A=(ai,j)∈Mn,p(K), on appelle transposée de A la Pour tout x∈E, on a : [u(x)]C= Mat(B,C)(u) [x]B.
Avec [x]B la matrice colonne formée des cordonnées de x dans la base B.
matrice AT=(bi,j)∈Mp,n(K) définie par bi,j=aj,i.
 La composée d'applications linéaires correspond au produit de matrices. Plus
On a : (A+B)T = AT + BT (AB)T= BT AT. précisément, si D est un espace vectoriel de dimension finie m et de base
D=(gi)1≤i≤m, et si u∈L(E,F) et v∈L(F,G), alors
Matrices particulières
Soit A=(ai,j)∈Mn,p(K).
 Si n=p, on dit que la matrice A est carrée et on note simplement Mn(K). Muni du  Si E et F ont même dimension, alors u est inversible si, et seulement
produit matriciel et de l'addition de matrices, Mn(K) est un anneau. Son élément si, Mat(B,C)(u)est inversible. Dans ce cas, on a
neutre est la matrice identité In.
 Une matrice carrée A=(ai,j)1≤i,j≤n est diagonale si ai,j=0 dès que i≠j.
Le produit de deux matrices diagonales est une matrice diagonale.
Algèbre III Prof. Aziz Ifzarne Page 5 sur 18 Algèbre III Prof. Aziz Ifzarne Page 6 sur 18
Application linéaire d’une matrice : Si A∈Mn,p(K), alors il existe une unique

Chapitre 3. Déterminants
application linéaire u: 𝐸 → 𝐹 déterminée par les images des vecteurs de la base B
dans la base C.
Pour tout x dans E, on a : [u(x)]C=A.[x]B Le déterminant est un outil indispensable à l’étude des matrices carrées. Il permet de :
Ainsi, l'application - Savoir si une famille de vecteurs est libre ou liée ;
- Décider si une matrice est inversible ;
- Résoudre un système linéaire ;
- Réduire une matrice (diagonalisation) ;
est un isomorphisme d'espace vectoriel. - … etc
Matrice de passage
Soit E un espace vectoriel de dimension finie, et soient B et B’ deux bases de E. I. Déterminant d’une matrice carrée
La matrice de passage de la base B à la base B’ est la matrice de la famille de Soient K un corps commutatif, 𝑛 ∈ ℕ∗ et 𝐴 ∈ 𝑀 (𝐾).
vecteurs B’ dans la base B. On la note PBB’. C’est la matrice de l’endomorphisme Id dans B 1) Déterminant d’ordre 1 (n=1)
et B’. La matrice PB’B est inversible, d'inverse PBB’.
Si 𝐴 = (𝑎) ∈ 𝑀 (𝐾), on définit le déterminant de A par det(A)=a.
 Si X∈E, alors 2) Déterminant d’ordre 2 (n=2)
[X]B= PBB’ [X]B’.
 Deux matrices M,M′∈Mn(K) sont semblables s'il existe P∈GLn(K) tel que A= a B det(A) = a b
M′=P-1MP. Autrement dit, M et M′ représentent le même endomorphisme dans des c D c d
bases différentes. = ad - bc
3) Déterminant d’ordre 3 (n=3)

Rang d’une matrice On veut calculer le déterminant de la matrice A donnée par :


Soit A∈Mn,p(K). Le rang de A, noté rg(A), est le rang de toute application linéaire a b c
associée, c’est égal au rang de la famille des vecteurs colonnes de A. A= d e f
g h i
Si r  rg( A) , alors r  n et r  p .
Le principe du calcul du déterminant d’ordre 3 est de se ramener au calcul de trois déterminants
De plus A est inversible si et seulement si r  n  p d’ordre 2 en respectant la règle des signes suivante :
Chaque élément (aij) de la matrice A sera affecté du signe de (-1) (i+j), ce qui nous donne :
(+) (-) (+)
a b c
(-) (+) (-)
det (A) = d e f
(+) (-) (+)
g h i
Par suite, on choisit une ligne ou une colonne quelconque et on développe les calculs en respectant
la règle des signes.

Exemple : développement suivant la première ligne :


Det(A) = +a E f -b d f +c d e
H i g i g h

4) Cas général : Déterminant d’ordre n


4.1 Groupe symétrique

Algèbre III Prof. Aziz Ifzarne Page 7 sur 18 Algèbre III Prof. Aziz Ifzarne Page 8 sur 18
On appelle groupe symétrique ou groupe des permutations de {1,…,n} l'ensemble des bijections de 10) det A = 0 si, et seulement si, les vecteurs lignes (ou colonnes) de A sont linéairement
{1,…,n}. Il est noté Sn. C'est un groupe muni de la loi de composition des applications. Ses éléments dépendants (l’un est combinaison linéaire des autres).
sont appelés des permutations. De plus Card(Sn)=n ! 11) Si l’on échange deux lignes (ou deux colonnes), alors le déterminant change de signe.
Les permutations sont en général écrites sous forme matricielle : 12) det(C1,…,Ci+C’i ,…,Cn)= det(C1,…,Ci ,…,Cn)+ det(C1,…,C’i ,…,Cn)
det(L1,…,Li+L’i ,…,Ln)= det(L1,…,Li ,…,Ln)+ det(L1,…,L’i ,…,Ln)
Avec (C1,…,Ci ,…,Cn) la matrice composée des colonnes C1,…,Ci ,…,Cn, et (L1,…,Li ,…,Ln)
la matrice composée des lignes L1,…,Li ,…,Ln.
4.2 Signature 2) Cas d’inchangeabilité du déterminant
Soit σ∈Sn. Une inversion est tout couple (σ(i) ; σ(j)) tels que i<j et σ(i) > σ(j). Le déterminant ne change pas dans les trois cas suivants :
σ est paire si le nombre d’inversions dans σ est pair. Sinon σ est impaire. 1) En remplaçant une ligne (ou une colonne) par la somme de celle-ci et d’une combinaison
La signature (ou le signe) de σ est ε(σ) qui vaut 1 si σ est paire, -1 si σ est impaire. linéaire des autres lignes (ou colonnes).
Autrement, ε(σ) = (-1)I(σ), avec I(σ) le nombre d’inversions de σ. 2) En remplaçant simultanément chaque ligne (ou colonne) par la somme de celle-ci et d’une
Propriétés. si σ,σ′∈Sn, alors ε(σ o σ′)=ε(σ)ε(σ′) et ε(σ-1)= ε(σ). combinaison linéaire des autres lignes suivantes (ou colonnes à sa droite).
3) En remplaçant simultanément chaque ligne (ou colonne) par la somme de celle-ci et d’une
4.3 Définition du déterminant combinaison linéaire des autres lignes précédentes (ou colonnes à sa gauche).
Si A∈Mn(K), on appelle déterminant de A, l’élément de K défini par :
Attention ! Les deux derniers résultats (2 et 3) ne restent plus valides si les lignes (ou les colonnes)
dans la combinaison linéaire ne sont pas toutes suivantes ou toutes précédentes (toutes à droite ou
toutes à gauche) de la ligne (colonne) considérée.

Cette somme compte n ! produits. Cette définition coïncide, pour n<4, avec celles données 3) Méthode du pivot de Gauss-Jordan
précédemment. Cette méthode consiste à remplacer la matrice par une matrice triangulaire en utilisant
4.4 Développement par rapport à une rangée (développement de Laplace) seulement des permutations de lignes ou colonnes et des ajouts à une ligne d'un multiple
Soit A∈Mn(K). Notons Mij la matrice obtenue à partir de A en supprimant de A la ième ligne et la jème d'une autre ligne de manière à faire apparaitre un maximum de zéros.
colonne. Le mineur de aij est det(Mij). Le cofacteur de aij est Aij = (-1)i+j det(Mij).
Le principe est le suivant :
Le signe (-1)i+j peut être évalué rapidement en partant de la case a11 avec un signe + et en basculant
au signe opposé chaque fois qu'en se déplace d'une case horizontalement ou verticalement jusqu’à  on choisit dans la matrice un terme non nul aij, en général le premier terme a11, que l'on
la case aij. appelle le pivot ;
Développement de Laplace :  on applique des opérations afin de rendre nuls tous les éléments de la ligne (ou la colonne)
det(𝐴) = ∑ 𝑎 𝐴 (Développement selon la ième ligne Li) du pivot.
= ∑ 𝑎 𝐴 (Développement selon la jème colonne Cj)  On recommence ensuite le même processus dans la sous-matrice privée de la ligne et la
colonne du pivot;
II. Calcul des déterminants  on obtient à la dernière étape une matrice triangulaire dont le déterminant est égal, au signe
près, au déterminant de la matrice de départ.
1) Propriétés : Soient A , B ∈ Mn(K). Exemple
1) Si A a une ligne (ou une colonne) nulle, alors det A =0.
2) Si A a deux lignes (ou colonnes) identiques, alors det A =0.
3) Le déterminant d'une matrice triangulaire ou diagonale est égal au produit des éléments
diagonaux. En particulier, det(I) = 1 (I est la matrice unité)
4) det(AB)=det(A)det(B);
5) det(Ak)=(det A)k , k∈N*. III. Calculs de l’inverse d’une matrice
6) A est inversible si et seulement si det(A)≠0. Dans ce cas, det(A−1)=(det(A))−1.
7) det(AT)=det(A). Soit A∈Mn(K). La comatrice de A est la matrice des cofacteurs de A : Comat(A) = (Aij).
8) Si l’on multiplie une ligne (ou une colonne) par un scalaire, alors le déterminant se multiplie
aussi par ce scalaire. Théorème. On a :
9) det(λA)=λndet(A) ; λ∈K.

Algèbre III Prof. Aziz Ifzarne Page 9 sur 18 Algèbre III Prof. Aziz Ifzarne Page 10 sur 18
Si dét A 0, alors la matrice A est inversible. De plus, son inverse se calcule par la formule:

Chapitre 4. SYSTEMES LINEAIRES

IV. Calcul pratique du rang d’une matrice En mathématiques et particulièrement en algèbre linéaire, un système d'équations linéaires est un
Soit A∈Mn,p(K). On sait que le rang de A, noté rg(A), est le rang de toute application linéaire associée, ensemble d'équations linéaires qui portent sur les mêmes inconnues.
c’est égal au rang de la famille des vecteurs colonnes de A. La résolution des systèmes d'équations linéaires appartient aux problèmes les plus anciens dans les
mathématiques et ceux-ci apparaissent dans beaucoup de domaines (traitement numérique du
Ce rang est aussi l’ordre maximum r des déterminants non nuls extraits de A. signal, optimisation linéaire, économie, ...)
Plusieurs méthodes permettent de résoudre un système d'équations linéaires : Méthode de Cramer,
 S’il existe un déterminant d’ordre Min(n,p) extrait de A, alors rg(A)= Min(n,p). Méthode du pivot de Gauss, Méthodes matricielles, … etc
 Sinon rg(A)< Min(n,p). On répète l’opération jusqu’à ce qu’on obtienne un déterminant Si le corps est infini, trois cas se présentent :
d’ordre r extrait de A. Dans ce cas rg(A) = r. 1) Le système n’a pas de solutions
2) Le système a une unique solution
V. Déterminant d’un endomorphisme 3) Le système a une infinité de solutions

Soit f∈L(E). On appelle déterminant de l'endomorphisme le déterminant de la matrice associée à f I. Position du problème
dans une base de E. Il est indépendant du choix de la base. Soit K un corps commutatif. Un système linéaire (ou affine) (S) de n équations et p inconnues xi
Si f,g∈L(E), on a det(f∘g)=det(f)det(g). s’écrit sous la forme :
f∈L(E) est un automorphisme si et seulement si det(f)≠0. a11 x1 + a12 x2 + ... + a1p xp = b1
a21 x1 + a22 x2 + ... + a2p xp = b2
.
.
an1 x1 + an2 x2 + ... + anp xp = bn
Les x1, x2, … xp sont les p inconnues du système de n équations linéaires, on parle d’un vecteur solution
X à p composantes. Les b1, b2, … bn forment le vecteur du second membre B. Le système peut
également s’écrire sous forme matricielle :

.
Autrement A X = B, avec A = (aij) et la matrice associée au système.
Le rang du système (S) est le rang de A. Si B=0, le système (S0) : AX=0 est dit système homogène
associé à (S). Notons S l’ensemble des solutions de (S) est S0 l’ensemble des solutions de (S0). Alors
S0 est un sous-espace vectoriel, car c’est le noyau de l’application linéaire canoniquement associée à
A. Tout système homogène admet 0 comme solution particulière. On l’appelle solution triviale.
Le système est dit compatible (ou soluble) s’il admet au moins une solution. Sinon il est
dit incompatible ou contradictoire (ou encore insoluble).

Remarques. Le système (S0) est toujours compatible alors que (S) n’est pas toujours compatible.

Théorème. Le système (S) : AX=B est compatible si et seulement si B appartient à l’ensemble


engendré par les colonnes de A.

Algèbre III Prof. Aziz Ifzarne Page 11 sur 18 Algèbre III Prof. Aziz Ifzarne Page 12 sur 18
Dans ce cas, toute solution du système (S) s’écrit de la forme sp+s0, où sp est une solution particulière Matrice échelonnée : L’idée de la méthode de Gauss est de transformer le système en sa
de (S) et s0 une solution du système homogène associé AX=0. forme échelonnée. Une matrice est dite échelonnée en lignes si le nombre de zéros précédant la
Autrement : S= sp+S0 ={ sp+s0 / s0 solution de AX=0}. première valeur non nulle d'une ligne quelconque augmente ligne par ligne jusqu'à ce qu'il ne reste
éventuellement plus que des zéros. Par exemple :
II. Systèmes de Cramer

Un système de Cramer est un système d'équations linéaires (S) : AX=B avec autant d'équations que
d'inconnues (n=p) et dont le déterminant de la matrice associée est non nul. Autrement c’est un
système dont la matrice associée est carrée et inversible. Une matrice triangulaire supérieure est échelonnée. La réciproque est fausse.
Dans ce cas, en multipliant à gauche par A-1 : A-1AX = A-1B. Soit : X = A-1B.
Donc si on trouve l’inverse de A, on pourra résoudre le système de Cramer. Etapes de la méthode
1) On écrit le système AX=B sous forme d’un tableau : la matrice A à gauche et B à droite.
Formules de Cramer 2) On choisit un pivot, c’est un élément non nul de A, pour faire apparaître des zéros sous le pivot, en
Tout système de Cramer AX=B admet une unique solution. effectuant des combinaisons linéaires des diverses lignes avec celle du pivot.
Les composantes de cette solution sont alors données par : 3) On choisit un nouveau pivot, sur une autre ligne et une autre colonne. On recommence le processus
jusqu’à ce qu’il ne soit plus possible de déterminer un nouveau pivot. L'algorithme de Gauss-Jordan
produit une matrice échelonnée à l'aide d'opérations élémentaires sur les lignes.
4) Enfin, on écrit le tableau final sous forme d’un système linéaire qu’on résout en remontant ligne
par ligne.
où Ak est la matrice carrée formée en remplaçant la k-ième colonne de A par le vecteur colonne B.
Dans cette méthode, on peut utiliser les opérations élémentaires suivantes :
Exemple.
 Échange de deux lignes ;
 Multiplication d'une ligne par un scalaire non nul ;
 Ajouter à une ligne un multiple d'une autre ligne.
 Supprimer les égalités évidentes (0=0) ou les équations équivalentes à d’autres.

Remarque. En cas d’égalité impossible, conclure que le système n’a pas de solution.

Exemple

 3  1 0  x1   5  3 1 0 5 3 1 0 5
    
  2 1 1  x2    0    2 1 1 0 2 1 1 0  ( 2 / 3) ligne 1
 2  1 4  x  15  2  1 4 15 2  1 4 15  (2 / 3) ligne 1
  3   

3 1 0 5 3 1 0 5
 0 1 / 3 1 10 / 3  0 1 / 3 1 10 / 3
0  1 / 3 4 35 / 3  ligne 2 0 0 5 15

Finalement :
III. Méthode du pivot de gauss
La méthode de Gauss (aussi appelée l'élimination de Gauss-Jordan ou méthode du pivot de Gauss),
nommée en hommage à Carl Friedrich Gauss et Wilhelm Jordan, est un algorithme pour déterminer x3 = 15/5 =3
les solutions d'un système d'équations linéaires.
x2 = (10/3 – 1.x3)/(1/3) =1

Algèbre III Prof. Aziz Ifzarne Page 13 sur 18 Algèbre III Prof. Aziz Ifzarne Page 14 sur 18
x1 = (5 – (-1.x2 + 0.x3))/3 =2

Chapitre. 5 DIAGONALISATION
IV. Systèmes linéaires quelconques 1 Les éléments propres d’une matrice.
Soient K un corps commutatif, 𝑛 ∈ ℕ∗ et 𝐴 ∈ 𝑀 (𝐾).
Soit le système linéaire (S) : AX=B avec A une matrice de type (n,p). S’il existe un scalaire a dans K et un n-vecteur X dans Kn non nul tels que :
AX = aX
Méthode de résolution alors on dit que
a est une valeur propre de A
1) On cherche le rang de A, noté r.
et que
2) On choisit un déterminant ∆ d’ordre r non nul extrait de A. ∆ est dit déterminant principal. On déduit : X est un vecteur propre de A associé à la valeur propre a.

 Les r inconnues principales (celles dont les coefficients se trouvent dans ∆) Pour toute valeur propre a, l’ensemble Ea ={XKn / AX = aX}= {XKn / (A – aI) X = 0} est un sous-espace
 Les (p-r) inconnues arbitraires (celles qui restent) vectoriel, appelé le sous-espace propre de A associé à la valeur propre a.
 Les r équations principales (celles qui contiennent ∆) La dimension de Ea est dite l’ordre de multiplicité géométrique de la valeur propre a.

3) On considère la matrice M de type (n,r+1) dont les r premières colonnes sont les colonnes de A contenant Remarque : A est singulière (non inversible) si, et seulement si, 0 est valeur propre de A.
∆, et la dernière colonne est B. Cas particulier :
Si A est triangulaire (en particulier diagonale), alors les termes diagonaux de A sont
4) On cherche le rang de M, sachant que r ≤ rang(M) ≤ r+1. exactement les valeurs propres de A.
5) Deux cas se présentent :
2 Le polynôme caractéristique d’une n-matrice.
 Si rang(M) = r (condition de compatibilité est vérifiée) alors toutes les équations non principales On suppose dans ce paragraphe que 𝐴 ∈ 𝑀 (𝐾).
sont des combinaisons linéaires des équations principales. Dans ce cas, (S) est soluble (admet une ou Un scalaire a K est valeur propre de A
plusieurs solutions). De plus, résoudre (S) revient à résoudre le système de Cramer formé par les r
 Il existe un n-vecteur non nul uKn tel que Au = au.
équations principales et les r inconnues principales (les équations non principales sont supprimées,
 det (A – aI) = 0.
et les inconnues arbitraires sont déplacées vers le membre de droite).
 A – aI n’est pas inversible.
 Si rang(M) = r + 1 (condition de compatibilité non vérifiée) alors le système (S) est insoluble !
Le polynôme PA(x)=det(A – xI) est appelé polynôme caractéristique de A.
Remarque. Dans le cas d’un système homogène AX=0, alors le système est toujours soluble (zéro est une Il est de degré n. Il a pour zéros les valeurs propres de A.
solution). Dans ce cas, on saute les étapes 3 et 4 et on résout directement le système de Cramer formé par les
équations principales. A possède donc au plus n valeurs propres, distinctes ou pas.

L’ordre de multiplicité algébrique d’une valeur propre a, noté M(a), est sa multiplicité dans le polynôme
caractéristique PA.
On a : PA(x) = (x – a)M(a) Q(x), avec Q un polynôme qui ne s’annule pas en a.
Théorème de Cayley-Hamilton : PA(A) = 0.

Cela veut dire que si PA(x) = a0+ a1x + a2x2 + ... + anxn, alors : a0I + a1A + a2 A2 + ... + anAn = 0.
Le terme constant du polynôme caractéristique de A est le déterminant de A.
A l’aide du théorème de Cayley-Hamilton, on peut trouver :
si det A  0, la matrice inverse de A ;
si det A = 0, une matrice B non nulle telle que AB = BA = 0.

Algèbre III Prof. Aziz Ifzarne Page 15 sur 18 Algèbre III Prof. Aziz Ifzarne Page 16 sur 18
Etapes de diagonalisation
3 Matrices semblables. Voici comment diagonaliser une matrice A de type (n,n), quand c’est possible.

a) Définition. Deux matrices A et B dans Mn(K) dans sont semblables s’il existe une 1. On détermine le polynôme caractéristique PA de A. C’est un polynôme de degré n.
2. On résout l’équation : PA (x) = 0 et on déduit les valeurs propres a1, a2, ..., an de A (pas forcément
matrice inversible P dans Mn(K) telle que B = P-1AP.
différents) ainsi que leurs multiplicités algébriques M(ai) ; 1  i  n (par factorisation de PA).
b) Les conservations. 3. Pour chaque valeur propre a, on trouve le sous-espace propre associé Ea ainsi que sa dimension
(multiplicité géométrique).
Deux matrices semblables ont le même déterminant, le même polynôme 4. On vérifie si les deux conditions de diagonalisation sont satisfaites
caractéristique, les mêmes valeurs propres, le même rang. (∑ 𝑀(𝑎) = 𝑛 et dim (Ea) = M(a) pour toute valeur propre a)
Elles sont toutes les deux régulières (inversibles) ou toutes les deux singulières (non
inversibles).
 Si oui, A est diagonalisable.
On désigne par P la matrice de type (n,n) : P= [u1 |u2 |... |un] dont les colonnes sont des vecteurs
Attention : deux matrices semblables n’ont en général pas les mêmes vecteurs propres. propres ui (1in). Pour chaque valeur propre a, on prend des vecteurs propres formant une base de
Ea.
Propriétés.
1) Si A est inversible, alors A et A-1 ont les mêmes vecteurs propres et des valeurs propres inverses. a 1 0  0 
0 a  0
2) Une matrice A et sa transposée tA ont les mêmes valeurs propres.
On désigne par D la matrice diagonale des valeurs propres de A : D =  2 .
   
c) Les puissances.  
 0 0  an 
Soient A, B et P dans Mn(K). Alors :
On a :
B = P-1AP  ( k IN) Bk = P-1AkP
A = PDP-1
4 La diagonalisation d’une matrice. On dit qu’on a diagonalisé la matrice A.
Une matrice A Mn(K) est diagonalisable  A est semblable à une matrice diagonale
 Il existe une matrice diagonale D et une matrice inversible P telles que P-1AP = D.
P est appelée la matrice de passage.
Diagonaliser une matrice, c’est lui trouver une matrice diagonale semblable.
Cette opération n’est pas toujours possible. Il existe des matrices non diagonalisables.
0  1
Exemple :  .
1 0 
La diagonalisation des matrices facilite en particulier le calcul de leurs puissances.

Condition nécessaire et suffisante de diagonalisation


Une matrice A Mn(K) est diagonalisable si, et seulement si, les deux conditions suivantes sont vérifiées :
1) ∑ 𝑀(𝑎) = 𝑛.
(la somme des multiplicités algébriques de toutes les valeurs propres de a vaut n)
2) Pour toute valeur propre a, on a : dim (Ea) = M(a).

Dans ce cas, les matrices P et D vérifiant P-1AP = D sont déterminés comme suit :
 Les colonnes de P sont les coordonnés de vecteurs propres de A. Pour chaque valeur propre a, on
prend des vecteurs propres formant une base de Ea.
 La diagonale de D est formée des valeurs propres de A, chacune répétée suivant sa multiplicité, et
dans le même ordre des valeurs propres de A.
Remarquons que P et D ne sont pas uniques (il suffit de changer l’ordre des valeurs propres et des vecteurs
propres associés).

Corollaire (condition suffisante de diagonalisation)


Si A Mn(K) possède n valeurs propres différentes, alors A est diagonalisable.

Algèbre III Prof. Aziz Ifzarne Page 17 sur 18 Algèbre III Prof. Aziz Ifzarne Page 18 sur 18