Vous êtes sur la page 1sur 78

CHAPITRE 1

Calcul matriciel
Sommaire
1. Dnitions 2
2. Addition et multiplication scalaire 2
3. Produit matriciel 4
4. Inversion 7
4.1. Matrice identit 7
4.2. Motivation 7
4.3. Inversion 8
5. Transposition 9
6. Oprations lmentaires 10
6.1. Oprations lmentaires 10
A). Notations 10
B). Rappel sur lalgorithme de Gauss 11
6.2. Matrices lmentaires 12
7. Retour sur linversion des matrices 13
7.1. Mthode de calcul de linverse dune matrice 13
2 Calcul matriciel
Dans ce chapitre nous introduisons les oprations suivantes sur les matrices : ad-
dition, multiplication, inversion, oprations lmentaires, transposition. Leurs pro-
prits nous seront utiles tout au long du semestre. Certaines proprits seront
dmontres une fois le concept dapplication linaire en poche, cest--dire au cha-
pitre suivant.
Dans ce cours K dsigne un des trois ensembles de nombres suivants K = Q, R
ou C. Les lments de K sont appels des scalaires (par opposition aux vecteurs et
matrices).
1. Dnitions
Dfinitions 1.1. On appelle matrice p lignes et q colonnes coecients dans
K, la donnes de pq scalaires (lments de K) rangs dans un tableau p lignes et
q colonnes. Le scalaire plac la i-ime ligne du tableau et la j-ime colonne est
appel le coecient (i, j) de la matrice. On note M
pq
(K) lensemble des matrices
p lignes et q colonnes coecients dans K. La notation A = (a
ij
) M
pq
(K) signie
que le coecient la ligne i et la colonne j de la matrice A est a
ij
.
Si p = 1, on parle de matrice ligne.
Si q = 1, on parle de matrice colonne.
Si p = q, on parle de matrice carre. On note simplement M
p
(K) au lieu de M
pp
(K).
Exemples 1.1. Voici quelques matrices coecients dans R.

_
_
1 4
0 2
1
3
7 0 8
_
_
M
3
(R),

_
1 4 0
_
M
1,3
(R),

_
_
7
1
0
_
_
M
3,1
(R).
Par exemple le coecient la ligne 3 et la colonne 4 de la matrice de taille 5 4
suivante
A =
_
_
_
_
_
_
1 2 3 4
1 7 10 20
1 0 7
1 0 1 0
0 2
1
7
8
_
_
_
_
_
_
M
5,4
(R)
vaut . On dira aussi que est le coecient en position (3, 4) dans la matrice A.
2. Addition et multiplication scalaire
On dnit laddition de deux matrices de mme taille coecient par coecient.
En voici la dnition formelle.
Dfinition 2.1. Soient A = (a
ij
) M
pq
(K) et B = (b
ij
) M
pq
(K). On appelle
somme des matrices A et B, et on note A + B, la matrice C = (c
ij
) M
pq
(K)
dnie par :
c
ij
= a
ij
+b
ij
, i, j tels que 1 i p, 1 j q.
Remarque. La somme A+B des deux matrices A et B nest dnie que pour des
matrices de mme taille.
De manire analogue, on dnit le produit dune matrice par un scalaire.
2 Addition et multiplication scalaire 3
Dfinition 2.2. Soient A = (a
ij
) M
pq
(K) et K. On note A la matrice
C = (c
ij
) M
pq
(K) dnie par :
c
ij
= a
ij
, i, j tels que 1 i p, 1 j q.
Les rgles de manipulation de ces deux oprations sont trs faciles rsumer :
Proposition 2.1. Muni des deux lois ci-dessus, M
pq
(K) est un espace vectoriel.
Preuve. La preuve est exactement la mme que celle du fait que K
n
est un espace
vectoriel.
Base canonique. On considre lespace vectoriel M
pq
(K). Soit i et j des indices
de lignes et colonnes cest--dire des entiers tels que 1 i p et 1 j q. On
considre la matrice E
ij
M
pq
(K) dont tous les coecients sont nuls sauf celui en
position (i, j) qui vaut 1. Par exemple E
23
dans M
33
vaut
E
23
=
_
_
0 0 0
0 0 1
0 0 0
_
_
.
Attention : la notation E
ij
seule ne veut rien dire. Il faut prciser la taille de la
matrice.
Proposition 2.2. La famille
(E
ij
)
1 i p,
1 j q.
est une base de M
pq
(K). On lappellera la base canonique.
Remarque. Dans lnonc prcdent il y a un petit abus de langage. En eet,
stricto sensu une base dun espace vectoriel est une famille indexes par un entier
et pas des paires dentiers.
Preuve. Soient A = (a
ij
) M
pq
(K). On constate tout dabord que
A =

1 i p,
1 j q.
a
ij
E
ij
.
Ceci montre que la famille est gnratrice.
Supposons maintenant que les scalaires
ij
vrient

1 i p,
1 j q.

ij
E
ij
= 0.
Le zro de la ligne ci-dessus est la matrice nulle de M
pq
(K). Or le coecient en
position (i, j) de la somme de cette formule est
ij
. On en dduit que
ij
= 0 pour
tout (i, j) donc que la famille est libre.
Remarque. Cette base est appele base canonique car les coordonnes dune ma-
trice dans cette base sont ses coecients. Vous remarquerez que cette phrase sap-
plique aussi aux bases canoniques de R
n
et des polynmes.
4 Calcul matriciel
3. Produit matriciel
On dnit le produit matriciel de la manire suivante.
Dfinition 3.1. Soient A = (a
ik
) M
pq
(K) et B = (b
kj
) M
qr
(K). On appelle
produit de la matrice A par la matrice B, et on note AB, la matrice C = (c
ij
)
M
pr
(K) dnie par :
c
ij
=

1kq
a
ik
b
kj
, i, j tels que 1 i p, 1 j r.
Remarque. Il est ncessaire pour dnir AB que le nombre de colonnes de A soit
gal au nombre de lignes de B. Ainsi, le produit est une application
M
pq
(K) M
qr
(K) M
pr
(K)
(A, B) AB.
La rgle sur les tailles des matrice A, B et AB ressemble une relation de
Chasles :

pq +

qr =

pr.
Sur les exemples concrets, pour calculer le produit de deux matrices, on nutilise pas
directement la dnition ci-dessus mais un moyen mnmotechnique : le coecient
(i, j) du produit AB est le produit scalaire de la ligne i de A par la colonne j
de B. Expliquons cela en dtail.
Soit L = (x
1
x
q
) une matrice ligne et C =
_
_
_
y
1
.
.
.
y
q
_
_
_ une matrice colonne de
tailles q. Le produit LC est alors une matrice de taille 11 cest--dire un scalaire.
Plus prcisment, on a :
LC = (x
1
x
q
)
_
_
_
y
1
.
.
.
y
q
_
_
_ = x
1
y
1
+ +x
q
y
q
=

1iq
x
i
y
i
. (3.1)
Soit A M
pq
(K) dont on note L
1
, , L
p
les lignes et B M
qr
(K) dont on note
les colonnes par C
1
, , C
r
. Alors, les coecients du produit AB sont donns par
des formules du type (3.1). Plus prcisment, on a :
AB =
_
_
_
L
1
.
.
.
L
p
_
_
_(C
1
C
r
) =
_
_
_
_
_
L
1
C
1
L
1
C
2
L
1
C
r
L
2
C
1
L
2
C
2
L
2
C
r
.
.
.
.
.
.
.
.
.
L
p
C
1
L
p
C
2
L
p
C
r
_
_
_
_
_
. (3.2)
Un moyen de retenir ceci facilement est de disposer les matrices multiplier et
le rsultat comme sur la gure 1. En eet, chaque coecient de la matrice AB
sobtient en appliquant la formule (3.1) la ligne de A sa gauche et la colonne de
B au-dessus de lui.
Un exemple trs important (et dj vu en S1) est le produit dune matrice rec-
tangulaire par une matrice colonne. En eet, tout produit de matrices sobtient
en juxtaposant de tels produits comme le montre le lemme suivant. Si M est une
matrice et j un indice de colonne on notera C
j
(M) la j-ime colonne de M.
Lemme 3.1. Soient A = (a
ik
) M
pq
(K) et B = (b
kj
) M
qr
(K). On a, pour tout
1 j r,
C
j
(AB) = AC
j
(B).
3 Produit matriciel 5
a
11
a
12
. . . a
1q
a
21
a
22
. . . a
2q
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
a
p2
. . . a
pq
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
A : p lignes q colones
b
11
b
12
. . . b
1r
b
21
b
22
. . . b
2r
.
.
.
.
.
.
.
.
.
.
.
.
b
q1
b
q2
. . . b
qr
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
B : q lignes r colonnes
c
11
c
12
. . . c
1r
c
21
c
22
. . . c
2r
.
.
.
.
.
.
.
.
.
.
.
.
c
q1
c
q2
. . . c
qr
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
2
1

b
1
2
a
2
2

b
2
2
a
2
q

b
q
2
+
+
.
.
.
+
C = AB : p lignes r colonnes
Figure 1. Produit de matrices
Autrement dit, la j-ime colonne du produit AB est le produit de A et de la j-ime
colonne de B.
Preuve. Le i-ime coecient de C
j
(AB) est le coecient (i, j) de la matrice AB
cest--dire

k
a
ik
b
kj
.
Le i-ime coecient de AC
j
(B) vaut

k
a
ik
(C
j
(B))
k
.
Comme (C
j
(B))
k
= b
kj
, le lemme suit.
Il convient prsent de sexercer un peu.
Exercice 1. Soient A = (a
ik
) M
pq
(K) et B = (b
kj
) M
qr
(K). Montrer que
pour tout 1 i p,
L
i
(AB) = L
i
(A)B.
6 Calcul matriciel
Exercice 2. Calculer les produits AB et BA dans chacun des cas suivants :
A =
_
_
_
_
1 2
3 4
4 6
7 8
_
_
_
_
B =
_
1 2 3
4 5 6
_
,
et
A =
_
1 2
3 4
_
B =
_
1 2
2 2
_
.
Remarquer quil est possible que le produit AB soit bien dni sans que BA le soit.
Remarquer aussi que mme si AB et BA sont bien dnis, ils ne sont pas forcment
gaux.
Exercice 3. Calculer les produits AB et BA :
A =
_
0 1
0 1
_
B =
_
1 1
0 0
_
.
Calculer C
2
= CC pour :
C =
_
0 1
0 0
_
.
Les rgles de manipulation du produit des matrices sont rsumes dans lnonc
suivant.
Proposition 3.2. Soit A, B et C trois matrices. Soit un scalaire. Sous lhypo-
thse que les produits existent, on a les relations suivantes
(AB)C = A(BC), A(B +C) = AB +AC, (B +C)A = BA+CA.
On notera ABC pour (AB)C ou A(BC) comme la proposition 3.2 le permet. De
plus, on notera A
n
pour le produit AA A (n fois).
La proposition 3.2 dit que le produit des matrices partage certaines proprits du
produit des scalaires. Il faut cependant tre trs prudent. Dans lexercice suivant
on nonce quelques implications fausses.
Exercice 4. Trouver un contre-exemple chacune des implications ou galits
suivantes.
(i) AB = BA;
(ii) AB = 0 A = 0 ou B = 0 ;
(iii) A
2
= 0 A = 0 ;
(iv) AB = 0 BA = 0.
La preuve de la proposition 3.2 sera faite de manire conomique au chapitre sui-
vant. On peut nanmoins en dmontrer une partie en exercice.
Exercice 5. Dmontrer la formule (AB)C = A(BC).
Base canonique. Nous allons expliquer ici comment multiplier deux matrices des
bases canoniques. Pour a et b deux entiers (ou deux lments dun mme ensemble)
on pose

b
a
=
_
1 si a = b
0 sinon.
Ce symbole est appel symbole de Kronecker.
4 Inversion 7
Proposition 3.3. Soient E
ij
M
pq
(K) et E
kl
M
qr
(K) deux lments des bases
canoniques. Attentions ces deux matrices nont pas ncessairement la mme taille.
Alors, on a
E
ij
E
kl
=
k
j
E
il
Preuve. Soit 1 r p et 1 s r. Regardons le coecient x en position (r, s)
du produit E
ij
E
kl
. Si r = i, la ligne de E
ij
utilise pour calculer x est nulle donc
x = 0. De mme si s = l alors x = 0. Supposons dsormais que r = i et s = l. Alors
x = L
i
.C
l
o L
i
est la i-ime ligne de E
ij
et C
l
est la l-ime colonne de E
kl
. On en
dduit que si k = j alors x = 0 et que x = 1 si k = j. La proposition suit.
Remarque. La formule E
ij
E
jl
= E
il
ressemble encore un fois la formule de
Chasles : les indices gaux disparaissent.
4. Inversion
4.1. Matrice identit. Pour tout entier naturel non nul n, on dnit la ma-
trice identit, note I
n
, comme tant la matrice carre de taille n n ayant des 1
sur la diagonale et des 0 ailleurs :
I
2
=
_
1 0
0 1
_
, I
3
=
_
_
1 0 0
0 1 0
0 0 1
_
_
, I
n
=
_
_
_
1
.
.
.
1
_
_
_.
Pour toute matrice A n colonnes et toute matrice B n lignes, on a
AI
n
= A et I
n
B = B.
Exercice 6. Dmontrer les formules ci-dessus.
Remarque. Ces formules disent que la matrice I
n
se comporte un peu comme le
1 des nombres rels, puisque
x R 1.x = x.1 = x.
Cependant, il faut tre trs prudent avec cette analogie car les matrices sont des
objets bien plus compliqus que les nombres rels.
4.2. Motivation. Soit A une matrice carre de taille n. Soit V un vecteur
colonne de taille n. Formons aussi un vecteur colonne X de taille n et dont le
i-ime coecient est x
i
. Considrons le systme linaire suivant :
AX = V, (4.1)
dont les inconnus sont les x
i
.
On sait rsoudre un tel systme en appliquant la mthode du pivot de Gauss. Cest
un peu long mais faisable en pratique. Imaginons maintenant que nous connaissions
une matrice B telle que
BA = I
n
.
La matrice B est ncessairement carre de taille n. Soit X est solution du systme
(4.1). On a alors, AX = V , donc B(AX) = BV , donc (BA)X = BV , donc I
n
X =
BV et nalement X = BV . Donc X = BV est la seule solution possible au systme
et elle est facile calculer.
Supposons de plus que AB = I
n
(nous verrons que cela est une consquence de
BA = I
n
). Alors, si rciproquement X = BV , on a AX = ABV = I
n
V = V . Donc
BV est bien solution.
8 Calcul matriciel
Cette petite discussion motive ltude des relations
BA = I
n
et AB = I
n
.
4.3. Inversion. Nous admettons pour linstant lnonc suivant. Nous le d-
montrerons au cours du chapitre suivant.
Proposition 4.1. Soit A et B deux matrices carres de mme taille n. On a
lquivalence suivante
AB = I
n
BA = I
n
.
En revanche, nous pouvons dors et dj montrer un rsultat dunicit.
Proposition 4.2. Soit A une matrice carre de taille n. Alors, il existe au plus
une matrice B telle que
AB = BA = I
n
.
Preuve. Lexistence du produit AB implique que B a n lignes. Lexistence du
produit BA implique que B a n colonnes. Ainsi, B est ncessairement une matrice
carre de taille n.
Soit X et Y deux matrices carres de taille n telles que
AX = XA = AY = Y A = I
n
.
Il sagit de montrer que X = Y . Or on a
X = XI
n
= X(AY ) = (XA)Y = I
n
Y = Y.

Dfinitions 4.1. Soit A une matrice carre de taille n. Sil existe une matrice B
vriant
AB = BA = I
n
,
on dit que A est inversible. Dans ce cas, la matrice B est appel linverse de A et
est note A
1
.
Voici quelques rgles de calcul pour linverse.
Proposition 4.3. Soit A et B deux matrices carres de taille n et un scalaire
non nul.
(i) Si A est inversible alors A
1
lest aussi et
(A
1
)
1
= A.
(ii) Si A est inversible alors A lest aussi et
(A)
1
=
1

A
1
.
(iii) Si A et B sont inversibles alors AB lest aussi et
(AB)
1
= B
1
A
1
.
Remarque. Prenez garde au changement dans lordre dapparition des matrices
A et B de part et dautre de la troisime formule.
5 Transposition 9
Preuve. Supposons que A est inversible et montrons la premire assertion. On a :
A(A
1
) = (A
1
)A = I
n
. (4.2)
Cette relation dit bien que A
1
est inversible et que son inverse est A.
Supposons que A est inversible et montrons la deuxime assertion. On multiplie la
lquation (4.2) par

= 1. Cela donne en utilisant la proposition 3.2


(A)(
1

A
1
) = I
n
.
La proposition 4.2 montre aussi que (
1

A
1
)(A) = I
n
. Donc linverse de A est
bien
1

A
1
.
Soit maintenant B une seconde matrice inversible. En vertu de la proposition 4.2,
pour obtenir la dernire assertion, il sut de montrer que
(AB)(B
1
A
1
) = I
n
.
Or on a :
(AB)(B
1
A
1
) = A(BB
1
)A
1
= A(I
n
)A
1
= AA
1
= I
n
.

Remarque. La question de linverse (existence et calcul) ne se pose que pour les


matrices carres.
5. Transposition
La transpose dune matrice est la matrice obtenue en remplaant chaque coecient
par son symtrique par rapport la diagonale.
Dfinition 5.1. Soit A = (a
ij
) M
pq
(K). La transpose de A, note
t
A, est la
matrice de M
qp
(K) dont le coecient la ligne i et colonne j est a
ji
.
Si la matrice A est carre de taille n alors
t
A est aussi carr de taille n. En revanche
si A est rectangulaire et non carre,
t
A na pas la mme forme que A. Voici un
exemple avec une matrice carre.
Exemple 5.1. Voici une matrice carre de taille 4 et sa transpose.
A =
_
_
_
_
1 2 3 4
1 7 10 20
1 0 7
1 0 1 0
_
_
_
_
,
t
A =
_
_
_
_
1 1 1 1
2 7 0 0
3 10 1
4 20 7 0
_
_
_
_
.
Comme on peut le constater, les colonnes de A sont les lignes de
t
A et vice-versa.
Voici quelques rgles de calcul sur la transposition.
Proposition 5.1. (i) Soit A et B deux matrices de mme taille et un
scalaire. On a
t
(A+B) =
t
A+
t
B.
(ii) Transposer deux fois ne change rien puisque
t
(
t
A) = A.
(iii) Soit A M
pq
(K) et B M
qr
(K). Alors, on a
t
(AB) = (
t
B)(
t
A).
10 Calcul matriciel
(iv) Soit A M
n
(K). Alors, si A est inversible alors
t
A lest aussi et
(
t
A)
1
=
t
(A
1
).
Remarque. Prenez garde au changement dans lordre dapparition des matrices
A et B de part et dautre de la troisime formule.
Preuve. Les deux premires assertions sont laisses au lecteur. Montrons la troi-
sime. Puisque
t
B M
rq
(K) et
t
A M
qp
(K), le produit (
t
B)(
t
A) est bien dni
et appartient M
rp
(K). De mme,
t
(AB) appartient M
rp
(K). Fixons une ligne i
(1 i r) et une colonne j (1 j p) de ces matrices.
Dune part le coecient (i, j) de
t
(AB) est gal au coecient (j, i) de la matrice
AB, cest--dire
q

k=1
a
jk
b
ki
.
Par ailleurs, le coecient (i, j) de la matrice (
t
B)(
t
A) est gal
q

k=1
(
t
B)
ik
(
t
A)
kj
,
cest--dire
q

k=1
b
ki
a
jk
.
Le rsultat suit.
En vertu de la Proposition 4.2, pour la dernire assertion, il sut de montrer que
t
(A
1
)
t
A = I
n
.
Partons de la relation AA
1
= I
n
et appliquons la transposition de chaque ct.
Daprs lassertion prcdente on obtient
t
(A
1
)
t
A =
t
I
n
= I
n
.

6. Oprations lmentaires
Dans cette section, nous revenons sur les oprations lmentaires sur les lignes et
colonnes dune matrice. Au semestre 1, les oprations sur les lignes taient utilises
pour rsoudre les systmes. Nous allons dans cette section utiliser ces oprations
pour inverser une matrice. Au chapitre 5, nous les utiliserons pour calculer les
dterminants.
6.1. Oprations lmentaires.
A). Notations. Soit A une matrice de M
pq
(K). Soit 1 i = j p. La
notation A
L
i
L
j
A

signie que A

sobtient partir de A en changeant les lignes


i et j. Soit un scalaire non nul. De manire analogue la notation A
L
i
L
i
A

signie que A

sobtient partir de A en multipliant la ligne i par . Soit un


scalaire. Enn, la notation A
L
i
L
i
+L
j
A

signie que A

sobtient partir de A
en ajoutant L
j
la ligne i.
Soit 1 i = j q et un scalaire. De mme, on note A
C
i
C
j
A

, A
C
i
C
i
A

et A
C
i
C
i
+C
j
A

pour les oprations analogues sur les colonnes de A.


Pour rsumer nous avons 6 types doprations lmentaires
6 Oprations lmentaires 11
Sur les lignes : A
L
i
L
j
A

, A
L
i
L
i
A

et A
L
i
L
i
+L
j
A

.
Sur les colonnes : A
C
i
C
j
A

, A
C
i
C
i
A

et A
C
i
C
i
+C
j
A

.
B). Rappel sur lalgorithme de Gauss. Nous utiliserons la consquence
suivante de lalgorithme du pivot de Gauss.
Thorme 6.1. Soit A une matrice carre de taille n.
(i) Supposons que A nest pas inversible. Il existe une suite doprations l-
mentaires sur les colonnes qui transforme A en une matrice dont une
colonne est nulle.
(ii) Supposons que A est inversible. Il existe une suite doprations lmen-
taires sur les colonnes qui transforme A en la matrice identit.
Preuve. Comme nous le verrons dans la proposition 5.3 du chapitre 2, une matrice
A est inversible si et seulement si ses colonnes forment une famille libre (et donc une
base) de K
n
. Nous avons vu au premier semestre que les oprations lmentaires
sur les familles prservent le caractre libre. Ainsi, les oprations lmentaires sur
les colonnes dune matrice prservent le caractre inversible.
Supposons tout dabord que A nest pas inversible. Cela implique que les colonnes
de A sont lies. Ainsi, il existe une colonne, disons C
j
0
, qui est une combinaison
linaire des autres :
C
j
0
=
n

j=1 j=j
0

j
C
j
Mais alors, en eectuant les n 1 oprations lmentaires C
j
0
C
j
0

j
C
j
(pour
j = 1, , n et j = j
0
) la matrice A se transforme en une matrice dont la colonne
j
0
est nulle.
Supposons maintenant que A = (a
ij
) est inversible. Partons de la matrice A.
La premire tape consiste transformer A en une matrice triangulaire infrieure.
Comme A est inversible sa premire ligne nest pas identiquement nulle. Par une
opration C
1
C
i
, on se ramne une matrice vriant a
11
= 0. Par des oprations
du type C
i
C
i
+
i
C
1
(pour i = 2, , n et
i
=
a
1i
a
11
) on peut obtenir une
matrice de la forme suivante
A
1
=
_
_
_
_
_
a
11
0 0

.
.
.
.
.
.
.
.
.
.
.
.

_
_
_
_
_
. (6.1)
Considrons la matrice B extraite de A
1
obtenue en supprimant la premire ligne et
la premire colonne. Remarquons que B est inversible si A lest (Si A est inversible
ses colonnes forment une famille libre. Donc les colonnes de B forment aussi une
famille libre). Par la mthode ci-dessus, on transforme B en une matrice de la
forme (6.1). Les zros de la premire ligne de A
1
restent inchangs cette tape.
On obtient donc une matrice de la forme
A
2
=
_
_
_
_
_
_
_
a
11
0 0
a
22
0 0

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

_
_
_
_
_
_
_
. (6.2)
Eectuant cette opration sur chaque ligne, on obtient une matrice triangulaire
infrieure dont tous les coecients diagonaux sont non nuls. En multipliant chaque
12 Calcul matriciel
colonne par la constante adquate on met des 1 sur la diagonale. On obtient ainsi
une matrice de la forme
A
3
=
_
_
_
_
_
_
1 0 0

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
1
_
_
_
_
_
_
. (6.3)
Une seconde tape appele remont dmarre maintenant. Par des oprations du
type C
i
C
i
+C
n
pour i = 1, , n 1, on transforme A
3
en une matrice dont
la dernire ligne est (0 0 1). On fait la mme opration sur lavant dernire ligne
et ainsi de suite jusqu la deuxime. La matrice obtenue est alors lidentit.
Remarque. La dmonstration prcdente est presque un algorithme. En particu-
lier, tant donne une matrice A, on peut trouver une suite explicite doprations
lmentaires qui transforme A en lidentit. On pourra sexercer sur lexemple sui-
vant
_
_
0 1 4
8 2 5
9 3 6
_
_
.
Remarquer que dans ltape de trigonalisation, on peut choisir plusieurs pivots a
11
sur chaque ligne. On a intrt en choisir un simple inverser.
6.2. Matrices lmentaires. Nous allons voir que chaque opration lmen-
taire peut sobtenir en faisant le produit par des matrices assez simples. Cela nous
permettra de dmontrer des proprits de ces oprations. Commenons par intro-
duire les dites matrices.
Soit E
ij
les lments de la base canonique de M
n
(K). Rappelons que I
n
dsigne la
matrice Identit. Pour tout couple (i, j) {1, , n}
2
tel que i = j, on pose
T
ij
= I
n
E
ii
E
jj
+E
ij
+E
ji
.
Pour K et i {1, , n}, on pose
D
i
() = I
n
+ ( 1)E
ii
.
Pour K et (i, j) {1, , n}
2
tels que i = j, on pose
U
ij
() = I
n
+E
ij
.
Ces matrices sont comme ceci. La matrice T :
T
ij
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
0
1
0 0 0 1
0 1 0
.
.
.
.
.
.
.
.
.
0 1 0
1 0 0 0
1
0
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
7 Retour sur linversion des matrices 13
La matrice D :
D
i
() =
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
0
1

1
0
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
.
La matrice U :
U
ij
() =
_
_
_
_
_
_
1
.
.
.

.
.
.
1
_
_
_
_
_
_
.
Ces trois matrices permettent dinterprter les oprations lmentaires sur les lignes
dune matrice A comme des produits gauche par ces matrices.
Proposition 6.2. Soit A une matrice de M
pq
(K). Soit i = j et un scalaire.
Alors
1. A
L
i
L
j
A

= T
ij
A,
2. A
L
i
L
i
A

= D
i
()A,
3. A
L
i
L
i
+L
j
A

= U
ij
()A,
4. A
C
i
C
j
A

= AT
ij
,
5. A
C
i
C
i
A

= AD
i
(),
6. A
C
i
C
i
+C
j
A

= AU
ij
().
Preuve. La dmonstration est laisse en exercice.
7. Retour sur linversion des matrices
7.1. Mthode de calcul de linverse dune matrice. Prenons une matrice
carre A de taille n inverser. Rappelons que lon peut par une suite doprations
lmentaires (C
i
C
j
, C
i
C
i
avec = 0 ou C
i
C
i
+C
j
) sur les colonnes de
A, la transformer en la matrice identit. On peut par exemple procder en suivant
la mthode du pivot de Gauss, dont les tapes sont rappeles ici :
(i) On met la premire ligne sous la forme ( 0 0).
(ii) On met la deuxime ligne sous la forme ( 0 0), en ne manipulant
que les colonnes C
2
, , C
n
.
(iii) Ainsi de suite sur chaque ligne jusqu lobtention dune matrice trian-
gulaire infrieure.
(iv) Au moyen des oprations C
i
C
i
, on met des 1 sur la diagonale.
(v) On met la dernire ligne sous la forme (0 0 1).
(vi) On met lavant-dernire ligne sous la forme (0 0 1 0).
(vii) On fait de mme de ligne en ligne en remontant jusqu la deuxime.
La mthode pour inverser A fonctionne ainsi. On crit A et la matrice I
n
cte cte.
On eectue une suite doprations lmentaires sur les colonnes qui transforme A
en I
n
. On eectue en parallle les mmes oprations sur la matrice I
n
pour obtenir
la n une matrice M. Le rsultat est que
14 Calcul matriciel
M est linverse de A.
Preuve. La preuve est assez simple si lon interprte les oprations lmentaires
comme des produits par des matrices. En eet, daprs la proposition 6.2, il existe
une suite de matrices B
1
, , B
s
(B
s
est gale T
ij
, D
i
() ou U
ij
() suivant
lopration utilise) telles que la mthode dcrite ci-dessus donne le tableau suivant
A I
AB
1
I.B
1
AB
1
.B
2
B
1
.B
2
.
.
.
.
.
.
AB
1
.B
2
B
s
= I B
1
.B
2
B
s
= M
Regardons la dernire ligne. Le premier terme dit que A
1
= B
1
.B
2
B
s
. Le
second dit que M = B
1
.B
2
B
s
. La conclusion en dcoule.
Remarque. La mthode fonctionne aussi si lon ne travaille que sur les lignes.
En revanche, il faut faire un choix ds le dpart entre lignes et colonnes et ne
pas utiliser les deux. En eet, des oprations lmentaires sur les lignes sont
quivalentes faire des produits sur la gauche par des matrices lmentaires. On
pourra remarquer que la preuve ci-dessus ne fonctionne pas si lon utilise la fois
des produits gauche et droite.
7 Retour sur linversion des matrices 15
Exemple 7.1. Calculons linverse de
A =
_
_
_
_
1 2 3 1
1 2 1 1
0 1 1 0
1 2 1 1
_
_
_
_
Appliquons la mthode :
_
_
_
_
1 2 3 1
1 2 1 1
0 1 1 0
1 2 1 1
_
_
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
C
2
C
2
2C
1
_
_
_
_
1 0 3 1
1 0 1 1
0 1 1 0
1 0 1 1
_
_
_
_
_
_
_
_
1 2 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
C
3
C
3
3C
1
C4 C
4
C
1
_
_
_
_
1 0 0 0
1 0 4 2
0 1 1 0
1 0 2 0
_
_
_
_
_
_
_
_
1 2 3 1
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
C
2
C
4
C3 C
3
2C
2
_
_
_
_
1 0 0 0
1 2 0 0
0 0 1 1
1 0 2 0
_
_
_
_
_
_
_
_
1 1 1 2
0 0 0 1
0 0 1 0
0 1 2 0
_
_
_
_
C4 C
4
C
3
_
_
_
_
1 0 0 0
1 2 0 0
0 0 1 0
1 0 2 2
_
_
_
_
_
_
_
_
1 1 1 1
0 0 0 1
0 0 1 1
0 1 2 2
_
_
_
_
C
3
C
3
+C
4
C
1
C
1

1
2
C
4
_
_
_
_
1 0 0 0
1 2 0 0
0 0 1 0
0 0 0 2
_
_
_
_
_
_
_
_
3
2
1 2 1

1
2
0 1 1
1
2
0 0 1
1 1 0 2
_
_
_
_
C
1
C
1
+
1
2
C
2
C
4

1
2
C
4
C
2

1
2
C
2
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
_
_
_
_
1
1
2
2
1
2

1
2
0 1
1
2
1
2
0 0
1
2

1
2

1
2
0 1
_
_
_
_
On obtient donc
A
1
=
1
2
_
_
_
_
2 1 4 1
1 0 2 1
1 0 0 1
1 1 0 2
_
_
_
_
.
Soit B la matrice ci-dessus, cest--dire vriant A
1
=
1
2
B. On a AB = 2I
4
. Il
convient de vrier que
_
_
_
_
1 2 3 1
1 2 1 1
0 1 1 0
1 2 1 1
_
_
_
_
.
_
_
_
_
2 1 4 1
1 0 2 1
1 0 0 1
1 1 0 2
_
_
_
_
=
_
_
_
_
2 0 0 0
0 2 0 0
0 0 2 0
0 0 0 2
_
_
_
_
.
CHAPITRE 2
Applications linaires
Sommaire
1. Premiers exemples dapplications linaires 18
1.1. Oprations sur L(E, F) 20
2. Noyau et Image 20
3. Reprsentation matricielle 21
3.1. Matrice dune application linaire 21
3.2. Produit matriciel et composition 23
4. Application linaire associe une matrice 24
4.1. Dnition et premires proprits 24
4.2. Noyau et Image 25
5. Isomorphisme et application linaire rciproque 25
6. Changements de bases 28
6.1. Matrices de lidentit 28
6.2. Cas des vecteurs 29
6.3. Cas des applications linaires 30
18 Applications linaires
1. Premiers exemples dapplications linaires
On sintresse aux applications dun espace vectoriel dans un autre qui ont un com-
portement agrable relativement aux deux oprations dun espace vectoriel.
Dfinitions 1.1. Soient E et F deux espaces vectoriels sur le mme corps K. Une
application f de E dans F est une application linaire si :
(i) pour tout u et v dans E, f(u +v) = f(u) +f(v) ;
(ii) pour tout u dans E et dans K, f(u) = f(u).
Cas particuliers. Si E = F, on dit que f est un endomorphisme de E.
Notation. On note L(E, F) lensemble des applications linaires de E dans F. On
note L(E) pour L(E, E), cest--dire lespace des endomorphismes de E.
Lexercice suivant permet dors et dj de comprendre que le fait dtre linaire
impose des contraintes trs fortes sur lapplication f.
Exercice 7. Soit f : R
2
R
2
une application linaire. On suppose que f(1, 2) =
(4, 18) et f(1, 1) = (2, 7). Autrement dit, on ne suppose que 2 valeurs de f
connues.
crire le vecteur v = (3, 5) comme une combinaison linaire des vecteurs (1, 2)
et (1, 1). En dduire limage f(v) de v par f. Pensez vous que lon puisse calculer
f(w) pour tout vecteur w de R
2
?
Les premires consquences de cette dnition sont rsumes dans la proposition
suivante.
Proposition 1.1. Soient E et F deux espaces vectoriels sur le corps K et f une
application linaire. Alors :
(i) f(0) = 0.
(ii) Pour tout u dans E, f(u) = f(u).
(iii) Pour tout
1
,
2
, . . .
n
dans K et u
1
, u
2
, . . . , u
n
dans E, on a :
f(
1
u
1
+
2
u
2
+ +
n
u
n
) =
1
f(u
1
) +
2
f(u
2
) + +
n
f(u
n
).
(iv) Si G est un sous-espace vectoriel de E, alors f(G) est un sous-espace
vectoriel de F.
(v) Si G est un sous-espace vectoriel de F, alors f
1
(G) est un sous-espace
vectoriel de E.
Remarque. Dans la dernire assertion de la proposition, la notation f
1
(G) si-
gnie limage rciproque de G, cest--dire lensemble des vecteurs v de E tels que
f(v) appartient G.
Preuve. Pour = 0
K
et u = 0
E
la seconde proprit de la dnition montre que
f(0
K
.0
E
) = 0
K
f(0
E
) = 0
F
. Soit u dans E. Pour = 1 la seconde proprit de la
dnition montre que f(u) = f(u).
Soient
i
et u
i
comme dans lnonc. En appliquant n1 fois la premire proprit
de la dnition, on obtient
f(
1
u
1
+ +
n
u
n
) = f((
1
u
1
+ +
n1
u
n1
) + (
n
u
n
))
= f(
1
u
1
+ +
n1
u
n1
) +f(
n
u
n
)
= f(
1
u
1
+ +
n2
u
n2
) +f(
n1
u
n1
) +f(
n
u
n
)
. . .
= f(
1
u
1
) +f(
2
u
2
) + +f(
n
u
n
).
1 Premiers exemples dapplications linaires 19
En appliquant la seconde proprit de la dnition chaque f(
i
u
i
), on obtient
f(
1
u
1
+
2
u
2
+ +
n
u
n
) =
1
f(u
1
) +
2
f(u
2
) + +
n
f(u
n
).
Pour lassertion suivante, il sagit de montrer que f(G) est non vide, stable par
addition et par multiplication scalaire. Daprs la premire assertion 0
F
= f(0
E
)
appartient f(G) (puisque 0
E
appartient G). Soit x et y dans f(G). Il existe u et v
dans G tels que f(u) = x et f(v) = y. Mais alors, on a x+y = f(u)+f(v) = f(u+v).
Puisque G est un sous-espace vectoriel de E, u + v appartient G et lgalit
prcdente montre que x + y appartient f(G). La stabilit par multiplication
scalaire se montre de manire analogue.
Soit maintenant G un sous-espace vectoriel de F. Soit u et v dans f
1
(G) cest-
-dire tels que f(u) et f(v) appartiennent G. Comme f(u + v) = f(u) + f(v)
appartient G, u+v appartient f
1
(G). Le lecteur vriera que 0
E
f
1
(G) et
que f
1
(G) est stable par multiplication scalaire.
Voici maintenant une caractrisation souvent utile des applications linaires
Proposition 1.2. Soient E et F deux espaces vectoriels sur le corps K. Une ap-
plication f : E F est une application linaire si et seulement si
pour tout u et v dans E et dans K,
f(u +v) = f(u) +f(v).
Preuve. Limplication directe est une consquence de la proposition prcdente
avec n = 2 et
2
= 1. Rciproquement, supposons que f vrie f(u + v) =
f(u) + f(v). Pour = 1, on obtient la premire proprit de la dnition. Par
ailleurs, f(1.00) = f(0) f(0) = 0 (attention, il y a trois zros dirents dans ces
galits !). Maintenant, la seconde proprit de la dnition sobtient avec v = 0.
Voici enn quelques exemples dapplications linaires ou non. Ces exemples sont
autant dexercices : il faut savoir montrer que les applications linaires ci-dessous
vrient la dnition et que les applications non linaires ne la vrient pas (en
trouvant un contre-exemple soit la dnition, soit aux propositions qui la suivent).
Exemples 1.1. (i) Pour tout K-ev E, lapplication id
E
de E dans E dnie
pour tout u dans E par id
E
(u) = u est un endomorphisme de E.
(ii) Lapplication f : R
3
R, f((x, y, z)) = x + 6y + 6z, est une applica-
tion linaire.
(iii) Lapplication f : R
3
R, f((x, y, z)) = x+6y +6z 3, nest pas une
application linaire.
(iv) Lapplication f : C
2
C
2
, f((z
1
, z
2
)) = (z
2
, 0) est un endomorphisme
de C
2
.
(v) Lapplication f : R
2
R
2
, f((x, y)) = (y, x), est un endomorphisme de
R
2
.
(vi) Les applications suivantes sont des applications linaires
R
4
[X] R
4
[X], P P

;
R
6
[X] R
7
[X], P
_
X
0
P(t);
R
3
[X] R, P P(3);
R
5
[X] R
8
[X], P (X + 4) P; o est la multiplication des polynmes
R
3
[X] R
3
[X], P(X) P(X + 2);
R
3
[X] R
6
[X], P(X) P(X
2
).
20 Applications linaires
(vii) Les applications suivantes ne sont pas des applications linaires
R
2
R, (x, y) x
2
+y;
R
4
[X] R
4
[X], P X +P;
R
3
[X] R
6
[X], P P
2
.
1.1. Oprations sur L(E, F). Nous allons voir dans cette section que les
applications linaires se composent, sadditionnent et peuvent tre multiplie par
un scalaire.
Soit E et F deux espaces vectoriels. Soit f et g deux lments de L(E, F) et K.
On dnit f comme lapplication de E dans F dnie par (f)(x) = f(x), pour
tout x dans E. On dnit f + g comme lapplication de E dans F dnie par
(f +g)(x) = f(x) +g(x), pour tout x dans E. On vrie que f et f +g sont deux
lment de L(E, F).
Proposition 1.3. Muni des deux lois ci-dessus, L(E, F) est un espace vectoriel.
Preuve. On vrie les axiomes de la dnition despace vectoriel un un. Pour
chacun deux il ny a aucune dicult : ils sont vris car ils le sont dans F.
Remarquons que la structure despace vectoriel de E ne joue aucun rle ici.
Soit G un troisime espace vectoriel. Soit f L(E, F) et g L(F, G).
Proposition 1.4. La compose g f est une application linaire de E dans G.
Preuve. Soit x et y dans E. On a
(g f)(x +y)= g(f(x +y)) = g(f(x) +f(y)) car f est linaire
= g(f(x)) +g(f(y)) car g est linaire
= (g f)(x) + (g f)(y).
Soit maintenant K. On a
(g f)(x)= g(f(x)) = g(f(x)) car f est linaire
= g(f(x)) car g est linaire
= (g f)(x).
Ces deux identits montrent que g f est linaire.
Voici un exercice ncessitant calme et mthode et permettant de travailler les d-
nitions.
Exercice 8. Soit g L(E). Montrer que lapplication
L(E, F) L(E, F)
f f g,
est bien dnie et appartient L(L(E, F)).
Indication : lapplication est bien dnie si dune part f g ne dpend que de f et
dautre part appartient L(E, F). Les lments de L(L(E, F)) sont les applications
de L(E, F) dans lui-mme qui vrient les deux axiomes de la dnition 1.
2. Noyau et Image
On associe deux sous-espaces vectoriels (un de E et un de F) toute application
linaire.
Dfinition 2.1. Soient E et F deux espaces vectoriels sur le corps K et f une
application linaire de E dans F.
(i) Lensemble Ker f = f
1
({0}) = {u E, f(u) = 0} est un sous-espace
vectoriel de E, appel le noyau de f.
3 Reprsentation matricielle 21
(ii) Lensemble Im f = f(E) = {f(u), u E} est un sous-espace vectoriel de
F, appel limage de f.
Ces sous-espaces vectoriels permettent de caractriser linjectivit et la surjectivit
de f.
Proposition 2.1. Soient E et F deux espaces vectoriels sur le corps K et f une
application linaire de E dans F. Alors,
(i) f est injective si et seulement si Ker f = {0} ;
(ii) f est surjective si et seulement si Im f = F.
Preuve. La seconde assertion est tautologique et pas spcique aux applications
linaires.
Montrons la premire. Supposons f injective. Comme f est injective f
1
({0}) =
Ker f contient au plus un lment. Or nous savons quil contient 0 (comme tout
sous-espace vectoriel). Il suit que Ker f = {0}.
Rciproquement, supposons que Ker f = {0} et montrons que f est injective.
Soit u et v dans E tels que f(u) = f(v). Il sagit de montrer que u = v. On a :
0 = f(u) f(v) = f(u v). Donc, u v Ker f. Donc, u v = 0 et u = v.
Exercice 9. Pour chacune des applications linaires donnes dans la section 1, on
pourra dcrire son noyau et son image en en donnant une base.
3. Reprsentation matricielle
3.1. Matrice dune application linaire. Nous savons que les vecteurs dun
espace vectoriel peuvent tre reprs par des vecteurs coordonnes en prsence dune
base. Nous allons voir quune application linaire peut-tre encode par une matrice
en prsence de bases.
La premire remarque est la suivante.
Lemme 3.1. Soient E et F deux espaces vectoriels de dimension nie. Notons q N
la dimension de E. Choisissons une base B
E
= (u
1
, u
2
, ..., u
q
) de E.
(i) Soit f et g deux applications linaires de E dans F. Alors, f = g si et
seulement si pour tout i {1, , n} on a f(u
i
) = g(u
i
).
(ii) Soit (w
1
, , w
q
) une famille quelconque de vecteurs de F. Alors, il existe
une unique application linaire f de E dans F telle que f(u
i
) = w
i
.
Preuve. Soit v un vecteur quelconque de E. Soit
i
ses coordonnes dans la base
B
E
. On a
f(v) = f(
q

i=1

i
u
i
) =
q

i=1

i
f(u
i
).
On en dduit que f(v) ne dpend que de v et des f(u
i
). Ceci montre la premire
assertion du lemme.
Supposons donnes les w
i
et construisons f. Soit v un vecteur quelconque de E et
soient
i
ses coordonnes dans la base B
E
. On pose
f(v) =
q

i=1

i
w
i
.
On vrie facilement que f est linaire et que f(u
i
) = w
i
. Ceci termine la preuve
du lemme.
22 Applications linaires
Le lemme prcdent montre que lapplication
L(E, F) F
q
f (f(u
1
), , f(u
q
))
est une bijection.
Soit maintenant B
F
= (v
1
, v
2
, ..., v
p
) une base de F. Alors, en associant chaque
f(u
i
) ses coordonnes dans la base B
F
on obtient une bijection
L(E, F) M
pq
(K).
Plus prcisment, on pose la dnition suivante.
Dfinition 3.1. Soient E et F deux espaces vectoriels de dimension nie q N

et p N

, respectivement. Soit f une application linaire de E dans F. Choisissons


une base B
E
= (u
1
, u
2
, ..., u
q
) de E et une base B
F
= (v
1
, v
2
, ..., v
p
) de F. On ap-
pelle matrice de f dans les bases B
E
et B
F
la matrice A M
pq
(K), dont la j-ime
colonne est le vecteur des coordonnes du vecteur f(u
j
) dans la base B
F
, pour tout
1 j q.
Notation. La matrice A sera note Mat
B
F
B
E
(f).
Remarque. Attention, dans la notation Mat
B
F
B
E
(f) lordre dcriture des bases
est trs important et peut-tre paradoxal : on crit la base de lespace darrive
F en premier. On remarquera que cette notation est compatible avec la notation
M
pq
(K) : le nombre de ligne qui est la dimension de F est crit en premier.
Le premier rsultat de compatibilit aux oprations de cette construction est le
suivant.
Thorme 3.2. Soient E et F deux espaces vectoriels de dimension nie q N

et p N

, respectivement. On suppose que E et F sont munis de bases B


E
et B
F
.
Alors, lapplication
: L(E, F) M
pq
(K)
f Mat
B
F
B
E
(f)
est un isomorphisme linaire.
Preuve. La principale dicult de cette dmonstration consiste savoir ce quil
faut dmontrer.
Le lemme 3.1 et la discussion qui suit montre que est bijective. Il reste donc
montrer que est linaire cest--dire que pour tout couple (f, g) dapplications
linaires et tout scalaire K, on a
(f +g) = (f) +(g) et
(f) = (f).
Ces identits sont quivalentes
Mat
B
F
B
E
(f +g) = Mat
B
F
B
E
(f) + Mat
B
F
B
E
(g) et
Mat
B
F
B
E
(f) = Mat
B
F
B
E
(f).
La j-ime colonne C
j
de Mat
B
F
B
E
(f + g) est constitue des coordonnes dans la
base B
F
de (f + g)(u
j
) = f(u
j
) + g(u
j
). Ainsi, C
j
est la somme des vecteurs
coordonnes dans B
F
de f(u
j
) et g(u
j
), cest--dire la somme des j-ime colonnes
de Mat
B
F
B
E
(f) et Mat
B
F
B
E
(g).
La seconde identit se montre de manire analogue.
3 Reprsentation matricielle 23
3.2. Produit matriciel et composition. Si la matrice reprsente une ap-
plication linaire f et la matrice colonne un vecteur u, le produit correspond
f(u).
Thorme 3.3. Soit E et F deux espaces vectoriels de dimension nie. Soit B
E
et
B
F
des bases de E et F.
Soit f L(E, F) et u un vecteur de E. On a :
Mat
B
F
(f(u)) = Mat
B
F
B
E
(f)Mat
B
E
(u).
Preuve. Notons q et p les dimensions de E et F. crivons B
E
= (u
1
, , u
q
) et
B
F
= (v
1
, , v
p
). crivons
Mat
B
E
(u) =
_
_
_
x
1
.
.
.
x
q
_
_
_
et Mat
B
F
B
E
(f) = (a
ij
). La dnition de Mat
B
E
(u) implique que u =

q
j=1
x
j
u
j
.
Par linarit de f, on a f(u) =

q
j=1
x
j
f(u
j
). Par dnition de Mat
B
F
B
E
(f), pour
chaque j, les coordonnes de f(u
j
) sont la j-ime colonne, cest--dire f(u
j
) =

p
i=1
a
ij
v
i
. On en dduit que
f(u) =

1 j q
1 i p
a
ij
x
j
v
i
. =
p

i=1
_
_
q

j=1
a
ij
x
j
_
_
v
i
.
Ainsi, la i-ime coordonne de f(u) est

q
j=1
a
ij
x
j
cest--dire la i-ime coordonne
de Mat
B
F
B
E
(f)Mat
B
E
(u). Le thorme en dcoule.
Remarque. La notation Mat
B
F
B
E
(f) est un peu lourde. De plus, nous avons choisi
dcrire les bases B
F
et B
E
en commenant par celle de lespace darrive. Ces choix
ont lavantage de rendre le thorme 3.3 facile mmoriser. Il ressemble encore
une formule de Chasles : les deux bases identiques et cte cte dans lexpression
de Mat
B
F
B
E
(f)Mat
B
E
(u) ont disparu dans Mat
B
F
(f(u)).
Le produit des matrices correspond la composition des applications linaires.
Thorme 3.4. Soit E, F et G trois espaces vectoriels de dimension nie. Soit
B
E
, B
F
et B
G
des bases de E, F et G.
Soit f L(E, F) et g L(F, G). On a :
Mat
B
G
B
E
(g f) = Mat
B
G
B
F
(g)Mat
B
F
B
E
(f).
Preuve. Notons r, q et p les dimensions de E, F et G. crivons B
E
= (u
1
, , u
r
),
B
F
= (v
1
, , v
q
) et B
G
= (w
1
, , w
p
). Fixons 1 j n et montrons que les
j-imes colonnes de Mat
B
G
B
E
(g f) et Mat
B
G
B
F
(g)Mat
B
F
B
E
(f) concident.
La j-ime colonne C
j
de Mat
B
G
B
E
(g f) est constitue des coordonnes de g
f(u
j
) = g(f(u
j
)) dans la base B
G
. Daprs le thorme 3.3, on a donc :
C
j
= Mat
B
G
B
F
(g).Mat
B
F
(f(u
j
)).
24 Applications linaires
Par dnition de Mat
B
F
B
E
(f), Mat
B
F
(f(u
j
)) est la j-ime colonne de Mat
B
F
B
E
(f).
On vient donc de montrer que
C
j
= Mat
B
G
B
F
(g)(C
j
(Mat
B
F
)).
Le lemme 3.1 du chapitre 1 montre que :
C
j
(Mat
B
G
B
F
(g)Mat
B
F
B
E
(f)) = Mat
B
G
B
F
(g)(C
j
(Mat
B
F
)).
On conclut donc que
C
j
= C
j
(Mat
B
G
B
F
(g)Mat
B
F
B
E
(f)),
ce quil fallait dmontrer.
Remarque. Le thorme 3.4 ressemble lui aussi une formule de Chasles : les
bases identiques et cte cte dans lexpression de Mat
B
G
B
F
(g)Mat
B
F
B
E
(f) ont
disparue dans Mat
B
G
B
E
(g f).
4. Application linaire associe une matrice
En prsence de bases, chaque application linaire nous avons associ une matrice.
Dans cette section, nous partons linverse dune matrice et lui associons une
application linaire.
4.1. Dnition et premires proprits. Soit A M
pq
(K). Nous notons
ici les vecteurs de K
p
(et K
q
) en colonne. Ainsi, un vecteur de K
p
est pens comme
une matrice 1 colonne et p lignes. En particulier, le produit AX est bien dni
pour tout X dans K
q
. De plus, AX est une matrice colonne p lignes, cest--dire
un vecteur de K
p
. Considrons lapplication suivante

A : K
q
K
p
X AX.
Les relations suivantes
A(X +Y ) = AX +AY, et A(X) = (AX)
valables pour tout X et Y dans K
q
et tout dans K montrent que

A est linaire.
Le lemme suivant exprime une cohrence entre ces constructions.
Lemme 4.1. Soit B la base canonique de K
q
et C celle de K
p
. On a :
Mat
CB
(

A) = A.
Preuve. Soit E
j
le j-ime vecteur de la base canonique de K
q
. Le vecteur

A(E
j
) =
AE
j
est la j-ime colonne de A. Le lemme suit.
Lapplication A

A est compatible aux oprations , , +. Plus prcisment la
proposition suivante est satisfaite.
Proposition 4.2. Soit A et B dans M
pq
(K) et dans K. Alors,
(i) Si A et B appartiennent M
pq
(K), on a

A+B =

A+

B;
(ii) Si A M
pq
(K) et B M
qr
(K), on a

AB =

A

B.
(iii) Si A M
pq
(K) et K, on a

A =

A.
5 Isomorphisme et application linaire rciproque 25
Preuve. Soit X un vecteur colonne q lignes. On a

A+B(X) = (A + B)X et
(

A+

B)(X) = AX +BX. La premire assertion en dcoule.
On a

AB(X) = (AB)X et (

A

B)(X) = A(BX). La seconde assertion dcoule
donc de lassociativit du produit des matrices. Le problme est que nous navons
pas encore montr cette associativit dans ce cours. Procdons donc autrement.
Soit B, B

, et B

les bases canoniques de de K


p
, K
q
et K
r
. Le thorme 3.4 montre
que
Mat
BB
(

A

B) = Mat
BB
(

A) Mat
B

B
(

B).
Or le lemme 4.1 montre que Mat
BB
(

A) = A, Mat
B

B
(

B). Donc
Mat
BB
(

A

B) = AB.
Or le lemme 4.1 montre que Mat
BB
(

AB) = AB. Donc


Mat
BB
(

A

B) = Mat
BB
(

AB).
La seconde assertion suit.
La troisime assertion se montre de manire analogue.
On peut dduire de cette construction une rgle de calcul sur les matrices que nous
avions admise au premier chapitre.
Corollaire. Soit A M
pq
(K), B M
qr
(K) et C M
rs
(K). Alors, on a
(AB)C = A(BC).
Preuve. En appliquant la proposition 4.2, on trouve
(AB)C = Mat(

AB

C) = Mat((

A

B)

C) = Mat(

A(

B

C)) = Mat(

A

BC) = A(BC).
Remarquons quau cours du calcul prcdent on a aussi utilis la rgle (f g) h =
f (g h) pour les applications.
4.2. Noyau et Image. Soit A M
pq
(K) dont on note C
1
, , C
q
les co-
lonnes.
Proposition 4.3. (i) Limage de

A est lespace vectoriel engendr par C
1
, , C
q
.
(ii) Le vecteur X K
q
de coordonnes x
1
, , x
q
appartient au noyau de

A
si et seulement si
x
1
C
1
+ +x
q
C
q
= 0.
Preuve. Les deux assertions dcoulent du fait suivant :

A(X) = x
1
C
1
+ +x
q
C
q
.

5. Isomorphisme et application linaire rciproque


Dfinition 5.1. Soit E et F deux espaces vectoriels de dimension nie et f : E
F une application linaire. On dit que f est un isomorphisme si f est bijective.
Par dnition, si f est un isomorphisme, on a :
y F !x E f(x) = y.
On peut donc dnir une application rciproque f
1
: F E qui tout y dans
F associe lunique x de E tel que f(x) = y. Cette application vrie :
f
1
f = Id
E
et f f
1
= Id
F
.
26 Applications linaires
Remarque. Attention il nest pas correct de dire que f
1
f = f f
1
! En eet,
ces deux applications nont pas les mmes espaces de dpart et darrive ( moins
que E = F).
Comme f
1
: F E est une application entre deux espaces vectoriels il est
lgitime (sinon naturel) de se demander si elle est linaire. La rponse est oui :
Proposition 5.1. Soit f : E F un isomorphisme. Alors, f
1
: F E est
aussi linaire. Ainsi, f
1
est aussi un isomorphisme.
Preuve. Cette preuve est assez instructive et ncessite de bien comprendre la
dnition de f
1
. Soit y et y

deux lments de F. Posons x = f


1
(y) et x

=
f
1
(y

). Ces deux vecteurs de E sont dnis comme tant les seuls qui vrient les
relations suivantes :
f(x) = y et f(x

) = y

.
La linarit de f implique alors que
f(x +x

) = y +y

.
Ceci est quivalent (une fois que lon sait que f est bijective ce qui est bien le cas
ici)
x +x

= f
1
(y +y

).
En remplaant x et x

, on obtient donc
f
1
(y +y

) = f
1
(y) +f
1
(y

).
On montre de mme la relation
f
1
(y) = f(y),
pour tout K et y F.
Le rsultat suivant est trs utile pour montrer quune application linaire donne
est un isomorphisme.
Proposition 5.2. Soit E et F deux espaces vectoriels de dimension nie et f :
E F une application linaire. Alors, se valent :
(i) f est un isomorphisme ;
(ii) f est injective et dim(E) = dim(F) ;
(iii) f est surjective et dim(E) = dim(F).
Preuve. Commenons par montrer la proprit suivante.
Proprit 1. Si f est injective alors limage de toute famille libre est libre.
Supposons que f est injective. Soit (e
1
, , e
s
) une famille libre de E. Pour montrer
que la famille (f(e
1
), , f(e
s
)) est libre considrons des scalaires (
1
, ,
s
) tels
que

1
f(e
1
) + +
s
f(e
s
) = 0, (5.1)
et montrons que
1
= =
s
= 0. Lgalit (5.1) et la linarit de f impliquent
que
f(
1
e
1
+ +
s
e
s
) = 0.
Comme f est injective, on en dduit que

1
e
1
+ +
s
e
s
= 0.
Or (e
1
, , e
s
) est une famille libre. Donc
1
= =
s
= 0.
5 Isomorphisme et application linaire rciproque 27
Montrer maintenant la proprit suivante.
Proprit 2. Si f est surjective alors limage dune famille gnratrice est gnratrice.
Supposons que f est surjective. Soit (e
1
, , e
s
) une famille gnratrice de E. Mon-
trons que la famille (f(e
1
), , f(e
s
)) engendre F. Soit w un vecteur de F. Il sagit
de montrer quil existe des scalaires (
1
, ,
s
) tels que

1
f(e
1
) + +
s
f(e
s
) = w. (5.2)
Comme f est surjective, il existe v dans E tel que f(v) = w. Comme (e
1
, , e
s
)
engendre F, il existe des scalaires (
1
, ,
s
) tels que

1
e
1
+ +
s
e
s
= v. (5.3)
On obtient lgalit (5.2), en appliquant f lgalit (5.3) (en utilisant la linarit
de f et la proposition 1.1).
Notons s la dimension de E et xons une fois pour toutes une base (e
1
, , e
s
) de E.
Montrons que (i)(ii). Supposons que f est un isomorphisme. Alors f est injec-
tive. Il sagit donc de montrer que dim(E) = dim(F). Les proprits 1 et 2 ci-dessus
montrent respectivement que la famille (f(e
1
), , f(e
s
)) est libre et gnratrice.
Elle est donc une base de F. En particulier dim(F) = s = dim(E).
Montrons que (ii)(iii). Supposons que f est injective et que dim(E) = dim(F).
Il sagit de montrer que f est surjective. La proprit 1 montre que la famille
(f(e
1
), , f(e
s
)) de F est libre. Comme son cardinal est la dimension de F, cest
une base de F. Par ailleurs, limage de F est un sous-espace vectoriel de F conte-
nant les lments de la famille (f(e
1
), , f(e
s
)). Cette image contient donc lespace
vectoriel engendr par cette famille cest--dire F. On en dduit que f est surjective.
Montrons que (iii)(ii). Supposons que f est surjective et que dim(E) = dim(F).
Il sagit de montrer que f est injective, ou encore, que son noyau est rduit {0}.
Soit v dans ce noyau. Soit
1
, ,
s
les coordonnes de v dans la base (e
1
, , e
s
) :
v =
1
e
1
+ +
s
e
s
. (5.4)
La proprit 2 montre que la famille (f(e
1
), , f(e
s
)) de F est gnratrice. Comme
son cardinal est la dimension de F, cest une base de F. En appliquant f lga-
lit (5.4), on obtient
f(v) = 0 =
1
f(e
1
) + +
s
f(e
s
). (5.5)
Comme la famille (f(e
1
), , f(e
s
)) est libre, cela implique que
1
= =
s
= 0.
Mais alors, lgalit (5.4) montre que v = 0.
Soit A et B deux matrices carres de mme taille n. Au chapitre prcdent, nous
avions admis la proposition 4.1 dont lnonc est lquivalence suivante
AB = I
n
BA = I
n
.
Nous pouvons prsent dmontrer cet nonc.
Preuve.[de la proposition 4.1] Soit E lespace vectoriel K
n
. Rappelons que

A et

B
dsignent les endormorphismes de E associs respectivement A et B.
Supposons que AB = I
n
. Alors,

A

B = Id
E
. Montrons que

B est injective. Soit
X un lment du noyau de

B. On a

B(X) = BX = 0 (o 0 est le vecteur colonne
28 Applications linaires
nul de taille n). Donc ABX = A0 = 0. Or ABX = I
n
X = X. Finalement X = 0
et

B est injective. La proposition 5.2 applique

B avec F = E montre que

B est
un isomorphisme. Soit

B
1
son inverse.
Montrons que BA = I
n
ou encore que

B

A = Id
E
. Partons avec lgalit

A

B =
Id
E
Composons par

B gauche :

B

A

B =

B Id
E
=

B.
Composons maintenant par

B
1
droite :

B

A

B

B
1
=

B

B
1
.
Dun ct

B

B
1
= Id
E
et dun autre

B

A

B

B
1
=

B

A (

B

B
1
) =

B

A Id
E
=

B

A. On en dduit que

B

A = Id
E
.
Limplication rciproque sobtient en changeant les rles de A et de B.
Soit A une matrice carre de taille n.
Proposition 5.3. Les assertions suivantes sont quivalentes.
(i) A est inversible ;
(ii) les colonnes de A forment une base de K
n
;
(iii) les lignes de A forment une base de K
n
.
Preuve. Supposons que A est inversible. La surjectivit de

A et la proposition 4.3
montrent que les colonnes de A engendrent K
n
. Comme elles forment une famille
n lments de lespace vectoriel K
n
de dimension n, la seconde assertion en dcoule.
Supposons rciproquement que les colonnes de A forment une base de K
n
. Alors, la
proposition 4.3 montre que

A est surjective et injective. Il suit que A est inversible.
La proposition 5.1 montre que A est inversible si et seulement si
t
A lest. En ap-
pliquant ce que lon vient de montrer
t
A, on termine la preuve de la proposition.

6. Changements de bases
6.1. Matrices de lidentit. Soit E un espace vectoriel. Considrons lap-
plication identit :
Id : E E
x x.
Soit B = (e
1
, , e
n
) une base de E. On vrie que la matrice de lidentit dans la
base B est la suivante :
Mat
BB
(Id) =
_
_
_
_
_
_
1 0 0
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0 1
_
_
_
_
_
_
= I
n
.
La matrice I
n
est appele matrice identit.
La matrice identit est donc la matrice de lapplication identit si lon utilise la
mme base B au dpart et larrive. En revanche, si lon utilise deux bases di-
rentes nous allons voir que lon obtient des matrices de lapplication identit bi-
zarres . Ces matrices vont savrer trs utiles par la suite.
Supposons donc que lon ait une deuxime base C = (f
1
, , f
n
) de E. Considrons
la matrice de lidentit Mat
BC
(Id).
6 Changements de bases 29
La j-ime colonne de Mat
BC
(Id) est constitue des
coordonnes de Id(f
j
) = f
j
dans la base B.
Supposons que B est xe. La donne de C est la donne de n vecteurs. Si chacun
deux est donn par ses coordonnes dans B, on obtient une famille de n vecteurs
colonnes. Mettant ces n vecteurs cte cte, on obtient une matrice nn. Lencadr
ci-dessus dit que cette matrice nest autre que Mat
BC
(Id).
Exercice 10. Considrons lespace E = R
3
. Soit B la base canonique de E. Consi-
drons la famille
C = (
_
_
2
1
0
_
_
,
_
_
1
1
0
_
_
,
_
_
7
5
3
_
_
).
(i) Vrier que C est une base de R
3
.
(ii) Vrier que
Mat
BC
(Id) =
_
_
2 1 7
1 1 5
0 0 3
_
_
.
(iii) Soit (E
1
, E
2
, E
3
) les trois vecteurs de B. Dterminer les coordonnes de
chacun des E
i
(pour i = 1, 2, 3) dans la base C.
(iv) En dduire, la matrice Mat
C B
(Id).
Remarque. Comme lexercice prcdent le montre les deux matrices Mat
BC
(Id)
et Mat
C B
(Id) sont direntes. Il convient donc de faire particulirement attention
ne pas les confondre.
Par exemple, les vecteurs colonnes de Mat
BC
(Id) sont les coordonnes des vecteurs
de C dans la base B. Nous vous invitons ne pas retenir cette phrase par coeur mais
la retrouver chaque fois partir de la dnition de la notation Mat
B
F
B
E
(f).
Le lien entre Mat
BC
(Id) et Mat
C B
(Id) est le suivant.
Proposition 6.1. Soit E un espace vectoriel de dimension nie muni de deux bases
B et C. Alors, on a la relation
Mat
BC
(Id) = (Mat
C B
(Id))
1
.
Preuve. On part de la formule vidente Id Id = Id. On lui applique le thorme
3.4 pour obtenir
Mat
BC
(Id).Mat
C B
(Id) = Mat
BB
(Id) = I
n
.
La proposition en dcoule.
6.2. Cas des vecteurs. Soit E un espace vectoriel muni de deux bases B
et C. Un vecteur de E est reprsent par deux vecteurs colonnes suivant que lon
utilise la base B ou C. On se propose ici de comprendre comment passer dun de ces
vecteurs colonnes lautre. Nous allons voir que la matrice Mat
BC
(Id) peut servir
cela. En particulier, la matrice Mat
BC
(Id) est souvent appel matrice de passage.
30 Applications linaires
Remarque. On trouve quelquefois les termes matrice de passage de la base B
la base C et matrice de passage de la base C la base B pour dsigner les matrices
Mat
BC
(Id) et Mat
C B
(Id). Il est dicile (et inutile) de se souvenir quel terme cor-
respond quelle matrice. Dans ce cours, nous viterons volontairement dutiliser
ces termes.
Fixons un vecteur v de E. Puisque lon a deux bases B et C, on a deux vecteurs
coordonnes pour reprsenter v :
Mat
B
(v) et Mat
C
(v).
Le thorme 3.3 appliqu lidentit
v = Id(v)
donne
Mat
B
(v) = Mat
BC
(Id).Mat
C
(v);
Mat
C
(v) = Mat
C B
(Id).Mat
B
(v).
Exercice 11. On reprend les notations de lexercice 10. Calculer les corrdonnes
du vecteur
_
_
2
1
1
_
_
dans la base C.
6.3. Cas des applications linaires. Soit maintenant E et F deux espaces
vectoriels. Soit B
E
et C
E
(resp. B
F
et C
F
) deux bases de E (resp. de F).
Soit maintenant f : E F une application linaire. Comme nous avons plusieurs
bases la matrice f est reprsente par deux matrices
Mat
B
F
B
E
(f) et Mat
C
F
C
E
(f).
Les matrices de lidentit permettent de passer de lune de ces matrices lautre.
Plus prcisment, le thorme 3.4 appliqu lgalit
f = Id f Id
donne
Mat
C
F
C
E
(f) = Mat
C
F
B
F
(Id).Mat
B
F
B
E
(f).Mat
B
E
C
E
(Id).
Remarque. Vous pouvez constater que la section 6 ne contient aucun nonc
qui soit prsent comme proposition ou thorme. En eet, nous pensons quil est
prfrable de retenir dune part les thormes 3.3 et 3.4 et dautre part le fait quils
permettent de changer de bases lorsquon les applique des expressions comme
v = Id(v) ;
f = Id f Id ;
f = Id f ; et
f = f Id.
CHAPITRE 3
Thorme du rang
Sommaire
1. Somme directe de sous-espaces vectoriels 32
1.1. Somme de sous-espaces 32
1.2. Le cas de deux sous-espaces 32
1.3. Le cas de s sous-espaces 34
2. Projection et symtrie 35
3. Thorme du rang 35
32 Thorme du rang
1. Somme directe de sous-espaces vectoriels
1.1. Somme de sous-espaces. Soit E un espace vectoriel. Soit E
1
, , E
s
des sous-espaces vectoriels de E.
Dfinition 1.1. La somme E
1
+ + E
s
des sous-espaces E
i
est lensemble des
lments de E de la forme v
1
+ +v
s
pour des v
i
dans E
i
.
On vrie que E
1
+ +E
s
est un sous-espace vectoriel de E.
1.2. Le cas de deux sous-espaces.
Dfinition 1.2. Soit E
1
et E
2
deux sous-espaces vectoriels de E. On dit que E
1
et E
2
sont en somme directe, et on note E
1
E
2
, si et seulement si
E
1
E
2
= {0}.
La dnition de E
1
+E
2
signie que
v E
1
+E
2
(v
1
, v
2
) E
1
E
2
t.q. v = v
1
+v
2
. (1.1)
La notion de somme directe est relie la question de lunicit dans la condi-
tion (1.1).
Lemme 1.1. Les sous-espaces vectoriels E
1
et E
2
sont en somme directe si et seule-
ment si
v E
1
+E
2
!(v
1
, v
2
) E
1
E
2
t.q. v = v
1
+v
2
. (1.2)
Preuve. Supposons que E
1
et E
2
sont en somme directe. Daprs (1.1), il sut de
montrer lunicit. Soit donc v dans E
1
+E
2
, (v
1
, v
2
) et (w
1
, w
2
) dans E
1
E
2
tels
que v = v
1
+v
2
= w
1
+w
2
.
Il sagit de montrer que (v
1
, v
2
) = (w
1
, w
2
) cest--dire que v
1
= w
1
et v
2
= w
2
.
On a
v
1
+v
2
= w
1
+w
2
,
donc
v
1
w
1
= w
2
v
2
.
Or, v
1
et w
1
appartiennent E
1
qui est un sous-espace vectoriel de E, donc v
1
w
1
appartient E
1
. De mme, w
2
v
2
appartient E
2
. Comme ces deux vecteurs sont
gaux ils appartiennent E
1
E
2
qui est rduit 0 par hypothse. Ainsi,
v
1
w
1
= v
2
w
2
= 0.
Il suit que v
1
= w
1
et v
2
= w
2
.
Rciproquement, supposons que la condition (1.2) est satisfaite. Il sagit de montrer
que E
1
E
2
= {0}. Soit w E
1
E
2
. Alors, on a lgalit suivante
0 = 0 + 0 = w + (w).
Or (0, 0) et (w, w) appartiennent E
1
E
2
. Daprs lunicit dans (1.2), on a
(0, 0) = (w, w). En particulier, w = 0.
Lorsque E
1
et E
2
sont en somme directe, la somme E
1
+E
2
est note E
1
E
2
.
Dfinition 1.3. Deux sous-espaces vectoriels E
1
et E
2
de E tels que
(i) E = E
1
+E
2
et
(ii) E
1
E
2
= {0}
1 Somme directe de sous-espaces vectoriels 33
sont appels supplmentaires. On dira aussi que E
1
est un supplmentaire de E
2
et
vice-versa. Dans ce cas, on note E = E
1
E
2
et on a
v E !(v
1
, v
2
) E
1
E
2
t.q. v = v
1
+v
2
. (1.3)
Le rsultat suivant assure lexistence dun supplmentaire.
Proposition 1.2. Soit E un espace vectoriel de dimension nie et F un sous-
espace vectoriel de E. Alors, il existe un sous-espace vectoriel S de E tel que
E = F S.
Preuve. Notons n la dimension de E et d celle de F. Soit (e
1
, , e
d
) une base de
F. Daprs le thorme de la base incomplte, il existe une base de E de la forme
B = (e
1
, , e
d
, e
d+1
, , e
n
). Considrons le sous-espace vectoriel S engendr par
la famille (e
d+1
, , e
n
). Nous allons montrer que S convient cest--dire quil
satisfait
(i) E = F +S et
(ii) F S = {0}.
Pour montrer la premire assertion prenons un vecteur quelconque v de E. Comme
B est une base de E, il existe des scalaires
i
K tels que v =
1
e
1
+ +
n
e
n
.
Posons f =
1
e
1
+ +
d
e
d
et s =
d+1
e
d+1
+ +
n
e
n
. Bien sr, on a v = f +s.
Or, f F et s S. Ceci prouve la premire assertion.
Pour montrer la seconde assertion prenons un vecteur quelconque v de F S.
Puisque v est dans S et que (e
1
, , e
d
) est une base de F, il existe des scalaires

i
K pour 1 i d tels que v =
1
e
1
+ +
d
e
d
. Puisque v est dans F et
que (e
d+1
, , e
n
) engendre S (en fait cest aussi une base), il existe des scalaires

i
K pour d + 1 i n tels que v =
d+1
e
d+1
+ +
n
e
n
. Ces deux critures
de v impliquent que

1
e
1
+ +
d
e
d

d+1
e
d+1

n
e
n
= 0.
Comme B est une base, on peut en dduire que
1
= =
n
= 0. Mais alors, la
premire criture de v (ou la seconde) implique que v = 0.
On peut constater que le supplmentaire S construit dans la preuve ci-dessus a
dimension n d. Cela est en fait le cas de tout supplmentaire de F comme le
montre la proposition suivante.
Proposition 1.3. Supposons que E
1
et E
2
sont en somme directe. Soit B
1
=
(e
1
, , e
d
1
) une base de E
1
et B
2
= (f
1
, , f
d
2
) une base de E
2
.
Alors la concatnation B := (e
1
, , e
d
1
, f
1
, , f
d
2
) des deux bases est une base
de E
1
E
2
. En particulier, on a
dim(E
1
E
2
) = dim(E
1
) + dim(E
2
).
Preuve. Commenons par montrer que B est libre. Soit donc
1
, ,
d
1
,
1
, ,
d
2
des scalaires tels que

1
e
1
+ +
d
1
e
d
1
+
1
f
1
+ +
d
2
f
d
2
= 0. (1.4)
Considrons le vecteur v =
1
e
1
+ +
d
1
e
d
1
. Comme B
1
est une base de E
1
,
v appartient E
1
. Lidentit (1.4) implique que v = (
1
f
1
+ +
d
2
f
d
2
). En
particulier, v appartient E
2
. Comme v E
1
E
2
= {0}, on en dduit que
0 = v =
1
e
1
+ +
d
1
e
d
1
= (
1
f
1
+ +
d
2
f
d
2
). (1.5)
34 Thorme du rang
Comme B
1
et B
2
sont libres les identits (1.5) impliquent dune part que
1
= =

d
1
= 0 et dautre part que
1
= =
d
2
= 0. Ce qui montre que B est libre.
Montrons que B est gnratrice. Soit v dans E
1
+ E
2
. Il existe v
1
et v
2
dans E
1
et E
2
tels que v = v
1
+ v
2
. Chaque v
i
est combinaison linaire des lments de B
i
donc de B. On en dduit que v est combinaison linaire des lments de B.
Larmation sur la dimension dcoule de la dnition de la dimension est du fait
que le cardinal de B est la somme des cardinaux de B
1
et B
2
.
On peut maintenant montrer une caractrisation souvent utile du caractre suppl-
mentaire.
Proposition 1.4. Soit E
1
et E
2
deux sous-espace vectoriel dun espace vectoriel
de dimension nie E. Alors se valent :
(i) E = E
1
E
2
;
(ii) E
1
E
2
= {0} et dim(E) = dim(E
1
) + dim(E
2
).
Preuve. Le fait que la premire assertion implique la seconde dcoule directement
de la dnition et de la proposition 1.3.
Montrons la rciproque. Il sut de montrer que E
1
+E
2
= E. Comme E
1
+E
2
est
un sous-espace vectoriel de E, il sut de montrer que dim(E
1
+ E
2
) dim(E).
La proposition 1.3 montre que dim(E
1
E
2
) = dim(E
1
) +dim(E
2
). Or, dim(E
1
) +
dim(E
2
) = dim(E). Lingalit cherche en dcoule.
Exemple 1.1. Considrons de cas de E = R
2
. Cherchons toutes les paires de
sous-espaces vectoriels E
1
et E
2
de E tels que E = E
1
E
2
. La proposition 1.4
montre que ncessairement : 2 = dim(E) = dim(E
1
) + dim(E
2
). Ainsi, le couple
(dim(E
1
), dim(E
2
)) a trois possibilits (0, 2), (1, 1) et (2, 0). Comme {0} (resp. E)
est le seul sous-espace vectoriel de dimension 0 (resp. 2), les deux cas extrmes
donnent E
1
= {0} et E
2
= E et vice versa. Rciproquement, on a bien E = {0}E.
Supposons maintenant que dim(E
1
) = dim(E
2
) = 1. Ainsi, E
1
et E
2
sont deux
droites vectorielles de R
2
. La proposition 1.4 montre que E = E
1
E
2
si et seulement
E
1
E
2
= {0} cest--dire si et seulement si les deux droites sont distinctes.
Exercice 12. Montrer que dans R
3
, les paires de sous-espaces vectoriels E
1
et E
2
de E tels que E = E
1
E
2
sont de lun des deux types suivants :
(i) E = {0} E ;
(ii) E = d P, o d est une droite vectorielle qui nest pas contenue dans le
plan vectoriel P.
1.3. Le cas de s sous-espaces. Nous allons dnir la notation E
1
E
s
pour s sous-espaces vectoriels de E. Il convient de remarquer que la dnition est
plus complique que lide nave E
i
E
j
= {0} pour tout i = j.
Dfinition 1.4. Soit E
1
, , E
s
des sous-espaces vectoriels de E. On dit quils
sont en somme directe et on note
E
1
E
s
si et seulement si pour tout i
E
i

_
_

j=i
E
j
_
_
= {0}.
3 Thorme du rang 35
Cette dnition a lavantage de se comporter comme dans le cas de deux sous-
espaces. Ainsi, si E
1
E
s
alors
v E
1
+ +E
s
!(v
1
, , v
s
) E
1
E
s
v =
s

i=1
v
i
,
et
dim(E
1
+ +E
s
) =
s

i=1
dim(E
i
).
2. Projection et symtrie
Plaons nous dans la situation suivante E = E
1
E
2
. Comme nous lavons vu tout
vecteur v de E scrit de manire unique sous la forme v = v
1
+v
2
avec v
i
dans E
i
pour i = 1, 2. On peut utiliser cette criture pour dnir les applications suivantes :
p : E E
v = v
1
+v
2
v
1
et
s : E E
v = v
1
+v
2
v
1
v
2
.
Exercice 13. (i) Dans R
2
, considrer le cas o les E
i
sont les axes de co-
ordonnes. Dcrire alors gomtriquement p et s.
(ii) Dans R
2
, considrer le cas o les E
i
sont deux droites vectorielles dis-
tinctes et non orthogonales. Dcrire alors gomtriquement p et s.
Lapplication p est appele projection sur E
1
paralllement E
2
. Lapplication s
est appele symtrie par rapport E
1
paralllement E
2
. Les principales proprits
de ces applications sont rsumes dans la proposition suivante.
Proposition 2.1. (i) Les applications p et s sont linaires.
(ii) Le noyau de p est E
2
, son image est E
1
.
(iii) Lapplication s est un isomorphisme.
(iv) On a p p = p et s s = Id.
Preuve. La dmonstration est laisse en exercice.
3. Thorme du rang
Dfinition 3.1. Le rang dune application linaire f est la dimension de son image.
Il est not rg(f).
Un rsultat central en algbre linaire est le thorme du rang ci-dessous.
Thorme 3.1. Soit E et F deux espaces vectoriels de dimension nie et f :
E F une application linaire. Alors,
dim(E) = rg(f) + dim(Ker(f)).
Preuve. Daprs la proposition 1.2, il existe un sous-espace S de E tel que
E = Ker(f) S. (3.1)
Remarquons que par la proposition 1.3, dim(S) = dim(E) dim(Kerf) et que par
dnition rg(f) = dim(Im(f)). Ainsi, lgalit dmontrer est quivalente
dim(S) = dim(Imf). (3.2)
36 Thorme du rang
Dans le but de montrer lgalit (3.2), considrons lapplication
g : S Im(f)
x f(x).
Si nous montrons que g est un isomorphisme linaire nous aurons termin puisque
deux espaces vectoriels isomorphes ont mme dimension.
Commenons par constater que g est linaire. En eet, S et Im(f) sont bien des
espaces vectoriels. De plus, si x et y appartiennent S, on a g(x +y) = f(x +y) =
f(x) +f(y) car f est linaire et f(x) +f(y) = g(x) +g(y) car x et y appartiennent
S. Lidentit g(x) = g(x) se montre de manire analogue.
Montrons que g est surjective. Soit y Im(f) ; xons un x E tel que f(x) = y.
Comme E = Ker(f) +S, il existe k Ker(f) et s S tel que x = k +s. Or,
y = f(x) = f(k +s) = f(k) +f(s) = 0 +f(s) = g(s).
Lavant dernire galit est consquence du fait que k appartient Ker(f) et la
dernire du fait que s appartient S. Ainsi, on a trouv un antcdent par g
nimporte quel y dans Im(f). Ceci montre bien la surjectivit de g.
Montrons que g est injective. Puisque g est linaire, il sut de vrier que Ker(g) =
{0}. Soit x Ker(g). Par dnition, x appartient lespace de dpart de lapplica-
tion g, cest--dire x appartient S. Par ailleurs, on a 0 = g(x) = f(x). Ainsi, x
appartient Ker(f). Finalement, x appartient S Ker(f) qui est rduit 0 par
la condition 3.1. Donc x = 0 et g est injective.
Les trois derniers paragraphes montrent bien que g est un isomorphisme linaire. En
particulier ses espaces de dpart et darrive ont mme dimension. Ce quil fallait
dmontrer.
Nous allons ici expliquer de manire intuitive pourquoi le thorme du rang est vrai.
Soit donc f comme dans lnonc. La dimension de E est le degr de libert (nombre
de paramtres) que lon a pour choisir un point de E. Imaginons maintenant que
pour choisir un vecteur x de E nous choisissions dabord son image y par f et
ensuite x proprement parler.
Bien sr y doit appartenir limage de f. Pour choisir y nous devons donc xer
dim(Im(f)) = rg(f) paramtres. Maintenant que y est choisi, nous devons choisir
un vecteur dans f
1
(y).
Lemme 3.2. Soit y dans Im(f) et x
0
tel que y = f(x
0
). Alors lapplication x


x
0
+x

est une bijection de Ker(f) sur f


1
(y).
En vertu du lemme choisir un point de f
1
(y) revient choisir un point de Ker(f).
Pour ce faire, nous avons dim(Kerf) paramtres libres.
CHAPITRE 4
Permutations
Sommaire
1. Introduction 38
2. Les permutations comme applications 38
2.1. Rappels sur les applications 38
2.2. Permutations de lensemble {1, , n} 38
3. Cycles et transpositions 40
4. Signature 44
4.1. Paires en inversion 44
4.2. Signature 45
38 Permutations
1. Introduction
Une permutation de n objets distincts rangs dans un certain ordre, correspond
un changement de lordre de succession de ces n objets. Ainsi, elle est une faon
de rarranger les n objets. On peut trouver des exemples de permutations dans
la vie courante ou dans de nombreux jeux. Les oprations suivantes reviennent
par exemple appliquer des permutations : classer une liste de nom par ordre
alphabtique, battre un jeu de carte, eectuer une succession de mouvements au
Rubiks Cube. . . Dans ce cours, les permutations seront utilises pour dnir le
dterminant.
2. Les permutations comme applications
2.1. Rappels sur les applications. Nous rappelons ici les notions dinjec-
tivit, surjectivit et bijection. Soit X et Y deux ensembles et f : X Y une
application. Pour chaque y Y , on considre lquation
f(x) = y, (2.1)
dinconnue x.
On dit que f est surjective si pour tout y Y , lquation (2.1) a au moins une
solution. Autrement dit, f est surjective si tout lment de Y est de la forme f(x)
pour au moins un lment x de X.
On dit que f est injective si pour tout y Y , lquation (2.1) a au plus une
solution. Autrement dit, f est injective si
x, x

X f(x) = f(x

) x = x

.
Malgr une apparente ressemblance, les notions dinjectivit et de surjectivit sont
trs direntes. Pour les comprendre, vous trouverez des exemples varis dans les
exercices.
On dit que lapplication f est bijective si elle est la fois injective et surjective.
Cela signie que pour tout y dans Y , lquation (2.1) a une unique solution. Ainsi,
f est bijective si et seulement si
y Y !x X f(x) = y.
Exemple 2.1. Soit n un entier naturel non nul. Considrons X = {1, , n}. Une
application f : X Y est une suite de n lments de Y . Pour i X, on note y
i
son image. Formons un n-uple (y
1
, , y
n
) avec les images de 1, , n.
On vriera que f est surjective si chaque lment de Y apparat comme une com-
posante du n-uple (y
1
, , y
n
). On vriera que f est injective si les y
i
sont deux
deux distincts.
2.2. Permutations de lensemble {1, , n}.
2.2.1 On sintresse maintenant aux applications de lensemble {1, , n}
dans lui-mme :
: {1, , n} {1, , n}
i (i).
On notera de la manire suivante :
_
1 2 n
(1) (2) (n)
_
.
2 Les permutations comme applications 39
Si est une bijection nous dirons que cest une permutation de lensemble {1, , n}.
Remarquons que lapplication est bijective si et seulement si chacun des entiers
de {1, , n} apparat une fois et une seule dans la liste ((1), (2), , (n)).
Exemple 2.2. La premire des 2 applications suivantes est une bijection de len-
semble {1, , 5}, la seconde non :
_
1 2 3 4 5
4 3 2 5 1
_ _
1 2 3 4 5
4 1 2 5 1
_
.
On notera S
n
lensemble des permutations de lensemble {1, , n}. La permutation
identit, note Id
n
est lapplication de {1, , n} dans lui-mme dnie par Id
n
(i) =
i pour tout i.
2.2.2 Dnombrement. On peut dores et dj dterminer le cardinal de S
n
.
Proposition 2.1. Le cardinal de S
n
est n!.
Preuve. Comme souvent lorsque lon veut dnombrer un ensemble imaginons que
nous voulions numrer (cest--dire lister) tous les lments de S
n
. Pour dterminer
une permutation
=
_
1 2 n
(1) (2) (n)
_
,
on peut choisir (1) puis (2), et enn (n).
Pour (1) nous pouvons prendre nimporte lequel des lments de {1, , n} : nous
avons n choix. En revanche (2) doit tre dirent de (1) : nous avons n1 choix.
Lorsque nous arrivons choisir (k), les valeurs (1), , (k1) sont dj choisies
ce qui exclut k1 des n possibilits : nous avons donc nk+1 choix. On en dduit
que le cardinal de S
n
vaut
n

k=1
(n k + 1) = n!.

Remarque. Pour bien comprendre cette dmonstration il convient dnumrer les


6 lments de S
3
et les 24 lments de S
4
.
2.2.3 Composition. De manire gnrale la composition de deux bijections
est une bijection. Ainsi, en composant deux lments de S
n
on obtient un troisime
lment de S
n
. On obtient ainsi une application
S
n
S
n
S
n
(, ) .
Considrons lexemple suivant.
Exemple 2.3. Dans S
5
on considre :
=
_
1 2 3 4 5
4 3 2 5 1
_
=
_
1 2 3 4 5
2 1 5 3 4
_
.
On a par exemple (1) = ((1)) = (2) = 3. On vrie de mme que
=
_
1 2 3 4 5
3 4 1 2 5
_
.
40 Permutations
2.2.4 Rciproque. Soit une permutation de lensemble {1, , n}. Comme
est bijective, on a :
j {1, , n} !i {1, , n} (i) = j.
La phrase ci-dessus permet dassocier chaque j llment i. On obtient ainsi une
permutation note
1
de lensemble {1, , n}. Celle-ci vrie

1
=
1
= Id
n
.
Exercice 14. Soit et deux permutations de lensemble {1, , n}. Montrer
que si = Id
n
alors = Id
n
.
2.2.5 Rgles de calcul. Les oprations de composition et dinverse vrient la
Proposition 2.2. Soit un lment de S
n
. On a :
(i) Id
n
= Id
n
= ; (lidentit est un lment neutre)
(ii)
1
=
1
= Id
n
.
(iii) Soit

et

deux lments de S
n
. On a :
(

= (

).
On dit que la composition est associative.
Preuve. Ces proprits sont en fait des proprits classiques de la composition
des applications.
3. Cycles et transpositions
3.1 Nous considrons maintenant les permutations les plus simples aprs liden-
tit.
Dfinition 3.1. (i) Soit dans S
n
. Un lment i {1, , n} est appel
point xe de si (i) = i.
(ii) Une transposition est un lment de S
n
qui a exactement n 2 points
xes.
Cette dnition est un peu nigmatique. Pour la comprendre il convient de faire
lexercice suivant.
Exercice 15. (i) Montrer que lidentit est le seul lment de S
n
qui a n
points xes.
(ii) Montrer quaucun lment de S
n
na exactement n 1 points xes.
(iii) Soit une transposition de S
n
. Soit i et j les deux lments de {1, , n}
qui ne sont pas des points xes. Montrer que
(k) = k si k {i, j}
j si k = i
i si k = j.
En particulier, la transposition ne dpend que de i et j : on la note (i j).
(iv) Montrer que = Id
n
.
(v) Montrer que dans S
3
, outre lidentit, les seules permutations vriant
cette relation sont les transposition.
(vi) Ceci est-il encore vrai dans S
4
?
3 Cycles et transpositions 41
La transposition (i j) change i et j et xe tous les autres lments. Par exemple
on a (2 4) dans S
6
:
(2 4) =
_
1 2 3 4 5 6
1 4 3 2 5 6
_
.
Remarque. La notation (i j) est un peu incomplte. En eet, il faut prciser n.
Nous utiliserons pourtant cette notation tant elle est standard. Il convient de garder
cette lacune en tte. On remarque aussi que (i j) = (j i).
3.2 Ici vient le premier rsultat signicatif de ce chapitre.
Thorme 3.1. Toute permutation de S
n
(n 2) est la compose dun nombre
ni de transpositions.
Preuve. Lide de la preuve est la suivante. Soit S
n
. En composant avec
une transposition on se ramne au cas o (n) = n. Dans ce cas, tout se passe sur
les n 1 premiers indices : on peut donc faire une rcurrence. Prcisons.
Rglons dabord le cas de lidentit : Id = (1 2) (1, 2). Nous faisons une rcurrence
sur n.
Initialisation. n = 2. Alors S
2
= {Id
2
, (1 2)}. Le thorme est donc vident.
Hrdit. Fixons n 3 et supposons le thorme connu pour les lments de S
n1
.
Soit S
n
. Supposons pour commencer que (n) = n et considrons la restriction
de {1, , n 1}. Puisque (n) = n, est un lment de S
n1
. Daprs
lhypothse de rcurrence on a une criture
= (i
1
j
1
) (i
k
j
k
),
o les (i
l
j
l
) sont des transpositions de S
n1
. On vrie aisment que
= (i
1
j
1
) (i
k
j
k
).
Remarquons que dans lidentit ci-dessus les transpositions sont dans S
n
. Supposons
maintenant que (n) = n et posons i = (n). Considrons

= (i n) . On a

(n) = n. Daprs le cas prcdent on a une criture :


(i n) = (i
1
j
1
) (i
k
j
k
).
En composant gauche par (i n) on obtient :
(i n) (i n) =

= (i n) (i
1
j
1
) (i
k
j
k
).
Or (i n) (i n) = Id ; donc :
= (i n) (i
1
j
1
) (i
k
j
k
).
Ceci conclut la preuve.
Remarque. Lnonc est encore vrai pour n = 1 avec la convention que la com-
pose de 0 transposition est lidentit.
Un exercice pour approfondir votre comprhension de cette preuve.
Exercice 16. Montrer que toute permutation de S
n
est la compose dau plus n1
transpositions.
3.3 Cycles. Un cycle est une permutation dun type particulier. Plus prcis-
ment, cest une permutation qui permute circulairement certains lments et xe
les autres.
42 Permutations
Dfinition 3.2. Plus formellement, soit a
1
, , a
p
des lments deux deux dis-
tincts de {1, , n} avec p 2. Le cycle not (a
1
a
p
) est la permutation de
S
n
dnie par :
(a
i
) = a
i+1
pour i = 1, , p 1
(a
p
) = a
1
(x) = x si x {a
1
, , a
p
}
Nous dnissons la longueur du cycle ci-dessus comme tant lentier p. Lensemble
{a
1
, , a
p
} est appel le support du cycle ; cest le complmentaire de lensemble
des points xes du cycle.
Le premier exemple de cycle sont les transpositions : ce sont les cycles de longueur
2. Voici un autre exemple.
Exemple 3.1. Dans S
9
, on a :
(2 6 9 4 3) =
_
1 2 3 4 5 6 7 8 9
1 6 2 3 5 9 7 8 4
_
.
Remarque. Un mme cycle peut scrire de plusieurs manires. Plus prcisment,
on peut crire le cycle (a
1
a
p
) en commenant par nimporte lequel des a
i
. Par
exemple, on a :
(2 6 9 4 3) = (9 4 3 2 6).
Une autre rgle de manipulation des cycles est donne par le
Lemme 3.2. Deux cycles c
1
et c
2
de S
n
supports disjoints commutent ( cest--dire
c
1
c
2
= c
2
c
1
).
Preuve. Soit x dans {1, , n}. Il sagit de montrer que c
1
c
2
(x) = c
2
c
1
(x).
On crit c
1
= (a
1
a
p
) et c
2
= (b
1
b
q
). Par hypothse, les ensembles {a
1
, , a
p
}
et {b
1
, , b
q
} sont disjoints. En particulier, x vrie une des trois assertions sui-
vantes :
(i) x {a
1
, , a
p
} et x {b
1
, , b
q
} ;
(ii) x {a
1
, , a
p
} et x {b
1
, , b
q
} ;
(iii) x {a
1
, , a
p
} et x {b
1
, , b
q
}.
Dans chacun des cas on vrie respectivement que :
(i) c
1
c
2
(x) = c
1
(x) et c
2
c
1
(x) = c
1
(x) ;
(ii) c
1
c
2
(x) = c
2
(x) et c
2
c
1
(x) = c
2
(x) ;
(iii) c
1
c
2
(x) = x et c
2
c
1
(x) = x.
Dans chacun des cas, on a c
1
c
2
(x) = c
2
c
1
(x).
Nous allons tudier le comportement de la suite des itrs dun lment. Pour
S
n
, k N et x un lment de lensemble {1, , n}, on dnit
k
(x) comme
tant llment de lensemble {1, , n} dni par la relation de rcurrence sur k
suivante :

0
(x) = x,

1
(x) = (x),

k
(x) = (
k1
(x)).
Lemme 3.3. Soit une permutation de S
n
. Soit x un lment de lensemble {1, , n}.
Il existe un entier k > 0 tel que
k
(x) = x.
Soit k
min
le plus petit entier strictement positif vriant
k
min
(x) = x.
Alors, les lments
0
(x), ,
k
min
1
(x) sont deux deux distincts.
3 Cycles et transpositions 43
Preuve. Comme lensemble {1, , n} est ni il existe ncessairement 0 k
1
< k
2
tels que
k
1
(x) =
k
2
(x). En appliquant la permutation
1
k
1
fois, on obtient
x =
k
2
k
1
(x) qui est bien une identit de la forme cherche.
Si il existe 0 k
1
< k
2
< k
min
tels que
k1
(x) =
k
2
(x), le mme calcul montre
que x =
k
2
k
1
(x). Ceci contredit la minimalit de k
min
puisque 0 < k
2
k
1
< k
min
.

Les cycles permettent dcrire toute permutation :


Thorme 3.4. Toute permutation de S
n
est la compose de cycles supports
disjoints. Plus formellement, pour toute permutation S
n
, il existe des cycles
c
1
, , c
k
dont les supports sont deux deux disjoints et tels que
= c
1
c
2
c
k
.
De plus, lensemble des cycles c
i
ne dpend que de (seul leur ordre peut varier).
Remarque. An de rendre lnonc prcdent exact pour = Id, on adopte la
convention suivante : la compose de k = 0 cycle vaut lidentit.
Preuve. On construit les cycles successivement laide du lemme 3.3.
Commenons par montrer le
Fait. Soit x et y dans lensemble {1, , n}. Considrons les deux ensembles O
x
=
{
k
(x) : k N} et O
y
= {
k
(y) : k N} considr dans le lemme 3.3. Alors
(i) soit O
x
O
y
= ;
(ii) soit O
x
= O
y
.
Pour montrer une alternative (un ou), on nie une des deux propositions et on montre
lautre. Supposons donc que O
x
O
y
= . Soit z O
x
O
y
. Il existe k et l dans N
tels que z =
k
(x) =
l
(y). Quitte changer x et y (qui ont le mme rle), on peut
supposer que l k. On applique
1
, k fois z. On trouve (
1
)
k
(z) = x =
lk
(y).
Donc pour tout m dans N,
m
(x) =
m+lk
(y) appartient O
y
. Il vient O
x
O
y
.
Montrons maintenant linclusion rciproque. Soit k
0
tel que
k
0
(y) = y. Alors pour
tout a dans N, on a
ak
0
(y) = y. Soit a dans N tel que ak
0
l k. En appliquant
, ak
0
l +k fois lgalit x =
lk
(y), on obtient
ak
0
l+k
(x) = y. On en dduit
que y O
x
puis que O
y
O
x
. Ceci achve la preuve du fait.
Le fait montre que les ensembles O
x
pour x dans {1, , n} sont deux deux
disjoints. Or ils recouvrent {1, , n}. Ainsi, il existe x
1
, , x
k
dans {1, , n}
tels que {1, , n} soit la runion disjointe des O
x
i
pour i = 1, , k.
Pour chaque i notons k
i
lentier minimal tel que
k
i
(x
i
) = x
i
(voir lemme 3.3).
Considrons le cycle c
i
= (x
i
(x
i
)
k
i
1
(x)). On vrie aisment que pour tout
y dans O
x
i
, c
i
(y) = (y). Par ailleurs, les c
1
, , c
k
ont des supports disjoints.
Soit y quelconque dans {1, , n}. Alors y appartient un seul des ensembles O
x
i
.
On vient de montrer que c
i
(y) = (y). Or pour tout j = i, c
j
(y) = y. On en dduit
que c
1
c
k
(y) = (y). Finalement,
= c
1
c
k
.
Ceci achve la preuve de lexistence du thorme.
Nous ne montrerons pas lunicit ici.
44 Permutations
4. Signature
4.1. Paires en inversion. Remarquons que = Id si et seulement si la suite
((1), , (n)) est croissante, si et seulement si
(i, j) {1, , n}
2
tel que i < j on a (i) < (j).
Dfinition 4.1. Une paire (i, j) dlments de {1, , n} est dite en inversion si
i < j et (i) > (j).
Les paires en inversion de sont les obstructions ce que la suite ((1), , (n))
soit croissante. Nous introduisons maintenant une notation pour lensemble des
paires en inversion. Considrons un tableau deux entres n lignes et n colonnes.
La paire (i, j) correspond la case de la ligne i et de la colonne j. Ainsi, les paires
vriant i < j correspondent aux cases du tableau au-dessus de la diagonale. Une
telle case est remplie avec une * si la paire correspondante est en inversion et laisse
vide sinon. On obtient ainsi un tableau not T().
Exemple 4.1. Soit
=
_
1 2 3 4 5
4 3 2 5 1
_
et =
_
1 2 3 4 5
2 1 5 3 4
_
.
On a :
T() =

et T() =


Nous avons dj vu que lidentit est la seule permutation nayant aucune paire
en inversion. Plus gnralement, lensemble des paires en inversion caractrise la
permutation.
Thorme 4.1. Si deux permutations et dans S
n
ont exactement le mme
ensemble de paires en inversion alors = .
Preuve. Il sagit de montrer que lapplication qui a associe son tableau T() est
injective, cest--dire que lon peut reconstruire en partant de T().
Notre preuve procde par rcurrence sur n. Pour n = 1, comme il ny a quun seul
lment dans S
n
, il ny a rien montrer. Supposons maintenant que dans S
n1
,
lapplication T() soit injective.
Soit S
n
et T = T() son tableau. Commenons par expliquer comment re-
trouver lentier k tel que (k) = n partir du tableau T. Considrons la case C
diagonale (k, k) de T. Les cases au-dessus de la diagonale et sur la mme ligne que
C correspondent aux paires (k < j). De mme, les cases au-dessus de la diagonale
et sur la mme colonne que C correspondent aux paires (i < k).
Comme n est la valeur maximale pour les (l), on a pour tout l = k
(l) < (k) = n.
Ainsi, aucune paire (i < k) n est en inversion et toutes les paires (k < j) sont en
inversion. On obtient donc le dessin suivant :
.
.
.
C
4 Signature 45
Considrons maintenant une autre case diagonale C

= C et lquerre associe. On
voit que
(i) soit lhorizontale de lquerre de C

rencontre la verticale de lquerre de


C ;
(ii) soit la verticale de lquerre de C

rencontre lhorizontale de lquerre de


C.
Dans les deux cas il est impossible que lquerre ce C

ne contienne que des cases


vide sur sa partie verticale et que des * sur sa partie horizontale.
Nous venons de montrer que la proprit obtenue pour la case C la caractrise.
Ainsi, on peut retrouver C partir de T() et donc retrouver k =
1
(n).
On considre maintenant la bijection : {1, , n} {k} {1, , n 1}.
On renumrote les entiers {1, , n} {k} de 1 n 1 (de manire croissante).
On obtient ainsi un lment dans S
n1
. On constate alors que le tableau T( )
sobtient en enlevant la ligne et la colonne k du tableau T(). Ainsi, T( ) se dduit
de T. Lhypothse de rcurrence nous dit que se dduit de T( ). Finalement,
se dduit de k et de et donc se dduit de T().
Pour comprendre la dmonstration faire lexercice suivant.
Exercice 17. Trouver un exemple explicite de tableau T (contenant des cases vides
et dautres avec des *) qui ne soit pas de la forme T().
Plus dicile : Caractriser lensemble des tableaux qui sont de la forme T().
Exercice 18. La dmonstration par rcurrence ci-dessus cache en fait un algo-
rithme permettant de calculer en partant de T(). Pour sen convaincre on pourra
par exemple traiter un exemple. Trouver la permutation de S
6
telle que :
T() =


4.2. Signature. Comme nous lavons vu, lensemble des paires en inversion
est un objet amusant mais un peu lourd. Il se trouve que la parit du nombre de
paires en inversion est certes une information beaucoup plus faible sur la permuta-
tion mais jouie de proprits remarquables. Pour S
n
, on note N() le nombre
de paires (i < j) en inversion. Ainsi, N() est le nombre de symboles * dans T().
Posons
() = (1)
N()
.
Lentier () est appel la signature de .
Remarque. Dterminer T() puis compter les * et un moyen de calculer la si-
gnature. Nous verrons quil y en a un beaucoup plus ecace. Pour cela nous avons
besoin de montrer quelques proprits de la signature.
Commenons par donner une autre formule pour la signature :
46 Permutations
Proposition 4.2. Soit S
n
. On a :
() =

(i<j)
(j)(i)
ji
,
(4.1)
o le produit porte sur toutes les paires (i, j) {1, , n}
2
telles que i < j.
Preuve. Une consquence de la proposition est que le produit apparaissant dans
la formule (4.1) vaut 1. Ceci nest dj pas vident car il sagit dun produit
de
_
n
2
_
nombres rationnels. Pour montrer quil vaut 1 nous allons montrer
quau signe prs les entiers qui apparaissent au numrateur et au dnominateur
sont les mmes. Une analyse plus prcise nous permettra de dterminer le signe.
Pour commencer nous invitons le lecteur expliciter la formule (4.1) sur un exemple
en faisant par exemple lexercice 19.
Commenons donc par montrer que la valeur absolue de produit de la formule (4.1)

(i<j)
(j) (i)
j i

vaut 1. Considrons pour cela lensemble P(2, n) des paires {i, j} dlments dis-
tincts de {1, , n}. Rappelons que par dnition, la paire {i, j} est gale la
paire {j, i} : cest la dirence entre paire et couple. Les valeurs absolues |j i| et
|(j) (i)| ne dpendent que de la paire {i, j}. De plus, chaque lment p de
P(2, n) correspond un unique couple (i, j) tel que i < j et p = {i, j} et chaque
couple (i, j) tel que i < j correspond une unique paire p = {i, j}. Ainsi, on a :

(i<j)
(j) (i)
j i

(i<j)
|(j)(i)|
|ji|
(4.2)
=

{i,j}P(2,n)
|(j)(i)|
|ji|
(4.3)
=

{i,j}P(2,n)
|(j)(i)|

{i,j}P(2,n)
|ji|
. (4.4)
Considrons prsent lapplication suivante :
: P(2, n) P(2, n)
{i, j} {(i), (j)}.
Cette application est une bijection. En eet, en posant
: P(2, n) P(2, n)
{i, j} {
1
(i),
1
(j)},
on vrie sans peine que = = Id. En faisant le changement dindice
{i, j} ({i, j}) on obtient donc :

{i,j}P(2,n)
|(j) (i)| =

{i,j}P(2,n)
|j i|. (4.5)
Les quations (4.4) et (4.5) montrent que

(i<j)
(j) (i)
j i

= 1. (4.6)
4 Signature 47
Il nous reste dterminer le signe du produit de la proposition. Tous les dnomi-
nateurs sont positifs, donc le signe est celui du numrateur :

(i<j)
(j) (i).
Or (j) (i) < 0 si et seulement si la paire (i < j) est en inversion. On en dduit
que le signe cherch est
(1)
N()
.
Ceci achve la dmonstration.
Exercice 19. On pose n = 4.
(i) Lister toutes les paires (i, j) telles que 1 i < j n
(ii) Considrons llment de S
4
suivant :
_
1 2 3 4
4 1 3 2
_
.
Faire un tableau trois colonnes, avec lensemble de la question prc-
dente liste dans la premire colonne, les quantits j i dans la seconde
colonne et les quantits (j) (i) dans la dernire.
(iii) Que constatez vous ?
(iv) Dans une quatrime colonne crire tous les couples ((i), (j)). Que
constatez vous ?
4.2.1 La principale proprit de la signature est donne par le
Thorme 4.3. Soit et dans S
n
. On a :
( ) = ()().
Preuve. Utilisons la proposition 4.2 :
( ) =

(i<j)
((j))((i))

(i<j)
ji
(4.7)
=

(i<j)
((j))((i))

(i<j)
(j)(i)
.

(i<j)
(j)(i)

(i<j)
ji
(4.8)
On reconnat (). Donc,
( ) =

(i<j)
((j))((i))

(i<j)
(j)(i)
.(). (4.9)
En comparant la formule du thorme celle que lon vient dobtenir, on voit quil
reste montrer que
() =

(i<j)
((j)) ((i))

(i<j)
(j) (i)
. (4.10)
Pour cela remarquons que le nombre rationnel
((j))((i))
(j)(i)
ne dpend que de la
paire {i, j} et non du couple (i, j). En eet, lchange de i et de j multiplie par 1
aussi bien le numrateur que le dnominateur. On obtient donc :

(i<j)
((j)) ((i))

(i<j)
(j) (i)
=

(i<j)
((j))((i))
(j)(i)
. (4.11)
=

{i<j}P(2,n)
((j))((i))
(j)(i)
. (4.12)
48 Permutations
Utilisons prsent la bijection suivante :
: P(2, n) P(2, n)
{i, j} {(i), (j)}.
pour rindexer le produit. On obtient :

{i<j}P(2,n)
((j)) ((i))
(j) (i)
=

{i<j}P(2,n)
(j) (i)
j i
= (). (4.13)
Ce qui achve la dmonstration.
4.2.2 Le thorme suivant dtermine la signature dun cycle.
Thorme 4.4. La signature dun cycle de longueur s est (1)
s1
. En particulier,
la signature dune transposition est 1.
Preuve. Commenons par la transposition
0
= (1 2). Il est clair que la seule paire
en inversion de
0
est (1 < 2). La dnition de la signature permet alors de conclure
que (
0
) = 1.
Considrons maintenant une transposition quelconque = (i j). Il existe un lment
de S
n
tel que (1) = i et (2) = j. On vrie alors que
(1 2) = (i j) .
Prenons la signature et utilisons le thorme 4.3. On obtient :
().((1 2)) = ((i j)).().
En simpliant par () (qui est non nul), on trouve ((i j)) = ((1 2)) = 1.
On procde maintenant par rcurrence sur s. Nous venons de montrer le thorme
pour s = 2. Fixons donc s 3. Supposons que la signature de tout cycle de longueur
s 1 vaille (1)
s2
.
Considrons maintenant un cycle c de longueur s. Soit i
1
, , i
s
deux deux dis-
tincts tels que c = (i
1
i
2
i
s
). On vrie que
(i
s
i
1
) c = (i
1
i
2
i
s1
).
En appliquant la signature et le thorme 4.3, on obtient :
((i
s
i
1
))(c) = ((i
1
i
2
i
s1
)).
Or, ((i
s
i
1
)) = 1. Donc
(c) = ((i
1
i
2
i
s1
)).
Or, lhypothse de rcurrence nous donne ((i
1
i
2
i
s1
)) = (1)
s2
. On conclut
(c) = (1)
s1
.

Remarque. Voici une mthode pour calculer la signature dune permutation .


(i) Utiliser le thorme 3.4 pour crire comme un produit de cycles.
(ii) Utiliser le thorme 4.3 pour exprimer la signature de comme le produit
de celles des cycles.
(iii) Utiliser le thorme 4.4 pour calculer la signature des cycles.
Le thorme 3.4 fournit une criture essentiellement unique de toute permutation.
En revanche, la dcomposition dune permutation en produits de transpositions est
loin dtre unique. On a cependant le
4 Signature 49
Corollaire. Soit S
n
et =
1

s
une criture de comme produit de
transpositions.
Alors, () = (1)
s
. En particulier, la parit de s ne dpend que de .
Preuve. Daprs le thorme 4.3, () =

s
i=1
(
i
). Or, le thorme 4.4 montre
que (
i
) = 1, pour tout i. On en dduit que () = (1)
s
.
Cette formule montre que s est pair (resp. impair) si et seulement si () = 1 (resp.
() = 1.
CHAPITRE 5
Dterminant dune Matrice Carre
Sommaire
1. Cas des petites matrices 52
1.1. Cas des matrices 2 2 52
1.2. Cas des matrices 3 3 53
2. Dterminant 54
2.1. Dnition 54
2.2. Premires proprits 54
2.3. Oprations lmentaires sur les colonnes 56
2.4. Le thorme fondamental 57
2.5. Multiplicativit 58
3. Oprations lmentaires sur les lignes 59
3.1. Transposition 59
3.2. Oprations lmentaires sur les lignes 60
4. Dveloppement 60
4.1. Mineurs 60
4.2. Dveloppements 61
5. Mthode de calcul 62
6. Dterminant dun endomorphisme 65
52 Dterminant dune Matrice Carre
1. Cas des petites matrices
Le dterminant dune matrice carre est plutt dicile dnir. An de lintroduire
petit petit nous commenons par les matrices de taille 2 et 3.
Commenons par poser une problmatique. Soit M une matrice carre de taille n.
Problmatique. On cherche un moyen calculatoire de dcider si la matrice M est
inversible.
1.1. Cas des matrices 2 2. Soit
M =
_
a c
b d
_
.
On veut alors dcider si M est inversible, cest--dire si la famille de ces vecteurs
colonnes (
_
a
b
_
,
_
c
d
_
) est libre.
Ainsi, M nest pas inversible si et seulement si
(, ) K
2
{(0, 0)}
_
a
b
_
+
_
c
d
_
= 0. (1.1)
Supposons pour commencer que a = 0. Alors, il est impossible que soit nul ; on
peut donc diviser la formule (1.1) par . On obtient M nest pas inversible si et
seulement si
K
_
a
b
_
+
_
c
d
_
= 0, (1.2)
si et seulement si
K
_
a +c = 0
b +d = 0
(1.3)
La seule possibilit est =
c
a
(rappelons que a = 0). On peut donc liminer du
systme. On obtient M nest pas inversible si et seulement si

c
a
b +d = 0, (1.4)
ou encore (rappelons que a = 0) si et seulement si
ad bc = 0. (1.5)
Dfinition 1.1. Le dterminant de M est par dnition le scalaire
det(M) = ad bc. (1.6)
Le dterminant rpond la problmatique puisque
Proposition 1.1. La matrice M est inversible si et seulement si det M = 0.
Preuve. Nous avons dj trait le cas a = 0. Supposons donc maintenant que
M =
_
0 c
b d
_
.
On a det(M) = bc.
Si det(M) = 0 alors b ou c est nul ; donc, une colonne ou une ligne de M est nulle
et M nest pas inversible.
Si au contraire det(M) = 0 alors b et c sont non nuls. On en dduit facilement que
la famille (
_
0
b
_
,
_
c
d
_
) est libre.
1 Cas des petites matrices 53
1.2. Cas des matrices 3 3. Partons maintenant avec une matrice carre
de taille 3 gnrique :
M =
_
_
a x u
b y v
c z w
_
_
. (1.7)
On veut alors dcider si M est inversible, cest--dire si la famille de ses vecteurs
colonnes est libre. Il sagit donc de dcider si le systme suivant (S0) dinconnues
(, , ) a des solutions direntes de (0, 0, 0) :
(S0)
_
_
_
a +x +u = 0,
b +y +v = 0,
c +z +w = 0.
Supposons pour simplier que a = 0. Alors, il est possible dextraire de la premire
quation :
=
x +u
a
.
On substitue maintenant dans les deux autres et on multiplie ces deux quations
par a. On obtient que M nest pas inversible si et seulement si le systme suivant
dinconnues (, ) a des solutions non nulles :
(S1)
_
(x +u)b +ya +va = 0
(x +u)c +za +wa = 0.
En rorganisant en et on trouve le systme quivalent
(S2)
_
(ya xb) +(va ub) = 0
(za xc) +(wa uc) = 0.
Nous retombons sur un systme de taille 2 2. Le systme na que la solution
triviale si et seulement si la matrice
_
ya xb va ub
za xc wa uc
_
est inversible. Daprs la proposition 1.1 ceci est quivalent
D := (ya xb).(wa uc) (za xc).(va ub) = 0.
En dveloppant cette expression on trouve :
D = a(ayw yuc xbw azv +zub +xcv).
Ceci nous incite poser la
Dfinition 1.2. Le dterminant de M not det(M) est dni par la formule :
det(M) = ayw yuc xbw azv +zub +xcv. (1.8)
On obtient nalement le
Lemme 1.2. Supposons que a = 0. La matrice M est inversible si et seulement si
det(M) = 0.
Remarque. Nous verrons plus tard que comme dans le cas des matrices 2 2,
lhypothse a = 0 est en fait inutile dans ce lemme.
54 Dterminant dune Matrice Carre
2. Dterminant
2.1. Dnition. Nous gnralisons la formule (1.8) pour dnir le dtermi-
nant dune matrice carre de taille n.
Dfinition 2.1. Soit M une matrice carre de taille n dont on note m
ij
le coecient
la ligne i et la colonne j. On dnit le dterminant de M par la formule suivante :
det(M) =

S
n
()m
(1)1
m
(n)n
.
(2.1)
La formule ci-dessus nest pas facile comprendre. Il est vivement recommander de
faire lexercice suivant avec soin.
Exercice 20. Expliciter la formule (2.1) pour n = 2 et 3 et montrer quelle gn-
ralise les formules (1.6) et (1.8).
Souvent le dterminant est not avec des barres. Ainsi, par exemple le dterminant
de la matrice M de la formule (1.7) sera not

a c
b d

.
Par exemple, on crit :

2 3
1 4

= 2 4 1 3 = 5.
2.2. Premires proprits. Commenons par introduire quelques notations
pour travailler sur les colonnes dune matrice. Soit C
1
, , C
n
des vecteurs colonnes
de taille n. On note (C
1
C
2
C
n
) la matrice carre de taille n dont la j-ime
colonne est C
j
.
Thorme 2.1. Le dterminant n n vrie les 4 proprits suivantes.
(i) Le dterminant de la matrice identit vaut 1 :
det(I
n
) = 1.
(ii) Si deux colonnes dune matrice sont gales son dterminant est nul.
(iii) Soit C
1
, , C
n
et C

i
des vecteurs colonnes de taille n et un scalaire.
On a alors :
det(C
1
C
i1
C
i
+C

i
C
i+1
C
n
) = det(C
1
C
i1
C
i
C
i+1
C
n
)
+det(C
1
C
i1
C

i
C
i+1
C
n
).
La dernire assertion est sans doute la plus dicile comprendre. On lillustre sur
quelques exemples :

3 2
3 1

= 3

1 2
1 1

et

1 2 + 5
4 1 + 7

1 2
4 1

1 5
4 7

.
Preuve. Regardons la formule (2.1) applique la matrice I
n
. Soit S
n
. Le
produit
p

= m
(1)1
. .m
(n)n
est nul ds quun coecient m
(j)j
est nul. Or, le seul coecient non nul de la
colonne j est le coecient m
jj
. On en dduit que si (j) = j pour un indice j alors
p

= 0. Ainsi, on peut restreindre la somme aux permutations telles que pour


tout j, (j) = j. Mais il ny en a quune et cest lidentit. On en dduit que
det(I
n
) = (id)p
id
.
2 Dterminant 55
Or chaque m
jj
vaut 1, donc p
id
= 1. Par ailleurs, (id) = 1. Il vient det(I
n
) = 1.
Soit M une matrice dont les colonnes i et j sont identiques (pour un couple (i, j)
tel que 1 i = j n). Soit S
n
. Considrons p
(i j)
:
p
(i j)
= m
(i j)(i) i
.m
(i j)(j) j
.

1 k n
k = i k = j
m
(i j)(k) k
.
Dans la formule ci-dessus, (i j)(k) = k, (i j)(i) = j et (i j)(j) = i. On obtient donc
p
(i j)
= m
(j) i
.m
(i) j
.

1 k n
k = i k = j
m
(k) k
.
Or, par hypothse m
(j) i
= m
(j) j
et m
(i) j
= m
(i) i
. Il vient
p
(i j)
= m
(j) j
.m
(i) i
.

1 k n
k = i k = j
m
(k) k
=

1kn
m
(k) k
= p

.
Par ailleurs, on a : ( (i j)) = ()((i j)) = (). Ainsi, les deux produits
p
(i j)
et p

arrivent dans la formule (2.1) avec des signes opposs. Il suit que les
termes de la formule (2.1) se compensent deux par deux et donc que det(M) = 0.
Il sut de montrer la dernire assertion pour chaque p

. Introduisons quelques
notations an de prciser ce que cela signie. Posons M = (C
1
C
i1
C
i
+
C

i
C
i+1
C
n
), A = (C
1
C
i
C
n
) et B = (C
1
C
i1
C

i
C
i+1
C
n
). En
dehors, de la colonne i, les 3 matrices sont gales. On note m
kl
, a
kl
et b
kl
les coe-
cients de M, A et B. Pour tout S
n
, on note p

(M), p

(A) et p

(B) les produits


pour M, A et B. Admettons dans un premier temps la formule suivante
p

(M) = p

(A) +p

(B). (2.2)
On a alors :
det(M) =

S
n
()p

(M) =

S
n
()(p

(A) +p

(B))
=

S
n
()p

(A) +

S
n
()p

(B)
= det(A) +det(B).
Montrons maintenant la formule (2.2). Soit S
n
. On a :
p

(M) = m
(i) i
.

1 k n
k = i
m
(k) k
.
Or, m
(i) i
= a
(i) i
+b
(i) i
. Donc,
p

(M) = a
(i) i
.

1 k n
k = i
m
(k) k
+.b
(i) i
.

1 k n
k = i
m
(k) k
.
56 Dterminant dune Matrice Carre
Or, comme k = i, le coecient m
(k) k
nest pas sur la colonne i. En particulier,
m
(k) k
= a
(k) k
= b
(k) k
. Donc,
p

(M) = a
(i) i
.

k=i
a
(k) k
+.b
(i) i
.

k=i
b
(k) k
.
=

1kn
a
(k) k
+.

1kn
b
(k) k
.
= p

(A) +p

(B).

2.3. Oprations lmentaires sur les colonnes. Les deux dernires asser-
tions du thorme 2.1 peuvent se reformuler en termes doprations lmentaires
sur les colonnes dune matrice.
Corollaire. Soit M une matrice carre, i et j deux indices distincts de colonnes
de M et un scalaire.
(i) C
i
C
i
. Soit M

la matrice obtenue en multipliant la colonne i de M


par . Alors,
det(M

) = det(M).
(ii) C
i
C
j
. Soit M

la matrice obtenue partir de M en changeant les


colonnes i et j. Alors,
det(M

) = det(M).
(iii) C
i
C
i
+ C
j
(avec i = j). Soit M

la matrice obtenue partir de M


par lopration lmentaire C
i
C
i
+C
j
. Alors,
det(M

) = det(M).
Preuve. La premire assertion est une application directe de la troisime du tho-
rme.
Notons C
j
les colonnes de M. Considrons la matrice A dont les colonnes i et j sont
gales C
i
+C
j
et dont les autres colonnes sont identiques M. La seconde asser-
tion du thorme montre que det(A) = 0. Par ailleurs, en appliquant la troisime
assertion successivement aux colonnes i et j, on obtient :
det(A) = det(C
1
C
i
+C
j
C
i
+C
j
C
n
)
= det(C
1
C
i
C
i
+C
j
C
n
) + det(C
1
C
j
C
i
+C
j
C
n
)
= det(C
1
C
i
C
i
C
n
) + det(C
1
C
i
C
j
C
n
)
+det(C
1
C
j
C
i
C
n
) + det(C
1
C
j
C
j
C
n
).
Les premier et le dernier dterminants sont nuls par la seconde assertion du tho-
rme. Les autres sont det(M) et det(M

). On a donc 0 = det(A) = det(M) +


det(M

). Lassertion du corollaire est dmontre.


Montrons maintenant la dernire assertion du corollaire. On utilise dabord la troi-
sime assertion du thorme :
det(M

) = det(C
1
C
i
+C
j
C
n
)
= det(C
1
C
i
C
n
) +det(C
1
C
j
C
n
).
Le dernier dterminant est nul car la colonne C
j
se trouve la fois la position j
et i. Il vient det(M

) = det(M).
2 Dterminant 57
2.4. Le thorme fondamental. Bien que cela ne saute pas aux yeux (et
que vous lutiliserez peu cette anne) le rsultat suivant est fondamental, dans le
sens o il fonde la thorie du dterminant.
Thorme 2.2. Le dterminant est la seule application de M
n
(K) dans K qui
vrie le thorme 2.1.
Preuve. La preuve est base sur le corollaire 2.3 (ou plutt sa preuve) et le tho-
rme 6.1 du chapitre 1.
Soit : M
n
(K) K qui vrie les proprits du thorme 2.1. Il sagit de montrer
que pour tout M dans M
n
(K) on a det(M) = (M). Soit M M
n
(K). Montrons
que
det(M) = (M).
Nous distinguons 2 cas suivant lalternative du thorme 6.1 du chapitre 1.
Cas 1 : la matrice M se ramne une matrice dont une colonne est nulle.
Fixons une succession doprations lmentaires sur les colonnes de M qui la trans-
forme en une matrice M

dont une colonne est nulle. Soit M = M


0
, , M
s
= M

la
suite des matrices obtenues. Soit un entier k = 0, , s1. Daprs le corollaire 2.3,
det(M
k+1
) est soit gal det(M
k
), soit oppos det(M
k
) soit est un multiple non
nul de det(M
k
). Dans chacun des cas, on a
det(M
k
) = 0 det(M
k+1
) = 0.
Or, det(M
s
) = det(M

) = 0. Une rcurrence immdiate montre que det(M) = 0.


On peut prciser la discussion prcdente en disant quil existe une suite de scalaires
(
k
)
0ks1
tels que
det(M
k+1
) =
k
det(M
k
).
En eet,
k
vaut 1, 1 ou suivant quelle est la k-ime opration lmentaire.
Une relecture de la preuve du corollaire 2.3 montre quil est uniquement une cons-
quence des proprits du thorme 2.1. En particulier, lapplication le vrie. Par
consquent, on a, pour tout k :
(M
k+1
) =
k
(M
k
).
Le mme raisonnement que prcdemment montre que (M) = 0. Ainsi, det(M) =
(M) = 0.
Cas 2 : la matrice M se ramne I
n
.
Comme prcdemment, xons une succession (Op
k
)
0ks1
doprations lmen-
taires sur les colonnes de M qui la transforme I
n
. Soit M = M
0
, , M
s
= M

la suite des matrices obtenues. Soit un entier k = 0, , s 1. Fixons les scalaires


(
k
)
0ks1
comme prcdemment. Daprs le corollaire 2.3, on a :
det(M
k+1
) =
k
det(M
k
);
(M
k+1
) =
k
(M
k
).
On en dduit que :
det(M).

0ks1

k
= det(I
n
) = 1;
(M).

0ks1

k
= (I
n
) = 1.
58 Dterminant dune Matrice Carre
Comme les
k
sont tous non nuls, il vient
det(M) = (M) =
_
_

0ks1

k
_
_
1
.

La preuve du thorme 2.2 sadapte pour montrer que le dterminant rpond bien
la problmatique nonce en dbut de chapitre.
Thorme 2.3. Soit M une matrice carre. Alors,
M est inversible si et seulement si det(M) = 0.
Preuve. Appliquons le thorme 6.1 du chapitre 1 la matrice M. Comme le rang
dune matrice est prserv par les oprations lmentaires, on peut prciser lnonc
ainsi :
(i) si M nest pas inversible, elle se ramne une matrice dont une colonne
est nulle ;
(ii) si M est inversible, elle se ramne I
n
.
Dans le premier cas, nous avons montr (au cours de la preuve du thorme 2.2)
que det(M) = 0. Dans le second cas, nous avons montr (au cours de la preuve du
thorme 2.2) que
det(M) =
_
_

0ks1

k
_
_
1
.
En particulier, det(M) est non nul.
2.5. Multiplicativit. Le thorme 2.2 permet de montrer une formule qui
exprime le dterminant du produit de 2 matrices.
Thorme 2.4. Soit A et B deux matrices carres de mme taille. On a :
det(AB) = det(A) det(B).
Preuve. Commenons par traiter le cas o A est non inversible. Dans ce cas, le
membre de droite est nul daprs le thorme 2.3. Il sagit donc de montrer que
det(AB) = 0 ou daprs le thorme 2.3 que AB est non inversible. Or, limage de
AB est incluse dans celle de A. Comme A nest pas surjective, AB ne peut ltre.
En particulier, AB nest pas inversible et det(AB) = 0.
Supposons maintenant que A est inversible. Le thorme 2.3 montre que det(A) = 0.
Considrons lapplication suivante
: M
n
(K) K
M
det(AM)
det(A)
.
Il sagit de montrer que (B) = det(B). Nous allons montrer que = det en
utilisant le thorme 2.2.
On a (I
n
) = 1. Considrons une opration lmentaire C
i
C
i
+C
j
. Eectuons
cette opration lmentaire sur M, on obtient une matrice M

. Eectuons prsent
cette opration sur AM, on obtient la matrice AM

. En eet, la colonne k de la
matrice AM nest autre que AC
k
si C
k
est la colonne k de M. On dduit de
cette remarque que (M) reste inchang si lon transforme M par cette opration
lmentaire.
3 Oprations lmentaires sur les lignes 59
De mme, on montre que lapplication vrie toutes les assertions du thorme 2.1.
Maintenant, le thorme 2.2 montre que = det.

Remarque. La preuve ci-dessus ne contient aucun calcul. Lorsque lon se souvient


de la dnition du dterminant (une norme formule) et celle du produit de deux
matrices cela est trs remarquable.
3. Oprations lmentaires sur les lignes
Nous avons vu comment se transforme le dterminant dune matrice lorsque lon
eectue une opration lmentaire sur ses colonnes. Nous allons voir que les mmes
proprits sont vrais avec ses lignes. Pour transformer les lignes en colonnes nous
utilisons la transposition.
3.1. Transposition. Soit M une matrice carre de taille n dont on note m
ij
le coecient la ligne i et la colonne j. Rappelons que la matrice transpose de
M, note
t
M, est la matrice dont le coecient la ligne i et la colonne j est m
ji
.
Cette opration correspond une symtrie par rapport la diagonale.
Thorme 3.1. Soit M une matrice carre. Alors,
det(
t
M) = det(M).
Preuve. Notons a
ij
le coecient la ligne i et la colonne j de la matrice
t
M.
On a : a
ij
= m
ji
. Partons de la dnition de det(
t
M) :
det(
t
M) =

S
n
()a
(1)1
. .a
(n)n
=

S
n
()m
1(1)
. .m
n(n)
.
Regardons le terme q

= m
1(1)
. .m
n(n)
. Considrons lensemble des paires
suivantes
Q

:= {(i, (i)) : 1 i n}.


On a bien sr :
q =

(k,l)Q

m
kl
.
Soit (i, (i)) Q

. Posons j = (i) et donc i =


1
(j) ; pour rsumer (i, (i)) =
(
1
(j), j). Considrons prsent lensemble des paires suivantes
R

:= {(
1
(j), j) : 1 j n}.
Nous venons de voir que P

. Or, ces deux ensembles sont de cardinal n; donc


P

= R

. En particulier,
q =

(k,l)R

m
kl
= m

1
(1)1
. .m

1
(n)n
.
On obtient donc
det(
t
M) =

S
n
()m

1
(1)1
. .m

1
(n)n
.
Considrons prsent la bijection de S
n
suivante :
S
n
S
n

1
.
En utilisant cette bijection pour rindexer la somme, on obtient
det(
t
M) =

S
n
(
1
)m
(1)1
. .m
(n)n
.
60 Dterminant dune Matrice Carre
Or, (
1
) = (). Donc,
det(
t
M) =

S
n
()m
(1)1
. .m
(n)n
= det(M).
Ceci achve la dmonstration.
3.2. Oprations lmentaires sur les lignes. Comme annonc, nous contr-
lons le devenir du dterminant lorsque lon eectue des oprations lmentaires sur
les lignes de la matrice. Ce sont dailleurs, les mmes rgles que pour les colonnes.
Corollaire. Soit M une matrice carre, i et j deux indices distincts de colonnes
de M et un scalaire.
(i) L
i
L
i
. Soit M

la matrice obtenue en multipliant la ligne i de M par


. Alors,
det(M

) = det(M).
(ii) L
i
L
j
. Soit M

la matrice obtenue partir de M en changeant les


lignes i et j. Alors,
det(M

) = det(M).
(iii) L
i
L
i
+ L
j
(avec i = j). Soit M

la matrice obtenue partir de M


par lopration lmentaire L
i
L
i
+L
j
. Alors,
det(M

) = det(M).
Preuve. Considrons le troisime cas L
i
L
i
+ L
j
. La remarque est que la
matrice
t
M

sobtient partir de
t
M en eectuant lopration C
i
C
i
+ C
j
. Le
corollaire 3.2 montre alors que det(
t
M

) = det(
t
M). En appliquant le thorme 3.1
M et M

, on obtient le rsultat cherch.


Les autres cas se dmontrent de la mme manire.
4. Dveloppement
4.1. Mineurs.
Dfinition 4.1. Soit M = (m
ij
)
1i,jn
une matrice carre dordre n. Pour i et
j xs, on appelle mineur de m
ij
le dterminant
ij
de la matrice obtenue en
supprimant la i-ime ligne et la j-ime colonne de M.
Explicitement on a :

ij
=

a
11
. . . a
1 j1
a
1 j+1
. . . a
1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
i1 1
. . . a
i1 j1
a
i1 j+1
. . . a
i1 n
a
i+1 1
. . . a
i+1 j1
a
i+1 j+1
. . . a
i+1 n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
. . . a
nj1
a
nj+1
. . . a
nn

.
Exemple 4.1. Pour
M =
_
_
a x u
b y v
c z w
_
_
,
on a

12
=

b v
c w

et
23
=

a x
c z

.
4 Dveloppement 61
4.2. Dveloppements. Le thorme suivant est la formule de dveloppement
par rapport la colonne j. Il exprime un dterminant de taille n comme une com-
binaison linaire de n dterminants de taille n 1.
Thorme 4.1. Soit M = (m
ij
)
1i,jn
une matrice carre dordre n et j lindice
dune colonne de M. Alors, on a :
det(M) =
n

i=1
(1)
i+j
m
ij

ij
.
Preuve. Notons C
l
la colonne numro l de M, pour 1 l n. Soit (e
1
, , e
n
)
la base canonique M
n1
(K). On a :
C
j
= m
1j
e
1
+ +m
nj
e
n
.
On a donc
det(M) = det(C
1
(m
1j
e
1
+ +m
nj
e
n
) C
n
).
Utilisant la proprit (iii) du thorme 2.1, on obtient
det(M) =
n

i=1
m
ij
det(C
1
e
i
C
n
).
Dans la formule ci-dessus le vecteur colonne e
i
est plac la colonne j. Il sut donc
de dmontrer que pour tout i
det(C
1
e
i
C
n
) = (1)
i+j

ij
. (4.1)
Fixons un indice i et notons A la matrice (C
1
e
i
C
n
). On veut se ramener au
cas o j = n. Supposons donc que j = n. Permutons la colonne j et la colonne n
de A. Posons A

= (C
1
C
j1
C
j+1
C
n
e
i
). On a
det(A) = det(A

).
Comparons le mineur (i, j) de A et le mineur (i, n) de A

. Celui de A

sobtient
partir de celui de A en intercalant la dernire colonne en position j. Cest--dire en
permutant les colonnes n 1 et n 2, puis n 2 et n 3. . .puis j + 1 et j. Cela
multiplie le dterminant par 1, n j 1 fois. Ainsi

ij
= (1)
nj1

in
.
Alors lquation (4.3) est quivalente
det(A

) = (1)
i+n

in
(A

),
et on peut supposer que j = n pour la montrer. De mme, on peut supposer que
i = n. Montrer lquation (4.3) revient alors montrer que pour toute matrice
carre B de taille n 1 et toute matrice ligne L de taille n 1, on a

B 0
L 1

= det(B).
Posons C =

B 0
L 1

. Regardons la dnition de det(C) :


det(C) =

S
n
()c
(1)1
. .c
(n)n
.
Or, les coecients c
kn
sont tous nuls except c
nn
qui vaut 1. Ainsi, dans la somme
ci-dessus on peut ne conserver que les termes indexs par les permutations telles
62 Dterminant dune Matrice Carre
que (n) = n.
det(C) =

S
n
(n) = n
()c
(1)1
. .c
(n1)n1
.

c
(n)n
.
Si (n) = n alors (1), , (n1) sont infrieurs ou gaux n1. En particulier,
c
(i)i
= b
(i)i
pour chaque i = 1, , n 1. Donc
det(C) =

S
n
(n) = n
()b
(1)1
. .b
(n1)n1
= det(B).

Le signe (1)
i+j
est distribu ainsi

+ +
+
+ +
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. +
+

.
Exemple 4.2. Considrons la matrice :
_
_
2 2 3
1 1 3
2 0 1
_
_
.
Le dveloppement par rapport la seconde colonne donne :
det(A) = (1)
1+2
2 det
_
1 3
2 1
_
+ (1)
2+2
1 det
_
2 3
2 1
_
= 2(1 6) + 1(2 + 6) = 18.
Le thorme 3.1 permet de transcrire lnonc du thorme 4.1 qui porte sur la
colonne j en une nonc qui porte sur les lignes. Le voici :
Thorme 4.2. Soit M = (m
ij
)
1i,jn
une matrice carre dordre n et i lindice
dune colonne de M. Alors, on a :
det(M) =
n

j=1
(1)
i+j
m
ij

ij
.
5. Mthode de calcul
Mthode 1. Il sagit dappliquer directement la dnition. Elle est trs bien pour
les dterminants 2 2 : un dterminant 2 2 est la dirence des produits des
termes diagonaux et antidiagonaux.
Pour les dterminants 33, elle est encore utilisable mais dicilement. Un moyen
mnmotechnique pour mmoriser la dnition sappelle mthode de Sarrus . Elle
consiste crire les 3 colonnes du dterminant, puis rpter les deux premires.
Pour chacune des 6 diagonales qui apparaissent, on eectue le produit de ses termes.
5 Mthode de calcul 63
a
11
a
12
a
13
a
11
a
12
a
21
a
22
a
23
a
21
a
22
a
31
a
32
a
33
a
31
a
32
+ + +
Figure 1. Mthode de Sarrus
Enn, on ajoute ces six produits en les aublant dun signe suivant le schma de la
gure 1.
Exercice 21. Vrier le dterminant suivant en utilisant la mthode de Sarrus.

2 1 2
6 1 1
4 5 3

= 70.
Exercice 22. Soit A = (a
ij
) une matrice carre de taille 3. Vrier que les 6
produits donns par la mthode de Sarrus sont les 6 produits qui apparaissent dans
la formule (2.1) et que les 6 signatures sont bien en accord avec les 6 signes donnes
par la mthode. Expliquer que cela montre que la mthode de Sarrus fonctionne.
Remarque. Pierre Sarrus a fait ses tudes la facult des sciences de Montpellier
de 1815 1821.
Pour des dterminants plus grands, la formule de la dnition nest pas utilisable
directement cause des n! termes. Pour un dterminant 44 on aurait 24 produits
de 4 coecients calculer, autant de signatures et enn une somme des 24 rsultats
obtenus. Il nest pas raisonnable desprer faire un tel calcul sans erreurs. Pour un
dterminant 5 5, cest 120 produits quil faut calculer et autant de signatures.
Remarque. Une erreur commune consiste essayer dtendre la mthode de Sarrus
des matrices de taille 4 (ou plus). La bonne gnralisation est la formule (2.1),
mais celle-ci nest pas facile utiliser et ne peut pas tre mise sous une forme du
type : on recopie les 3 premires colonnes de la matrices cot et on prend les
produits des lments diagonaux. . . . En particulier ce type de mthode ne donne
pas 24 termes.
Mthode 2. Dvelopper suivant des lignes ou des colonnes. Si les coecients de la
colonne par rapport laquelle on dveloppe sont tous non nuls on a n dterminants
de taille n1 calculer. Ceci nest pas trs ecace. En revanche, si la colonne par
rapport laquelle on dveloppe a beaucoup de 0, le dveloppement se simplie
considrablement.
Mthode 3. Lide est de prparer la matrice pour appliquer la Mthode 2 seulement
sur des lignes ou colonnes contenant beaucoup de 0. Pour faire apparatre des 0,
on eectue des opration lmentaires. On utilise les corollaires 2.3 et 3.2 pour
contrler le dterminant.
De nombreux exemples seront vus en TD. En voici tout de mme un.
64 Dterminant dune Matrice Carre
Exemple 5.1. Soit la matrice 4 4,
M =
_
_
_
_
1 2 1 0
0 3 1 1
1 0 3 1
3 1 2 0
_
_
_
_
.
Daprs le corollaire 2.3 les oprations C
2
C
2
2C
1
et C
2
C
2
C
1
ne changent
pas le dterminant. En les eectuant sur M, on obtient :
det(M) =

1 0 0 0
0 3 1 1
1 2 4 1
3 5 1 0

.
On dveloppe maintenant par rapport la premire ligne :
det(M) = (1)
1+1
.1.

3 1 1
2 4 1
5 1 0

.
On eectue maintenant lopration L
2
L
2
L
1
qui ne change pas le dterminant.
det(M) =

3 1 1
1 3 0
5 1 0

.
On dveloppe maintenant par rapport la dernire colonne :
det(M) = (1)
1+3
.1.

1 3
5 1

.
On calcule ce dernier dterminant directement.
det(M) = (1).(1) (5).3 = 16.
Il est important de comprendre que cette mthode laisse une grande libert. Il
convient den proter pour minimiser les calculs en protant des 0 dj prsents, en
vitant si possible les nombres trop grands ou les fractions etc. . . De lexprience
est ncessaire pour tre ecace.
Voici un autre calcul de det(M). Daprs le corollaire 2.3 les oprations L
1
L
1
+L
3
et L
4
L
4
+ 3L
3
ne changent pas le dterminant. En les eectuant sur M, on
obtient :
det(M) =

0 2 4 1
0 3 1 1
1 0 3 1
0 1 11 3

.
On dveloppe maintenant par rapport la premire colonne :
det(M) = (1)
3+1
. 1.

2 4 1
3 1 1
1 11 3

.
On eectue maintenant les oprations C
2
C
2
C
3
et C
1
C
1
3C
3
qui ne
changent pas le dterminant.
det(M) =

1 3 1
0 0 1
8 8 3

.
6 Dterminant dun endomorphisme 65
On eectue maintenant lopration C
1
C
1
, ce qui multiplie le dterminant par
1.
det(M) =

1 3 1
0 0 1
8 8 3

.
On dveloppe par rapport la seconde ligne :
det(M) = (1)
2+3
.1.

1 3
8 8

.
On eectue maintenant lopration L
2
L
2
/8, ce qui multiplie le dterminant par
1
8
.
det(M) = 8

1 3
1 1

.
On calcule ce dernier dterminant directement.
det(M) = 8(1 3) = 16.
On retrouve bien le mme rsultat !
6. Dterminant dun endomorphisme
Nous avons dni le dterminant dune matrice carr. Nous allons voir que lon peut
aussi dnir le dterminant dun endomorphisme abstrait. Soit donc E un K-espace
vectoriel de dimension nie et f un endomorphisme de E. Nous voulons dnir
det(f).
Lide est de poser det(f) = det(M), pour une matrice M de f. Le problme est
quil y a plusieurs matrices qui reprsentent f. Heureusement, nous avons le rsultat
suivant.
Lemme 6.1. Soit B et C deux bases de E. On a
det(Mat
B
(f)) = det(Mat
C
(f)).
Preuve. Considrons la matrice P = Mat
CB
(Id
E
). Nous avons
Mat
CB
(Id
E
).Mat
B
(f).(Mat
CB
(Id
E
))
1
= Mat
C
(f).
Prenons le dterminant :
det(Mat
C
(f)) = det(Mat
CB
(Id
E
)). det(Mat
B
(f)). det(Mat
CB
(Id
E
))
1
= det(Mat
B
(f)).

La valeur commune des det(Mat


B
(f)) est appel le dterminant de f et est not
det(f).
CHAPITRE 6
quations direntielles linaires
Sommaire
1. Introduction 68
2. Suites rcurrence linaire dordre 2 68
2.1. Dterminant dune base de E
a,b
69
3. Quest-ce quune quation direntielle ? 70
4. quations direntielles linaires du premier ordre 70
4.1. Dnition 70
4.2. Rsolution de lquation homogne 70
4.3. Cas gnral 71
4.4. Mthode de Lagrange 71
5. Le deuxime ordre coecients constants 72
5.1. Fonctions valeurs complexes 72
5.2. Un peu de vocabulaire 73
5.3. Rsolution de lquation homogne 73
A). quation caractristique 73
B). Dimension de lespace des solutions 73
5.4. Cas gnral 75
5.5. Cas dun second membre de la forme P(t) exp(t), P R[X],
R. 75
5.6. Rsolution de (E) quand on connat une solution de (H) qui ne
sannule pas sur I 76
5.7. Wronskien de deux applications 76
5.8. Rsolution de (E) quand on connat une base de S
H
; mthode
de variation des constantes 78
6. Cauchy-Lipschitz 78
68 quations direntielles linaires
1. Introduction
Dans ce chapitre, nous appliquons les techniques dalgbre linaire ltude de
suites rcurrence linaire et dquations direntielles. Il peut tre instructif de
comparer les deux tudes.
2. Suites rcurrence linaire dordre 2
Soit a et b deux scalaires. On sintresse aux suites (u
n
)
nN
dlments de K qui
vrient
u
n+2
= au
n+1
+bu
n
(2.1)
pour tout n dans N. Notons E
a,b
lensemble des suites vriant la relation (2.1).
Remarquons tout dabord que E
a,b
est un sous-espace vectoriel de lespace vectoriel
K
N
de toutes les suites.
Comme la relation de rcurrence (2.1) est dordre 2, une suite u
n
de E
a,b
est d-
termine par ces deux premires valeurs. Ainsi, les lments de E
a,b
dpendent de
deux paramtres et la dimension de E
a,b
vaut deux. Pour formaliser un peu le
raisonnement prcdent, considrons lapplication suivante
: E
a,b
K
2
(u
n
)
nN
(u
0
, u
1
).
Lapplication est linaire, son noyau est rduit {0} et elle est surjective. Ainsi
est un isomorphisme et la dimension de E
a,b
vaut deux.
On cherche maintenant une base de E
a,b
. Il sut donc den trouver deux lments
linairement indpendant. Commenons par chercher les suites gomtriques de la
forme u
n
= r
n
qui appartiennent E
a,b
. Soit r K. On a
(r
n
)
nN
E
a,b
n N r
n+2
= ar
n+1
+br
n
,
n N r
n
(r
2
ar b) = 0.
Si r = 0, cette condition est bien sr quivalente r
2
ar b = 0. Si r = 0, la
condition pour n = 0 implique que r
2
ar b = 0. La condition pour tout n est
donc aussi quivalente r
2
ar b = 0. Ainsi
(r
n
)
nN
E
a,b
r
2
ar b = 0.
Si le polynme r
2
arb a deux racines distinctes r
1
et r
2
, on a trouv deux lments
(r
n
1
)
nN
et (r
n
2
)
nN
non proportionnels de E
a,b
. Comme E
a,b
est de dimension 2, on
en a construit une base.
Supposons maintenant que le polynme r
2
ar b a une racine double r
1
. Dans
ce cas, seule une suite gomtrique (r
n
1
)
nN
appartient E
a,b
. Lide est alors de
changer de suite inconnue en posant
u
n
= v
n
r
n
1
, (2.2)
pour tout n dans N. En eet, ce changement de suite est motiv par le fait que nous
venons de dmontrer que les suites constantes v
n
sont solutions.
Attention : pour r
1
= 0, on ne peut pas poser v
n
=
u
n
r
n
1
. Ce cas est trivial par ailleurs
puisque E
a,b
est constitu des suites nulles partir du rang n = 2. Supposons
dsormais que r
1
= 0.
On pose alors v
n
=
u
n
r
n
1
. Nous avions suppos lidentit polynomial suivante :
X
2
aX b = (X r
1
)
2
= X
2
2r
1
X +r
2
1
.
2 Suites rcurrence linaire dordre 2 69
On a
(u
n
)
nN
E
a,b
n N u
n+2
= au
n+1
+bu
n
,
n N r
n+2
1
v
n+2
= ar
n+1
1
v
n+1
+br
n
v
n
,
n N r
n+2
1
v
n+2
= 2r
1
.r
n+1
1
v
n+1
r
2
1
r
n
v
n
,
n N r
n+2
1
(v
n+2
2v
n+1
+v
n
) = 0,
n N v
n+1
=
v
n+2
+v
n
2
.
Ainsi chaque terme de la suite v
n
est la moyenne de son prdcesseur et de son
successeur. Les suites v
n
= 1 et v
n
= n sont deux solutions videntes . On a
ainsi trouv un nouvel lment u
n
= nr
n
1
de E
a,b
non proportionnel celui r
n
1
que
nous avions. On a donc une base de E
a,b
.
Le raisonnement prcdent montre le rsultat suivant.
Thorme 2.1. Soit a et b deux scalaires non tous nuls. Lensemble des suites
vriant la relation suivante
u
n+2
= au
n+1
+bu
n
est un sous-espace vectoriel E
a,b
de dimension 2 de lespace vectoriel des suites.
Considrons le polynme P = X
2
aX b.
(i) Si P a deux racines distinctes r
1
et r
2
alors la famille (r
n
1
, r
n
2
) est une
base de E
a,b
.
(ii) Si P a une racine double r
1
alors la famille (r
n
1
, nr
n
1
) est une base de
E
a,b
.
Remarque. Si le corps de base Kest le corps des nombres complexes C, le thorme
sapplique toujours. En revanche si le corps est R, il se peut que le polynme nait
pas de racine. Dans ce cas on cherche dabord les solutions complexes.
Vous tes invit faire lexercice dapplication suivant.
Exercice 23. (i) Calculer le terme gnral de la suite dnie par
_
_
_
u
n+2
= u
n+1
+ 2u
n
u
0
= 3
u
1
= 5.
(ii) Calculer le terme gnral de la suite dnie par
_
_
_
u
n+2
= 6u
n+1
9u
n
u
0
= 1
u
1
= 2.
2.1. Dterminant dune base de E
a,b
. Soit maintenant u
n
et w
n
deux
suites vriant la relation (2.1). Posons
d
n
=

u
n
w
n
u
n+1
w
n+1

.
Calculons d
n+1
:
d
n+1
= u
n+1
w
n+2
u
n+2
w
n+1
= u
n+1
(aw
n+1
+bw
n
) (au
n+1
+bu
n
)w
n+1
= b(u
n+1
w
n
u
n
w
n+1
)
= bd
n
.
On obtient donc que d
n
est une suite gomtrique de raison b.
70 quations direntielles linaires
3. Quest-ce quune quation direntielle ?
Une quation direntielle est une quation dont linconnue, notes y, est une fonc-
tion de la variable t et faisant intervenir des drives y

, y

. . . de y. Voici quelques
exemples dquations direntielles :
(i) y

= 2y + 3 ;
(ii) y

cos(t)y

+t = 0 ;
(iii) y

= y
2
+

t.
En revanche lquation y(t + 1) = y

(t) nest pas une quation direntielle car on


a pas le droit de changer de variable.
Pour prciser cette dnition, donnons nous un intervalle ouvert I de R. Soit F une
fonction de R
n+1
I dans R. Lquation
F(y
(n)
, y
(n1)
, , y; t) = 0 (3.1)
est par dnition une quation direntielle dordre n, dinconnue y et de variable t
dnie sur lintervalle I. Une solution (y, J) est la donne dun intervalle ouvert
J inclus dans I et dune fonction y : J R n fois drivable et vriant
lquation (3.1).
4. quations direntielles linaires du premier ordre
4.1. Dnition.
Dfinition 4.1. Une quation direntielle linaire du premier ordre est une qua-
tions qui s crit aprs rduction, sous la forme :
a(t)y +b(t)y = c(t)
(4.1)
o a, b et c sont des fonctions de la variable relle t, continues sur un intervalle I
de R sur lequel la fonction a ne s annule pas.
Dfinition 4.2. On appelle quation direntielle homogne associe lquation
a(t)y

+b(t)y = 0. (4.2)
4.2. Rsolution de lquation homogne. On se propose de rsoudre lqua-
tion direntielle homogne (4.2). Fixons t
0
dans I. crivons
a(t)y

+b(t)y = 0 a(t)y

= b(t)y,

(t)
y(t)
=
b(t)
a(t)
,

_
t
t
0
y

(u)
y(u)
du =
_
t
t
0
b(u)
a(u)
du,
ln(y(t)) ln(y(t
0
)) =
_
t
t
0
b(u)
a(u)
du,
y(t) = y(t
0
)e

t
t
0
b(u)
a(u)
du
.
Le raisonnement ci-dessus nest pas juste. En eet, la seconde ligne nous avons
suppos que la fonction y ne sannule pas ; ce que nous ne savons pas priori. Ce-
pendant la fonction t e

t
t
0
b(t)
a(t)
dt
ne sannule pas et le calcul ci-dessus montre que
cette fonction est solution de lquation (4.2). Pour rsoudre lquation diren-
tielle (4.2) de manire rigoureuse on eectue le changement de fonction inconnue
suivant
_
y(t) = z(t)e

t
t
0
b(u)
a(u)
du
,
z(t) = y(t)e

t
t
0
b(u)
a(u)
du
.
4 quations direntielles linaires du premier ordre 71
Ce changement de fonction inconnue est motiv par le fait que z(t) = constante
est solution. On a
y

(t) = z

(t)e

t
t
0
b(u)
a(u)
du
+z(t)
b(t)
a(t)
e

t
t
0
b(u)
a(u)
du
.
On en dduit que
a(t)y

(t) +b(t)y(t) = 0 a(t)(z

(t) z(t)
b(t)
a(t)
)e

t
t
0
b(u)
a(u)
du
= b(t)z(t)e

t
t
0
b(u)
a(u)
du
,
a(t)z

(t) z(t)b(t) = b(t)z(t),


z

(t) = 0,
z est une fonction constante.
Le lecteur prendra soin de vrier que nous avons simplier 2 fois par des fonctions
qui ne sannulent pas. Le raisonnement est donc exact. On peut formuler le rsultat
obtenu dans lnonc suivant.
Thorme 4.1. Soit a et b des fonctions continues sur un intervalle I de R. On
suppose que la fonction a ne s annule pas sur I. Soit J un intervalle inclus dans
I. Fixons t
0
dans J. Les solutions de lquation direntielle homogne
a(t)y

+b(t)y = 0
forment lespace vectoriel de dimension 1 engendr par la fonction
J R, t e

t
t
0
b(t)
a(t)
dt
.
Remarque. Lorsque J = I, les solutions donns par le thorme sont dnies
pour tout temps t (tout temps pour lesquels lquation est dnie). Ce cas semble
donc le plus puissant et sera le plus souvent utilis. Cependant lnonc avec J = I
est plus faible que lnonc ci-dessus. En eet, pour dduire quune solution soit
proportionelle lexponentielle du thorme il nest pas ncessaire de supposer
quelle soit dnie pour tout temps.
4.3. Cas gnral.
Proposition 4.2. Les solutions de lquation direntielle a(t)y

+b(t)y = c(t) sur


un intervalle J sobtiennent en ajoutant une solution particulire de cette quation
la solution gnrale de lquation direntielle homogne associe.
Preuve. La dmonstration est base sur le fait que lapplication y a(t)y

+b(t)y
est linaire. Soit y
0
une solution particulire de lquation a(t)y

+ b(t)y = c(t)
dnie sur lintervalle J. Alors pour toute fonction y drivable sur J, on a
a(t)y

+b(t)y = c(t) a(t)y

+b(t)y = a(t)y

0
+b(t)y
0
,
a(t)(y y
0
)

+b(t)(y y
0
) = 0,
si et seulement si y y
0
est solution de lquation (4.2).
4.4. Mthode de Lagrange. La mthode de Lagrange, aussi appele m-
thode de variation de la constante, permet de dterminer une solution particulire
dune quation direntielle linaire du premier ordre, ds lors que lon connat la
forme gnrale des solutions de lquation homogne associe. Il sagit simplement
deectuer un changement de fonction inconnue. Supposons que nous ayons dj
rsolu lquation homogne (4.2) en calculant la primitive
_
t
t
0
b(u)
a(u)
du note G(t).
Posons
_
y(t) = k(t)e
G(t)
,
k(t) = y(t)e
G(t)
.
72 quations direntielles linaires
On a alors
y

(t) =
_
k

(t) +k(t)
b(t)
a(t)
_
e
G(t)
,
et donc
a(t)y

(t) +b(t)y(t) = c(t) (a(t)k

(t) k(t)b(t))e
G(t)
+b(t)k(t)e
G(t)
= c(t),
a(t)k

(t) = c(t)e
G(t)
,
k

(t) =
c(t)
a(t)
e
G(t)
,
si et seulement si la fonction k est une primitive de la fonction
c(t)
a(t)
e
G(t)
.
Exemple 4.1. Considrons lquation direntielle
ty

y = t
2
e
t
(4.3)
Pour que le coecient t devant y

ne sannule pas plaons nous sur lintervalle


I =]0, +[.
En appliquant le thorme 4.1, on montre que lensemble des solutions de lquation
homogne ty

y = 0 est
{I R, t Ct | C R}.
On cherche une solution particulire de lquation (4.3) sous la forme
y = zt.
On a y

= z

t +z. Alors, y est solution de (4.3) si et seulement si


z

t
2
+zt zt = t
2
e
t
,
si et seulement si
z

= e
t
.
Dans la dernire quivalence, on a utilis le fait que la fonction t ne sannule pas
sur I. De plus, z

= e
t
si et seulement si z = e
t
+ C, pour une certaine constante
C. On en dduit que lensemble des solutions de lquation (4.3) est
{I R, t te
t
+Ct | C R}.
5. Le deuxime ordre coecients constants
5.1. Fonctions valeurs complexes. Dans cette section nous aurons besoin
de considrer des fonctions de variable relle et valeurs complexes. Nous rappelons
rapidement ici comment les manipuler.
Soit I un intervalle de R et
f : I C, t f(t)
une fonction de I dans C. On peut crire, pour chaque t, la valeur f(t) sous forme
a(t) +ib(t) avec a(t) et b(t) des rels. On obtient ainsi deux fonctions
a, b : I R.
On dit que f est drivable en t si a et b le sont. On pose alors f

(t) = a

(t) +ib

(t),
si bien que f

est une fonction de I dans C.


Les rgles de manipulation de la drive dune fonction valeurs complexes sont
les suivantes.
Proposition 5.1. Soit f, g deux fonctions drivables de I dans C. Soit J un second
intervalle de R et J I une fonction relle drivable. On a
(f +g)

= f

+g

, (fg)

= f

g +fg

, (f )

(f

),
(f)

= f

, (Re(f))

= Re(f

), (Im(f))

= Im(f

).
5 Le deuxime ordre coecients constants 73
Preuve. Nous montrerons ici la seconde formule. Les autres se montrent de manire
analogue. crivons f(t) = a(t) + ib(t) et g(t) = c(t) + id(t) avec a, b, c et d des
fonctions de I dans R drivables par hypothse. On a alors fg(t) = [a(t)c(t)
b(t)d(t)] + i[a(t)d(t) + b(t)c(t)]. En particulier les parties relles et imaginaires de
fg sont drivables. De plus,
(fg)

= [ac bd]

+i[ad +bd]

= [a

c b

d +ac

bd

] +i[a

d +b

c +ad

+bc

]
= a

[c +id] +b

[d +ic] +c

[a +ib] +d

[b +ia]
= a

g +ib

[id +c] +c

f +id

[ib +a]
= f

g +fg

5.2. Un peu de vocabulaire.


Dfinition 5.1 ( quation linaire du deuxime ordre coecients constants).
Ici, le corps K peut tre R ou C. On appelle quation direntielle linaire du
deuxime ordre coecients constants, une quation du type :
y

+a y

+b y = c(t) (E)
o a et b sont des scalaires de K et c une fonction continue dun intervalle I
valeurs dans K.
Dfinition 5.2 (quation homogne).
On appelle quation homogne associe (E), lquation
y

+a y

+b y = 0 (H)
5.3. Rsolution de lquation homogne.
A). quation caractristique. On cherche des solutions particulires de
lquation (H) sous forme exponentielle.
Proposition 5.2. Soit r dans K. La fonction de R K, t exp(rt) est solution
de (H) si et seulement si r est solution de r
2
+ar +b = 0. Cette dernire quation
est appele quation caractristique.
Preuve. Posons f(t) = exp(rt). Alors f

(t) = r exp(rt) = r f et f

(t) = r
2
exp(rt) =
r
2
f. Ainsi, f est solution de (H) si et seulement si
0 = f

(t) +af

(t) +bf(t) = (exp rt)(r


2
+a r +b).
Puisque la fonction t exp rt ne sannule pas, ceci est quivalent r
2
+a r +b = 0.

B). Dimension de lespace des solutions. Le thorme suivant dcrit qua-


litativement lensemble des solutions de lquation (H).
Thorme 5.3. Les solutions de (H) dnies sur R forment un sous-espace vecto-
riel de dimension 2 de lespace des fonctions de R dans K.
(i) Si lquation caractristique r
2
+ a r + b = 0 a deux solutions distinctes
r
1
et r
2
alors une base de lespace des solutions est (exp(r
1
t), exp(r
2
t)).
(ii) Si lquation caractristique r
2
+a r +b = 0 a une racine double r
0
alors
une base de lespace des solutions est (exp(r
0
t), t exp(r
0
t)).
(iii) Si K = R et lquation caractristique r
2
+ a r + b = 0 a deux racines
complexes conjugues z = a + ib et z = a ib alors une base de lespace
des solutions est (exp(at) cos(bt), exp(at) sin(bt)).
74 quations direntielles linaires
Preuve. Stabilit par addition. Soit y
1
et y
2
deux solution de (H) dnies sur R.
La fonction y
1
+y
2
est une solution car
(y
1
+y
2
)

+a(y
1
+y
2
)

+b(y
1
+y
2
) = (y

1
+ay

1
+by
1
) +(y

2
+ay

2
+by
2
) = 0+0 = 0.
Stabilit par multiplication scalaire. Soit y
1
une solution de (H) dnie sur R et
dans K. La fonction y
1
est une solution car
(y
1
)

+a(y
1
)

+b(y
1
) = (y

1
+ay

1
+by
1
) = 0.
On vient donc de montrer que lensemble S des solutions de (H) dnies sur R est
un sous-espace vectoriel de lespace des fonctions de R dans K. Il reste dterminer
sa dimension.
Supposons pour commencer quil existe une racine r
0
dans K lquation carac-
tristique r
2
+ ar + b = 0. Ceci est toujours le cas si K = C. On sait alors que la
fonction t exp(r
0
t) est une solution de lquation. Ceci nous incite eectuer
le changement de fonction inconnue suivant :
_
y = exp(r
0
t)z,
z = exp(r
0
t)y.
En drivant on trouve :
y

= r exp(r
0
t)z + exp(r
0
t)z

= r
2
exp(r
0
t)z + 2r exp(r
0
t)z

+ exp(r
0
t)z

.
Ainsi y

+a y

+b y = 0 si et seulement si
0 =
_
r
2
0
exp(r
0
t)z + 2r exp(r
0
t)z

+ exp(r
0
t)z

_
+a
_
r
0
exp(r
0
t)z + exp(r
0
t)z

_
+b exp(r
0
t)z
= (r
2
0
+ar
0
+b) exp(r
0
t)z + (2r
0
+a) exp(r
0
t)z

+ exp(r
0
t)z

= (2r
0
+a) exp(r
0
t)z

+ exp(r
0
t)z

.
La fonction y est donc solution de (H) si et seulement si (2r
0
+a)z

+z

= 0.
Considrons lensemble S

des solutions de lquation direntielle (2r


0
+a)z

+z

=
0 et lapplication suivante
: S S

y exp(r
0
t)(r
0
y +y

).
Puisque y S z

= (y) S

, lapplication est bien dnie. De plus est


linaire. Le noyau de est qui est lespace des solutions de lquation dordre 1
r
0
y + y

= 0 est de dimension 1. Puisque y S z

= (y) S

, lapplication
est surjective. Par ailleurs le thorme 4.1 montre que S

est de dimension 1. Le
thorme du rang appliqu montre que S est de dimension 2.
Remarque. Le paragraphe prcdent peut tre remplac par une rsolution explicite
de lquation (2r
0
+ a)Z + Z

= 0 en posant Z = z

. Il sagit ensuite de remonter


de Z y.
Si lquation caractristique a deux solutions la proposition 5.2 donnent deux so-
lutions non proportionnelles de lespace des solutions. Comme on vient de montrer
que cet espace est de dimension deux on a trouv une base.
Supposons prsent que lquation caractristique a une racine double r
0
. Dans
ce cas 2r
0
+ a = 0 et on a montr que y = exp(r
0
t)z est solution si et seulement
si y

= 0. En particulier, exp(r
0
t) et t exp(r
0
t) sont deux solutions linairement
indpendante. Ceci achve la preuve dans ce cas.
5 Le deuxime ordre coecients constants 75
Supposons prsent que K = R et que lquation caractristique na pas de solution
relle. Alors, lquation caractristique a deux solutions complexes conjugue z =
a +ib et z = a ib (avec a et b dans R). Remarquons aussi que dans ce cas on na
pas encore dmontr que lespace des solutions est dimension 2.
Une solution relle y : R R est en particulier une solution complexe. On peut
donc lui appliquer le premier cas et dduire quil existe des constantes complexes
A et B telles que
y = Aexp(zt) +Bexp( zt).
Or y =

Aexp(zt) +

Bexp( zt) =

Bexp(zt) +

Aexp( zt). La fonction y est valeurs
relles si et seulement si
y = y Aexp(zt) +Bexp( zt) =

Bexp(zt) +

Aexp( zt).
Comme la famille (exp(zt), exp( zt)) est libre sur C cela est encore quivalent
_
A =

B
B =

A
On en dduit que lespace des solutions relles de (H) est
{t Aexp(zt) +

Aexp( zt) : A C}.
On veut dcrire cet ensemble sans invoquer les nombres complexes. On a
exp(zt) = exp(at +ibt)
= exp(at) exp(ibt)
= exp(at)(cos(bt) +i sin(bt)).
Soit A = +i avec et dans R. On a
Aexp(zt) +

Aexp( zt) = 2Re
_
( +i) exp(at)(cos(bt) +i sin(bt))
_
= 2 exp(at)
_
cos(bt) sin(bt)
_
.
On en dduit que lespace des solutions relles de (H) est
{t exp(at) cos(bt) + exp(at) sin(bt) : , R}.
En particulier, la paire (exp(at) cos(bt), exp(at) sin(bt)) est une base de lespace
vectoriel rel des solutions relles de (H).
5.4. Cas gnral.
Proposition 5.4. Les solutions de lquation direntielle (E) sur un intervalle
J sobtiennent en ajoutant une solution particulire de cette quation la solution
gnrale de lquation (H).
Preuve. La preuve est la mme que pour la proposition 4.2
5.5. Cas dun second membre de la forme P(t) exp(t), P R[X], R.
Proposition 5.5. Dans ce cas, les solutions de (E) sont dnies sur R. Il existe
une solution particulire de (E) sous la forme
Q(t) exp(t) avec Q K[X] et deg Q deg P + 2.
Preuve. Posons X : R R, t Q(t) exp(t). On a alors
X

(t) =
_
Q(t) +Q

(t)
_
exp(t)
X

(t) =
_

2
Q(t) + 2Q

(t) +Q

(t)
_
exp(t).
76 quations direntielles linaires
Donc
X

(t) +aX

(t) +bX(t) =
_

2
Q(t) + 2Q

(t) +Q

(t) +aQ(t) +aQ

(t) +bQ(t)
_
exp(t).
Ainsi X est solution de (E) si et seulement si
(
2
+a +b)Q(t) + (2 +a)Q

(t) +Q

(t) = P(t). (5.1)


Notons d le degr de P. Il sagit de montrer quil existe un polynme
Q = q
0
+q
1
t + +q
d+2
t
d+2
satisfaisant lquation (5.1). En dveloppant cette quation et en identiant les
coecients de P et de (
2
+ a + b)Q(t) + (2 + a)Q

(t) + Q

(t), on tombe sur


un systme dquations linaires avec second membre en les inconnues q
0
, , q
d+2
.
Ce systme se rsout facilement en commenant par les termes de plus haut degr,
puisquil est chelonn. La proposition en dcoule.
5.6. Rsolution de (E) quand on connat une solution de (H) qui ne
sannule pas sur I. Soit h une solution de (H) qui ne sannule pas sur I ; on
eectue le changement de fonction inconnue :
y =
x
h(t)
x = h(t)y.
Ainsi, par drivation,
x

= h

(t)y +h(t)y

,
x

= h

(t)y + 2h

(t)y

+h(t)y

.
En substituant x dans (E), on obtient
c(t) = x

+a(t)x

+b(t)x
=
_
h

(t)y + 2h

(t)y

+h(t)y

_
+a(t)
_
h

(t)y +h(t)y

_
+b(t)h(t)y
= h(t)y

+
_
2h

(t) +a(t)h(t)
_
y

+
_
h

(t) +a(t)h

(t) +b(t)h(t)
_
= h(t)y

+
_
2h

(t) +a(t)h(t)
_
y

+ 0,
et x est solution de (E) si, et seulement si, y est solution de h(t)y

+
_
2h

(t) +
a(t)h(t)
_
y

= c(t), i.e. solution dune quation direntielle linaire du premier


ordre en la variable y

, quation que lon sait rsoudre laide de deux quadratures.


x = h(t) y est solution de (E)
_
_
_
y

= z
z

+
_
2
h

(t)
h(t)
+a(t)
_
z =
c(t)
h(t)
Remarque. Les deux intgrations successives donnent lexistence de deux constantes
pour x, ce qui montre que lensemble des solutions de (E) dpend de deux constantes.
5.7. Wronskien de deux applications. Les solutions de (H) donnes par
le thorme 5.3 sannulent souvent. En particulier la mthode de la section prc-
dente sapplique rarement. Nous allons prsenter une nouvelle mthode qui remplace
dquation (E) par deux quations de degr 1. Pour cela introduisons le Wronskien.
Dfinition 5.3 (Wronskien de deux applications).
On appelle Wronskien des applications h
1
et h
2
de classe C
1
sur lintervalle I et
valeurs dans K, lapplication w(h
1
, h
2
) dnie par
t I, w(h
1
, h
2
)(t) = det
_
h
1
(t) h
2
(t)
h

1
(t) h

2
(t)
_
= h
1
(t)h

2
(t) h

1
(t)h
2
(t).
5 Le deuxime ordre coecients constants 77
Remarques. Le Wronskien w(h
1
, h
2
) est une application continue sur I.
Deux applications proportionnelles ont un Wronskien identiquement nul.
Proposition 5.6 (Wronskien de deux solutions de (H)).
Soient h
1
et h
2
deux solutions de (H) ; ou bien le Wronskien w(h
1
, h
2
) est identique-
ment nul sur I et les fonctions h
1
et h
2
sont proportionnelles, ou bien le Wronskien
w(h
1
, h
2
) ne sannule pas sur I et (h
1
, h
2
) constituent une base de S
H
.
Preuve. Puisque h
1
et h
2
sont de classe C
2
, w(h
1
, h
2
) est une fonction de classe
C
1
et, par drivation
w(h
1
, h
2
)

= (h
1
h

2
h

1
h
2
)

= (h

1
h

2
+h
2
h

2
) (h

2
h
2
+h

1
h

2
)
= h
1
h

2
h

1
h
2
= h
1
_
ah

2
bh
2
_

_
ah

1
bh
1
_
h
2
= a
_
h
1
h

2
h

1
h
2
_
= aw(h
1
, h
2
).
Ainsi w(h
1
, h
2
)(t) = w(h
1
, h
2
)(t
0
) exp(at) et w(h
1
, h
2
) est soit identiquement nul,
soit ne sannule pas sur I.
Si h
1
et h
2
ne sont pas proportionnelles, (h
1
, h
2
) constituent une base de S
H
(la
dimension est 2). Lisomorphisme h
_
h(t
0
), h

(t
0
)
_
de S
H
sur K
2
montre les
couples
_
h
1
(t
0
), h

1
(t
0
)
_
et
_
h
2
(t
0
), h

2
(t
0
)
_
forment une base de K
2
, et w(h
1
, h
2
)(t
0
)
est non nul.
Proposition 5.7 (Expression dune fonction laide dune base de S
H
).
Soient (h
1
, h
2
) une base de S
H
; pour toute fonction numrique f de classe C
2
sur
I, il existe un unique couple (g
1
, g
2
) de fonctions numriques de classe C
1
sur I, tel
que
t I, f(t) = h
1
(t)g
1
(t) +h
2
(t)g
2
(t) et f

(t) = h

1
(t)g
1
(t) +h

2
(t)g
2
(t),
ou, ce qui est quivalent,
t I, f(t) = h
1
(t)g
1
(t) +h
2
(t)g
2
(t) et 0 = h
1
(t)g

1
(t) +h
2
(t)g

2
(t).
Remarque. Le changement de fonction inconue ci-dessus est trs astucieux et pas
facile retenir. On pourra remarquer que si g
1
et g
2
sont constantes on retrouve
les solutions de (H).
Preuve. Soit
_
a b
c d
_
une matrice 22. Elle est inversible si, et seulement si, adbc =
0. On vrie aisment que
_
a c
b d
__
d c
b a
_
=
_
ad bc 0
0 ad bc
_
.
Ainsi, si ad bc = 0, on a
_
a c
b d
_
1
=
1
ad bc
_
d c
b a
_
.
Revenons la proposition. Il sut de rsoudre le systme linaire, pour tout t I,
_
f(t) = h
1
(t)g
1
(t) +h
2
(t)g
2
(t)
f

(t) = h

1
(t)g
1
(t) +h

2
(t)g
2
(t)
que lon crit matriciellement
_
f(t)
f

(t)
_
=
_
h
1
(t) h
2
(t)
h

1
(t) h

2
(t)
__
g
1
(t)
g
2
(t)
_
.
78 quations direntielles linaires
Puisque le Wronskien w(h
1
, h
2
)(t) ne sannule pas sur I, il vient
_
g
1
(t)
g
2
(t)
_
=
_
h
1
(t) h
2
(t)
h

1
(t) h

2
(t)
_
1
_
f(t)
f

(t)
_
=
1
w(h
1
, h
2
)(t)
_
h

2
(t) h
2
(t)
h

1
(t) h
1
(t)
__
f(t)
f

(t)
_
.
On constate que les fonctions g
1
et g
2
sont uniques et de classe C
1
sur I.
En drivant lidentit t I, f(t) = h
1
(t)g
1
(t) +h
2
(t)g
2
(t), on obtient :
f

(t) = h

1
(t)g
1
(t) +h

2
(t)g
2
(t) +h
1
(t)g

1
(t) +h
2
(t)g

2
(t).
On a donc lquivalence, pour tout t I,
f

(t) = h

1
(t)g
1
(t) +h

2
(t)g
2
(t) 0 = h
1
(t)g

1
(t) +h
2
(t)g

2
(t).

5.8. Rsolution de (E) quand on connat une base de S


H
; mthode
de variation des constantes. Soient (h
1
, h
2
) une base de S
H
. La proposition
prcdente montre que lon peut rechercher les solutions z de (E) sous la forme
z = h
1
(t)y
1
+h
2
(t)y
2
avec les conditions quivalentes :
z

= h

1
(t)y
1
+h

2
(t)y
2
0 h
1
(t)y

1
+h
2
(t)y

2
.
En drivant et en substituant dans lquation (E), on obtient
z

= h

1
(t)y
1
+h

2
(t)y
2
+h

1
(t)y

1
+h

2
(t)y

2
c(t) = z

+a(t)z

+b(t)z
=
_
h

1
(t)y
1
+h

2
(t)y
2
+h

1
(t)y

1
+h

2
(t)y

2
_
+a(t)
_
h

1
(t)y
1
+h

2
(t)y
2
_
+b(t)
_
h
1
(t)y
1
+h
2
(t)y
2
_
=
_
h

1
(t) +a(t)h

1
(t) +b(t)h
1
(t)
_
y
1
+
_
h

2
(t) +a(t)h

2
(t) +b(t)h
2
(t)
_
y
2
+
_
h

1
(t)y

1
+h

2
(t)y

2
_
= 0 + 0 +h

1
(t)y

1
+h

2
(t)y

2
.
Les fonctions inconnues y
1
et y
2
sont solutions du systme linaire
t I, 0 = h
1
(t)y

1
+h
2
(t)y

2
c(t) = h

1
(t)y

1
+h

2
(t)y

2
ce qui donne, pour tout t I,
_
0
c(t)
_
=
_
h
1
(t) h
2
(t)
h

1
(t) h

2
(t)
__
y

1
y

2
_

_
y

1
y

2
_
=
_
h
1
(t) h
2
(t)
h

1
(t) h

2
(t)
_
1
_
0
c(t)
_
=
1
w(h
1
, h
2
)(t)
_
h

2
(t) h
2
(t)
h

1
(t) h
1
(t)
__
0
c(t)
_
.
Do lexpression des fonctions y

1
et y

2
:
t I, y

1
(t) =
c(t)h
2
(t)
h
1
(t)h

2
(t)h

1
(t)h
2
(t)
et y

2
(t) =
c(t)h
1
(t)
h
1
(t)h

2
(t)h

1
(t)h
2
(t)
Deux intgrations donnent y
1
et y
2
, et donc z.

Vous aimerez peut-être aussi