Vous êtes sur la page 1sur 522

re

ECS ' nee·


jl,

V. ROU5S ~ PÉAl~AOL
Conception et création de couverture : Atelier 3+

Le pictogromme qui figure ci-contre d'enseignement supérieur, provoquant une


mérite une explication. Son objet est baisse brutale des achats de livres et de
d'alerter le lecteur sur la menace que revues, au point que la possibilité même pour

@)
représente pour l'avenir de l'écrit, - - - - - les auteurs de créer des œuvres
particulièrement dans le domaine DANGER nouvelles et de les faire éditer cor-
de l'édition technique et universi- rectement est aujourd'hui menacée.
taire, le développement massif du Nous rappelons donc que toute
photocopilla9e. reproduction, portielle ou totale,
Le Code de la propriété intellec- de la présente publication est
tuelle du l er juillet 1992 interdit LE POOTOCOPILl.AΠinterdite sans autorisation de
en effet expressément la photoco- TUE LE LIVRE l'auteur, de son éditeur ou du
"'O pie à usage collectif sans autori- Centre français d'exploitation du
0
c sation des ayants droit. Or, cette pratique droit de copie (CFC, 20, rue des
:J
s'est généralisée dans les établissements Grands-Augustins, 75006 Paris).
0
lil
.-t
0
N
© Dunod, 2015
@
....... 5 rue Laromiguière, 75005 Paris
..c
CJl
·;::::
www.dunod.com
>
a. ISBN 978-2-10-072967-8
0
u Le Code de Io propriété intellectuelle n'autorisant, aux termes de l'article
L. 122-5, 2° et 3° a), d'une part, que les «copies ou reproductions strictement
réservées à l'usage privé du copiste et non destinées à une utili sation collective »
et, d 'autre part, que les analyses et les courtes citations dons un but d'exemple et
d' illustratio n, « toute représentation ou reproduction intégrale ou partielle faite
sans le consentement de l'auteur ou de ses ayants droit o u aya nts cause est
illicite » (art. L. 122-4).
Cette représentation ou reproduction, par quelque procédé que ce soit, constitue-
rait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du
Code de la propriété intellectuelle.
Table des matières

Algèbre
1 Calcul algébrique 9
2 Nombres complexes et polynômes 29
3 Calcul matriciel 59
4 Systèmes linéaires et matrices 93
5 Espaces vectoriels et sous-espaces vectoriels 113
6 Applications linéaires et matrices 169
Analyse
7 Nombres réels et suites réelles 245
8 Étude locale et globale des fonctions 265
9 Séries 305
10 Intégration des fonctions d'une variable réelle 337
"'O
0
c 11 Formules de Taylor et développements limités 379
:J
0
lil
.-t
0
Probabilités
N
@
.......
..c
12 Dénombrement 407
O'l
·;::::
>-
13 Espaces probabilisés 423
a.
u
0
14 Variables aléatoires discrètes 449
15 Variables aléatoires à densité 485
16 Convergence en probabilité et en loi 503
1:J
0
c
:J
0
lJ)
r-1
0
N
@

L
01
ï::::
>-
Q.
0
u
Avant-propos

Cet ouvrage s'adresse aux étudiants de première année E. C.S. de classes préparatoires
économiques. Il leur propose de me tt re en pratique les not ions abordées en cours de
mathématiques et d'algorithmique pa r le biais d 'exercices. Chacun est suivi d 'une
correction dét aillée et commentée da ns laquelle l'accent est mis sur la méthode qui
mène à la solut ion.
Le livre est divisé en trois parties et seize chapitres, consacrés chacun à une partie
du programme avec respect de la sépa rat ion en deux semestres. Au sein d 'un même
chapitre, les exercices ont été choisis de façon à passer en revue t outes les capacités
a ttendues autour des notions à connaît re. Ces capacit és sont list ées à la fin de chaque
chapitre avec un renvoi explicite a ux questions et exercices da ns lesquels elles sont
utilisées. Les principales formules sont également rappelées au sein de chaque capacité.
E n ce qui concerne les corrections, nous avons choisi de séparer clairement :
• la réflexion préliminaire, comprenant analyse du problème et tâtonnements a u
brouillon (nous nous somn1es autorisés une plus grande liberté da ns la façon de
formuler les idées et le sens profond de certaines notions parfois au mépris d 'une
certaine rigueur mathématique mais t ouj ours dans un souci pédagogique) ,
• de la rédaction finale, rigoureuse et précise.
Cette dernière ét ape est signalée dans le t ext e pa r la présence d 'un liseré gris sur la

gauche et d'un ~. Bien évidemment , il n'est nullement question de prétendre, ici,


"'O
à l'unique cheminement logique, ou encore à la seule rédaction acceptable.
0
c P ar ailleurs, nous avons souhaité mettre en exergue les idées réutilisables en les rédi-
:J
0
1..()
T"-l geant sur un fond grisé et indiqué par un i>. De même, la présence d'une difficulté
0
N

© .
courante est signa l ee If\
' par un L.!J.
.......
..c L'index présent en fin d'ouvrage fournit des renvois a ux principales notions aussi bien
Ol
ï::: vers la list e de capacités du chapitre dont elles dépendent que vers leurs utilisations
>-
a.
0 explicites dans d'aut res cha pit res.
u
E nfin, comme l'usage le veut, l'expression « si et seulement si » sera parfois a brégée
en « ssi » et on écrira « resp. » comme abréviation de « respectivement ».
Chaque exercice est référencé selon le codage CHAP.EXO où CHAP est le numéro
d u chapitre et EXO le numéro de l'exercice. De même chaque question d'un exercice
est référencée selon le codage CHAP.EXO.Q.SQ, voire Q.SQ, où Q est le numéro de
question et SQ la sous-quest ion.
1:J
0
c
:J
0
lJ)
r-1
0
N
@

L
01
ï::::
>-
Q.
0
u
Partie 1
Algèbre

"'Cl
0
c
:::J
0
li)
.--1
0
N
@
......
~
OI
ï:::::
>-
Q.
0
u
1:J
0
c
:J
0
lJ)
r-1
0
N
@

L
01
ï::::
>-
Q.
0
u
Algèbre
1 Calcul algébrique 9
Semestre 1
1.1 : Techniques de sommation de base 9
1.2 : Séparation pairs/ impairs 15
1.3 : Sommes télescopiques 16
1.4 : Formule du binôme et moments de la loi binomiale 18
1.5 : La somme des premiers cubes 1 21
1.6 : La formule de Vandermonde 24
Liste des capacités attendues 27

2 Nombres complexes et polynômes 29


Semestre 1
2.1 : Complexes de module 1 29
2.2 : Équations sur (('. 31
2.3 : Racines 5- ièmes et constructibilité du pentagone 34
2.4 : Linéarisation et primitivation 35
2.5 : Système d'équ ations sur (('. 36
2.6 : La somme des premiers cubes 11 37
2.7 : Autour des polynômes de Tchebychev 41
2.8 : Division euclidienne et restes 45
2.9 : Polynômes interpolateurs de Lagrange 46
2.10 : Relation entre racines et coefficients 48
"'O
2.11 : Autour des racines n- ièmes de l'unité 49
0
c
:J
2.12 : Divisibilité et ordre de multiplicité des racin es 52
0
lil
Liste des capacités attendues 57
.-t
0
N
@
3 Calcul matriciel 59
......
..c
O'l
·;::::
Semestre 1
>
a.
0
3.1 : Polynômes de matrice et inversibilité 60
u
3.2 : Puissances de matrice 1 62
3.3 : Modèle de Leslie 1 66
3.4 : Théorème de Cayley-Hamilton pour les matrices 2 x 2 70
3.5 : Produit scal aire, sym étrie et antisymétrie 74
3.6 : M atrices de permutation 76
3.7 : Opérations élémentaires et produit matriciel 79
3.8 : Polynôme annulateur de matrice 87
Liste des capacités attendues 91

4 Systèmes linéaires et matrices 93


Semestre 1
4.1 : Systèmes rectangulaires et carrés 93
4.2 : Inversion matricielle et systèmes 95
4.3 : Systèmes à paramètres 1 96
4.4 : Systèmes à paramètres 11 98
4.5 : Systèmes et déterminant 100
4.6 : Résolution de systèmes par Scilab 103
4.7 : Méthode de Gauss-Jordan 108
Liste des capacités attendues 112

5 Espaces vectoriels et sous-espaces vectoriels 113


Semestre 1
5.1 : Sous-espaces de ~5 114
5.2 : Équations cartésiennes et paramétrisation 122
5.3 : Espace de suites 125
5.4 : Famille de polynômes 129
5.5 : Famille échelonnée et famille de puissances 132
5.6 : Manifestement libre 139
5.7 : Familles extrémales 141
5.8 : Image et noyau d'une matrice 145
"'O
0
c Semestre 2
:J
0
lil
5.9 : Espace de suites linéairement récurrentes 148
.-t
0
N
5.10 : Carrés magiques 154
@ 5.11 : Dimensions et espaces 160
......
..c
O'l 5.12 : Analyse harmonique 163
·;::::
>-
a. Liste des capacités attendues 167
0
u
6 Applications linéaires et matrices 169
Semestre 2
6.1 : Applicatio ns coordo nnées 169
6.2 : Project e urs et symétries 1 172
6.3 : Projecteurs et symétries 11 178
6.4 : Matrice= Application Linéaire 181
6.5 : rg(A) = rg(t A) 186
6.6 : Diagonale en toute base 192
6.7 : Image et noyau par pivot de Gauss 194
6.8 : Matrrice de Vandermonde et polynômes de Lagrange 198
6.9 : Polynôme annulateur et réduction 204
6.10 : Commutant d 'une matrice carrée 208
6.11 : Commutant d'un endomorphisme cyclique 212
6.12 : Matrices à paramètre et de Vandermonde 217
6.13 : AB donne BA 220
6.14 : Inversion de Pascal 223
6.15 : Formes linéaires de oc.n 226
6.16 : Hyperplans 232
Liste des capacités attendues 237

"'O
0
c
:J
0
lil
.-t
0
N
@
......
..c
O'l
·;::::
>
a.
0
u
1:J
0
c
:J
0
lJ)
r-1
0
N
@

L
01
ï::::
>-
Q.
0
u
CHAPITRE

Calcul algébrique

On ra ppelle le vocabulaire élémentaire associé aux sommes L Uk et aux produits


k EI
II uk des éléments d 'une famille finie de réels (ou complexes) (u k)kE I
k EI
• k est l'indice de la somme ou du produit,
• uk est le terme général de la somme ou du produit .
Lorsque I est vide on pose, par convention, L Uk = 0 (resp. II Uk = 1). Dans le cas
kEI kEI
n n
part iculier où I = [m, n], on note L Uk la somme et II Uk le produit. m et n sont
k=m k= m
appelés les bornes respectivement inférieure et supérieure de la somme ou du produit.

1. Soit (un) une suite arithmétique de raison r (r =f. 0) et de premier terme u 0 .


n

"'O
Calculer L Uk.

0 k=m
c
0
:J 2. Soit (un) une suite géométrique de raison q (q =f. 1) et de premier terme uo.
n n
1..()
T"-l
0
N
Calculer L Uk et II Uk.
k =m k=m
©
....... 2
..c
Ol
3. Montrer que, pour tout n EN*, II
n (2k - 1) = ( n) ! .
ï::: 2nn.1
>- k= l
a.
0 Écrire une fonction Scilab d'entête function p=produi t_impairs (n) qui
u
calcule le produit des n premiers entiers naturels impairs.

4. Calculer
10 Chapitre 1 Calcul algébrique

1 . Il y a p lu sieurs façons n aturelles de procéder :


• la suite est arithmétique donc son terme général s'écrit Uk = uo + kr et on est
a insi ramené à une somme d 'entiers consécutifs ;

~ n n n n

k= rn k = rn k =rn k = rn

U-O(n - m+ l )+r [t,k-~kl


(n - m + 1)uo + r [ n(n 2+ 1) - (m ~ 1)ml
n 2 +n-m 2 +m
(n - m + 1 )uo + r
2
(n+m)(n - m+l)
(n - m + 1) uo + r.
2

• on peut a lternativem ent utiliser l'expression U k = Um + (k - m)r pour se ramener


directement à la somme des premiers entiers ;

n n n

L [u rn + (k - m)r]
k=rn k =rn k =rn
n - rn

U rn ( n - m + 1) + r L k'
k 1= 0
(avec le cha n gement d 'indice k' =k - m)

(n - m + l )U rn + r (n - m)(n - m + 1)
2
(n - m)(n - m+ l )
(n - m + l )(uo + mr) + r - - - - - - -
2
l) (n + m)(n - m + 1) .
"'O (n - m + uo + r
0 2
c
:J
0
1..() • on peut encore u tiliser la démarche du jeune Gauss* en ajou tant la somme in con-
T"-l
0
N
nue à elle-même mais en ordonnant les termes dans l'aut re sens
©
.......
1 + 2 + + k + + n- l + n
..c
Ol
n + n- l + + n+ l -k + + 2 + 1
ï::: + 1) (n + 1) (n + 1) (n + 1) + 1)
>-
a.
(n + + + + + + (n
0
u 100
ce qui lui a permis d 'obtenir rapidement que 2 Lk = 100 x (100 + 1).
k= l

*· Carl Friedrich Gauss (1 777- 186 5) , le P rince des m athématicien s, a ouvert la voie à d e nombreux
domaines d es mathém a tiques. Il raconta it lui-mêm e cette a n ecdote pour construire sa légende.
Exercice 1.1 Techniques de sommation de base 11

Avec les changements d'indice k' = k - met k" = n - k, on a


n n n- m n-m n-m

k=m k=m
k'=O k"=O k=O
On remarque alors que Um+k +un -k = Um +kr+un -kr = Um +un est indépendant
de k, d'où
n

(n - m + 1)
Um + Un = (
n - m +
l) uo + mr + uo + nr
2 2
(n - m + l )(m + n)
( n -m+ 1) uo + r .
2

2. Pour la somme des termes consécutifs d'une suite géométrique, il y a encore plu-
sieurs façons naturelles de procéder :
• la suite est géométrique donc son t erme général s'écrit Uk = u 0 qk et on est a insi
n l _ qn+ l
ramené à la somme connue L qk = ----
k= O l - q

n n n
~ k- m ~ k- m
L Umq = Um L q
k=m k=m
n- m
~ k'
Um L q (avec le ch a ngement d 'indice k' = k - m)
k' =O
1 _ qn-m+l m l _ qn-m+l
Um
l - q
= uoq
l-q

• on peut aussi reprendre l'idée de Gauss et voir comment la relation U k + l = quk


permet d 'obtenir une équa t ion a lgébrique du premier d egré d'inconnue la somme
ch erch ée.

n n n+l n
"'O
0
c
:J
q L 'Uk = L Uk+ l = L Uk' = L Uk + u n+l - Um,
0 k=m k=m k' = m + l k=m
1..()
T"-l d'où
0 n
N
Um - Un+l Um - qun
©
.......
..c
L Uk = - -l -- -q -
k=m
l - q
Ol
ï:::
>-
a. Quant au produit des termes consécutifs de la même suite géométrique , le problème
0
u se déplace dans l'exposant et se ramèn e à la somme des t ermes consécutifs d 'une suit e
arithmétique.

~1 k=m k=m
= u~ - m
+l
q
(n + rn )(n - m + l )
2
12 Chapitre 1 Calcul algébrique

3 . Le produit fait penser à la définition d'une factorielle mais seuls les termes impairs
sont présents :
1 X 2 X 3 X ... X (2k - 1) X (2k) X . .. X (2n - 1) X (2n) (2n)!
n
1X 3 X ·· · X (2k - 1) X ··· X (2n - 1) Il (2k - 1).
k= l
Les termes pairs manquants donnent eux :
2 X 4 X . . . X (2n - 2) X (2n) = ~[1 X 2 X .. . X (n - 1) X n].
n fois

~ n

rr (2k - 1) = n
(2n)! (2n) ! (2n)!
2nn! ·
k= l
Il(2k)
k= l
(1]2) (]]k)
L 'implémentation en Scilab du calcul du produit se fait naturellement à l'aide d 'une
boucle f or , il y a p lusieurs possibilités selon que l'on calcule le terme général du
produit à part ou non.

functi on p=produit _i mpairs(n ) funct i on p=pr oduit _impai rs(n)


p=1; p=1 ; i =3;
for k=2 :n for k=1:n-1
p=p*(2*k- 1); p=p*i; i=i +2;
end end
endfunction endf unction

funct i on p=pr odui t _impai rs( n)//


p=1 ; Il
for k=3:2:2*n //boucle pour chaque impair
p=p*k ; // entre 3 et 2n- 1
end //
"'O
endfunction //
0
c
0
:J
~ !commence par écrire la somme double comme deux sommes simples imbriquées ;
1..()
T"-l
0
N

©
.......
..c
L
l ~ i ,j ~ n
li - JJ 2 _n l
o
1·--n l Ji -
( 2= JI)
Ol
ï:::
>-
a.
0
u
Toute somme double s 'écrit comme une somme de sommes, cette trans-
formation porte le nom de relation de Fubini.

puis on découpe la somme intérieure selon le signe de la différence i - j pour pouvoir


« éliminer » la valeur absolue;
Exercice 1.1 Techniques de sommation de base 13

~1 I:
l :Çi,j:Çn
li - jJ

en les écrivant en exten sion, on constate que les deux sommes sont connues
i- 1

L: (i - j) (i - 1) + (i - 2) + ... + 2 + 1,
j= l
n
I: u- i) 1 + 2 + · · · + (n - i - 1) + (n - i).
j =i+ l

t [t,j' j~/'] +
(avec les changements d'indice j' = i - j et j" = j - i)

t, [ ~
(i l )i + (n - i)(~ - i + 1) l
On peut poursuivre de deux manières différentes :
n
• soit on remarque que tout ceci vaut L (i - l )i, puisque, par linéarité,
i= l

n n
et que, par le changement d'indice k = n - i+ l , L (n-i)(n-i+ l ) = L (k- l )k;
·i = l k= l

• soit on regroupe selon les puissances de i et on conclut par linéarité de la somma-


"'O
0 tion.
c
:J
0 On va détailler cette deuxième méthode.

t
1..()
r-l
0
N

©
......
..c
[i' - (n + l )i + n(n2+ 1) l
Ol
ï:::
>- n(n + 1)(2n + 1) ( l) n(n + 1) 1 2( l)
a.
0
6 - n+ 2 + 2n n+
u
n(nt l) [2n + l - 3(n + 1) + 3n] = (n - l)~(n + l) _

Quant à la seconde somme, on choisit de sommer en premier (la somme extérieure)


n
sur j qui va rie donc selon 1~ :::;; j :::;; n (à ce stade, i n'exist e pas encore) i.e. L ' une
j =l
14 Chapitre 1 Calcul algébrique

fois j fixé, on somme sur i qui varie donc selon 1 ~ i ~ j~ (la contrainte concernant
j

j a déjà été prise en compte précédemment) i.e. L·


i= l

n
L (2 1 - 1) (d'après la formule du binôme de Newton)
j= l
n n

2 L 21 -
1
- L 1 (par linéarité d e la sommation)
j=l j= l

2 1 - 2n - n = 2n+1 - n - 2.
1- 2

Fort de cette compréhension des sommations sur un triangle, on peut alors proposer
une a utre méthode pour la première somme en utilisant les propriétés de symétrie du
t erme général : on va, à l'inverse de ce qui a été fait en prenlière méthode, reporter la
relation de Fubini en toute fin de calcul et commencer par simplifier la somme double
initiale a u moyen des opérations habituelles (cha ngement d 'indice ou regroupement
des termes) .
En l'occurrence, en regroupa nt les t ermes d'indice (i,j) selon que i < j, i = j ou
i > j , on trouve

L: li-jl = L: li - j l+ L: li-jl + L: li - j l .
l ~i,j~ n l '5'.:i<j'5'.: n ~ 1 :o:;i,j:o:;n '-v--' l ~j<i~ n ~
" "" J- t i= j = Ü t- J

F inalement, en prena nt (j, i) en lieu et place de (i,j) comme couple d'indices indexant
la dernière somme, on trouve
-0
0
c
:J n- 1 n n - 1 n -i
0
,....
1..()
L: li - j l 2 2= (j - i) Fubini 2 2= 2= (j - i) k= j - i 2 2= 2= k
0
N l ~i,j ~ n l ~ i<j~n i = l j =i+ l i = l k= l

©
....... ~ (n - i)(n - i + 1) j =n - i ~ '(. )
..c
Ol
2L_,, 2 = L_,, ) J + l
ï::: i= l j= l
>-
a. n- l n- 1
u
0
~ .2 ~ . _ (n - l )n(2n - 1) (n - l) n
L_,, ) + L_,, ) - 6 + 2
j= l j= l

(n - l )n(n + 1)
(n ~ l )n [(2n - 1) + 3]
3
Exercice 1.3 Sommes télescopiques 15

1. Pour n E N* , on pose
2
et In = n ( k2n
Pn =
2 1
L
_ ) ·n (2n)
k L
k=O k= l
En considérant Pn +In et Pn - In, calculer les deux sommes Pn et In.
2n
2. Calculer, pour n EN*, L(-l)kk 2 .
k =O

1. Écrivons les sommes en extension pour v isualiser ce qui se passe :

Pn (2;) + (2;) + .... .......... . + (~~) + ...... + (~~)


2 2 2 2
In ( ;) + ( ;) + · · · + (2k : 1) + ... + (2n : 1)
2n 2n 2n 2n 2n 2n
0
+ 1 + ... + 2k - 1 + 2k + ... + 2n- 1 + 2n

On a, pour n EN* , d ' après la formule du binôme de Newton,

f= (2;) 1) 2
p= O
= (l+
2
" =
2
" ,

f=(-1)'(2;) = (1-1) = o.
p=O
2
"

D ' OU' n
F n
_
-
Jn -_ ~ 2 2n _
- 2 2n- l ·
2
2. Là encore, écrivons la somme en extension :
-0
0 2n
c
0
:J
L (-l)kk2 = 02 - 12 + 22 - ·· · - (2p- 1) 2 + (2p) 2 - ··· - (2n- 1)2 + (2n) 2
1..()
T"-l k=O
0
N pour constater qu'il y a d es simplifications entre d eux termes consécut ifs puisque
©
.......
(2p) 2 - (2p - 1)2 = [2p + 2p - 1][2p - (2p - 1)] = 4p - 1.
..c
Ol
ï::: Pour n EN* , en sépara nt les t ermes d 'indices pairs et impairs,
>-
a. 2n n n
0
u
p= l p= l
n n n

p= l p=l p= l

2n(n + 1) - n = n(2n + 1).


16 Chapitre 1 Calcul algébrique

1. Calculer t, ln ( 1 - i~) pour n ;:;, 2.

2. a. Déterminer des constantes réelles a, b et c telles que


1 a b c
'rf k ~ ' k(k 2 - 4) = k - 2 + k + k + 2.
2

n 1
b . En déduire une expression simple de la somme L k(k 2 _
4
) pour n ~ 7.
k=3

1. Il faut transformer l'écriture du terme général pour mettre en évidence la forme


ai+l - ai (u tilisée ici avec ai= lni - ln(i -1)).

On a, pour i ~ 2,

1Il -i2-
. - 2-
1 -1
- Il
(i+l)(i-1)
·2
-- 1Il ('z + 1) - 21Il z. + 1Il ('z - 1)
z i

[ ln (i + 1) - ln i J - [ ln i - ln ( i - 1) J .

Par télescopage, on en déduit


n

L ln ( 1 - i~ ) = [ ln(n + 1) - ln n] - [ ln 2 - ln(2 - 1) J = ln n :
2
1
.
i=2

2.a. Comme mentionné dans l'énoncé, on demande de trouver a, b et c mais pas


forcément d 'expliquer comment. On procède donc au brouillon en partant de l'égalité
à atteindre et en réduisant le second membre a u même dénominateur
1 a b c ak(k + 2) + b(k - 2)(k + 2) + c(k - 2)k
2
k(k - 4) k - 2 + k + k + 2 = (k - 2)k(k + 2)

-0
a(k 2 + 2k) + b(k 2 - 4) + c(k 2 - 2k) (a+ b + c)k 2 + 2(a - c)k - 4b
0
c k(k 2 - 4) k(k 2 - 4)
:J
0
I..{)
La comparaison des termes de même degré (en k) du numérateur fait dire qu'il suffit
r-l 1
0 d 'avoir a + b + c = 0, a - c = 0 et - 4b = 1 qu'on résout très simplement : b = - et
N
4
©
.......
..c
Ol
ï:::
>-
a.
0
u On ne peut pas affirmer qu'à partir de la simple égalité entre, d 'un côté,
a· k 2 + f3 · k +'Y et, de l'autre, 0 · k 2 + 0·k+1 on obtient nécessairement
a = /3 = 0 et 'Y = 1.
Il sera établi (lors de l'étude des systèmes ou des polynômes) que ceci
résulte d'une multitude d'égalités faisant intervenir p lusieurs valeurs de
Exercice 1.4 Formule du binôme et moments de la loi binomiale 17

k (voire une infinité) .


Ici, la condit ion nécessaire n 'était pas celle recherchée, puisque l'on
cherche en réalité une condition suffisante.

Ces nombres obtenus au brouillon sont alors injectés dans le second membre et la
réduction au même dénominateur montre l'égalité avec le membre de gauche.

Pour k ?:: 2, o n a
1 1 1 k(k + 2) - 2(k - 2)(k + 2) + (k - 2)k
8(k - 2) - 4k + 8(k + 2) 8(k - 2)k(k + 2)
k 2 + 2k - 2(k 2 - 4) + k 2 - 2k 1
8k(k2 - 4) k(k 2 - 4)
1 1
do nc a = c = S et b = - 4 convienn ent.

2.b. Ce coup-ci, après transformation d'écriture, la structure ak+ I - ak n 'apparaît


pas clairement.

Pour n ?:: 7,

~ t, [ ~ (k 2) - ~ + (k: 2) l
~ [t, ~ 2- 2 ~ +
k t, t, k: 2]
Les termes généraux des trois sommes sont en fait les mêmes mais décalés de deux
crans vers la gauche ou vers la droite, on va donc faire des changements d'indice pour
le mettre en évidence.

~
-0
0
c

q~ ~, -2t, ~ +.~J,]
:J
0
I..{)
,.....
0
N

© (avec les changements d 'indice k' =k- 2 et k" = k + 2)


.......
..c
Ol
! [1 + !- _ 1_ - ! -!-! + _ 1_ + _ 1 _ ]
n- 1 n
l
ï::: 8 2 3 4 n+ l n+ 2
>-
u
a.
0 1[1112
8 n2
21
-
2
n(n + 2)
[ ~ _ 2 n(n+2)+(n - 1 ) ]
2
!
8 12 n(n2 - l) (n + 2)

! [~ _ 2
8 12
2
2n + 2n - 1
n(n2 - l )(n + 2)
l ·
18 Chapitre 1 Calcul algébrique

On se propose de calculer de deux façons § distinctes la valeur des sommes

E.,(p) = ~ k(~)p•(1 - Pr- >, I.,(p) = ~ k: 1(~)p•(1 - Pr- • ,


et Mn(p) = ~ k(k - 1) (~)p•(1 - p)" - k (avec p 7' 0).
1. a. Vérifier que, pour 1 ~ k ~ n , k(~) = n(~ =~) .
b. En déduire la valeur de En (p).
c. Avec la même stratégie, montrer que
1 - (1 - pr+1
Mn(P) = n(n - l)p2 et In(P) = (n + l)p

2. a . Donner une expression simple de t


k=O
(~) x•(1 - p)"- •.

b. En dérivant par rapport à x l'égalité obtenue, montrer que En(P) = np.


c. En dérivant une seconde fois, déterminer une expression simple de Mn(P)
et , en intégrant a u contraire sur [ü,p] la première égalité, calculer In(p).
3. Avec le changement d 'indice j = n - k , montrer que En(P) = n - En(l - p) et
1
retrouver la valeur de En (p) pour p = 2.

1.a. Il s'agit ni p lus ni moins de la formule du pion dont on va reproduire la preuve


à l'aide de la définition des coefficients binomia ux par les factorielles.

"'O
0
c
~ k n! = n!
:J k!(n - k)! (k - l )!(n - k)!
0
1..()
T"-l
0
(n - 1)!
n (k - l )!((n - 1) - (k - 1)) ! =n
(n- 1)1 ·
k -
N

©
....... 1.b. La définition de En(P) ressemble beaucoup au développement du binôme a u
..c
Ol
ï::: facteur surnuméraire k près (que l'on n e peut n1ettre en facteur vu que c'est l'indice
>-
a.
0
de sommation). Il suffirait d 'éliminer ce facteur, l'égalité précédente va permettre de
u transférer la dépendance en k en dépendance en n que l'on pourra a lors mettre en
facteur. La somme obtenue ressemble alors clairement au développement du binôme
mais pour la puissance (n - l )e.

§. On trouvera un d éveloppement t héor ique plus systémat ique d e la seconde façon dans l 'ex e r-
cice 14.4 e n page 4 56 .
Exercice 1.4 Formule du binôme et moments de la loi binomiale 19

D'où ,

En(P) O+ tk(~)pk(l -p)"-k= t n (~ =:)pk(l-p)"-k

np ~
L ( nk -- 11) p k-1 (l - p )(n- 1)-(k-1 ) = np (p + l - p )n-1 = np.
k=l

1.c. On reprend donc la stratégie en utilisant d'abord la formule du pion pour convertir
1
la dépendance en k( k - 1) ou -k-- en dépendance en n puis on reconnaît alors une
+1
formule du binôme.

On a, pour 2 (;; k (;; n, k(k - 1) ( nk ) = (k - l )n ( nk -_


1
1) = n(n - 1) ( nk _- 2)
2
.

D'où,

Mn(P) t, k(k - 1) ( ~ )pk(l -pr-k

n(n _ l )p2 t (~ =~) pk-2(l


k= 2
_ p) (n - 2) - (k - 2)

n(n - l )p2 (p + 1 - p)n- 2 (d 'après la formule du binôme de Newton)


n(n - l )p2 .

Par ailleurs, pour 0 (;; k (;; n , k ! ~) = ~ 1


( n
1
( ~: ~) donc

In(P)
(n
1~
+ L
1)
(nk ++ 1) 1 P
k+ l (l _ )(n+ l )-( k+l)
P
p k=O

(p + 1 _ Pr+1 _ (n"61)Po( 1 _ Pr+1- o


(n + l )p
1 - (1 - pr+l
-0
(n + l )p
0
c
0
:J 2.a . Il s 'agit de la pa rtie développée de la formule du b inôme.

~1
,....
1..()

0
N

©
D'après la formule du binôme de Newton , t
k= O
(~)xk(l - Pt- k = (x + 1 - pt.
.......
..c
Ol
ï::: 2.b. Les deux membres sont sous forme polynomia le donc la dérivation ne pose pas
>-
a. de problème.
0
u
En dériva nt par rapport à x, on obtient, par linéarité de la dérivation ,

t, (~) kxk- (1 - pr-k 1 = n(x + 1 - p)"-


1
.

En particulier , avec x = p, on a ~En


p
(P) = n do nc E n(P) = np.
20 Chapitre 1 Calcul algébrique

2.c. On suit l'indication donnée en dériva nt une seconde fois l'égalité.

En dérivant une seconde fois t oujours par rapport à x, on a

t, (~) k(k - r-•= n(n - l )(x + 1 - p)"_,


1)xk- 2 (1 - p

d 'où, en particulier avec x=p, 1Mn(P) =n(n-1)


p2
Mn(P) =n(n- l )p
de sorte que 2
.

P our In (p) , on procède comme indiqué, pa r intégration.

En reprenant l'égalité initiale et en intégra nt su r [O,p], on a, par linéarité de l'inté-


gration,

t, (~) [ xk dx(l- p)"- k = [ (x + 1-p)"d x

- t, (~) [:::i: (1 - p)"- k = [ (x +~~ i)"+l


Ç=?
0
L
(n)
k k+l
p k+1 (1 -
P
)n-k = 1 - ( 1 - Pr+1
n+l
k= O

D' , I ( ) - 1 - (1 - p r +1
ou , n p - (n + l )p

3. Le cha ngement d 'indice donné va écha nger les rôles respectifs de p et 1 - p et ne


rien changer pour le coefficient binomia l puisqu'il est symétrique.

-0

~
0
c Avec le changement d 'indice j = n - k ,
:J
0
,....
1..()

0
En(P) ~ k ( : ) pk( l - p)"- k = E(n- j) ( n: .i)p"-'(1- p)'
N

©
.......
..c
Ol
ï:::
Î)n- j) (~) (1 - p)jpn- j
j =O J
>-
u
a.
0
nt (~)
. 0
J=
J
(1 - p) j p n -j - t j(~)
. 0
J=
J
(1 - p) j p n- j

n( l - p + p) n - E n ( l - p) (d'après la formule du binôme)


n - E n (l - p).

En particulier pour p = ~·En ( ~ ) =n - E (~) d 'où En ( ~ ) =~-


Exercice 1. 5 La somme des premiers cubes I 21

n
On se propose de calculer Sn L k 3 , pour n E N*, par quatre * méthodes
k=l
différentes et indépendantes.
1. Donner l'expression de Sn pour n EN* et démontrer la par récurrence.
2. Calculer (k + 1) 4 - k 4 , en déduire que
n n
(n + 1) 4
- 1 = 4Sn +6 L k
2
+4 L k +n
k=l k= l
et retrouver l'expression de Sn.
3. a. Justifier que (n + 1 - k) 3 = (n + 1) 3 - 3(n + 1) 2 k + 3(n + l)k 2 - k3 .
b . En déduire que
n n

k= l k=l
et retrouver l'expression de Sn .
4. a. En calculant de deux façons L j 2
, montrer que
i :::;i:::;j:::;n

S = n (n + 1)(2n + 1) _ ~S + ~ ~ i2 _ ~ ~ i.
2

n 6 3 n 2 L...,, 5 L...,,
i=l i= l
b. Retrouver alors l'expression de Sn.

1. Le raisonnement par récurrence est bien possible puisque l'expression de la somme


des premiers cubes est un attendu du programme.

~ 1,
2 2

~
Pour n notons P n la proposit ion «Sn = n (n + l) ».
-0 4
0 1 2 2
c
:J P our 1,.in ..
1t1a 11sat1
· .on, ~ k 3 = 13 = 1 d ' une part et
s i = L...,, 1 (l + l) = -22 = 1 d'autre
0 4 4
I..{) k= l
,.....
0
part donc P1 est vraie.
N
Pour l' héréd ité, supposons P n vraie pour un certain n ~ 1, alors
© 2 2 2
n (n + 1)
+ (n + 1) 3 = (n +4 1) [n 2 + 4(n + 1)]
.......
..c
Ol
Sn+ (n + 1) 3 = 4
ï:::
>-
a. (n + 1) 2
( 2 )
2
( n + 1) [ ( n + 1) + 1]2
u
0 4 n + 4n+ 4 = 4
donc Pn+I est vraie.
F 1
ina ement, par principe
. . d ,
e recurrence, pour tout n ~
1 S
, n = n 2(n + 1)2
4
2. On commence par développer pour visualiser la simplification.

*· On trouvera une cinquième méthode dans l'exercice 2.6 en page 37.


22 Chapitre 1 Calcul algébrique

~1
D'après la formule du binô me de Newton,
(k + 1) 4 -
4
k = (k
4
+ 4k 3 + 6k 2 + 4k + 1) - 4
k = 4k
3
+ 6k 2 + 4k + 1.
Le terme général de Sn apparaît dans le membre de droite, on va donc sommer cette
égalité pour 1 :::;; k :::;; n pour faire a pparaître Sn.

En sommant cette égalité, pour k variant entre 1 et n, on obtient


n n

2= [(k + 1) 4
- k
4
] = I: (4k 3
+ 6k 2 + 4k + 1).
k= l k= l
D'où, par t élescopage dans le membre de gauche et par linéarité d e la sommation dans
le membre de droite ,
n n

k=l k=l
En isolant Sn . on conclut que

Sn ~ [(n+ l)4 -l- n - ~t,k-6t,k']


~ [ (n + 1) 4 - (n + 1) - 2n(n + 1) - n(n + 1)(2n + 1) J
1 3
n; [ (n + 1) - 1 - 2n - n( 2n + 1)J

-n+l[3
- n + 3n2 + 3n + 1 - 1 - 2n - 2n 2 - n J
4
n + 1( 3 2) _ n (n
2
+ 1) 2
4 n + n - 4

3.a. On reconnaît les coefficients de la formule du binôme, il suffit donc de bien


découper n + 1 - ken (n + 1) - k.

~1
D'après la formule du binôme de Newton,
(n + 1 - k) 3 = [(n + 1) - k]3 = (n + 1) 3 3(n + 1) k + 3(n + l )k 2 -
"O 2 3
0 - k .
c
:J
0
1..()
T"-l
3.b. Là encore, on reconnaît à droite le terme général de Sn et on somme donc l'égalité.
0
N

© Par linéarité de la sommation,


....... n n n
..c
Ol
ï:::
>-
L)n + 1 - k) = (n
3
+l) 3
n - 3(n + 1)
2
L k + 3(n + 1) L k 2
- Sn.
a. k= l k= l k= l
0
u
On doit aussi reconnaître Sn dans le membre de gauche ce qu'on constat e en écrivant
n
la somme en extension L (n +1- k) 3 = n 3 + (n - 1)3 + · · · + 23 + 13 et qui incite
k= l
donc à faire un changement d'indice par symétrie.
Exercice 1.6 La formule de Vandermonde 23

En outre, avec le c hangement d ' indice j = n + 1 - k, L (n + 1 - k )3 = Sn donc


k= l

Sn = n (n + 1)3 - 3(n + 1)2 n(n2+ 1) + 3(n + 1) n (n + 1~(2n + 1) - Sn


2
i. e. 2Sn = n(n ; l ) [2(n+ 1) - 3(n + 1) + (2n + 1)]
2
i.e. S n = n (n : l ) [ - (n + 1) + (2n + 1)]

n 2 (n + 1) 2
i.e. Sn = -'-------'-
4

4 .a. Il s'agit év id emment d 'écrire la somme double comme deux sommes imbriquées
avec les deux ordres possibles de sommat ion.

D'une part ,

et , d' autre part,

t (t t (t, j' -~j')


1' ) =

t, [ n(n+ 1~(2n + l) _ (i - 1)~2i - 1) ]

t[ n (n + 1~(2n + 1) - i (2i' - 3i' + i)].

D 'où , par linéarit é d e la somm atio n ,

S = n (n + 1)(2n + 1) _ ~ S + ~ ~ i2 _ ~ ~ i.
2

n 6 3 n 2 ~ 6 ~
i= l i= l

-o 4 .b. Il n e reste plus qu'à extraire Sn de l'égalit é précédente et utiliser là encore les
0
§ sommes connues d es premiers entiers et premiers carrés.
0
1..()
,..... En regroupant t o utes les occurrences d e S n dans le membre d e ga uche,
0
N 2 n n
© S = n (n + 1)(2n + 1) _ ~ S + ~ " -"i2 _ ~ ~ i
....... n 6 3 n 2 ~ 6 ~
..c ·i = l i= l
Ol
ï::: 2
>- ~S _ n (n + 1)(2n + 1) ~ n (n + 1)(2n + 1) _ ~ n(n + 1)
a. i.e. 3 n - 6 + 2 6 6 2
0
u
i.e. S = ~ n(n + 1) [n (2n + l ) + 2n + 1 _ ~ ]
n 4 6 2 2
S _ n (n+ 1) n(2n + 1) +n
i.e. n - 4 2
Sn = n 2(n + 1)2
i.e.
4
24 Chapitre 1 Calcul algébrique

1. En procédant par récurrence sur n, montrer que

\1 n E N, ( \1 (m, p) E N
2
, t. (;) ~ :k) ('"; ") )
2. En utilisant l'égalité précédente, déterminer la valeur de ~ k(mk) (p _n k).
~
k= O

3. Calculer, pour tout n EN, t (n)


k=O k
2

1. Il suffit de faire attention à bien mettre l'universalité en (m,p) dans l'hypothèse d e


récurrence.

Pour n E N , on note P n la proposition

On t ient aussi compte du fait que le coefficient binomial (:) est, pa r convention, nul
lorsque la condition 0 ~ k ~ n n 'est pas vérifiée.

~ Commençons par l'initialisation , pour n = 0, (p: k) n 'est non nul que pour k= p

de sorte que t. (;) (p: m;


k) (;) (~) = ( O) et l'assertion

Passons maintenant à l' hérédité en supposant la proposition Pn vraie pour un certain


Po est vraie
"'O
n EN. Soit (m,p) E N 2 , si p = 0, alors

t. (;) (; !) ( (n; 1) 1 m+; +1}


0
c
:J
0
1..()
T"-l
~ ~) = = (
0
N
sinon, par la relation de Pascal,

t. (:) [(p: k) (p - ~ - 1)l


©
.......
..c
Ol
ï:::
>- +

t. (:) (p: k) ~ (p- ~ - 1)


a.
0
u
+ (:)

C 'est ici que l'on utilise l'hypothèse de récurrence pour le triplet (n, m ,p) ma is aussi
pour le triplet (n , m,p - 1).
Exercice 1.6 La formule de Vandermonde 25

(d 'après l'hypothèse de récurrence)

m+pn+ 1) (par la relation de Pascal)


(
autrement dit P n+l est vraie.
Par principe de récurrence , on conclut que Pn est vraie pour tout n E N.

2. Comme dans l'exercice 1.4, il faut d 'abord transférer la dépendance en l'indice de


sommation k devant le coefficient binomial en dépendance en m , ce qui est encore
réalisé par la formule du pion.

Soit (n , m ,p) E N 3 .
• Si m ;?: 1 et si p ;?: 1, alors

~ m (m- 1
2i k - l ) ( n )
p- k
(par la formule du pion)

m ~ ( m;, 1) (p- ~ - k')


k' = O
(avec le changem ent d 'ind ice k' = k - 1)

m(m-1 p -l
+n)

(par la formule du 1 pour (n , m - 1,p - 1)) ;

Il ne faut pas oublier de trait er enfin les cas particuliers n on encore p ris en compte
du fait que la formule de Vandermonde n 'a été montrée que pour un triplet d 'entiers
positifs ou nuls.

~ • si p = 0, alors
-0
0
c
:J
0
1..()
r-l • si m = 0, alors
0
N

©
.......
..c
Ol
ï::: Finalement, d ans tous les cas,
>-
a.
0
u
26 Chapitre 1 Calcul algébrique

3. Le terme gén éra l de la somme est bien le produit d e deux coefficients binomia ux
comme dans la question précédente, il suffit d'en transformer un peu l'écriture pour
rentrer précisément da ns le cadre de la première question.

En appliquant l'égalité de la première question au triplet (n, n, n), on a

D'où, par symétrie des coefficients binomiaux, t (~)


k=O
2

"'O
0
c
:J
0
1..()
T"-l
0
N

©
.......
..c
Ol
ï:::
>-
a.
0
u
Liste des capacités attendues 27

Liste des capacités attendues

• Savoir reconnaître une somme usuelle ou un produit usuel (cf exer-


cices 1.1 , 1.2, 1.5 et 1.4)
() le principe du terme constant
n1 n1
L a = (n f - n i + 1)a et II a= an, - n i+ l

k=ni k=n i

() la somme des premiers entiers, des premiers carrés et des premiers cubes

~ k = n(n + 1) t k2 =n(n+1~(2n+ 1)
L 2 '
k= l k= l

<) le produit des premiers entiers (ou factorielle) ~·


() la somme des premiers termes d'une suite géométrique de raison q-=/=- 1

() la formule du binôme de Newton

• Savoir utiliser les propriétés de la sommet et du produit (cf exercices 1.2


et 1.5)
n1 n1 n1

"'O
0
() la linéarité d e la sommation L( Àaj + µbj) = ).. L aj +µ L bj '
c
:J
0
1..()
() la « relation de Chasles » (pour a < c < b entiers) +
T"-l
0 b c b c- 1 b
N

©
.......
..c
L
k=a
Uk = L
k=a
Uk + L
k=c+ l
Uk = L
k= a
Uk + L
k =c
Uk '

Ol
ï:::
>-
a. b
u
0
II Uk =
k=a

t . ou p lus exactemen t les propriétés de la somm ation


:j: . A t t en t ion, contrairem ent à la situation d es intégrales, lorsque la borne inférieure de l 'indice
est stricteme nt supé rieure à sa borne supérie ure, la con vention veut que la somme soit nulle et le
produit égal à 1. L'éga lité n 'est donc pas touj ours vraie s i l'ordre a < c < b n'est p as respecté.
28 Chapitre 1 Calcul algébrique

• Savoir effectuer un changement d'indice

() par translation k j + c, (cf questions 1.3.2.b


j = ni k= ni+ c

et 1.4.1 ),
n n
() pa r symétrie k = n - i, "L::bi = "L::bn-k (cf questions 1. 5.3.b et 1.4.3).
i= O k= O

• Savoir utiliser le principe de télescopage (cf exercice 1.3 et question 1.5.2)


n1

L (a j + l - aj) = an 1 + 1 - ani et
j=n i

• Savoir transformer une somme double en deux sommes imbriquées


(cf questions 1.1.4 et 1.5.4.a)

() la sommation sur un rectangle 2=


1 !'( i!'( n
l !'(j !'(m
a i,j =
n

2=
i=l
(fa,,) f (ta;,;)
J= l
=
J= l i= l

2= (t a;,;) t (ta,,; )·
n
() la sommation sur un triangle 2=
1 !'( i !'(j !'( n
ai ,j =
i= l J= i
=
J= l i= l

• Savoir utiliser les propriétés des coefficients binomiaux (cf exercices 1.6)
et 1.4

-0
0
c
() leur expression à l'a ide de factorielles (nk) - k!(nn-! k)!
,. '
:J
0
1..()
r-l
0
N
() la relation de Pascal ( n+k 1) (nk) + (k n_ 1)
©
(~)
.......
..c
Ol
ï:::
>-
0 la symétrie 1 ( n: k) I·
a.
0
u
() la formule « du pion » § (nk) = _nk (nk _- 11)

§. On parle aussi d e formule« d 'absorpt ion-extract ion ».


CHAPITRE

Nombres complexes et polynômes

On rappelle ici le vocabulaire élémentaire associé a ux nombres complexes et a ux


polynômes ainsi que leurs différentes écritures.
Un nombre complexez possède :
• une écriture algébrique z = a+ib, a est la partie réelle de z et b sa partie imaginaire,
• une écriture exponentielle (ou forme polaire) z = reie, r est le module de z et() en
est un argument (défini à un multiple entier de 27r près pour z =!= 0),
• une écriture trigonométrique z = r( cos() + i sin()).
L'ensemble des polynômes à coefficients réels (respectivement complexes) de degré
inférieur ou égal à n sera noté IRn[X] (respectivement Cn[X ]) et un polynôm e P de
degré n ): 1 peut s'écrire :
• sous forme algébrique
n
p =L akxk = anxn + an- lx n- l + ... + a2X 2 +ai X+ ao
k=O
<) les ak sont les coeffi cients,
<) an est le coefficient dominant et le monôme anxn le term e dominant,
<) a 0 est le coeffi cient (ou terme) constant,
• sous forme factorisée dans C[X]
p p
-0
0
c
P = an IJ (X - rj)mj (avec L m j = n et an =/= 0),
:J j= l j=l
0
1..() les rj sont les racin es deux à deux distinctes et les m j leurs ordres de multiplicité
T"-l
0
N
respectifs.
©
.......
..c
Ol
ï:::
>-
a.
0
u . ( Z1 + Z2 ) 2
1. S01t z 1, z2 des complexes tels que lz1I = lz2 I = 1. Montrer que E IR+·
Z1Z2

2. Trouver tous les nombres complexes z de module 1 vérifiant 1 ~+~ 1 = 1.


30 Chapitre 2 Nombres complexes et polynômes

1. Lorsqu'on connaît le module d'un nombre complexe, la principale façon de t irer


parti de cette information est de passer en écriture exponentielle.

z1 et z2 étant de module 1, il existe deux réels 81 et 82 tels que z1 = ei 81 et z2 = ew2.


(z1 + z2)2 (eit'l1 + eit'l2 )2 e2it'l1 + 2eit'1 1eit'12 + e2it'l2

e2it'l1 2eit'11 eit'l2 e2it'l2 e•t'l1 e•t'l2


·e
e• 1e' 2 ·e + ·e ·e + ·e ·e = -,,- + 2 + ---:-;;-
e' 1e' 2 e' 1e' 2 e"'2 e'"l
ei(t'l1 -82) + 2 + ei(t'l2 -t'l1) = 2 + (ei(B1 - t'l2) + ei(t'l2 -t'l1) )
2 + 2cos(82 - 81) (par les formules d'Euler).
Or -1 ::::;; cos(82 -81) ::::;; 1 donc -2 ::::;; 2 cos(82-8i) ::::;; 2 puis 0 ::::;; 2+2 cos(82-81) ::::;; 4.
. (z1 + z2) 2
Fmalement, E IR+ .
Z1Z2
Une alternative est d'utiliser la méthode de l'angle moyen : la somme ou la différence
de deux complexes de module 1 eia et eif3 peut être mise sous forme p seudo-polaire
en factorisant par é(a+f3)/ 2 où l'argument est la moyenne des deux précédents
.
eia ± ei·13 . a +/3 ·<> -/3
= ei -2- ei-2- .cr_ -/3 ]
± e- i-2-
[

et de conclure par les formules d 'Euler.


Ici,

.111 - 112
( ei 2 + e _ i.111 -2112) = ei
.111+112
2 2 cos ((Ji -fh)
2

donc (z 1 + z2) 2 = ei·ce1+e)


2 4cos2 ((Ji - fh ) et (z1 + z2) 2 = 4cos 2 ((Ji -fh ) est bien
2 Z1Z2 2
un réel posit if.
2 . La même idée reste valable tout comme le recours aux formules d'Euler.

Soit z un nombre complexe de module 1 et soit 8 un réel tel qu e z = eit'! . En utilisant


-0
0 les form ules d'Euler,
c
I~ + ;1
= le~:e + e~:e
:J
0 28 28
1 = ie i +e- i 1=l 2cos(W) I= 2 lcos(W) I
,....
1..()

0
N donc
© cos(W) = cos (i)
....... 1
..c cos(W) = ± Ç=::} ou
Ol
ï::: 2 { cos(W) = cos ( 2;)
>-
a.
u
0
8 = ±% [7r]
Ç=::} ou .
{
8 = ±i [7r]
Finalement, l' ensemble des nombres complexes de module 1 solutions de l' éq uation
est
Exercice 2.2 Équations sur <C 31

1. Résoudre sur <C les équations d'inconnue z suivantes :


a. z 3 = 1,
b. z 2 = 3 - 2i (on exprimera les solutions sous forme algébrique) ,
c. z 6 + 6z 3 + 12 = 0 (on exprimera les solutions sous forme exponentielle) .
1 1
2. Soit z E <C* tel que z + -z = J3. Calculer zn + -zn .

1.a. Ostensiblement, l'équation ne fait intervenir que des produits (ici une puissance)
donc on va privilégier la forme exponentielle.

Les solutions de z 3 = 1 sont nécessairement non nulles. Si z =/= 0, on peut écrire z


sous forme exponentielle : il existe p E IR'.f- et E IR t els qu e z = pei e. On a alors : e
3
3 3 3i0 { p = 1 { p= 1
z = 1 ~ p e = 1 ~ 30 = 0 [27r] ~ e= 0 [ 2; ]

3 2i7l" 4i71" - 1 + iVJ 1 + iVJ


donc les solutions de z = 1 sont 1, e - 3- et e~ i.e. l, et - .
2 2
1.b. La forme des solutions est précisée dans l'énoncé donc il est naturel d'injecter
la forme z = a+ ib dans l'équation pour voir ce qu'elle devient en séparant parties
réelles et parties imaginaires.

Soit z = a + i b E C.
2
z = 3 - 2i ~ a
2
+ i2ab - 2
b = 3 - 2i
a2 - b2 3 (par identification des parties
{ 2ab - 2 réelle et imaginaire)

Si (A ~ B) et (A <===? C) alors [A <===? (B et C)].


-0
0
Or, par passage aux modules, z 2 = 3 - 2i ~ a 2 + b2 = 13 - 2i l.
c
:J
0
1..()
T"-l
0 Lors de la recherche des racines carrées d'un complexe donné, il est
N
de coutume d'ajouter l'égalité des modules dans l'équivalence que l'on
©
.......
..c
vient d 'ét ablir par identification des parties réelles et imaginaires .
Ol
ï:::
>-
a.
0
u
Ainsi, en aj outa nt l'égalité des modules a + b
2 2
= .J32 + (- 2) 2 = .JI3 à l'éq uiva lence
précédente, on trouve

z
2
= .
3 - 2i ~
{ a
2
a2
+ b
2
- b2
VI3 et 2ab = -2
3

Le syst ème d'inconnues a 2 et b2 se résout aisément et donne 4 couples (a , b) possibles.


32 Chapitre 2 Nombres complexes et polynômes

Par demi-somme, puis demi-différence, des lignes figurant dans le système ci-dessus,
on trouve
v'13+3
-2-
v'13- 3 et 2ab = - 2
- 2-

le premier système admet (a, b) comme couple solution avec a = ±J4+ 3


et

b= ±J4 -3.
On utilise a lors le signe du produit ab pour identifier, pa rmi les candidat s obtenus,
les couples qui sont effect ivement solution de z 2 = 3 - 2i .

~1
Seul deux de ces couples sont compatibles avec la troisième équation 2ab = - 2, à
savoir ceux pour les quels a et b sont de signes opposés. Finalement, les solutions sont

z1 = J~+ iJ~ - 3
-
3
et z2 = -z1.

R emarquons que l'ajout d e l'égalité d es modules nous a facilité le travail. San s cela
nous aurions pu poursuivre les calculs en résolvant le syst ème initia l pa r substitu t ion
(puisque a =/= 0 et b =/= 0 les calculs ci-dessous sont licites) :
2 1 (a2)2 _ 3a2 - 1
z 2 = 3 - 2i {::::::::}
{
a - a: 3
1 {::::::::} { b
0
1

a a

L'équation hi-carrée en a se résout (p ar calcul du discriminant ou mise sous forme


canonique), on trouve a lors

z2 = 3- 2i {::::::::} a 2 = 3 ± y'I3 et
1
b= - - .
2 a
Puisque des deux solutions pour a 2 , une seule est valable (l'au tre étant strict ement

. .
n egat1ve) , on retrouve les solutions z1 = . J3+../f3 - ·~
r-ï<> et z2 = - z 1.
3 + y1 3 2
i

-0
0
c 1.c. On remarque que l'inconnue z interv ient t oujours sous la forme z 3 . On p ou rrait
0
:J
donc p oser Z = z 3 et se ramener à l'équation Z 2 + 6Z + 12 = O.
,....
1..()

0 Par réduction sous forme canonique,


N
2
© 6
z +6z + 12
3 3
(z + 3) + 3
2
= (z 3 + 3) 2 - (i\/'3)
.......
..c
Ol
ï::: (z 3 + 3 - iv'3) x (z 3 + 3 + iJ3)
>-
a.
0
ainsi,
u 6 3
z + 6z + 12 = 0 <=:? z 3 + 3 - iv'3 = 0 ou z 3 + 3 + iv'3 = 0
<=:;. z3 = - 3 + i J3 ou z 3 = - 3 - iv'3.
On se ra mène a lors à la question 1.a à l'aide des formes exp on ent ielles des seconds
m embres sacha nt que, si p > 0 , z 3 = pei e {::::::::} Z 3 = 1 où Z = ~ .
VPe' 3
Exercice 2.3 Racines 5-ièmes et constructibilité du pentagone 33

Or -3 + iv 0
r.; r.; ( J3 1 ) r.; 5irr
= 2v3 -
2 + 2i = 2v3e<l donc

z
6
+ 6z 3 + 12 = 0
ou z3 = (
v3~
2v3e- 18 5irr ) 3

ou z = 1.
( \,12J3e- 1i8 ) 5

En utilisant le résultat de l'équation du 1.a,

z
\,12J3e 1i85
'
2
E { 1 e 1,.. e 1,.. }
'
4
ou vci 3
2v'3e- 1i8
5
E { 1, e 1,.. , e
2 4
; ,.. } .

En notant r le nombre \,/2J3, les solut ions z de z 6 + 6z 3 + 12 = 0 form ent donc


l'e nsembl e :
5i1T 1 7 i7r 29i7r 5 i7r 7 i"7f 19i7r }
re18 re18 re18 re-18 re18 re18
{ ' ' ' ' ' .

2. A priori z n'est pas connu explicitement, mais l'équation qu'il vérifie se ramène à
une équation du second degré qu'on sait résoudre*.

z + .!z = V'3 ~ z 2 + 1 = J3z ~ z 2 - V'3z + 1 = 0


Le discrimin ant de x - J3x + 1 est 3 - 4 = -1 donc x - J3x + 1 admet deux
2 2

1 . 1 . , J3 - i J3 - 1 i. = e- i.zr. et J3 + 1.i = ei .zr. Les


so ut1ons comp exes conJuguees
2
= 2 2 2 2
6 6 .

va leurs possibles de z sont donc e -if et ei-îf . Que z soit éga l à l'un ou à l' autre, nous
avons dans tous les cas :

zn + -z1n = ei =
6 + e - i =6 = 2 cos (n7r)
-
6
.

-0
0

0
c
:J

1..()
T"-l
i Selon la forme des termes des équations faisant intervenir des nombres
complexes, on utilisera
0
N
• la forme algébrique s'il y a surtout des additions ,
© • la forme pola ire si les multiplications/puissances dominent.
.......
..c
Ol
ï:::
>-
a.
0
u

*· On verra d a n s l 'exercice 2. 7 en p age 41 une autre m a nière d e procéd er q ui évite d 'avoir à


trou ver la (ou les) valeur (s) exp licite(s) de z .
34 Chapitre 2 Nombres complexes et polynômes

. 2i 7r
S01t w = e-s- .
4
1. Calculer w 5
. E n déduire : 1 + w +w +w +w
2 3 4
= L wk = O.
k=O
2. Mont rer que w = et w = w . En déduire des expressions de w 2 + w 3 et de
3
w2 4

w + w 4 faisant intervenir des cosinus d 'angles qu'on ne cherchera pas à calculer.


3. Montrer que w2 + w3 et w + w4
sont les racines d 'un polynôme de degré 2 que
l'on dét erminera. En déduire les valeurs de cos ( ; ) , cos ( ; ) et cos (~ ) .
2 4

1. Il s'agit d'un calcul simple avec des complexes sous forme exponentielle.

2
~7r )
5
w5 = ( e = e2 in = 1. On a donc, en reconnaissant la somme des premiers t ermes

d . une suite
. geometnque
, , . d e raison
. w -'-
r 1, 2:: w
4
k
= 1- w
1- w
5
= o.
k=O

2. Même chose ici mais en ut ilisant w 5 = 1 plutôt qu'un recours syst émat ique à la
forme exponentielle.
4
On a clairement lwl = 1 donc w = -1 =
w
5w = w
4
(compte t enu de w
5
1). De
w
même, lw
2
I= 2
lwl = 1 do nc w2 = ~=
w
w:
w
= w Ainsi ,
3
.

w2 + w3 w 2 + w 2 = 2Re(w 2 ) = 2Re(e
4
~" ) = 2 cos (4;)
~") =
4 2 2
w+ w w+ w = 2 Re(w) = 2 Re( e 2 cos ( ; ) .

-0
0
c
3 . Ces deux complexes sont racines d u trinôme
:J
0
I..{)
,.....
0
N et il suffit de simplifier les coefficients.
©
.......
..c Posons u = w 2 + w 3 et v = w + w 4 . D'après les relations entre coeffici ents et racines
Ol
ï::: pour un trinô me du second degré, u et v sont racines du polynôme X 2 - ( u +v ) X + u v .
>-
a. 2 4
0 Or u + v = w + w + w 3 + w = - 1d 'après 1 et
u 2 3 4 3 6 4 7 3 5 4 5 2
uv (w + w ) (w + w ) = w + w + w + w = w + w w + w + w w
3 4 2
w + w+ w + w = - 1 (toujours d 'après 1)
do nc w
2
+ w3 et w + w4 sont racines du polynôme X
2
+ X - 1.

Les racines d'un trinôme du second degré se détermine facilement sous forme algé-
brique.
Exercice 2.4 Linéarisation et primitivation 35

~1
Trouvons de la manière habituelle l'expression des racines de ce polynôme. Soit~ le
discriminant de X 2 +X - 1. On a ~ = 1 + 4 = 5 donc X 2 +X - 1 admet deux
. , Il
racin es ree es
d..
1stmctes xi = - l +v/5 et x2 = - 1 - v/5
.
2 2
Il ne reste plus qu'à comparer les d eux écritures de ces racines.

Ainsi, d 'a près ce qui précède et le résultat de la question 2,


4 2
{x 1 ,x2} = { 2cos ( ; ) , 2cos ( ;)}.

Or x2 <
4
0, 2cos ( ; ) < 0 et xi > 0, 2cos ( ; )
2
> 0 donc 2cos (4;) = x2 et
2
2cos ( ; ) =xi. Ainsi,

cos (527r) = X1
2 =
- 1 + vl5
4
COS ( 47r)
5
= X2
2
= _ 1+ vf5
4
et
1 + vl5
cos (i) = cos ( 7r - 4; ) =- cos (~7r ) 4

3
1. Soit x E IR. Linéariser cos(2x) [sin(x)] .

2. En déduire 17r cos(2x) [sin(x)] 3


dx.

1. Les principes généraux de linéa risation sont les suivants :


• on remplace tous les sinus et les cosinus à l'aide des formules d 'Euler ,

~1
D'après les formules d'Euler,

cos(2x) sin 3 (x)


e2ix + e-2ix X (eix _e-ix ) 3
-0 2 2i
0
c
:J
0
• on développe tous les produits (à l'aide d e la formule du binôme si nécessaire),
,....
I..{)

~
0
N

© e2ix + e - 2ix e3ix - 3eix + 3e- ix - e - 3ix


....... ~~~~- X ~~~~~~~~~~-

..c 2 - 8i
Ol
ï:::
>-
e2ix + e-2ix ( e3ix - e-3ix ) - 3(eix - e-ix)
a. ~~~~- X ~~~~~~~~~~~~

0 2 - 8i
u
(e5ix _ e-5ix) + (eix _ e-ix) _ 3 [(e3ix _ e-3ix ) _ (eix _ e-ix)]

-8 X 2i

• on apparie les termes qui sont conjugués l'un de l'autre (au signe près) pour
appliquer à nouveau les formules d 'Euler mais dans l'autre sens afin de récupérer
u ne combinaison linéaire de sinus et cosinus.
36 Chapitre 2 Nombres complexes et polynômes

- ~ [ sin (5x) + sin (x) - 3 sin (3x) + 3 sin ( x) J

- ~ sin(5x) + ~ sin (3x) - ~ sin(x).


2. La linéarisation permet ici de donner facilement une primitive de l'intégrande.
D'après la linéarisation de la première question ,

1·1r cos(2x) [sin (x)] 3


dx
}
/ 7r (- !8 sin(5x) - !2 sin (x) + ~8 sin (3x) ) dx
0
1 1 1
cos(5x) + 2' cos(x) - S cos(3x)
]7r
[ 40
0

~ + ~) - ~ - ~)
1 1
(- 40 - ( 40 +
4
5

L'objectif de l'exercice est de résoudre dans (C*) 3 le système d 'inconnues x, y, z


x + y+z = O
(S) { .!_ + ~ + ~ = 0 .
X y Z
On notera T, au lieu de X , l'indéterminée des polynômes.
1. On suppose ici que (x, y, z) E (C*) 3 est solution du système (S).
X y
a. On pose a = - et b = - .
z z
Montrer que a et b sont racines du polynôme T 2 + T + 1.
2
b. En notant j = e ;,,. , en déduire que
(x, y, z) = (x, xj, xj2) ou (x, y , z) = (x , xj 2 , xj) .
"O
0
2. Déterminer l'ensemble des solutions du système (S) t.
c
:J
0
1..()
T"-l
0
N
1.a . a et b sont naturellement racines de
©
.......
(T - a)(T - b) = T 2 -x +y T + x y.
(a+ b)T +ab = T 2 -
..c z z2
Ol
ï::: Il suffit alors de calculer les coefficients de ce t rinôme en espérant trouver 1 et 1.
>-
a.
0
u Désignons par (1) et (2) les deux équations du syst ème (S). On sait que a et b sont
racines du polynô me T 2 - sT + p o ù s = a + b et p = ab.
0 r, d ' une part, s = X+-y =
- --z = - 1 d ' apres
' I',equat1on
. ( 1) et, d' autre part,
z z
l'équation (2) entraîne que yz + xz + xy = 0 donc xy = -yz -xz = - z (x+y) = z 2
xy z

t . Dans l'exercice 2.10 en page 48, on p eut voir une autre façon de gérer un système analogue.
Exercice 2.6 La somme des premiers cubes 11 37

2
( la dernière égalité provenant de l'équation (1)) puis p = ab = x; = \ = 1 et ainsi,
z z
1 a et b sont bien racines du polynôme T 2 + T + 1.
1.b. On connaît explicitement les racines du trinôme du second degré (en l'occurrence
j et j 2) donc les valeurs des quotients ~ et '#._.
z z

+ z + 1 est égal à - 3 donc les racines de ce polynôme (qui sont


Le discriminant de z 2

+i. vf3 = Jet


. .J.,. = - 1 - i . vf3 . D' apres
1 · , ) 1 ' 1e resutat
' 1
compexes conJuguees sont -
2 2 2 2
de la question précédente, on a donc{ ;,~ } = {j, :7} = {j,j } et il y a deux
2

possibilités :
• -X = J. et Y
- = J.2 1.e.
. · ·2 1
x = ZJ et y = ZJ , auque cas,
z z

(x,y ,z) = ( x,xj, y) = (x,xj,x]) = (x ,xj , x/ ) ,

X .2 Y . . ·2 · 1
• - = J et - = J 1.e. x = ZJ et y = ZJ, auque cas,
z z

(x , y,z) = ( x, Y'j~) = (x,x/,xj).

2. On procède par analyse et synthèse: les candidats solutions viennent d 'être obtenus,
il ne reste plus qu'à vérifier s'ils sont effectivement solutions.

Si (x, y, z) est un triplet solution de (S), on a déjà vu que (x, y, z) = (x, xj , x j 2 ) ou


(x, y, z ) = (x, xj 2 , xj) . Réciproquement, si À est un comp lexe non nul, a lors
À + Àj + >.j2 À (1 + j + j2) = ÀX Ü= Ü
2
j +j + 1 0
>.j2 = >.j2 = 0

do nc (>., Àj, >.j2) est solution de (S) . De manière analogue, on montrerait que
"O
(>., Àj 2 , >.j) est solution de (S). Fina lement, l'ensemb le des solutions de (S) est :
0
c {(>. , >.j, >./ ); À EC* } u { (>., >./ , >.j); À EC* }.
:J
0
1..()
T"-l
0
N

©
.......
..c
Ol
ï:::
>-
a.
L'objectif de cet exercice est de fournir une méthode de calcul des sommes de
u
0 puissances d 'entiers qui utilise les polynômes.
1. Soit P E JR[X ]. Déterminer le degré de P(X + 1) - P(X).
2. Déterminer tous les polynômes P à coefficients réels tels que :
(E) P(X + 1) - P(X) = X 3 .
38 Chapitre 2 Nombres complexes et polynômes

n
3. En déduire un calcul de Lk 3
pour tout entier naturel non nul n.
k=l
n
4. Avec la même stratégie, déterminer brièvement la valeur de la somme Lk 4
.
k=l

1. On commence par traiter à pa rt le cas où P(X +l)-P(X) est le polynôme nul (qui
survient lorsque P est const ant), puisque le polynôme nul a la particularité d 'avoir
un degré égal à - oo.

~I Si P est constant, alors deg(P (X


deg P = p, on a p ~ 1.
+ 1) - P (X )) = deg 0 = - oo . Sinon, en posant

On montre que P (X + 1) - P(X) est de degré strictement inférieur a u degré de P à


l'aide de la décomposition en monôme dominant et reste de degré moindre.

En isolant le monôme dominant de P, on peut écrire P sous la form e aXP + R où


a E IR* et R E IRp-l [X ]. On a donc
P(X + 1) - P(X) = a(X + l)P + R(X + 1) - aXP - R(X) .
Or, par la formule du binôme de Newton :

a(X + l )" = t.a(i)x' = aX" + %a(i)x'


donc nous avons P(X + 1) - P(X) = [% a(~) X' ] + [R (X + 1) - R(X)] avec

deg (%a (i)x') = p - 1 et deg (R(X + 1) - R(X) ) .; p - L Le polynôme

"'O P(X + 1) - P(X) étant somme de deu x polynômes de degré au plus p - 1, on conclut
0
c
:J
que deg (P(X + 1) - P (X)) ~ p - 1.
0
1..()
T"-l
P our déterminer précisément le degré de P(X + 1) - P(X) , une a nalyse plus fine
0 p- l

L a (~) X k
N

© est nécessaire. Puisque est de degré p - 1, on pourrait conclure que


....... k=O
..c
Ol
ï::: deg (P(X + 1) - P(X)) = p - 1 si on obtenait deg (R(X + 1) - R (X) ) < p - 1. On
>-
a. remarque que cette dernière inégalité résulte en fait du travail déjà effectué a uparavant
0
u sur Pet qu'il suffit d 'appliquer à R.

En notant r le degré de R, o n a de mê me : deg (R(X + 1) - R(X)) ~ r- 1 < p- 1.

Or P(X + 1) - P(X) = apXP- ' + [ga(~) x'] + [R(X + 1) - R(X)] donc on

conclut que deg (P(X + 1) - P(X)) =p- 1.


Exercice 2.6 La somme des premiers cubes 11 39

2. Une des premières choses à laquelle on peut s'intéresser est le degré de P. Dans
n otre cas, cette information est fournie grâce au résultat de la question 1.

~1
Soit P une solution de (E). Puisque P(X + 1) - P(X) est de degré 3, le polynôme
Pest de degré 4 d 'a près la question 1 : il existe donc des réels ao, ai, a2, a3 et a4
tels que

Une méthode naturelle est d 'inj ect er cette expression de P dans l'équation (E) pour
en déduire les coefficients de P par ident ification.

D'où, pour P = ao + aiX + a2X 2 + a3X 3 + a4X 4 de degré 4,


4 4

(E) ~ L ak(X + l)k - L akXk = X3


k=O k=O
4

L ak [(X+ l) k - xk ] = X 3
k=O
2 2
ai + a2(2X + 1) + a3(3X + 3X + 1) + a4(4X 3 + 6X + 4X + 1) = X3
ai + a2 + a3 + a4 0
2a2 + 3a3 + 4a4 0
(par identification)
{ 3a3 + 6a4 0
4a4 1

Le système est échelonné, il se résout donc directement par substitution « en remon-


tant les équations ».

ai = -a2 - a3 - a4 = 0
a2 = - i!2 a3 - 2a4 = .!.4
donc { et finalement :
a3 = - 2a4 = -~
a4 -- .!.4
2 2
2(1 1 1 2) X (X - 1)
P = ao+X
4 - 2x+ 4x = a o + - -- -
4
-0
0
c 3. On doit rapprocher k 3 et X 3 pour faire le lien avec les questions précédentes. Ainsi
:J
0
k 3 = P (k+ l)-P(k) où Pest solution de (E) (choisi le plus simplement possible) et
,....
1..()
n
0
N la somme L k 3 se calcule a lors pa r télescopage.
© k=l
.......
..c
Ol
ï::: X 2 (X - 1)2
>-
a. Si P = , alors on a P(k + 1) - P(k) = k 3 pour tout entier naturel k
0 4
u d 'a près les résultats de la question 2. Ainsi, par télescopage, pour n E N* ,

L k =L
n

k=i
3
n

k=i
[P(k + 1) - P(k) ] = P(n + 1) - P(l) =
(
n +: )2 2
n

4. On reprend l'idée de calcul par télescopage comme le suggère l'énoncé. L'essentiel


du travail ét ant d e dét erminer ici un polynôme P t el que P(X + 1) - P(X) = X 4 .
40 Chapitre 2 Nombres complexes et polynômes

~1
On cherche P t el que P(X + 1)-P(X) = X 4. D'après la question 1, un t el polynôme
5
6
est nécessairement de degré 5. Soit (ao,a1 , a2,a3 , a4,a5 ) E JR. et P = L akXk.
k=O
5
Pour éviter d 'avoir à développer (X+ 1) , on va proposer une méthode alternative
reposant sur l'ordre de multiplicité 4 de la racine 0 dans le polynôme X 4 .

En remarquant que X 4 possède 0 pour racine d'ordre de multiplicité 4, on obtient,


par dérivations successives dans la relation P(X +
1) - P (X) = X 4 ,
P(l) - P(O) 0 a 1 + a2 + a3 + a4 + as 0
P' ( 1) - P' ( 0) 0 2a2 + 3a3 + 4a4 + 5a5 0
P" ( 1) - P " ( 0) 0 i.e. 6a3 + 12a4 + 20as 0
P"'(l) - P'"(O) 0 24a4 + 60as 0
p (4) (1) - p (4 )(0) 24 120as 24
ce qui par substitution nous donne

Donc, en choisissant a 0 nul,


1 1 3 1 4 1 5 ( 1 1 2 1 3 1 4)
p = - 30 X + 3X - 2X + 5X = X - 30 + 3X - 2X + 5X
est un bon ca ndid at.
Une erreur fréquente consiste à croire que tout le travail a été fait et de conclure
directement que P convient : nous avons trouvé une description de P à une constante
près. Réciproquement , il n e faut pas oublier de vérifier que les conditions trouvées pour
P ne sont pas seulement nécessaires, mais a ussi suffisantes pour que P convienne t.

Un calcul montre que le polynôme P4 ainsi défini vé rifie bien P4(X + l) - P4(X) = X 4 .
Ainsi
n n
"O
0
c
:J k= l k= l
0
1 1 2 1 3 1 4)
+ '3 (n + 1) - '2 (n + 1) + '5 (n + 1)
1.()
r-l (n + 1) ( -
0 30
N

© n+l [ - 1 + lOn 2 + 20n + 10 - l 5n3 - 45n2 - 45n - 15


30
......
..c
Ol 4 3 2
ï::: +6n + 24n + 36n + 24n + 6J
>-
a.
n(n3~ 1) (6n3 + 9n2 + n
0
u - 1).

~ n(n + 1)(2n + 1)(3n 2 + 3n - 1)


Une ultime factorisation montrerait même que~ k 4 = .
k= l 30

t. C 'est l' étape d e synthèse dans le raisonnem ent par analyse-synth èse.
Exercice 2. 7 Autour des polynômes de Tchebychev 41

On considère les polynômes* Pn à coefficients réels vérifiant :


Po=2, P1=X et VnEN, Pn+2=XPn+1-Pn.
1. a. Déterminer P2 , P3, P4 et P5 .
b. Factoriser P 3 et P4 .
2 . Déterminer le degré et le coefficient dominant de Pn pour tout entier naturel
non nul n .
3. On a reproduit ci-dessous une portion d'une fonction Scilab permettant de
calculer Pn(x) étant donné n EN* et x E JR. Compléter l'avant-dernière ligne
de cette fonction.
function P=Poly(n,x);
PP=x ; P=2;
for k=2:n
Aux=PP; PP=P; P= _________ ;
end
endfunction

4. Soit z E C*. Simplifier au maximum Pn ( z + ~) pour tout entier n a pparte-

nant à [1 , 4]. Conjecturer une formule portant sur Pn ( z + ~) , valable pour


tout entier naturel n, puis démontrer la.
5. En déduire: VO E JR, Vn EN, Pn(2cos0)=2cos(n0).
6. Pour x E lR tel que lxl > 2, déterminer une expression de Pn(x) en fonction
den E N.

1.a. Les calculs s'effectuent de proche en proche, en s'a ppuyant sur la relation de
"'O récurrence qui définit la suite.
0
c
:J
0 On a, successivement ,
XP1 - Po= X 2 - 2,
1..()
T"-l
0
P2
XP2- Pi = X(X 2 - 2)- X = X 3 - 3X,
N
P3
© 2 2
X P3 - P2 = X (X 3 - 3X) - (X - 2) = X - 4X + 2,
....... 4
..c P4
XP4 - P3 = X(X 4 - 4X 2 + 2) - (X 3 - 3X ) = X 5 - 5X 3
Ol
ï:::
>-
P5 + 5X.
a.
0
u 1.b. Pour P 3 , 0 est racine évidente d 'où une factorisation par X . Le facteur restant est
de degré 2 et se factorise à l'aide de l'identité remarquable A2 -B 2 = (A - B )(A + B).

* · Les p oly nôm es de Tchebychev (Tn) son t reliés au x (Pn ) par 2Tn(X) = Pn(2X) . Ils vérifient
To = 1, T1 = X et la relation d e récu rrence, \:/ n E N, Tn+2 = 2XTn+ 1- Tn . Ils son t aussi caract érisés
pa r V(n,8) E N X IR, Tn(cos 8) = cos(n8) .
42 Chapitre 2 Nombres complexes et polynômes

~I
Ona
P3 = X(X 2 - 3) = X(X - VJ)(X + VJ).
On remarque ici que P4 est un trinôme bica rré i.e. de la forme R = X 4 + pX2 + q.
Pour factoriser de tels polyn ômes dans C[X], on peut :
• poser y = X 2 ,
• factoriser Y 2 + pY + q en
(Y - r1)(Y - r2),
• conclure en factorisant X - r 1 et X 2 - r 2 dans R = ( X 2 - r 1) ( X 2 - r 2).
2

Le recours à l'indéterminée intermédiaire Y peut être évité en utilisant la réduction


sous forme canonique.

De même,
P4 X
4 2
- 4X + 2 = (X
2
- 2)
2
- 2 = (X
2
- 2)
2
- ( -J2) 2

(x 2 - 2- J2)(x 2 - 2+ V2) = [x 2 - (2 + V2)] [x 2 - (2 - V2)]


(X - V2 + J2) (X+ V2 + -J2) (X - V2 - -J2) (X+ V2 - -J2).
2. Pour avoir une idée du résultat que l'on doit obtenir, la bonne démarche dans ce
type d 'exercice est de voir d 'abord ce qu 'il se passe pour les premiers termes de la
suite. On remarque qu'il nous suffit de nous intéresser aux monômes dominants.

~I
2 3
Les monômes dominants de P1 , P 2, P3, P4 et P5 sont respectivement X, X , X ,
X 4 et X 5 . Ainsi, pour n E [1 , 5] , Pn est unitaire et de degré n.
Il semble ici raisonnable de formuler une conjecture généralisant à tout rang n ): 1
les résulta t s observés précédemment. Pour être complet , il restera à démontrer cett e
conjecture. Ici, on s'appuiera sur une récurrence à deux termes puisque la relation de
récurrence Pn+2 = X Pn+l - Pn permet de « propager » au rang n + 2 l'information
obtenue aux rangs net n + 1.

~I
On conjecture que, pour tout ent ier naturel n non nul , le polynôme Pn est unitaire
et de degré n. D émontrons cette conjecture par une récurrence à deux termes.
-0
0 On raisonnera sur les monômes domina nts pour regrouper les informations sur les
c
:J degrés et coefficients domina n ts. Ici, dire que Pn est u nitaire et d e degré n revient à
0
,....
1..() dire que xn est son monôme dominant.

~
0
N

© • Initialisation : On a déjà vérifié la propriét é au rang 1 et au rang 2 .


.......
..c • Hérédité : Supposons que Pn et Pn+l sont unitaires et respectivement de degré n
Ol
ï::: et n + 1 pour un certain entier naturel n non nul. Il exist e donc deux polynômes
>-
a.
0 R n et R n+l tels que :
u
Pn = x n+Rn , Pn+i = xn+i +Rn+1 avec deg(Rn ) < n, deg(Rn+i) < n+l.
Ainsi, par la relation de récurrence,
Pn+2 = XPn+1- Pn = X(x n+1+ Rn+1)-(Xn+Rn) = xn+2+(X Rn+1-Xn - R n)
avec deg(XRn+1 - X n - Rn) < n + 2 (somme de polyn ômes de degré strictement
infé rieur à n + 2) . On en déduit bien que Pn+2 est unita ire de degré n + 2.
Exercice 2. 7 Autour des polynômes de Tchebychev 43

• Conclusion : Pour tout entie r naturel n non nul, Pn est unitaire de degré n (et Po
1 est bien de degré 0 mais pas unitaire car son coefficient dominant est égal à 2).

Beaucoup de raisonnements sur le coefficient dominant ou le degré d 'un


polynôme reposent sur sa décomposition entre son monôme dominant
et les autres monômes de degré moindre que l'on regroupe en un seul
terme de reste : P = anXn + R avec deg R < n.

3. Il suffit de comprendre la signification de chaque ligne de code pour constater que


la ligne incomplète correspond à actualiser les valeurs de deux termes consécutifs de
la suite. On notera d'ailleurs qu'on a introduit le polynôme P _ 1 = X de telle sorte
que la relation de récurrence Pn+ 2 = X Pn+l - Pn soit encore vraie pour n = - 1 et
que la fonction retourne le bon résultat pour n = 1.

function P=Poly(n,x): Il définit nom de fonction et argument


PP=x; P=2; Il initialise P_{-1} et P_O
for k=2:n Il répète de 2 à n
Aux=PP; PP=P; P=x*P-Aux Il a ctuali se P_{k-1} et P_k
end
endfunction

4. Ici, la démarche est analogue à celle de la question 2 : à partir des résultats observés
pour n appartenant à [O, 4] , on formule une conjecture pour tout entier naturel que
l'on démontre par récurrence.

Pi(z+;) z+-1z
(z+-1) 1
2
-0
0 P2 ( z +;) z
- 2 = z2 + -z 2
c
:J 3
+ ~)
0 1) - 3 ( z + -1) = z 3 + 3z 2 x -1 + 3z x -1 + -1 - 3z - -3
I..{)
,.....
P3 ( z ( z + -z z z z2 z3 z
0
N

©
z+ -1
3
z3

(z+ ~r - 4 (z+ ~)
....... 2
..c
Ol
ï:::
+2
>-
z 4+ 4z2+ 6 + -4 + -1 - 4 (z 2+ 2 + -z1) + 2 = z 4+ -z4
a. 1 .
0
u z2 z4 2

0
Enfin, en rem arqu ant aussi que Po ( z + .; ) = 2 = z + :0 , on conjecture que, pour

tout entier naturel n, Pn ( z + ~)


z
= zn + __!_
zn
ce que nous démontrons ci- dessous par
une récurrence à deux term es.
• Initialisation : La conjecture a déj à été vérifiée au rang 0 et au rang 1.
44 Chapitre 2 Nombres complexes et polynômes

e ' 'd'/te, : S UppOSOnS Fn


Here o (
Z + ;-1) = Zn + 1 et p n + l ( Z
zn + ;-1) = z n+l + 1
zn+l
pour un certain entier naturel n. On a alors :

Pn+2 ( Z +;) (Z + ; ) Pn+l ( Z +;) - Pn ( Z +;)


1) ( z n + l
( z+-
z +--
zn+l -
1 ) ( zn +-1 )
zn
n+2 1 n 1 n 1 n+2 1
z +-+z
zn +zn+2
- - - z - -z n= z +--
zn+2
donc la conjecture est vraie au rang n + 2.
• Conclusion :
VzEC*, VnEN, Pn z + -
z ( 1) = z n 1
+ -.
zn

5. Pour exploiter les résultats précédents, il faut pouvoir écrire 2 cos sous la forme e
z + z - 1 . Ici, la bonne idée est de se souvenir de l'une des deux formules d 'Euler :
2 cosw = e i w + e - iw (que l'on applique deux fois : avec w = e et avec w =ne).

~1
Soit n EN. En utilisant deux fois la première formule d'Euler,
Pn (2 cos 8) = Pn ( eie + e-ie) = (eier + (ew) - n = eine + e-ine = 2 cos( n8).

6. Pour x E IR\ [- 2, 2], la relation de récurrence s'écrit Pn+2(x) = x Pn+1 (x) - Pn(x)
i.e. une relation de récurrence linéaire d 'ordre 2.

Soit x E IR\ [- 2, 2] . La suite (Pn(x)) est linéairement récurrente d 'ordre 2 d 'éq uation
2
caractéristique associée r = xr - 1. Le discriminant de cette dernière équation est

(- x)2 - 4 x 2 - 4 done strictement


= . . 'f et ses racines
pos1t1 . sont X ± .Jx2 - 4 . Ü n sait
.
2
alors qu'il existe deux réels µ et v tels que

V n E N, Pn(x) =µ ( x + J;2 - 4) n + v ( x - .);2 - 4) n

En particulier, avec n= 0 et n = 1, comme P 0 (x) = 2 et P 1 (x) = x,


"O µ +v 2
2
0 µ+ v
c
{ µ x + .Jx2 - 4 x - .Jx 2 - 4 { µ - v 0
0
:J
2 +V 2 X

1..()
T"-l ~ µ = v = l.
0
N Finalement,
©
.......
..c
Ol
ï:::
>-
a.
0
u Une autre méthode basée sur la même idée qu'à la question précédente a urait été de
1
trouver z tel que x = z + - en résolvant une équation du second degré de solutions
z
x + Jx - 4
2
x - J x2 - 4
z+ = et z_ = (vérifiant z+z- = 1) qui a urait conduit un
2 2
peu plus rapidement au résultat Pn (x) = z+ + ~ = z+ + z~ .
Z+
Exercice 2.8 Division euclidienne et restes 45

On pose An= xn et Bn = X 2 - (n + l)X + n pour n EN.


1. Calculer le quotient et le reste de la division euclidienne de A5 par B 2 •
2. Déterminer, pour tout n E N, le reste de la division euclidienne de An par B2.
3. a. Obtenir de même le reste de la division euclidienne de An par B 1 .
b. En utilisant l'indéterminée Y = X - 1, déterminer aussi le quotient de la
division euclidienne de An par B1.

1. Il suffit d 'effectuer la division euclidienne.

On réa lise la division euclidienne de A 5 = X5 par B 2 = X2 - 3X + 2 :


X5 X 2 -3X +2
4
- (X 5 - 3X +2X )3
X 3 + 3X 2 + 7X+ 15
3X 4 - 2X 3
- (3X 4 - 9X 3 +6X 2 )
3
7X - 6X 2
- (7X 3 - 21X 2 +14X)
15X - 14X
- (15X 2 - 45X +30)
31X - 30
donc le quotient est X 3 + 3X 2 + 7X + 15 et le reste 31X - 30.

2. La méconnaissance de la valeur précise den empêche de pouvoir procéder comme


à la question précédente. Mais de t oute façon seul le reste est demandé, on va donc
invoquer le t héorème de la division euclidienne pour obtenir l'existence du reste
:3 !(Q,R) E IR[X] x IRi[X], An= B2Q + R
et s'efforcer d 'éliminer la présence du quotient en utilisant les racines de

( 3) - 14
2
-0
0
c B2 = X 2 - 3X +2 = X - "2 = (X - l )(X - 2) .
:J
0

~
,....
1..()
Soit n E N . D'après le théorème de la division euclidienne, comme deg B2 = 2, il
0
N existe des uniques polynômes Q et R tels que An = B 2 Q + R et deg R < 2. En outre,
© puisque R est de degré au plus 1, il s'écrit R = aX + b avec a et b réels. En éva lu ant
.......
..c les polynômes en 1 puis en 2 qui sont les racines de B2, on obtient le système
Ol
ï:::

u
>-
a.
0 { 2: !~ ~: L2J·f;-L1{ a+~ ~n - 1 i.e. { ~ ~n--2~
Finalement, le reste demandé est (2n - l)X + 2 - 2n = 2n (X - 1) - (X - 2).

3.a. On procède comme à la question précédente à ceci près que B 1 = (X-1) 2 n 'admet
qu'une seule racine qui est double. Pour utiliser cette multiplicité de la racine, on va
dériver l'égalité An = B 1 Q + R en A~ = B 1 Q' + B ~ Q + R' et tirer alors parti du fait
que 1 est racine de B 1 et B~ .
46 Chapitre 2 Nombres complexes et polynômes

Pour n E N, toujours d 'a près le théorème de la division euclidienne, il existe des


uniques polynômes Q et R = aX + b de degré au plus 1 tels que An = Bi Q + aX + b.
En dérivant cette dernière éga lité, on obtient aussi A~ = B~ Q + B 1Q' + a. Ainsi,
en évaluant en X = 1 et en utilisant que B 1 (1) = 0 = B~ (1) , il reste à résoudre le
système

{ a+~ ~:n-1 i.e. { ~ ~ -n


Finalement, le reste demandé est nX +1- n = n(X - 1) + 1.
3.b. Le changement d'indéterminée Y = X - 1 va permettre de passer d'une division
par X 2 - 2X + 1 = (X - 1) 2 à une division par Y 2 , ce qui est beaucoup plus facile à
gérer surtout lorsque le polynôme est écrit sous forme algébrique.

L'éga lité précédente xn = (X - 1)2Q(X) + n(X - 1) + 1 s'écrit, avec l'indéterminée


Y = X - 1, (Y + l )n = Y 2 Q(Y + 1) + nY + 1. Or, d'après la formule du binôme de
Newton,

(Y+l)" =t. (~)y•= t, (~)Y'+ (7)Y +(~) y'= Yt, (~)y'-'+nY


1 2
+l

d'où, Q(Y + 1) = t, (~)y'-' et finalement Q(X) = t, (~}x - 1)'-


2

Soit x , y et z trois nombres complexes deux à deux distincts.


1. Trouver trois polynômes Px, Py et Pz, chacun de degré au plus 2, tels que
Px(Y) = Px(z ) = Py(x) = Py(z ) = Pz(x) = Pz(Y) = 0,
{ Px(x) = Py(y) = Pz(z ) = 1.
2. Soit a, b, c trois nombres complexes. On pose P = aPx + bPy + cPz. Justifier
que Pest l'unique polynôme de degré inférieur ou égal à 2 tel que :
"'O
0
P(x) =a, P(y) = b et P(z) = c.
c
:J
0 3. En déduire tous les polynômes P de degré inférieur ou égal à 2 tels que :
1..()
T"-l
0
P(- 1) = 2 et P(1) = 3.
N

©
.......
..c
Ol
ï::: 1. Commençons par faire le tri sur les conditions, elles se séparent en trois parties
>-
a.
0 indépendantes
u
1 0 0
0 1 0
0 0 1

Si Px satisfait aux conditions, il admet y et z pour racines donc (X - y) (X - z ) divise


Px. Comme Px est de degré inférieur ou égal à 2, il exist e un complexe À tel que
Exercice 2.9 Polynômes interpolateurs de Lagrange 47

Px = ,\(X - y)(X - z). Enfin de Px(x) = 1, nous tirons À(x - y)(x - z) = 1 donc
1 X-yX-z
À= ( )( ) et finalement : Px =
x- y x- z x- y x- z

~1
Si on note Px le polynôme X - y X - z de degré 2, on a bien Px(Y) = Px(z) = 0
x-y x-z
(car y et z sont clairement racines de Px) et Px(x) = x - y x - z = 1.
x-yx-z
On adapte l'expression obtenue pour P.-c à Py et Pz .

~1
X - xX - z
De manière analogue, les polynômes Py et Pz, définis par Py ----et
y-x y-z
X --
Pz = - X X - y '
- - , repon dent b"1en aux con d.1t1ons
. . '
1mposees.
z - x z - y
2 . Vérifier que le polynôme proposé satisfait aux trois équations est immédiat. Le
travail se situera surtout dans la preuve de l'unicité.

~I P(x) = aPx(x) + bPy(x) + cPz(x)


P(y) = b et P(z) = c.
= a+ 0 + 0 = a. De même, on a clairement :

Étant donné un objet satisfaisant une propriété P, si l'on veut montrer qu'il est
unique pour cette propriété, la méthode générale consiste à se donner un autre objet
satisfaisant aussi P et de montrer que les deux objets sont en fait identiques. Ici les
objets sont des polynômes. Pour montrer que deux polynômes sont égaux, une façon
de faire est de montrer que leur différence est le polynôme nul, car nous disposons de
résultats permettant de caractériser le polynôme nul (un polynôme de degré inférieur
ou égal à n est nul s'il admet au moins n + 1 racines distinctes).

Réciproquement, si Q est un polynôme de degré inférieur ou égal à 2 tel que : Q(x) =a,
Q(y) = b et Q(z) = c alors Q(x) = P(x), Q(y) = P(y) et Q(z) = P(z) donc le
polynôme Q - P admet (au moins) trois racines distinctes : x, y et z. Éta nt de plus
de degré inférieur ou égal à 2, Q - P est donc le polynôme nul. Ainsi Q = P ce qu i
montre l' un icité de P.
3 . Il faut repérer ici le lien évident avec la question qui précède. Pour tout réel z
"O distinct de - 1 et 1, et tout polynôme P de degré inférieur ou égal à 2,
0
r::::
0
:::J
{
P(-l)
P(l)
-
2
3
~ P = 2P-1+3P1 + P(z)Pz,
lfl
,.-1
0
N
le choix de z étant arbitraire. Le plus simple est de prendre ici z = O.
@
....., Soit P un polynôme de degré infé rieur ou égal à 2. D'après le résultat de la question
r:
Ol
·;::
précédente et avec les notations de la question 1 pour (x,y,z) = (- 1,1,0),
>
Cl.
0 P(- l) 2 {::::::::} P=2P- 1+3Pi+P(O)Po.
u { P(l) 3
À l'aide des formu les de la question 1 :
2 2
p = (X - l)X = X - X p
1
= (X+ l)X = X +X
- l -2 X (-1) 2 ' 2 X 1 2
et Po = (X + l) (X - l) = 1 - X 2 .
1 X (- 1)
48 Chapitre 2 Nombres complexes et polynômes

Ainsi, P est solution ssi il existe c E C tel que


P. = X 2 - X 3 2 + -X
+ -X 3 + c(l - X 2) = c + -X
1 + (5- - c) X 2.
1 2 2 2 2

Les notations Px, Py et Pz de l'énoncé peuvent paraître trompeuses: les


trois polynômes dépendent en fait bien chacun de x, y et z. Ainsi, dans
cette dernière question et pour tout z tj. { -1, 1}, tout polynôme solution
s'exprimerait sous la forme 2P_ 1 +3P1 + P(z)Pz où les polynômes P _ 1
, , d , (X - l)(X - z)
et P 1 auraient a 1ors ete onnes respectivement par ( ) et
21+z
(X + l)(X - z)
-'-------C..-'-------C.. (on retrouve ceux ci-dessus lorsque z = 0).
2(1 - z)

On désire prouver le résultat suivant : « si a, b et c sont trois complexes de


module 1 vérifiant a+ b + c = 1, alors nécessairement un de ces trois complexes
vaut 1 ».
Supposons que a, b et c soient trois nombres complexes de module 1 tels que
a+b+c=l.
1 1 1
1 . J ust1"ficr l',cgal"Itc, : - + -b + - = 1.
a c
2. On considère le polynôme P défini par P(X) = (X -a)(X -b)(X -c). Justifier
l'existence d'un complexe non nul Œ tel que P(X) = X 3 - X 2 + aX - Œ.
3. Conclure.

"O
1. Il faut exploiter ici l'hypothèse essentielle (la seule!) que les trois nombres sont de
0
r:::: module 1.
:::J
0

~1
lfl
,--1
0
Puisque a, b, c sont de module 1,
N
@
....,
r:
a1 + b1 + c1 = laa bc _ -b - b -
l2 + lbl2 + lcl2 = a+ + c = a+ + c = 1 = 1.
Ol
ï:::
>
0
Cl. 2. Le principe d 'une factorisat ion consiste essent iellement à trouver les racines à par-
u tir des coefficients d'un polynôme. Ici, nous adoptons une démarche opposée : nous
allons exprimer les coefficient s de P à l'aide de ses racines. Il faut tout naturellement
développer l'expression factorisée de P et simplifier convenablement ses coefficients à
l'aide des connaissances sur les racines a, b et c (cf énoncé et résulta t de la question
précédente).
Exercice 2.11 Autour des racines n -ièmes de l'unité 49

P(X) (X - a)(X - b)(X - c)


X 3 - (a+ b + c)X2 +(ab + be+ ac)X - abc
X 3 - X 2 +(ab+ be + ac)X - abc (puisque a+ b + c = 1) .
En posant a= abc, o n a :

ab + be+ ac= -a + -a + -a =a (1- + -1 + -1) =a (d'après 1)


c a b c a b
donc finalement : P(X) = X 3 - X2 + aX - a. Ainsi, a = abc convient .

3 . Il faut bien identifier ce que l'on cherche à montrer ici : on veut établir que l'une
des racines a, b ou c de P est égale à l . Cela revient à montrer que X - 1 divise P,
ce qui est immédiat d'après le résultat de la question précédente.

~I P(X) = X 2 (X - 1) + a(X - 1) = (X - l)(X 2 +a) do nc 1 est racine de P. O r a,


b et c sont les racines de P do nc un des nombres complexes a, b ou c est égal à 1.

Pour n E .N* et k E rro,n - 1]' on pose Zk =


1ik.zr.
e .. .
1. Calculer (zkr.
N
2. a. Calculer, pour tout (} E lR \ 27rZ et tout N E .N*, L sin (k(J) .
k=l
n-1
b. En déduire la valeur de L sin k1rn pour n;;::: 2.
k=l
3. a. Factoriser x n - 1 dans C[X].
b. En déduire la factorisation dans C[X] du polynôme
n-1
"O
0
p = L x k = 1 + X + x z + ... + x n - 1.
r::::
:::J
k=O
0
lfl
4. En considérant P (l) et P(-1), en déduire les valeurs des deux produits
,.-1
0
N
nrr
-1sm
. -k1r et nrr
-1cos-
k1r
.
@ n n
....., k=l k=l
r:
Ol
·;::
>
Cl.
0
u
1. (zk)n se calcule simplement en utilisant les règles de calcul pour les puissances
(même imaginaires pures) : ei8 ei8 ' = ei(e+e') et (eier = eine.

~1
On a:
(zk) n = ( 2ik,.. )
e -,-, n
= e 2ik7r = 1.
50 Chapitre 2 Nombres complexes et polynômes

2.a. Même si le terme général de la somme est purement réel, il va être très utile de
passer par les nombres complexes, soit à l'aide d 'une des formules d 'Euler
eikO _ e-ik()
sin(kO) =
2
soit en utilisant la partie imaginaire. Dans les deux cas, on est ramené à des sommes
de termes consécutifs de suites géométriques de raison complexe que l'on sait alors
calculer.

Soient () E lR \ 27r.Z et N E N*.

t, sin( k8) t, lm (e"') = lm (t, e"') (pac linéadté de l m)

Im ~
(L.....-
k =l
[ ifJJ
e
k) -- Im ( eie - _ei(N+1)e
eie
1
) (car· eie -t.
r
1)

La dernière étape consiste alors à repasser dans les réels à l'aide de méthode de l'angle
moyen et des formules d 'Euler.

~ N
. ( ei(N+2)e;2 e-iNfJ/2 _ eiNfJ/2 )
I : sin (kO) = lm eie 12 e- ifJ ;2 - eifJ /2
k=l

lm ( ei(N+i)e/ 2 -
2i sin(NO / 2) ) (d'après les formules d'Euler)
- 2isin(0/2)

. (N+ 1 ) sin ( ~ 0)
sm - 2-e . ((})
sm
2
2.b. Il suffit d'appliquer la formule tout juste obtenue avec les paramètres adéquats.

En particulier, pour n ~ 2, la formule précédente avec N = n - 1 et () = ~ donne


"O
0
n
r::::
:::J n-1 . . (n-1rr)
. ( n 7r ) sm ~ n
· (rr
. -7r sm 2 - rr) rr
sm -k1r cos 2n 1
L 2n
0 = sin - - = sin = -- = .
lfl n 2n sin ( .2L ) 2 sin 2n sin 2n tan n
2n
,.-1 k=l 2n n n
0
N
@ 3.a. Factoriser un polynôme revient à trouver ses racines (avec leurs ordres de multi-
.:COl plicité). Ici la première question fournit des racines de xn - 1.
·;::

~I
>
0
Cl. D 'a près la question 1, x n - 1 admet Zk pour racine pour tout k E [O, n - 1~.
u (zk)kE[O ,n - l ] est donc une famille de n racines du polynôme xn - 1 de degré n .

Si on trouve n racines distinctes d'un polynôme de degré n, alors celles-ci sont simples
et le polynôme n'admet pas d'autres racines : c'est une conséquence du théorème de
d 'Alembert-Gauss. Ainsi, notre tâche va consister à démontrer que les complexes Zk
sont deux à deux distincts (pour k E [O, n - l il ).
Exercice 2.11 Autour des racines n -ièmes de l'unité 51

Ces racines sont deux à deux disti nctes par un icité d e l'argument d ' un nombre complexe
si on se restreint à [O, 2n[. Enfin , xn -
1 éta nt un itaire, le t héorème de d'A lembert-
n-1
Gauss permet de conclure : xn - 1= II (X - Zk)·
k=O

3.b. P our faire le lien entre P = 1 +X+ X 2 + · · ·+ x n- 1 et xn -1, il faut reconnaître


dans P(q) pour q E C la somme des premiers termes d,une suite géométrique pour
1 - qn
laquelle on dispose d'une formule P(q) = que l'on redémontre par télescopage
l-q
pour éviter de distinguer le cas où q = 1.

On a, par télescopage,
n -1 n-1
(X - l)P =(X - 1) L xk = L (Xk+l - Xk) = xn - 1.
k=O k=O
n- 1
Comme x n- 1 = II (X - Zk) et zo = 1, on en dédu it par simplification par le
k=O
n- 1
polynôme non nul X - 1 que P = II (X - zk). qui est donc l'écritu re fact orisée de
k=l
P d ans <C[X].

4 . L'idée va consister à exploiter les deux écritures de P pour calculer de deux façons
différentes P(l) et P(- 1).
• La forme factorisée de P donne une expression de P( 1) et de P( -1) faisant inter-
venir les produits cherchés si on pense à invoquer les formules d'Euler.
• La définition de P par ses coefficients permet de calculer très simplement P(l) et
P(- 1).
Il suffit ensuite d 'isoler les produits à calculer dans les identités obtenues.

II sin n et Cn = II cos n·
"O n- 1 n- 1
0 kn k1r
r:::: On pose Sn=
:::J
0 k=l k=l
lfl n-1
D ' une part, P(l) = L lk = n. D'a utre part , en utilisant le résultat de la qu estion
,--1
0
N
@ k=O
....., précédente,
r:

u
Ol
·;::
>
Cl.
0
P(l) fi =Il (
k=l
(1 - zk)
k=l
1- e
2
i~1f ) =Il [i~1f
k=I
e ( e -~k" - e i~ ) ]

= fi [-2iei~
k=l
sin ( ' : ) J (d,après les formules d,Euler)

n-I

II (-2ieik; ) X Sn
k=l
52 Chapitre 2 Nombres complexes et polynômes

donc, au final,

Sn = nII 2 = 2n- l ·n-1exp


n - 1 . - ik"
ie n
- -i
n
(
.1f
- i -
n ~
n -1
"'"""'k
)
= - -i
n
2n- l
·n-1exp ( - i(n
. - 1)-)
2
7r

k=l k= l

. II sm. -k1fn = -2n-n-


1.e.
n- 1

1
.

k=I

De même, P(-1) =~ k
~( - 1) =
(- 1r - 1
_2 ={ o
1
sin est pair
sinon
et

n- 1 n -1

P( - 1) II (- 1 - zk ) II [- (1+ e J =
2
'.: " )
k= l k=l

= ( - l) n- 1
nI-I1[e .k1'n ( e .kn:n +e .ko;r)]
i -
n - i -
= i -'- (
- l)n-
1nI-I1[2e .k'nlf cos -k~ ]
i - "

n
k= I k =l

n -1

ainsi, si n est pair, II cos ~ = 0 et, si n est impair, il existe un entier m tel que
k=I
n- I
(- l)m II cos nk1f = (- l) :Z 1 - (- 1r·
n- 1

II cos n =
k1f n - 1
n = 2m + 1 et 22m . En résumé, 2
n
k= l k=l

Il est bon de garder un œil critique sur ses résultats et de vérifier leur
cohérence. Le fait que l'on trouve 0 lorsque n est pair n 'est pas sur-
prenant. En effet, si n est pair, il peut s'écrire sous la forme 2p où
n- 1 k
p E rr 1, n - 1] et ' dans le produit cos - ' figure donc nécessaire-
n
II ~1f

k= l
p7r p7r 1f
ment cos - = cos - = cos - = O.
"O
0 n 2p 2
r::::
:::J
0
lfl
,.-1
0
N
@
.....,
r:
Ol
·;::
>
Cl.
Exercice 2 .12 : Divisibilité et ordre de multiplicité des racines
0
u
Dans cet exercice, a est un nombre complexe et P est le polynôme :
P = X 5 - (3a+2)X 4 + (1 +3a+3a2 )X 3 - (a 3 + l)X 2 + (2- a3 +3a)X - (a+ 1) 3 •
2
1. Soit j le nombre complexe e ;" • Simplifier j 3 et 1 + j + j 2 .
Exercice 2 .12 Divisibilité et ordre de multiplicité des racines 53

2 . Dans cette question uniquement, on suppose que a = j.


Montrer que si r est une racine réelle de P alors
-3r4 + 3r = 0 et r 5 - 2r4 - 2r 3 - 2r2 + r + 1 =O.
Qu'en conclure?
3. Dans cette question uniquement, on suppose que a = j - 1.
Vérifier que j est racine de Pet déterminer son ordre de multiplicité.
Factoriser alors P dans C[X].
4. On suppose désormais que a est réel.
a. Montrer que P possède au moins une racine réelle.
b. Vérifier que j est racine de P et en déduire que X 2 + X + 1 divise P .
c. Montrer que P possède une racine triple que l'on exprimera en fonction
de a et factoriser P dans tC[X].
d. Discuter le signe de P(x) en fonction du réel x.

1. Pour le calcul de 1 + j + j 2 , le plus rapide est de reconnaître la somme de termes


consécutifs d 'une suite géométrique de raison j .

~1
·3
j 3 = (e--:r-) · = 1 et 1 + J.
:ii " 3 = e2t7r + J.2 = 1 - J = 1 - 1 = 0 donc : .i3 = 1 et
1-j 1 - .i
1+ j + j 2 =o.
2. Injectons froidement j à la place de a dans l'expression de P et procédons aux
simplifications d'usage à l'aide de j 3 = 1 et j2 = -1 - j.
Tout d'abord, on a
P = X5 (3j + 2)X4 + (1 + 3.i + 3j 2 )X 3
-

-(j 3 + l)X 2 + (2 - j 3 + 3.i)X - (j + 1) 3


"O
0
r:::: X 5 - (3j + 2)X4 - 2X3 - 2X2 + (3j + l)X + 1
:::J
0
lfl
,.-1
En séparant les termes suivant leur dépendance en j, on fait apparaître les deux
0
N
polynômes mentionnés dans l'énoncé.

~I
@
.....,
r: (X 5 - 2X4 - 2X3 - 2X 2 +X+1) + j(- 3X4 + 3X).
Ol
·;::
>
Cl.
0 Il reste à comprendre pourquoi si r est racine réelle de P, chacun des deux termes
u
s'annule en r. Pour cela, il suffit de séparer parties réelle et imaginaire.
En particulier, si r est une raci ne réelle de P,
r 5 - 2r4 - 2r 3 - 2r2 + r + 1 = - (- 3r4 + 3r) j.
En prenant la partie imaginaire des deux membres, on a - 3r4 + 3r = 0 puisque
Irnj =j:. 0, puis en réinjectant cette égalité, r 5 - 2r4 - 2r3 - 2r2 + r + 1 =O.
54 Chapitre 2 Nombres complexes et polynômes

La première équation se résout très simplement dans IR.


Or
- 3r4 + 3r = 0 {::::::::} - 3r(r - l)(r 2 + r + 1) = 0 {::::::::} (r = 0 ou r = 1)
donc r = 0 et r = 1 sont les deux seules possibi lités. En les injectant dans la deuxième
équation, on constate que ni l' une ni l'autre ne conviennent (1 =/= 0 et -3 =/= 0).
Finalement, P n'admet pas de racine réelle.
3. Il s'agit de vérifier si P(.j) = O.
Tout d 'abord ,
P = X5 - (3j - l)X 4 + (1 - 3j + 3j 2 )X 3
-(j 3 - 3)2 + 3j)X2 + (-}3 + 3j2)X - 1
X 5 + (1 - 3j)X 4 - (2 + 6j)X 3 - (4 + 6j)X 2 - (4 + 3j)X - 1.
En particulier,
P(j) j5 + (1 -
3j)j4 - (2 + 6j)j3 - (4 + 6j)j 2 - (4 + 3j)j - 1
= 2 .5 - 51.4 - 81.3 - 7·2
-1 1 - 4.
J - 1
-2j2 - 5.i - 8 - 7j - 4.i - 1 = -9(.72 + .i + 1) = 0
2
=
donc j est racine de P.
Pour l'ordre de multiplicité, on va utiliser la caractérisation par l'annulation des dé-
rivées successives : r est racine de P de multiplicité m ssi
(v k E [O, m - 1] , p (k)(r) = 0) et p(m)(r) =JO.

Calculons alors la valeur des dérivées successives de P en j.


P' = 5X 4 + 4(1 - 3j)X 3 - 3(2 + 6.i)X 2 - 2( 4 + 6j)X - (4 + 3j)
P'(j) = -7.i -14.7 - 18)2 - llj - 4=-18(j 2 +j+1) = 0
4 3

P" = 20X3 + 12(1 - 3.i)X 2 - 6(2 + 6j)X - 2(4 + 6.i)


P" (j) = -16/ - 24j2 - 24.i - 8 = -24(j 2 + .i + 1) = O
P'" 60X 2 + 24(1 - 3j)X - 6(2 + 6j)
"O p"'(j) -12j 2 - 12j - 12=-12(j 2 +j+1) = 0
0
r::::
:::J
pC 4 ) = 120X + 24(1 - 3j)
0
lfl p( 4 )(j) 48j + 24 = 24(2j + 1) =!=o.
,.-1
0
N En conclusion , j est racine quadruple de P et (X - j) 4 divise P. Il existe alors
@ un polynôme Q tel que P = (X - j) 4 Q. Comme P est de degré 5 et un itaire,
.....,
r: Q = X - À où À E C est à déterminer. Par identification du coefficient de X 4 , on a
Ol
·;:: - 4j - À= - (3a + 2) = - (3j - 1) i.e. À= - j - 1 = j 2 . Fina lement, la factorisation
>
Cl. de P dans C[X] est : P =(X - j) 4 (X - j 2 ).
0
u
4.a. Visualisons le graphe de P : au voisinage de - oo, P est « très négatif» et, au
voisinage de +oo, « très positif» ; entre les deux, on doit donc passer par O. On va
rendre rigoureux ce raisonnement à l'aide du théorème des valeurs intermédiaires.

~I
P est de degré impa ir et unitaire donc lim P = -oo et lim P = + oo. En particu lier,
- OO +oo
il existe M > 0 tel que P(M) > 0 et P( - M) < O. D'après le théorème des va leurs
Exercice 2 .12 Divisibilité et ordre de multiplicité des racines 55

intermédiaires appliqué à la fonction polynomia le P continue sur [- M, M ], il existe


1 r E] - M, M[ tel que P(r) =O.
4. b. On calcule P(j ) et on simplifie les calculs comme précédemment.

Calculons :
P(j) j5 - (3a + 2)/ + (1 + 3a + 3a 2 )j3
- (a3 + 1))2 + (2 - a3 + 3a)j - (a+ 1) 3
j2 - (3a + 2)j + (1 + 3a + 3a 2 ) - (a 3 + 1))2 + (2 - a3 + 3a)j - (a + 1) 3
- a3 (}2 + j + 1) = 0
donc .i est bien racine de P .

On rappelle que pour qu'un polynôme R à racines simples dans C divise le polynôme
P , il faut et il suffit que les racines de R soient aussi racines de P . C'est ce que nous
utiliserons ici avec R = 1 + X + X 2 .

D 'après 1, j est racine d u polynôme X 2 + X+ 1. Comme il s'agit d ' un trinôme du


second degré à coefficients réels, son autre racine est son conj ug ué ] . Pour montrer
que X 2 + X + 1 d ivise P , il suffit de montrer que j et ) sont racines de P : pour
J
j, cela a été fait ci-dessus et est aussi racine de P car, P éta nt à coefficients réels,
P (J) = P (j) = 0 =O. En concl usion, (X - j)( X - = X 2 +X + 1 divise P. J)

On retiendra qu'un polynôme à coefficients réels qui possède une racine


complexe non réelle z, admet également z pour racine.

4 .c . On commence pa r factoriser pa rtiellement P par division euclidienne.

O n effect ue la d ivision eucl idienne de P par X 2


+X + 1.
x s - (3a+2) X 4
+ (1+3a+3a 2 )X 3 - (a3 +1)X2 +(2 - a 3 + 3a)X - (a+ 1) 3 x
2
+ x +1
- [xs +x4 +x31 xJ
- 3(a+l)X 4 + 3a(a+ l)X 3 - (a 3 + 1)X2 +(2 - a 3 + 3a)X - (a+l) 3 - 3(a+l)X2
'O - [- 3(a+l)X 4 - 3(a+ l)X 3 - 3(a+ l)X 2 ] + 3(a+ l) 2 X
0
r::::
:::J 3(a+I) 2 x 3 - (a 3 - 3a- 2)X 2 +(2 - a 3 + 3a)X - (a+ 1) 3 - (a+I) 3
0 - [3(a + 1) 2 x 3 + 3(a+ 1) 2 x 2 + 3(a+ I) 2 X )
lfl
,..-1
-(a+1) 3 x 2 - (a+1) 3 X - (a + 1) 3
0
N - [- (a+1) 3 x 2 - (a+1) 3 X - (a+I)3]
@ 0
.....,
r:
Ol
·;::
Ai nsi
>
Cl. p [X 2 + X+ ll[X 3 - 3(a + l) X 2 + 3(a + 1) 2 X - (a + 1) 3 ]
0
u
Puis on enchaîne à l'aide d 'une identité remarquable.

~1 [X 2 +X + ll[X - (a + 1)] 3
et a+ 1 est raci ne triple de P . O n conclut que la factorisation de P da ns <C[X ] est
P = (X - j)(X - ))(X - a - 1) 3 .
56 Chapitre 2 Nombres complexes e t polynômes

4. d . C'est évidemment une forme factorisée qu'il faut privilégier pour la discussion
du signe. Toutefois, comme le signe n'a pas de sens pour un complexe non réel, la
factorisation de X 2 + X + 1 n 'apporte rien donc on le garde t el quel.
Soit x E IR.
P( x) =(x 2 + x + l)(x - a - 1) 3 est d u signe de (x - a - 1) 3 donc de x - a - 1 (en
effet, x2 + x + 1 est toujours strictement positif puisq ue X 2 + X + 1 est un itaire et
de discriminant strictement négatif) . Ai nsi,
• si x > a + 1, P ( x) > 0,
• si x <a+ 1, P (x) < 0 et
• si x =a + 1, P (x) = 0 (a+ 1 est la seule raci ne réelle de P).

On voit ici la différence entre les deux écritures (algébrique et factorisée)


d'un polynôme. La première est à favoriser lors d'opérations additives
et de dérivation ou d 'intégration (sauf en cas de racine unique). La
seconde est plus pertinente pour les opérations multiplicatives ou pour
une étude de signe.

"O
0
r::::
:::J
0
lfl
,.-1
0
N
@
.....,
r:
Ol
·;::
>
Cl.
0
u
Liste des capacités attendues 57

Liste des capacités attendues

• S avoir « jongle r » entre les écritures a lgé brique , trigonométrique et ex-


ponent ielle des nombres complexes (cf exercices 2. 1, 2.2 et 2.3)

• Savoir utiliser les formules d'Euler (cf questions 2.1.2 , 2.2.2 et 2.3.2)
eie + e- ie eiB _ e- i8
cose = - - - - et sine = i
2 2

• S avoir utiliser la formule de d e Moivre

[ cos 8+ 't sin 8] n = cos(nO) + 't sin(nO) .

• Savoir employer des formules de trigonométrie pour transformer une


é criture (cf questions )

o 1cos2 e + sin2 e = 1 I,
(j les formules d 'addit ion
1 sin(a + b) = sin a cos b + cos a sin b 1 et 1 cos(a + b) = cos a cos b - sin a sin b I·
et en particulier les formules de duplication

1 sin(2e) = 2 sine cos e 1 et 1 cos(2e) = cos2 e - sin 2 e = 2 cos2 e- 1 = 1 - 2sin 2 e 1.

• Savoir linéariser une expression d e la forme cosP(fJ) sin<1(fJ) (cf question 2.4.1)

"O
0
r::::
:::J
0
lfl
,..-1
0
N
@
.....,
r:
Ol
·;::
>
Cl.
0
u
58 Chapitre 2 Nombres complexes et polynômes

• Savoir déterminer (ou majorer) le d egré d'un polynôme (cf questions 2.6.1
et 2.7.2) à l'aide de son comportement pour
0 les opérations algébriques

1deg( P + Q) ~ t max( deg P, deg Q) 1, 1deg( PQ) = deg P + deg Q 1,


0 la dérivation
1 deg P' ~ +deg P - 1 1

• Savoir déterminer des racines d'un polynôme (avec leurs ordres de mul-
tiplicité ) (cf questions 2.9.1, 2.10.3 et exercice 2. 12)

• Savoir effectuer une division e uclidienne (cf question) ou utiliser le théo-


rème de la div ision euclidienne (cf question )

• Savoir utiliser le théorème de d ' Alembert-Gauss et s es conséquences


(cf questions 2.9. 2 et 2.11.3.a)
0 tout polynôme à coefficients complexes de degré n peut s'écrire
n
an(X - X1) ··· (X - Xn) = an II(X - Xi),
i=l
les Xi n 'étant pas nécessairement deux à deux distincts,
O tout polynôme de degré n admet exactement n racines complexes comptées
avec leurs ordres de multiplicité,
0 un polynôme de degré inférieur ou égal à n ayant au moins n +1 racines,
comptées avec leurs ordres de multiplicité, est nul.

• Savoir étudier une s uite de polynômes d éfinie par une relation de ré-
currence (cf exercice 2.7)
"O
0
r::::
:::J
0
lfl
,.-1
0
N
@
.....,
r:
Ol
·;::
>
Cl.
0
u

t. Il ne s'agit d'une égalité que si les degrés sont différents ou si les degrés sont égaux mais la
somme des coefficients dominants n'est pas nul.
+.
L'inégalité n'est stricte que pour les polynômes constants.
CHAPITRE

Calcul matriciel

Dans tout ce chapitre OC désigne le corps des réels IR ou celui des complexes C On
rappelle aussi le vocabulaire élémentaire et les notations habituelles associés aux ma-
trices :
• l'ensemble des matrices à coefficients dans OC à n lignes et p colonnes est noté
Mn,p(IK) et une telle matrice est dite d'ordre (ou de taille) n x pou (n,p);
• lorsque p = n, cet ensemble se note plus simplement Mn(IK) et une matrice de
cet ensemble est dite d'ordre n;
• la matrice identité (ou unité) de M n(IR) est souvent notée In ou Id voire I tout
court;
• la matrice nulle de Mn,p(IK) est notée On,p (celle de Mn(IR) est parfois notée On),
voire 0;
• une matrice carrée est dite diagonale si seuls ses coefficients diagonaux sont éven-
tuellement non nuls ;
• une matrice est dite triangulaire su,périeu,re (respect ivement inférieure) si tous les
coefficients situés « strictement en dessous de la diagonale » (respectivement au
dessus) sont nuls ;
• la transposée d'une matrice M est notée t M;
• une matrice carrée A à coefficients réels est dite symétrique (respectivement anti-
symétrique) si t A = A (respectivement t A = - A) .
"O
0 Par ailleurs , on adoptera, dans cet ouvrage, les notations suivantes :
r::::
:::J
0 • on notera A ['i, j ] le coefficient de la matrice A situé en ligne 't (i.e. la i e ligne),
lfl
,.-1 colonne j (i.e. la je colonne) ;
0
N • on notera Cf (resp. Lt) la j e colonne (resp. ie ligne) de la matrice A.
@
....., Enfin, à l'instar du codage utilisé par la méthode du pivot de Gauss (voir chapitre
r:
Ol n
ï:::
>
Cl.
0
suivant), on utilisera les notations Li +---- L aiLi (resp. Li f------t Lj) pour coder la
u i=l
n
transformation qui modifie la ligne i d 'une matrice A en lui substituant L aiLf, où
i= l
a 1 , ... , an sont n scalaires donnés (resp. en permutant les lignes 't et j de la matrice A
considérée). On adopte le codage analogue pour les transformations agissant sur les
colonnes.
60 Chapitre 3 Calcul matriciel

1. On considère la matrice carrée de taille 4 suivante: K = (~ ~l I ~:)·


a. Calculer K 2 . En déduire que la matrice K est inversible et déterminer
son inverse.
b . Soit (a, b) E IR2 . On note M la matrice définie par M = al+ bK. Exprimer
M 2 en fonction de I, M, a et b.
c. En déduire que, si (a, b) =I= (0, 0), alors la matrice M est inversible, et
exprimer M - 1 sous la forme cd + /3 M où (a, (3) E IR 2 .
2. Soit M E Mn(IK) . On suppose que MP = 0 t pour un certain p E N* et on
p -1
pose alors S(M) = L Mk .
k=O
a . Simplifier S(M) - M x S(M). En déduire que In - M est inversible et
calculer son inverse.
-21 -43 -11)
b. En déduire que A = est inversible et calculer A- 1 .
( -3 -4 0

c. Soit B = (=~ ~ -3)


~4 . Justifier que B est inversible et donner B- 1 .
- 1 1

1.a . On utilisera la caractérisation d'une matrice inversible : K est inversible si et


seulement s'il existe une matrice carrée L de même taille que K telle que K L = I ou
LK = I où I est la matrice unité. Dans ce cas, l'inverse de K est I<- 1 = L. Il s'agit
"O
0
donc d'exhiber une égalité de la forme K x L = I avec L « bien choisi ».
r::::
:::J

(T~l 1 ~
0
lfl
,.-1
0 1<2 = ) = - I. Ainsi, - K
2
= I i.e. J( x (- K) = I donc I<
N 1
@ 0 0 0 -1
.....,
r: est inversible et K- 1 = - I<.
Ol
·;::
>
Cl.
1.b. On commence par utiliser les règles d'opérations usuelles sur les matrices.
0
u

~1
On a
M2 = (al+bK)x(al+bI<)=a 2 l+ablK+baKI+b2 K 2
2 2 2
= a 1 + 2abK + b K

t. on dit alors que M est une matrice nilpotente


Exercice 3.1 Polynômes de matrice et inversibilité 61

Il suffit alors de remarquer que bK s'exprime simplement en fonction de M et de se


souvenir que K 2 = - I pour conclure.

~1 a 2 I + 2abI< - b2 I = a 2 I
- (a 2 + b2 )I + 2aM.
+ 2a(M - al) - b2 I

1.c. Nous allons nous aider de l'équation précédente du second degré en M pour faire
apparaître la matrice inverse de M . Pour cela, on isole les termes en M dans le premier
membre et la matrice unité dans le second. Il ne reste alors plus qu 'à factoriser par
M dans le premier membre pour faire apparaître une identité du type Mx? = I .

Si (a, b)-:/= (0, 0), alors a + b2 > 0 et


2

M
2
- 2aM = -(a2 + b2 )I ~ M(M - 2af) = -(a2 + b2 )I
~ M x [- a2 : b2 (M - 2a!)] = I.
1
Ainsi M est inversible et M -
1
= - b M +2 a b I.
a+ 2 a2 + 2 2

2.a. S(M) doit faire penser à la somme des premiers termes d 'une suite géométrique
p-1

Sp- l = L qk . On sait, si q =J. 1, que Sp- l = 1


- qP mais il faut bien se garder de
k=O l - q
généraliser cette formule en remplaçant littéralement q par M (la fraction n'aurait
alors plus aucun sens !). La démarche consiste plutôt à se souvenir comment cette
formule peut être obtenue, par télescopage, en remarquant que :
p-1 p-1

(l - q)Sp- 1 = (1 - q) I::: l = L[l - qk+l] = 1 - qP.


k=O k=O

p-1 p-1 p-1 p-1

S(M) -MX S(M) = L Mk -MX L Mk = L Mk - L Mk+I


k=O k=O k=O k=O
p- 1
"O
0 L (Mk - Mk+ 1 ) = M 0 - MP (par télescopage)
r::::
:::J k=O
0
lfl In - MP = In (car MP = 0 par hypothèse) .
,.-1
0
N
En factorisant alors par S (!VI), on fait a pparaître In - M puis une identité caractérisant
@
....., 1'inversibilité de In - M .
r:
Ol

~1
ï:::
> Or S(M) - Mx S(M) =(In - M) x S(M) donc (In - M) x S(M) = In.
Cl. p- 1
0
u In - M est alors inversible, de matrice inverse S(M) = L Mk.
k=O

2.b. On se ramène au critère d'inversibilité décrit à la question précédente. Il s'agit de


vérifier ici que A peut s'écrire sous la forme h - M où M est une matrice nilpotente,
c'est-à-dire telle que MP = 0 pour un certain entier naturel p . La résolution de
A = h - ]'\If donne le candidat ]'\If = h - A.
62 Chapitre 3 Calcul matriciel

~1 -1) ( 2
-1 -3 3
Posons M = h - 2 4 1 = -2 -3
(
-3 -4 0 3 4

On cherche le premier entier naturel p tel que MP 0 de proche en proche en


commençant par p = 2, p = 3 puis au-delà si nécessaire.

Des produ;ts matddels montrent que M 2 = (

D'après la question 2.a , on en déduit que A =


~1 ~1
h - M
n 2
et M 3 = M x M = O.

est inversible, d 'inverse


2
2
L Mk h + M+M
k=O

c0 0)
0
0
1
0
0
1
+ c
- 2
3
3
- 3
4
~1) + ( ~l
1
- 1
1 n
~3 ~}
4
-3
(
5

2.c. Il s'agit ici d 'avoir le « bon coup d 'œil » pour reconnaître le lien de transposition
entre B et A pour pouvoir utiliser son comportement pour l'inversion.

~1 s-• =('A)-'= '(A-')=' ( ~3


4
Id B ='A donc -3
5

"O
0
r::::
:::J
0
lfl
,..-1
0
N 1. Soit n E Net a, b, c, d E !K. On considère la matrice de M3(1K) définie par
@

(~0 !0 a~) .
.....,
r:
Ol
·;:: A=
>-
Cl.
0
u

a. On pose B = (~ ~ ~) . Calculer B 2
et B 3 .
0 0 0
b. En déduire A n pour tout entier naturel n .
Exercice 3.2 Puissances de matrice I 63

1 1
1 1 1
1 1 ~
1) §
où a E lK..
1 1
a. Exprimer Ma en fonction de J et de la matrice unité 14 de M 4 (IK.).
b. Déterminer J 2 et en déduire que, pour tout n E N*, Jn est proportionnel
à J en explicitant le coefficient de proportionnalité en fonction de n.
c. Calculer (Ma)n pour n E N*.

1.a. Pas de problème ici au niveau des calculs. Ce dont on est sûr, c'est que B 2
et B 3 seront triangulaires supérieures (l'ensemble des matrices carrées triangulaires
supérieures de même ordre est en effet stable par multiplication).

~1 G bd) (0~
0 0
Pa< prndu;t mat<;c;el , 8 2
=B x B = 0 ~ et B
3 2
= B x B = 0
0 0

1.b. Remarquons déjà le lien évident existant entre A et B :

~1 G 0a 0)0
b
On cema<que que A= 0 = B +ah.
0 0 a
Le calcul de An, c'est-à-dire de (B + ahr, doit alors immédiatement faire penser à la
formule du binôme de Newton. Encore faut-il signaler que l'hypothèse d'application
de cette formule est vérifiée : les matrices, dont on veut calculer la puissance ne de la
somme, commutent pour la multiplication matricielle.

Comme ais x B = aB = B x a/ 3, d 'a près la formule du binôme de Newton,


"O
0
r::::
:::J
An (B +aist = t
k=O
(~)Bk(af3r-k = tk=O
(~)Bk(an-kls)
0
lfl
,..-1
0
N
t
k=O
(~) an-kBk.
@
.....,
r: Cette somme, en apparence compliquée, se simplifie considérablement grâce au fait
Ol
·;::
> que B 3 = 0 : les termes d 'indice k ~ 3 sont nuls
Cl.
0
u
n )an-3 B3 +(n)an-4( B 3 xB)
(3
+ ... + ( nn )ao(...._,,_,
B3 xBn-3)
""--v-' 4 ...._,,_,
=Ü =Ü =Ü

et seuls subsistent les trois premiers termes de la somme.

§. Les matrices carrées dont tous les coefficients sont égaux à 1 sont parfois appelées matrices de
Jordan.
64 Chapitre 3 Calcul matriciel

Pour k ~ 3, Bk = B 3 x Bk- 3 = 0 x Bk- 3 = 0 donc, si n ~ 2,

(~)an B o+ ( 7) an-1 B + (;) an-2 B2

an h + nan- 1B +n(n - 1) an-2 B2


2
nan-lb na n-1 c + -
n(n
., - a n-2bd)
- 1)
an nan--1d
0 an
Ainsi , A 0 = h. A 1 =A et, sin ~ 2,

2.a. Si on n'a aucune idée du résultat attendu, on peut au moins suspecter une relation
linéaire entre Ma, Jet / 4 du type : Ma= aJ + f3J4. Au brouillon et par identification
des coefficients des matrices des deux membres, il est alors immédiat que a = 1 puis
f3=a - l.

~
( ~l l~ a~ l~) (~1 1~ 1~ 1~)+ (a~0
JJ
0 0
1 a-1 0
0 a-1
llla 1111 0 0 0
donc M~. = J +(a - l)f4.

2.b. On explicite J 2 et on en profite pour déterminer le coefficient de proportionnalité


pour n = 2.

~
J2 = = 4J.

"O
0
r::::
Quand on demande de trouver une formule valable pour tout entier naturel (ici non
0
:::J nul), on regarde ce qui se passe pour de petites valeurs den afin de conjecturer ensuite
lfl
,..-1
un résultat général que l'on démontre finalement par récurrence. Ici
0
N J3 J2 X J = 4J X J = 4J2 = 4(4J) = 42 J,
@
....., J4 J 3 X J = ( 42 J) X J = 4 2 J2 = 4 3 J
r:
Ol
·;:: ce qui semble suffisant pour formuler une conjecture et avoir une idée du fonctionne-
>
Cl.
0
ment du raisonnement par récurrence.
u
Montrons par récurrence sur n que: Vn EN*, Jn = 4n- 1 J.
Initialisation : J 1 = 1 x J = 4° J donc l'égalité est vraie au rang 1.
Hérédité : Supposons Jn = 4n- l J pour un entier naturel n ~ 1. On a alors
Jn+I = Jn X J = 4n-l J X J = 4n- l J2 = 4n-l X 4 J = 4 n J = 4 (n+l)- l J
L 'égalité est vraie au rang n + 1.
Exercice 3.2 Puissances de matrice I 65

1 D'a près le principe de récurrence, nous avons bien : 'r;/ n E N*, pi = 4n- l J.
2.c. L'écriture de Ma établie à la première question suggère encore ici l'usage de la
formule du binôme de Newton pour le calcul de (Mar·

Soit n E N*. Puisque J x (a - 1)/4 = (a - l)J = (a - 1)/4 x J, par la formule du


binôme de Newton,

(M~.f'· [J + (a - 1)1,r = t, (;)"' [(• - 1)1,r '


Î: (~) Jk(a - lr-k14 Î: (~)(a -1r-k Jk .
=
k=O k=O

Ici, contrairement à la situation précédente, il n'y a aucune raison a priori que des
termes de cette somme soient nuls. On peut cependant utiliser pour Jk la formule
établie précédemment. Attention, il faut bien prendre en compte que Jk = 4k-l J
n'est valable que si k est supérieur ou égal à 1.

Que faire ensuite? Pour la somme, l'idée est de faire le tri dans son terme général
quant à la dépendance en k. Concrètement on va mettre 4 - 1 J en facteur pour faire
apparaître le terme général ( ~) (a - 1r- k4 k qui est celui de la formule du binôme
et faire attention au terme d'indice k = 0 qui est manquant.
D'après la formule du binôme de Newton,

"O
0
(a - 1)"!1 + ~ [t, (;}a - 1)"-'4'] ./
(a - 1+4r -(~)(a - 1r-040
r::::
:::J
0 n
lfl
,.-1
0
(a - 1) /4+ 4
J

(a_ ir 14 + (a+ 3r - (a - lr 1 .
N
@
,...., 4
r:
Ol
·;:: Au final, en posant u = a+ 3 et v = a - 1,
>
Cl. un - vn un - vn
0
u un+ 3vn un -vn
·un -vn un+ 3vn
·un -vn ·un -vn
66 Chapitre 3 Calcul matriciel

On considère un portefeuille boursier dont les actifs sont répartis en trois types,
i.e. répartis dans trois marchés.
• Marché obligataire :
Ce marché est stable. On vendra systématiquement en fin de journée 303 des
actions détenues en début de journée et le reste sera converti en actions du
marché des devises à parité égale (1 action obligataire=l action devise).
• Marché des devises :
Ce marché est soumis à un risque mesuré. En fin de journée on vendra les 4/7
des actions détenues en début de journée et le reste sera converti en actions
du marché des matières premières à parité égale. Par ailleurs, on procédera
en fin de journée à l'achat de 10 actions du marché obligataire pour chaque
action en devises détenue en début de journée.
• Marché des matière premières :
Ce marché est extrêmement volatil. En fin de journée, on décide donc de
convertir en obligations chaque action détenue en début de journée. On fixe
la parité à hauteur de 20 actions du marché obligataire par action du marché
des matières premières.
On note Xn, Yn et Zn le nombre d'actions détenues au début de la ne journée
respectivement dans le marché obligataire, le marché de devises et le marché des

::::r:e ~:c:~è:::~:: ::tc~n la (Ê)i~tc::::::::i:~t le rfic:•~c ,a:


l'instant initial (jour 0) , le portefeuille est constitué uniquement de 100 actions
du marché obligataire On se propose d'estimer l'évolution du portefeuille.

1. a. Justifier que, pour tout n EN, Xn+l = AXn où A=


~ 0
(1 0
1
oO
20
o) t

"O b. Pour tout entier naturel n, exprimer Xn en fonction de A, net Xo.


3
ï,).
0

2. On pose P= ( 1° :~ !~4) et Q = (~
1
2~
r::::
:::J
0
lfl
,.-1
0 1 3 3 50 -5- 35
N
@ a. Vérifier que P est inversible d'inverse Q et calculer la matrice D définie
.....,
r: par D = QAP .
Ol
·;::
> b. Exprimer A en fonction de P , D et p- 1 . En déduire, pour tout entier
Cl.
0 naturel n, l'expression de An en fonction de P, Dn et p - 1 .
u

t. On dit que A est la matrice de Leslie associée a u modèle, en hommage à Pat rick Leslie,
premier écologiste mathématicien, qui a introduit et développé cette théorie dans son a rt icle fondateur
T he use of matrices in certain population mathematics, 1945.
Exercice 3.3 Modèle de Leslie I 67

3. Soit n EN.
a. Proposer une fonction Scilab qui calcule le nombre total d'actifs au début
de la ne journée à l'aide de la relation de récurrence X n+ l = AXn .
b. Exprimer en fonction de n le nombre total d'actifs au début de la ne
journée.

1.a. Il s'agit ici d 'établir le système linéaire reliant les actifs par type de marché Xn,
Yn et Zn du jour n à ceux du jour n + 1, à savoir Xn+1, Yn+I et Zn+I· On traduit
ensuite le système linéaire en une équation matricielle.
Soit n E N. Les obligations du jour n + 1 sont issues des devises du jour n , au nombre de
Yn · et des matières premières du jour n , au nombre de Zn , avec des parités respectives
de 10 et 20. Ainsi, Xn+l = lOyn + 20zn .
Compte tenu des ventes effectuées en fin de journée, seuls 703 des Xn obligations du
jour n sont maintenus le jour su ivant et constituent le portefeuille des devises le jour
. . 7
n + 1. AlnSI , Yn+I = 10 Xn .
Les matières premières du jour n + 1 sont les trois septièmes des devises du jour
précédent, c 'est- à-dire ceux qui n'ont pas été vendus (les matières premières du jour n
, , ven d ues ) . A"ms1,
ont toutes ete . Zn+I = 7Yn
3 ·

Xn +l = lOyn + 20zn
En résumé, Yn+ 1 = 170 xn ce qui s'écrit matriciellement : Xn+1 = AXn .
{
Zn+l = t Yn
1.b. La relation de récurrence reliant X n+ l à X n fait penser ici à celle d'une suit e
géométrique. Par a bus de langage, (X n) serait une suite «géométrique» de « raison »
A , de premier t erme X 0 , ce qui permet de conjecturer la formule explicitant son terme
général X n .

Montrons par récurrence sur n que: 'ï/ n E N, X n = A n X o.


"O
0 Initialisation : Xo = fs x X o = A 0 x X 0 donc l'égalité est vraie au rang O.
r:::
::J Hérédité: Supposons X n = AnXo pour un certain entier naturel n . On a, d'après le
0
lfl résultat de la question précédente, X n+i = AXn donc X n+I = A (A n X o) = A n+I Xo.
L'égalité est vraie au rang n + l.
,..-1
0
N
Conclusion : D'après le principe de récurrence, pour tout entier naturel n, Xn = A nXo.
@
.....,
r:
Ol
·;::
>
Cl.
Pour une suite géométrique (un )nEN de raison q, on peut écrire indif-
u
0 féremment Un = qnuo ou Un = u 0qn. Mais pour la suite matricielle
(Xn)nEN ci-dessus, écrire XoAn n 'aurait aucun sens! L'ordre des fac-
teurs a une importance dans la multiplication matricielle.

2.a. On revient à la définition de l'inversibilité et de la matrice inverse (en sachant


que l'inverse attendu est explicitement donné dans l'énoncé) .
68 Chapitre 3 Calcul matriciel

( ~~ ',~ ( ~1 ~~3
3
QxP
50 35
'f)
- i-
X -;4
40 )

io-~++io!. ++ !. io_!.-- io!. ++ {ol


1
10 ~-
-1 -
9
10
3
+ 10)
!. + l
0
1
( 34
5-5-5
24 12 14
5+5-5
24 32 4
5+5-5
i 32
0
Ainsi, Q x P = I donc Pest inversible et p- 1 = Q.

Pour calculer QAP = p -l AP, il semble préférable de calculer d'abord AP puis le


produit de p - l et de AP. L'autre démarche consistant à calculer p - l A puis le produit
de p - l A et de P aurait fait intervenir à deux reprises des calculs avec beaucoup de
fractions (à cause de la forme particulière de p- 1 ).

~ 10
0
20)
0
(307 X
10
-7
- 10
7
-80)
28
3
7 0 1 3 -3 -6
puis

u:ic lfO
9

~)
- 10
-80)
c"
Q x (AP) X 21 7 28
140 282 21
50 35 - 5 3 -3 -6
3 9 3 6 9 3
20 + 20 + ïO - 20 + 20 - 10 5
= _!!+ :2 + ~
94
3
64 32
!.+!.-~
41 42 23
-18
: 1 --3' )
8 6
5-5-5 - 5- 5+ 5 - 5 - 5+ 5

~)
0

G -1
0 -2

2.b . Pour « extraire» A de l'égalité D = p - 1 AP, il suffit de multiplier à droite


par p- 1 puis à gauche par P. Encore une fois, il faut prendre garde au fait que la
multiplication matricielle n'est pas commutative.

~I
p - 1 AP = D donc (P- 1 A)(PP- 1 ) = DP- 1
puis p - 1 A = DP- 1
et, fi nalement,
"O
0
P(P- 1 A) = PDP- 1 i.e. A= PDP- 1 .
r::::
0
:::J On regarde ce qui se passe pour de petites valeurs de n :
lfl
,.-1 A2 - (P DP- 1 )(PDP- 1 ) = P D(P- 1 P)DP- 1 = P D 2 p - 1 ,
0
N
A3 - A 2 X A = PD 2 p - l X PDP- 1 = PD 2 (P - 1 P)DP- 1 = PD 3 P - 1 .
@
.....,
r: On peut alors formuler une conjecture pour An que l'on démontre par récurrence .
Ol
·;::
>
Cl. On montre par récurrence sur n qu e : '</n EN, A n = PDnp- 1 .
0
u Initialisation : On a A 0 = Is = pp- 1 = PlsP- 1 = PD 0 p- 1 donc l'égalité est vraie
au ra ng O.
Hérédité : Supposons An = P Dn p- 1 pour un certain entier naturel n. O n a alors
An+i A x A n = (PDP- 1) x (PDnP - 1 ) = PD(P- 1 P)DnP- 1
PDDnp- l = PDn+l p - 1 _
A insi, l'égalité est vraie au rang n + l.
Exercice 3.3 Modèle de Leslie I 69

Conclusion : D'après le principe de récurrence, on a bien :


Vn EN, An= PDnP- 1 .
1
3 .a. On utilise trois variables x, y et z servant à stocker Xk, Yk et Zk pour tout entier
k compris entre 1 et n mais on prend aussi garde à mémoriser les anciennes valeurs
de y et z avant leur redéfinition à l'itération k puisque Xk s'exprime en fonction de
Yk-l et de Zk -1 (à savoir Xk = lOYk-1 + 20zk-1) .

function Xn=Population(n)
x=100;y=O;z=O; //initialisation de x, y et z (k=O)
for k=1:n //boucle sur k
yy = y;; //yy stocke y_(k-1)
zz = z; //zz stocke z_(k-1)
z = 3/7*y; //on actualise la valeur de z_k
y = 7/1Ü*X; //on actualise la valeur de y_k
x = 10*yy+20*zz; //on actualise la valeur de x_k
end;
Xn=x+y+z; //valeur de sortie: x_n+y_n+z_n
endfunct i on

Fort des spécificités du langage Scilab, on pouvait éviter le recours aux variables
auxiliaires yy et zz en utilisant une multiaffectation aussi bien dans la boucle « for »,
[x, y, z] = (10*y+20*z, 7 /10*x, 3/7*y); , que dans l'initialisation de x, y et z,
[x, y, z] = (1OO,0, 0) ; .
3. b. Le nombre total d'actifs au jour n est la somme Xn +(yl~)zn des trois composantes

de la matrice colonne Xn où Xn = An Xo = An x ~ . Le résultat de cette

multiplication matricielle n'est autre que 100 fois la première colonne de An. Il suffit
donc de ne calculer que cette première colonne. Nous utiliserons pour cela le résultat
"O précédent An = P n np- 1 : les matrices diagonales (comme D) ont en effet l'avantage
0
r::::
:::J
d'avoir des puissances qui se calculent très simplement.
0
lfl
,.-1
0
N 3n (- 0l r 0)
@
.....,
r:
Ol
Pour tout entier naturel n, nous savons que Dn =
(o o0 0
(- 2r
donc,

ï::: après calculs et sans préciser les coefficients des deux dernières colonnes de An,
>
Cl.
0
An pvnp- 1
u
40 ) (3n
J~)
30 10 0
7 -7 - 14 0 (- 1r
(
1 3 3 0 0

= •
• :)
70 Chapitre 3 Calcul matriciel

45 x 3n - 25(-1r + so(-2r)
puis Xn = An Xo =
(
2
J 3n + 31i (- 1r - 28(-2r . Le nombre total d'actifs au
~3n - :f(-1r +6(-2r
1 jour n est donc égal à 57 x 3n - 15(- lr + 58(- 2r.

Exercice 3.4 : Th. de Cayley-Hamilton pour les matrices 2 x 2

Soit A= ( ~ ~) une matrice de Mz(IR). On pose tr(A) = a+ d la somme des


coefficients diagonaux de A (on parle de la trace de A) et on pose det(A) =ad-be
(on parle du déterminant de A).
1. Montrer que A 2 - tr(A)A + det(A)lz =O.
2. Montrer qu'il existe deux suites réelles (an)nEN et (bn)nEN telles que :
'Vn EN,
On exprimera an+l et bn+l en fonction de an, bn, tr(A) et det(A).
3. Vérifier que, pour tout n EN, an+2 = tr(A)an+1 - det(A)an.

4. Application : on suppose ici A = ( !1 ~4) ·


a. Déterminer An pour tout n EN.
b. Vérifier que A est inversible. La formule obtenue à la question précédente
est-elle valable pour n = -1 ? pour n E z:. ?

1. Il s'agit ici d'une simple vérification par calcul matriciel.

A2 - tr( A)A + det(A)h


2
"O
= ( a +be ab+bd) ( (a+d)a (a +d)b)+(ad-be 0 )
0
r::::
ea + de eb + d2 - (a + d) e (a + d)d 0 ad - be
:::J

(~ ~) .
0
lfl
,..-1
0
N
@
....., 2 . La difficulté ici est de reformuler ce qui nous est demandé comme une propriété
r:
Ol
·;::
P(n) dépendant den : «il existe deux réels an et bn tels que An = anA + bnfz ».
>
Cl.
On doit démontrer que P(n) est vraie pour tout entier naturel n . Comme il nous est
0
u demandé de plus de relier (an+ 1 , bn+ 1 ) à (an, bn), le raisonnement par récurrence est
tout indiqué ici.

~1
Montrons par récurrence sur n que, pour tout entier naturel n, il existe deux réels an
et bn tels que An= anA + bnh·
Initialisation : A 0 = h = 0 x A+ 1 x h donc la propriété est vra ie au ra ng 0 avec
=
ao 0 et bo 1. =
Exercice 3.4 Th. de Cayley-Hamilton pour les matrices 2 x 2 71

Hérédité : Supposons que, pour un entier naturel n, il existe deux réels an et bn tels
que An= anA + bnh· On a alors:
An+l = An X A = (anA + bnh) X A = anA 2 + bnA
an[tr(A)A - det(A)I2] + bnA (d'après 1)
[an tr(A) + bn]A - an det(A)h
En posant O,n+l = O,n tr(A) + bn et bn+l = - an det(A), on a bien
An+i = an+1A + bn+1h
donc la propriété est vraie au rang n + 1.
On aura noté quelques points importants dans l'étape d'hérédité :
• l'écriture de An+I sous la forme An x A pour exploiter l'hypothèse de récurrence;
• l'utilisation de l'écriture de A 2 en fonction de A et 12 qui a permis d'écrire An+I
comme combinaison linéaire de A et h uniquement ;
• la définition constructive de an+I et bn+I en fonction de an et bn .

Ainsi , d 'après le principe de récurrence, pour tout entier naturel n, il existe deux réels
an et bn tels que An= anA + bnh·
De plus on a montré que les deux suites (an) et (bn) peuvent être définies par

ao=O, bo=l et VnEN, { an+l:antr(A)+bn.


bn+l - - an det(A)

3. La première relation de récurrence permet d'exprimer an+2 en fonction de an+I


et bn+I, tandis que la seconde exprime bn+I en fonction de an. En injectant cette
dernière dans la première, on conclut.

~1
Soit n E N. D 'après les deux relations de récurrence établies en 2,
an+2 = an+l tr(A) + bn+l = an+l tr(A) - an det(A).

On reconnaît ici une relation de récurrence linéaire d'ordre 2 qui permet donc le calcul
du terme général de la suite (an) ·
"O 4.a. On utilise les résultats généraux des deux questions précédentes. La tâche se
0
r:::: ramène donc ici essentiellement à calculer tr(A), det(A) et, surtout, le terme général
:::J
0 d'une suite linéairement récurrente d'ordre 2 +.
lfl
,-1
0
N tr(A) = - 1 et det(A) = - 6 donc, par 2 et 3, pour tout n E N, An = anA + bnh où
@
.....,
r: ao = 0, bo = 1 et Vn E N,
Ol
·;::
>
Cl. La suite (an) est donc récurrente linéaire d'ordre 2. Son équation caractéristique est
0
u q2 + q - 6 = O. Le discriminant de q2 + q - 6 valant 12 - 4( - 6) = 25 = 52 , cette
' . ad met deux so1utrons
equatron . ' Il es - l - 5 = - 3 et - l + 5 = 2. A"rnsr,. 1·1 existe
ree .
2 2
deux réels À etµ tels que: Vn EN, an= >..(-3r + µ2n.

+.Pour plus de détails sur la méthode dans ce cas, on se reportera aux exercices 7.1, 7.2 et 7.3
en pages 245, 247 et 250.
72 Chapitre 3 Calcul matriciel

Il ne faut pas oublier d'expliciter ensuite >. et µ. La relation précédente, appliquée


avec n = 0 et n = 1, et la connaissance de ao et a 1 permettent de déterminer ces
paramètres.

~
Nous savons que ao = 0 et a1 = -ao + bo = 1. Or,

{ ao
ai
=
=
0
1
{::::::::}
{ >.+µ
-3.X + 2µ
=
=
0
1

{::::::::}
L2rL2+3L1 { >.+µ

0
1
{::::::::}
{ À
µ
2n - (-3r
ainsi, pour tout entier naturel n, O.n = et
5
2n+1 + 2n - [(-3r+1 + (-3rJ
bn = an+ 1 + an = 5
donc
An = anA + bnh = ~ [(2n - (-3f1') A+ (3 X 2n +2 X (-3t) h ]

~
5
(6-x2n2n+- ( -(-3r
3)n
6x [2n - (-3rl)
- 2n + 6 x (- 3r ·

4. b. Première méthode :
Comme on travaille avec des matrices d'ordre 2, on dispose d'un critère d'inversibilité
par le déterminant (cf exercice 4.5 en page 100) et d'une expression de l'inverse : si
det(A) -:/= 0,

A- 1 =(ac db)-l- ad 1 ( d
- be - c

det(A) = - 4 x 3 - ( - 6) x 1 = - 6 i= 0 donc A est inversible, de matrice inverse :

"O
0 A
-1 1
= -4 X 3 - ( -6) X 1
(-4 -6) 61(4
1 3 = - 1
r::::
:::J
0 La matrice obtenue en remplaçant n par -1 dans l'expression de An établie à la
lfl
,.-1
question précédente est
0
6x(~+.!.))
10
N
1(3+.!.
- 1 31 1- 3 = -1( 35
@ 5 - 2 - 3 - 2 - 2 5 - 6
.....,
r:
Ol
·;::
donc la formule établie à la question précédente reste vraie pour n = - 1.
> Plus généralement, pour n E N*, An est inversible comme puissance d'une matrice
Cl.

u
0 inversible et, comme elle est carrée de taille 2, on peut directement calculer sa matrice
inverse. On a déjà, en posant Un = 2n et Vn = (- 3r.

det(An) = \ [(6un - Vn)(-un + 6vn) - (-un+ Vn)6(un - Vn)]


5
1 ( - 6Un2 + 36UnVn + VnUn - 6vn2 + 6un2 - 6UnVn - 6UnVn + 6Vn2)
25
UnVn = 2n(-3)n = (-6t.
Exercice 3.4 Th. de Cayley-Hamilton pour les matrices 2 x 2 73

A insi,

et la formule établie à la question précédente reste vraie si n E z:.


Seconde méthode :
Une autre stratégie est d'utiliser le candidat pour être l'inverse de A qui est donné :
il y a juste à vérifier.

En utilisant que, d 'après 1, A 2 +A - 6h = 0, on a

~ [(2- 1 - (- 3)- 1 ) A+ (3 X 2- 1 + 2X(- 3)- 1 )12] A


1
'6(A + I2)A
1 2
(A +A)= 12
6
donc A est inversible et la formule précédente avec n = -1 donne bien son inverse.
Pour les autres entiers négatifs, on procède de même, en pensant bien que An est
l'inverse de A - n . En pressentant les simplifications du type 2- n x 2n, on choisit de
regrouper les termes selon les raisons 2 et - 3 plutôt que selon A et f 2 ce qui permet
d 'aller au plus court au niveau des calculs.

Plus généralement, pour n E z: ,


A-n X ~ [(2n - (- 3)n) A+ (3 X 2n + 2 X (- 3)n) h]

A- n x ~ [2n(A + 312) + (-3t(2I2 - A)]


"O
0 = ~ [2-n(A+3h) +( -3)-n(2h-A)] X ~ [2n(A+3h)+(-3)n(2h-A)]
r::::
:::J

2~ [(A ~) ~ ( - ~) n )
0 2 2 2
lfl
= + 6A + 9h) + ( ( - (6h - A - A ) + (4h - 4A +A )]
,-1
0
N
= 1 ( 2A2 + 2A + 13h ) = 25
25 1 (2 X 6h + 13h) = h .
@
.....,
r: Ainsi , l'inverse de A-n à savoir An est donné par la formule de la question précédente
Ol
·;::
>
i.e. la formule est aussi valable pour n E z:.
Cl.
0
u
74 Chapitre 3 Calcul matriciel

Exercice 3.5 : Produit scalaire, symétrie et antisymétrie

Soit n E N*. Dans cet exercice, pour tout j E ITl, nil on notera Ej E Mn,1 (JR)
la matrice colonne dont tous les coefficients sont nuls sauf le f qui vaut 1. Soit
A E Mn(lR).
1. E rr1, nl Que représente A X Ei par rapport à A?
a . Soit i
b. Soit (i,j) E rr1, nil 2 . Calculer t Ei X A X Ej .
c. On suppose que pour tout (X, Y) E Mn, 1 (1R) 2 , on a tXAY = ty AX.
Montrer que la matrice A est symétrique. Étudier la réciproque.
2. On admet qu'une matrice B E M n(lR) est inversible ssi Il
'ï/ X E Mn,1 (JR), (BX = 0 ~ X = 0).
On suppose dans la suite que A est à coefficients réels et antisymétrique.
a. Établir : 'ï/ X E M n,1 (JR),
t X A X =O.
b. En déduire que, pour tout réel non nul À, la matrice A - Àl n est inversible.

1.a. Par considération des tailles des matrices, on s'aperçoit que le produit AEi est
une matrice colonne de taille (n, 1). Pour calculer ses coefficients, il faut revenir à la
définition générale du produit matriciel.

Soit k E [l , n]. Par défi nition d u prod uit m atriciel, et compte tenu d u fait que les
. . E , { Ei[j, l] = 0 si j =/; i
coe ff rcrents de i sont don nes par E ·[. l] _ .. _ · ·
i J, - 1 Sl J - '/,
n
(A X Ei)[k, l] = L A[k,j] Ei[j , l ] = A[k,i] Ei[i, l] = A[k ,i].
j=l ~ ~
Ai nsi AEi correspo nd à la ie colonne de la matrice A.

1.b. Vérifions que la matrice produit est bien définie et déterminons sa taille.

~I
"O
0
r:::: Soit (i, j) E [l , n ] 2 . tEi E Mi ,n(IR), A E M n(IR) et Ej E Mn,1(IR) donc le prod uit
:::J
0 t Ei x A x Ej est de taille 1 x 1 aut rement d it c'est un scalaire de IR.
lfl
,-1
0 On procède alors au calcul de l'unique coefficient de t Ei x A x Ej vu sous la forme
N
t Ei x (A x Ej) pour exploiter le résultat de la question précédente.
@
....,
r: O n a:
Ol
·;::
n n
>
Cl.
0
u
k=l k=l
n
L Ei[k , l ] A[k, j]
k=l '--v-"
= Ei[i, l] A[i, j ].
.....___...
=O ~k ~i = 1

Il· Cet énoncé sera prouvé dans la question 6.4.3 .b


Exercice 3 .5 Produit scalaire, symétrie et antisymétrie 75

1 En identifia nt à lR l'ensemble M 1 (JR) , on peut alors conclure : t Ei x A x Ej = A [i, j ].


1.c. On rappelle que la matrice A est symétrique si et seulement si, pour tout couple
(i,j) appartenant à [1,n] 2 , A[i,j] = A[j,i). Avec la question précédente, on dispose
justement d'une autre expression pour les coefficients de A.

~I Soit (i,.j) E [l, n] 2 . Par hypothèse, t Ei x A x Ej = t E j x A x Ei ce qui signifie,


d'après la question 1.b, que A[i,_j] = A[j, i]. Ainsi, A est symétrique.

La réciproque doit mener à une égalité faisant intervenir des matrices transposées,
il paraît donc ici plus naturel d'utiliser la caractérisation de la symétrie basée sur la
transposition : A est symétrique si et seulement si t A = A.
2
Réciproquement, si A est symétrique et (X, Y) E J\ltn ,1 (IR) , alors
t XAY = t X t AY = t (AX)Y = t (AX) t (tY) = t(tY x AX) = t(tY AX) = t y AX
(la dernière égalité vient du fait que t y AX est une matrice à un seul coefficient donc
elle est symétrique).

2.a. Le point de départ consiste à exploiter que t X AX n'a qu'un seul coefficient donc
est égale à sa transposée. Cela a le mérite de faire apparaître t A qui n'est autre que
-A par antisymétrie de A.

Soit XE J\lt n,1 (1R).


t X AX C
t X AX) = t (t X x AX) = t (AX) x t CX) = t ( AX) x X
= (tx x t A) x x = (tx(-A)) x x = _ t xAx.
Ainsi, 2t XAX = 0 i.e. t XAX =O.

2.b. Posons d 'abord bien les choses en identifiant précisément ce que l'on doit montrer.
Compte tenu du critère d'inversibilité admis, il suffit de montrer que X = 0 est
l'unique solution de (A - Àln)X =O.

~I Soit À E IR*. Soit X E J\lt n,I (IR) tel que (A - Àln)X = O. Il s'agit de montrer que
X=O.

"O
Pour parvenir à l'objectif ainsi fixé, on peut faire apparaître t X AX pour exploiter le
0
r:::: résultat de la question précédente.
:::J
0

~I
lfl
,.-1
Comme (A - Àln)X = 0 ~ AX =À.X, on a, d'après la question précédente,
0
N
o = txAx = tx(>..X) = >.. x i xx donc txx = o (car>.. i= 0).
@
.....,
r: n
Ol
·;::
>
Cl.
Si X = Xn) X = L ~
x~ . Cette somme de
0 k= l ~o
u Xn Xn
nombres positifs est nulle si et seulement si chacun de ses t ermes est nul.

~1
n
Si t X= (x1 , x2 , ... , x n ). nous avons t XX= Lx% où x%;;;:: 0 pour tout k E [l, n] .
k= l
Ainsi, t xx = 0 entraîne: Vk E [1,n], x~ = 0 i.e. X= O.
76 Chapitre 3 Calcul matriciel

En concl usion, d'après le critère d'i nversibilité admis en préamb ule, po ur tout À E IR* ,
1 A - Àln est inversible.

Pour toute permutation CJ de [1, n] (c'est-à-dire bijection de cet ensemble dans


lui même) , on définit la matrice de permutation associée P<Y E Mn(IK) dont les
coefficients sont
si CJ(j) = i
V(i, j) E [1, n]2,
sinon
1. a . Soient et T deux permutations, montrer que P<YPT est une matrice de
CJ
permutation dont on précisera la permutation associée.
b. En déduire que toute matrice de permutation est inversible et que son
inverse est aussi une matrice de permutation.
c. Soit CJ une permutation, comparer P1, - 1 et t Pq. Que peut-on en conclure?
2. Montrer qu'une matrice M E M n(IK) est une matrice de permutation ssi sur
chaque ligne de M tous les coefficients sont nuls sauf un qui vaut 1 et de même
sur chaque colonne.
3. Soit <7 une permutation et A une matrice de M n(IK).
a. Donner une relation entre les colonnes de A Pu et celles de A .
En déduire une relation entre les lignes de Pu - 1A et celles de A.
b. Dans le cas où CJ et A sont définis par

u:u ~ ~2
>---+ 2 2 3
>---+ 4 6 7
et A= (
>---+ 3 10 ) ,
11
>---+ 1 13 14 15 16
calculer P; 1 APu.

"O
0 1.a. Il s'agit, a près calcul des coefficients (PuPT )[i, j ), d'exhiber une permutation cp
r::::
:::J telle que
0
lfl
,.-1 ( p u p T ) [i , J.1= { 01 si cp.(j)
smon
=i .
0
N
@ n
.....,
r:
Ol
·;::
>
Cl.
=0 si T(j)#k = 1
0
u Finalement, par définition de Pa- .
1 si a (r( j) ) = i
(Pa- PT) [i , j] = { O sinon
= Pa-or[i , j].

1.b. L'inversibilité et l'inverse de la matrice Pu seront obtenus lorsque l'on aura t rouvé
une matrice carrée B telle que PuB = In .
Exercice 3.6 Matrices de permutation 77

Or In est une matrice de permutation (Prdp,nD = In), ainsi puisque l'on cherche à
établir que l'inverse est elle aussi une matrice de permutation, il s'agit donc d'exhiber
une permutation T telle que Pu Pr = Prd[l ,n J.
Grâce à ce qui précède, on sait que T convient dès lors que fJ o T = Id[i,n] .

En prenant T = a- 1 dans la relation précédemment prouvée, on trouve


PaPCT -1 = p CT 0 CT -1 = P1d 1l ,n 1 = In.
Ainsi on vient d 'exhiber un inverse à droite d e la matrice carrée Pa. Ceci prouve que
Pa est inversible et que P;; 1 = Pa- 1·
1.c. On compare les coefficients de l'une et de l'autre matrice

Par définition de la matrice de permutation Pa - 1, on a


si a- 1 (j) = i
sinon

Or, a étant bijective, on a l'équ ivalence a - 1 (j) = i ~ j = a(i) . A insi


1 sia(i)=j
Pa - 1[i, j] = { O .
sinon
En outre, par défi nition de la t ransposée,

tpa [i,j] = Pa[j,i] = { ~ si a(i) = j


sinon

Par suite, tpa et Pa - 1 ont les mêmes coefficients, c'est donc qu e Pa - 1 = tpa·
On en déduit, grâce à l.b, P;; 1 = Pa - 1 = t Pa.

2. On commence par l'implication directe.


Pour une matrice de permutation M, on isole une de ses colonnes CJ1 et on constate
que les coefficients sont tous nuls à l'exception de celui en ligne rJ(j) .

Supposons que M = Pa avec a une permutation donnée.


Par const ruction , on a pou r t out .i E [1, n],
Pa [l,j] 0
"O
0
r::::
:::J
0 CJM -
- 1 +---- a(j) e ligne .
lfl
,.-1
0
N
Pa[n, j] 0
@
....., Ainsi la f colonne de M ne comport e que des coefficients nuls, sauf celui ligne a(j)
r:
Ol qu i va ut 1.
·;::
>
Cl.
0 Puisqu'il s'agit de répéter la procédure pour les lignes de J\ll il nous suffit de consi-
u
dérer les colonnes de t M et d'invoquer le fait que t M est, elle aussi, une matrice de
permutation. Ceci nous ramène au résultat déjà établi pour les colonnes des matrices
de permutation.

~I Les co efficients que l'on trouve en ligne j de M sont ceux d e la colonn e j de t M.


Or, d ' après l.c, t M est une mat rice de permu tation et donc , d 'a près ce qui précède,
78 Chapitre 3 Calcul matriciel

tous les coefficients de sa colonne j sont nuls sauf un qui vaut 1.


1 Ainsi tous les coefficients en ligne j de M sont nu ls, à l'exception d'un seul qu i vaut 1.

Réciproquement, nous allons, pour une matrice M vérifiant les bonnes conditions,
construire une permutation <J.

~1
Soit j E [1, n] , notons a(j) la position qu'occupe le seul coefficient non nul de la
colonne cf.
On a ainsi défin i une application a: [ 1, n] ---+ [1, n]. De plus, sous réserve que a soit
effectivement bijective, on peut écrire M =Pa.

Il s'agit, à présent de montrer que C7 est une bijection.

Soit i E [1 , n], montrons que i admet un unique antécédent par a.


La ligne i de M n'admet qu ' un seul coefficient non nu l, notons k la colonne corres-
pondant à ce coefficient non nu l : M[i, k ] = l. Ainsi, puisque dans la ke colonne de M
on trouve un coefficient non nul M[i, k] en ligne i, on a, par construction, a(k) = i
ce qui prouve l'existence d ' un antécédent.
Par ailleurs, pour tout autre ind ice de colonne k', on ne peut avoir a(k') = i car, dans
ce cas, il y aurait deux coefficients non nuls en ligne i (à savoir M[i, k] et M [i, k' ]) ,
ce qui est absurde. Ainsi on vient d'établir l'unicité de l'antécédent.
Finalement a est bien une permutation de [1, n].

3.a. Exprimons les coefficients de AP17 et P17 -1 A en fonction de ceux de A .

Pour tout ind ice de ligne i et tout ind ice de colonne j


n

(APa)[i,j] =L A [i,k] Pa[k,j] = A [i,a(j) ]Pa [a(j) ,j] = A[i,a(j)].


k= l "'-...--' ~
=0 si k#a(j) =l

Ainsi, pour tout indice de colonne j, on a


(APa) [1, j ] A[l , Œ(j) ]

( AP<7) [i, j ] A[i, a(j) J


"O
0
r::::
:::J
0 (A Pa) [n, j] A[n, a(j)]
lfl
,--1
0
N Les colonnes de AP17 sont donc les colonnes de A réordonnées selon la
@ permutation <7 .
.....,
r: P uisque les lignes d'une matrice correspondent aux colonnes de sa transposée, nous
Ol
·;::
>
allons agir par transposition sur ce qui précède.
Cl.
0
u
Soit j un ind ice de ligne on a, pour toute matrice M' t L1}1 = M. c;
En particul ier, si M = Pa-1A, on a, d'après 1.c, tM = tAtPa- 1 = tAPq.
Et donc, en appliquant ce qu i précède à tA en lieu et place de A,
t
Lj
M
= CjLAPu = C a(j)
tA
= t La(j).
A

Ainsi, en appliquant à la nouveau la transposition, L;"- 1


A = L~(j).
Exercice 3.7 Opérations élémentaires et produit matriciel 79

Les lignes de Pq- l A sont celles de A réordonnées selon la permutation a.


3.b. Il nous suffit d 'appliquer les règles obtenues par multiplication à droite par PO"
puis à gauche par Pq- 1.

D'après ce qui précède, en permutant colonnes de A on obtient la matrice


1 3
5 7
9 11
13 15
Finalement, en permutant lignes de A', on obtient
16 13 15

~
1 3
( 9 11
5 7

Exercice 3. 7 : Opérations élémentaires et produit matriciel

Soit n un entier supérieur ou égal à deux. Pour i et j deux entiers de [1, n],
on note Ei,j et r/~> les deux matrices carrées d'ordre n définies par : tous les
coefficients de Ei,j sont nuls à l'exception de celui en position (i,j) qui vaut 1 et
rLY = In+ >..Ei,j· Dans toute la suite A désigne une matrice carrée d'ordre n.
1. a. Calculer les colonnes de AEi,j et les lignes de Ei,j A.
b. Montrer que seules les matrices d'homothétie commutent avec toutes les
"O
0 matrices de même ordre, i.e.
r::::
:::J
0 [V B E Mn(IK) , AB =BA] ~ [3 >.. E IK, A= >..In]·
lfl
,.-1
0
N
2. a. Calculer les colonnes de ATD) et les lignes de rD) A.
@
....., b. Montrer que, pour i i- j' rD)' est inversible et donner son inverse.
r:
Ol
·;:: 3. a. Proposer une matrice D>..,i qui, par multiplication à gauche avec A, donne
>
Cl. une copie de A où la ie ligne a été multipliée par le facteur >...
0
u
b. Que donne la multiplication à droite? D>..,i est-elle inversible?
4. Proposer une matrice Pi,j qui par multiplication à gauche avec A donne une
copie de A où les lignes i et j ont été permutées et par multiplication à droite
agit de même sur les colonnes. Est-elle inversible?
80 Chapitre 3 Calcul matriciel

5. a. Montrer qu'un produit de matrices carrées est inversible ssi chaque facteur
est inversible.
b. Soit A une matrice carrée d 'ordre net A' la matrice obtenue à partir de
A après avoir effectué une ou plusieurs opérations suivantes :
C·i >. C·J
f - '-v-"
#0
Li f- >. Lj.
'-v-"
#0
Montrer que A est inversible ssi A' est inversible.
6. Soit >. un réel. On on note T le polynôme 1 +X + · · · + xn et on considère les
matrices
0 0 - 1 0 0 - T(>.)
1 1 ->. -1
A= 0 B= 0
0 -1 ->. -1
0 0 1 - 1 0 0 1 -1- >.
a. Montrer que A - >.In est inversible ssi B l'est.
b. Montrer que A - >.In est non inversible ssi >.est une racine de T.

1.a. Il nous suffit de calculer les coefficients de AEi,j puis de rassembler les coefficients
par colonnes.

Pour tout ind ice k de ligne et tout indice f, de colonne, on trouve

"O
(AEi,j)[k,f..] = tA[k,r] ~ = A[k,i] ~ = { A[~,i] si R = j
sinon
0
r:::: r= l =O si r#-i = 1 si €= j
:::J = 0 sinon
0
lfl Ainsi seuls les coefficients situés en colonne j sont éventuellement non nuls et
,.-1
0
N
@
.....,
c:Ei,j = ( A [1, il ) = et .
r:
Ol
·;:: A[n, i]
>
Cl.
0
Par suite l'écriture par blocs colonnes, donne
u CA
AEi,j = (On,1 On,1 i Ûn,l
t
colonne j

On opère de même avec Ei,jA, puis on rassemble les coefficients ligne par ligne.
Exercice 3. 7 Opérations élém entaires e t produit matriciel 81

Pour t out ind ice k d e ligne et t out indice f, de colonne, on t rouve

(Ei,j A)[k,e] = t~A[r,e] = ~A[j,R] = { A[~,e] si k = i


sinon
r=l = 0 SI. TrJ
...;. . = 1 SI. .N'· = t .
= O sinon

Ainsi seuls les coefficients situés en ligne i sont évent uellement non nu ls et
L~i,jA = ( A [j, 1] A [j , n] ) = L; .
Par suite l'écrit ure par blocs lignes donne

~l igne i .

1.b. Nous allons commencer par l'implication réciproque, c'est l'implication la plus
simple.

~1
Supposons que A puisse s'écrire sous la forme A = >.In, on en déduit, quelle que soit
la matrice B carrée d 'ordre n,
A B= (>.In) B = >.(InB) = >.B = >.(B ln) = B (>.In) =BA.
Pour la réciproque nous allons tirer profit des matrices élémentaires E i,j qui per-
mettent par produit d 'isoler une ligne ou une colonne et la placer là où on le souhaite.
A commutant avec ce type de matrices on aboutit alors à des égalités du type
0 0 • 0 0 0 0 0 0 0 0 0
0 0 • 0 0 0 0 0 0 0 0 0
0 0 • 0 0 0 0 0 0 0 0 0
0 0 • 0 0 0 0 0 0 0 0 0

"O
0
r::::
:::J
0
0
0
0 •• 0
0 0 0
0 0
* *
0 0 •
0
* * *
0 0 0
0 On obtient par identification la nullité des coefficients • (provenant d 'une colonne de
lfl
,..-1 A), la nullité des coefficients * (provenant d 'une ligne de A) et l'égalité entre deux
0
N coefficients diagonaux de A (• = • ).
@
.....,
On aura ainsi prouvé, qu'en dehors de la diagonale, les coefficients de A sont nuls, et
r: sur la diagonale, les coefficients de A sont identiques .
Ol
ï:::
>
Cl. Supposons que A commute avec toute mat rice carrée de même ordre.
0
u Soient i et j deux ind ices quelconques dans [1,n] , puisque A commute avec Ei,j. on
a d'après la quest ion 1. a

(On,1 0 n,l C '·A Ü


n,l
t ~ ligne i .
colonne .i
82 Chapitre 3 Calcul matriciel

On en déduit, par identification des lignes,


colonne j
!
(0 On A [l,i] 0 0) = 01,n

(0 0 A[i - 1, i] 0 0) = 01,n
(0 0 A[i ,i] 0 0) =Lf
0 0 A[i + 1, i] 0 O) = 01,n

(0 0 A[n,i] 0 0) = 01,n
Pl us particulièrement, on a, pour tout indice i et .i.
A [l, i] = · · · = A [i - 1, i] = A[i + 1, i] = · · · = A [n, i] = 0 et A [i, i] = A[j,j].
A ut rement dit les coefficients en dehors de la diagonale de A sont nuls et ceux sur la
diagonale sont identiques { not ons À cette valeur commune). Ainsi A= Àin .

2.a. Puisque l'on sait calculer le produit d'une matrice par une matrice élémentaire
Ei,j, tirons profit de l'expression rD)
= In+ )...Ei,j pour calculer le produit avec rD).
Grâce à 1.a, on a
ATD) = A X + ÀEi,j ] = A + ÀAEi,j
[In
(c: .. · Cf- 1 Cf Cf+1 .. · C~) + .X{On,1 .. · On,1 Cf On,1 .. · On,1)
t t
colonne j colonne j

Ai nsi cf-1 cAJ + .xcA cf+i ... c:).


i

t
colonne j

On procède de même par multiplication à gauche.

Grâce à 1.a, on a
r },;> A = [In + ÀEi,j ] x A= A+ ÀEi,j A
"O
0
r::::
:::J
Lt 01,n Lt
0
lfl
,.-1
0 Lt-1 01,n LAi- 1
N
= LA i + .x LA
J
+--ligne i LA+ ).LA
i J +-- ligne i
@ LAi+l LAi+l
,...., 01,n
r:
Ol
·;::
> LA LA
Cl.
0 n 01,n n
u
M ultiplie r A à droite par T[~) r e vie nt à pro céd e r à la transvection sur les
colonnes : Cj +---- Cj +)...Ci.
Multiplie r A à ga uche p a r T~~) r e vient à pro céd e r à la tra n svection s ur les
lig n es : Li +---- Li + )...L j .
On convient donc de dire que rD)
est une matrice de transvection.
Exercice 3.7 Opérations élémentaires et produit matriciel 83

2. b . Supposons i =/=- j.
P uisque les matrices TD)
agissent par transvection sur les lignes lorsqu'on les multiplie
à gauche, multiplier à gauche par deux matrices de ce type revient donc à opérer deux
fois consécutives par transvections.
Si l'on considère une première transvection (Li f-- Li+ >.Lj), il nous suffit alors
de procéder par la transvection inverse (Li f - - Li - ÀLj) pour revenir à la matrice
initiale.
Il semblerait donc que la multiplication à gauche par TD)
suivi de la multiplication
à gauche par Tt;>-)
donne la matrice initiale.
Si l'on prend comme matrice initiale, la matrice In, on aura donc trouvé un produit
entre TD) et une autre matrice carrée du même ordre qui donne In .

Grâce aux interprétations obtenues pour la mu ltiplication à gauche par les matrices
de t ransvection, on sait qu e la matrice A = T(>-. i ,3
) In s'obt ient, à partir de In. avec
l'opération Li +---- Li + ÀLj. Autrement dit t outes les lignes de A sont identiques à
celles de In. sa uf évent uellement la ie ligne qu i vaut Lf = L{n + >-.L;n.
De même, puisqu 'à partir de A avec l'opération Li +---- Li - ÀLj on obtient la matrice
B = r L;>-.) A. ses lignes sont toutes id ent iques à celles de A (et donc à celles de In).
sauf évent uellement la ie ligne qui vaut
L!/1

=LA_
i
ÀLJA =(Lin
i
+ )..Lin)_
J
)..Lin
J
=Lin

Ainsi B et In ayant les mêmes lignes, on a donc


T.C -: >-.>r.C~> = r.Ct ,J-:>-.>r.C>-.) In= T~t,J-: >-.) A= B =In.
t ,J t ,J t ,J

Ceci prouve que ri:~) est inversible et que [TD)1- 1 = rL;À).


3.a. la matrice TD)agit par multiplication droite selon le schéma Cj f-- C.1 +>.Ci ·
Dans le cas où i = j, on obtient alors Cj f-- (>.. + l)Cj, c'est-à-dire une dilatation.
Il nous suffit d'adapter la valeur de À pour obtenir le facteur multiplicateur voulu (en
l'occurrence remplacer À par À - 1 dans la formule ci-dessus) .

(À - 1) .
Posons D >-. ,i = Ti,i , 1.e.
"O
0 1
r::::
:::J
0 (0)
lfl
,-1 1
0
N D>-.,i =In+ (À - l)Ei,i = +---- ligne i.
@ 1
.....,
r:
Ol
·;:: (0)
>
Cl. 1
0
u Puisque D>-.,i = T},;-l), on sait, d 'après 2.a , que la mu ltiplication à gauche avec A
correspond à la tra nsform ation suivant e
Li +---- Li + (>. - I)Li = >.Li .

3.b. De même 2.a nous permet d'interpréter l'action de cette transvection un peu
particulière par multiplication à droite.
84 Chapitre 3 Calcul matriciel

~1
La multiplication à droite de DÀ,i avec A correspond à la tra nsform ations suivante
Ci +--- Ci + (.X - l)Ci =.:>..Ci .

Grâce à l'interprétation que l'on vient de donner au produit par la matrice de dilata-
tion D>.. ,i, on convient de dire qu'il s'agit d 'une .
P our déterminer son inverse évent uelle, il s'agit, comme pour les transvections (cf 2. b),
d'enchaîner une transformation et sa transformation inverse. L'action de dilatation
par un facteur À est irréversible, lorsque À = 0 mais peut être inversée (par dilatation
d'un facteur 1/ À) lorsque À -:/=- O.

Si À =f. 0, la multiplication par D>..,i puis par D 1 ; >.. ,i agit sur les lignes de In selon les
transformations successives Li+--- À.Li puis Li +--- ±Li .
Ainsi, on obtient la matrice D 1 ; À,i DÀ,i i n dont toutes les lignes (y compris la ie)
coïncident avec celles de In.
Di;>.. ,iDÀ ,i = Di; >.. ,iDÀ,iin =In .
Finalement, lorsque À =f. 0, on en dédu it que D>.. ,i est inversible et que D~,~ = D 1 ; >..,i ·

Pour montrer qu'une matrice est non inversible, il suffit d'exhiber une
matrice carrée non nulle qui par multiplication donne la matrice nulle
(on verra plus tard qu'il suffit de trouver une matrice colonne non nulle,
cf 3.b) et de raisonner par l'absurde.

Grâce à l'i nterprétation qu e l'on peut donn er au produit par une matrice de dilatation
B = Do,i Ei,i est une matrice dont laie ligne vérifie Lf = 0 X L~i,i = 01,n, et toutes
les autres lignes sont identiques à celles de Ei,i . i.e. nulles. Ainsi Do,i E i,i =O.
Supposer Do,i inversible donnerait alors, par multiplication à gauche par DO,i, Ei,i = 0
ce qui est absurde . Finalement, Do,i est non inversible.

4. Pour plus de détails, on peut se référer à l'exercice 3.6.


"O
On commence par proposer la matrice Pi,j obtenue par la t ransformation désirée à
0
r:::: partir de la matrice In. En effet le produit de Pi ,j avec In donnera par construction
:::J
0 l'effet désiré. Reste à vérifier que cela reste vrai avec toute autre matrice A.
lfl
,..-1
0
N
Notons P i,j la matrice obtenue à partir de la matrice I n par échange des lignes
@ d 'ind ices i et j (ce qui revient également à échanger les colonnes d 'i nd ices i et j) :
.....,
r: 1 0 0
Ol
·;::
>
Cl. 0
0
u
0 --+ 1
P i ,j =
! t
1 +--- 0

0 1
Exercice 3.7 Opérations élémentaires et produit matriciel 85

Ainsi Pi,j = L Ek,k + B i,j + Ej,i. d'où grâce à 1.a (ici on ill ustre le cas i < j).
k~{i,j}

APi,j = L AEk,k + AEi,j + AEj,i


kl,t{ i,j}
(Cf ... Ct-1 On,1 CA-1 Cf-1 On,1 Cf+1 ...c:)
+ (On,1 · · · Ûn,1 et Ûn,1 · · · Ûn,1 · · · .. · Ûn, 1)
+(On,1 · · · · · · Ûn,1 · · · Ûn,1 et Ûn,1 · · · Ûn,1)
= (et ... ct-1 et ci~1 ct-1 et ct+1 ... c~)
t t
colonnei colonne j
C'est donc que la mult iplication à droite par Pi,j agit par échange sur les colonnes i
et j de A : Ci ~ Cj.
De même, Pi,j A = L Ek,k A + Ei,j A + Ej,i A agit sur les lignes selon la permu-
kl,t{i,j}
t ation : Li ~ Lj.

On parle alors de matrice d'échange ou de permutation .


Puisque procéder au même échange des lignes i et j aboutit à la matrice initiale, on
tient là l'inverse souhaitée.

~I Pu isque Pi,j x Pi,j =In. on en dédu it que Pi,j est inversible et que Pi~/ = Pi,j·

5.a . Le libellé de la question ne précise pas combien de facteurs l'on considère. Nous
allons nous contenter de traiter le cas de deux facteurs A et B (matrices carrées d 'ordre
n) , une récurrence immédiate permettrait de généraliser le résultat à un nombre quel-
conque de facteurs.
L'implication directe étant un résultat du cours, c'est donc la plus simple.

Si l'on suppose que A et B sont inversibles, on sait que AB est inversible d 'inverse
B - 1 A- 1, pu isqu 'en effet un calcu l direct donne
(AB)(B- 1 A- 1 ) = ABB- 1 A- 1 = AA- 1 =In .
"-v--"
ln
"O
0
r::::
:::J
Si l'on note C l'inverse que l'on vient d 'exhiber ci-dessus, on remarque que
0
lfl
,..-1 CA = B- 1 et BC = A- 1 .
0
N
@ Ainsi, pour la réciproque, nous allons construire un inverse pour A et un inverse pour
.:C B à partir d'un inverse du produit AB.
Ol
·;::
>
Cl. Supposons AB inversible et notons C son inverse.
0
u Puisque C est un inverse à droite d e AB, on a In= (AB)C = A(BC).
Ainsi BC est un inverse à droite de A (et toutes deux sont des matrices carrées de
même ord re) ce qu i prouve que A est inversible (et que son inverse est BC).
De même, pu isque C est un inverse à ga uche de AB, on a In = C(AB) = (CA)B.
Ainsi CA est un inverse à ga uche d e B (et toutes deux sont des mat rices ca rrées de
même ord re) ce qu i prouve que Best inversible (et que son inverse est CA).
86 Chapitre 3 Calcul matriciel

5.b. Les opérations proposées, sont d'après ce qui précède équivalentes à la multi-
plication de la matrice initiale A par B qui est l'une (ou un produit) des matrices
introduites jusqu'ici (matrices de permutation, de transvection, ou de dilatation). Ces
matrices sont toutes inversibles.
Comparer l'inversibilité de A à celle du produit AB est donc conséquence de laques-
tion précédente.

Opérer par échange de ligne (resp. colonne), transvection de ligne (resp. colonne) ou
dilatation de ligne (resp. colonne), revient à passer de la matrice A à la matrice A'
obtenue par multiplication à gauche (resp. droite) par l'une des matrices B du type
P i,j, TD) ou D>. ,i (avec À-=/= 0).
On sait d 'après la question précédente que A' est inversible ssi les facteurs A et B
sont inversibles.
Or, comme cela a été prouvé, quel que soit son type, la matrice B est inversible. Ainsi
A' est inversible ssi A est inversible.

On vient de prouver que les opérations élémentaires (échange, transvection


et dilatation par un facteur non nul) sur les lignes et sur les colonnes
préservent l'inversibilité.
On apprendra que ces mêmes opérations préservent ce qu'on appelle le rang
d'une matrice et c'est cette invariance du rang, qui sera le plus souvent utilisée.
La méthode du pivot de Gauss permet donc aussi bien de déterminer l'inversibilité
d'une matrice que déterminer son rang.
6.a. Seule la première ligne diffère entre les matrices A - À.ln et B. D'après ce qui pré-
cède il nous suffit d'exhiber les opérations élémentaires (ici sur les lignes) permettant
de passer de l'une à l'autre.

On sait que les transvections sur les lignes préservent l'inversibilité éventuelle.
Puisque
-À 0 0 -1

1 -À
A - >.In = 0
"O
0
r:::: -À -1
:::J
0 0 0 1 - 1- À
lfl
,..-1
on remarq ue qu'une transvection entre les lignes 1 et 2, permet d'annuler le coefficient
0
N d 'i ndice (1, 1), ainsi
@ 2
....., 0 -À 0 -1-À
r:
Ol
·;::
> 1 - À
Cl.
0 est inversible.
u 0

- À - 1
0 0 1 -1-À
Il s'agit à présent d'annuler le coefficient d'indice (1, 2), ce que l'on obtient par la
transvection
Exercice 3.8 Polynôme annulateur de matrice 87

A insi, d e proche en proche, les t ransvections successives


L i +----- L i + ).,L4, ... , Li +----- Li + >.Ln- i
nous donnent
n- 2 0 0 - T(>.)
L1~ L1+ L )..kL k+ i 1 ->. -1
k=i
A - >.In inversible {::::::::} B= 0 inversible.

->. -1
0 0 1 -1-)..

6.b. En modifiant l'ordre des colonnes de B celle-ci devient triangulaire supérieure,


or une matrice t riangulaire supérieure est inversible ssi t ous ses coefficients diagonaux
sont non nuls (ce résultat sera énoncé dans le cours sur les systèmes linéaires).

Par échanges successifs entre les lignes d e B :


L 1 +------+ L2, L2 +------+ L3, ... , L n- 1 +------+ Ln,
on obt ient
1 ->. 0 -1

0
B est inversible {::::::::} est inversible.
- >. - 1
0 0 1 - 1 - )..
0 0 -T( >.)
Or, cette dernière éta nt triangulaire, on en dédu it
Best inversible {::::::::} -T(>.) -::f. O.
Ainsi , grâce à la quest ion précédente on en déd uit que A - >.In est inversible ssi
T (>.) -::f. 0, ce qu i, par contraposition , nous donne A - >.In est non inversible ssi ).. est
racine de T.

"O
0
r::::
:::J
0
lfl
,.-1
On note T le polynôme 1 + X+··· + x n et A la matrice de M n(IR)
0
N 0 0 - 1
@
....., 1
r:
Ol
·;::
> 0
Cl.
0
u 0 - 1
0 0 1 - 1
On veut établir que In + A + A 2 + ··· + An = 0 (on dit alors que T est un
polynôme annulateur de A ).
88 Chapitre 3 Calcul matriciel

1. Rappelons que c: 1
désigne la ke colonne d'une matrice M.
a. Comparer, pour toute matrice B E Mn(lR) et tout indice de colonne k,
les colonnes C~A et BCt.
b. En notant E i la colonne de M n, 1 (1R) dont tous les coefficients sont nuls à
l'exception de celui se trouvant à la ligne i qui vaut 1, que représente la
colonne BEi, pour toute matrice BE Mn(lR)?
c. En déduire que pour tout k E {1, ... , n - 1} on a C~A = C~+i ·
n+l
2. a. On pose En+l = AEn. Que vaut L Ei?
i=l
Exprimer C:f A en fonction des Cf , . .. , C{!.
b. Donner la décomposition en colonnes des matrices
2 3 1
In, A, A , A ... , An- An en fonction des E 1, ... , En+l
, ,

c. Conclure.

1.a. On compare ici les colonnes du produit BA avec les colonnes BCt, ... , Be,: .

Puisque le calcul du produ it BA passe par le calcul du produ it de B par les colonnes
de A. on a l'écriture matricielle par blocs-colonne
BA= (Bct Be: BC~) .
Ainsi , par identification , les colonnes de BA sont données par
V k E [ l , n], Cf A = BC{

1. b. Détermination une matrice revient à déterminer chacun de ses coefficients.

On a, pour tout k E [l , n],


n

"O
0
r::::
(BEi )[k, Il = L B[k,jJ Ei[j, Il = B[k, il Ei[i, Il = cf [k, IJ.
.= 1 "'-v--' ""-.,.--'
:::J J =O sij-:;éi =l
0
lfl
,.-1
Ainsi BEi =Cf.
0
N 1.c. Puisque les n - 1 premières colonnes de A sont les colonnes E2, ... , En, on peut
@
.....,
r:
remplacer dans 1.a, et
par Ek+i, puis appliquer 1.b.

~I
Ol
·;:: D 'après 1.a,
> BA
u
Cl.
0 V k E { 1, ... , n - 1} , Ck = BCkA = BEk+1 l.b B
= Ck+i ·
2.a. D'après ce qui précède AEn est la ne colonne de A, celle-ci s'exprime en fonction
des Ei, ... , En.
n+ l
On peut donc réduire l'expression de la somme L Ei en l'écrivant exclusivement en
i=l
fonction de E1, ... , En.
Exercice 3.8 Polynôme annulateur de matrice 89

Dans le chapitre consacré aux espaces vectoriels, on apprendra que


toute colonne de M n, 1 (JR) s'écrit en fonction des E 1 , ... , En.
Plus précisément, toute colonne est combinaison linéaire des colonnes
particulières E 1 , ... , En . Ces colonnes forment ce que l'on appelle la
base canonique de Mn,1(1R).

D'après la question l.b appliqué à la matrice A en lieu et place de la matrice B, on


sait que
0
-1
n n

En+1 = A En = C~ = =- 2:::: 1 f-< ke ligne = - L Ek·


k=I k=I
-1
0
On en déduit, en isolant dans la somme ci-dessous le dern ier terme (celui d ' indice
i = n + 1)
n+I n n n
L Ei = L Ei +En+l = L Ei - L Ek =O.
i= l i =l i=l k=I
Finalement, en appliqu ant la question l.b à BA en lieu et place de B et pour i = n,

c:A = (B A )En = B(AEn) = BEn+i = B (- t


k=l
Ek ) = - tk=l
BEk ~- t Cff ·
k=l

2.b . On connaît les colonnes de In et de A et, grâce à la question 1.a et ce qui précède,
on connaît les colonnes de BA.

On en dédu it, grâce à 1.a,

(*) BA= (cf ... c! -f=cf). k=I


"O
0
r::::
:::J Il s'agit, à présent, d'appliquer cette dernière relation avec successivement B = A,
0
lfl
B = A 2 , ... , B = A n - I . Au vu de ce que seront les dernières colonnes pour A 2 , ... , An
,.-1
0 on commence par un petit calcul préliminaire.
N
@ n+l
.....,
r:
Ol
ï:::
Pu isque L Ek = 0, on constate que pour tout i E {l, ... , n + 1}
> k=l
Cl.
0
u (9't) - L Ek = Ei
ki'i

Ainsi l'expression de chacune des colonnes de In, A, ... , An se fera très simplement
en fonction des colonnes E1, ... , En+i .
Seule une récurrence constituerait une preuve rigoureuse du résultat mais puisque la
dynamique permettant de passer de l'écriture en colonnes de A à celles de BA est
90 Chapitre 3 Calcul matriciel

particulièrement simple et int uit ive


B= (cf cf cf

BA = ( C,"
// Cf

l'approche itérative est plus aisée.

De façon évidente on a In= (E1 · · · En- 1 En ) et A = (E2 · · · En En+i) ·


Si l'on mu ltiplie à droite A par A, on obt ient

Si l'on mu ltipl ie à nouvea u à droit e par A. on obtient

3
A <j (ct 2
... c: t et )
2
-

k=l
= ( E4 ... En+I E1 - L: Ek ).
k~2
~
( ~)E2

Ainsi, de proche en proche, on t rouve


In= (E1 Ez En- 1 En)
A= (E2 E3 En En+i)
A2 = (E3 E4 E n+1 E1)
A3 = (E4 E5 En+ 1 E1 E 2)

An- 1 = (En En+1 E1 En- 3 En- 2)


An = (En+1 E1 En- 3 En- 2 E n- 1)
D 'où, par add ition membre à membre et grâce à 2.a,
In+ A + A2 + ... + An = o.
"O
0
r::::
:::J
0
lfl
,.-1
0
N
@
.....,
r:
Ol
·;::
>
Cl.
0
u
Liste des capacités attendues 91

Liste des capacités attendues

• Savoir effectuer un produit matricie l (cf exercice 3.2 et questions 3. 1.1.a,


3.4.1, 3.6.1.a) : si A E Mm,n(IK) et B E M n,p(IK), le coefficient d'indice (i,.i) de
n
A x B est L A[i, k]B[k, j ] .
k=l

• S avoir faire le lie n entre le produit AB et le produit d e A avec les


colonnes de B (cf exercices 3.7, 3.8 et questions 3.5.1.a, 3.6.3.a).

• S avoir tra duire un problème linéaire sous forme m atricielle (cf ques-
tion 3.3.1.a).

• Savoir u t ilis er les propriétés de la t rans position (cf exercice 3.5 et ques-
tions 3.1.2.c, 3.5. 1.c, 3.6. 1.c).

• Savoir déterminer si une matrice carrée est inversible (cf exercices 3.1 ,
3.7 et questions 3.3.2.a , 3.4.4.b , 3.5.2) .

• Savoir obtenir l'inverse d ' une matrice carrée inversible


<:; en utilisant la définition (cf exercice 3.1 , 3.7 et question 3.6.1.b);
0 en ut ilisant les propriétés de l'inversion pour le produit matriciel et la trans-
position (cf questions 3.1.2. c et 3.4.4.b)
1 (AB )-1 = B-1A-1 1, 1 (tA)- 1 = t(A-1) 1.

"O
• Savoir calculer la puissance ne d ' une matrice carrée
0
r::::
:::J
<:; en se ramenant à une mat rice diagonale (cf question 3.3.2.b) ;
0
lfl
0 en utilisant la formule du binôme de Newton (cf exercice 3.2) : si AB = BA,
,..-1
0 alors
N
@
.....,
r:
Ol
ï:::
>
Cl.
0
u
La formule du binôme de Newton mat ricielle n 'est introduite
qu'au deuxième semestre.

0 en ut ilisant un polynôme annulateur (cf exercice 3.4 et question 3.2.2.b).


u
0
c
::J
0
lfl
,.-1
0
N
@
.......
.r:.
Ol
·c
>-
Q.
0
u
CHAPITRE

Systèmes linéaires et matrices

Ce chapitre est amplement consacré à la résolution de systèmes linéaires et à l'inver-


sion de matrices par la méthode du Pivot de Gauss.
La méthode du pivot de Gauss est détaillée pas à pas dans les exercices 4.6 et 4.7.
Le lecteur pourra s'y référer et adapter les instructions Scilab qu'il contient pour
l'assister dans d'autres exercices. Par souci pédagogique, on prendra soin d'encadrer
le coefficient d'un système qu'on utilise comme pivot (ou assimilé).
Rappelons qu'un système linéaire (5) d'inconnues x 1 , . .. , Xp et de seconds membres
y1 , . .. , Yn sera dit associé à la matrice M (où encore M est associé au système (5))
lorsque

On notera {x E A 1 x vérifie P } pour désigner la partie de A constituée des élé-


ments x vérifiant une propriété donnée P (par exemple {P E IR[X] 1 deg P ~ 1}
est 1'ensemble des polynômes réels dont le degré est inférieur ou égal à 1) . Une fonc-
tion f : A -7 B étant donnée, on notera {f(x); x E A} pour désigner la partie de
B constituée des éléments f(x) obtenus lorsque x décrit l'ensemble A (par exemple
{aX + b ; (a , b) E IR2 } est l'ensemble des polynômes réels dont le degré est inférieur
ou égal à 1). La première notation concerne les ensembles décrits par compréhension,
le deuxième notation concerne les ensembles décrits en extension. On peut passer
"O
0
r::::
aisément de la deuxième à la première description, grâce à l'identité
:::J
0
lfl
,..-1
{f(x);xEA}={yEB 1 (:JxEA , y=f(x))}.
0
N
@
.....,
r:
Ol
·;::
>
Cl.
0
u Déterminer l'ensemble des solutions des systèmes linéaires ci-dessous :
X + 2y + 8z - 7t = - 2
(51) 3x + 2y + l2z - 5t = 6 ,
{
-x + y + z - 5t = -10
94 Chapitre 4 Systèmes linéaires et matrices

2x - y+ 3z 3
(82)
{ 3x +y - 5z
4x - y + z
X + 3y - l3z -
0
3
-6

X + 2y + 3z + 4t 10
(83)
{ 2x - y+ z - t
3x +y+ 4z + 3t
- 2x + 6y + 4z + lOt -
1
11
18

Pour les trois systèmes, on applique la méthode du pivot de Gauss.


Le système (81 ) est inhomogène donc il peut très bien être incompatible et il comporte
3 équations pour 4 inconnues donc il ne peut pas être de Cramer.

~ ITJx
(S1) Ç:::::::;>
{ +2y
-4y
3y
+8z
-12z
+9z
- 7t
+16t
-12t
- 2
12
-12
L2
L3
~
~
L2 - 3L1
L3 +Li

Ç:::::::;>

r 0
+2y +8z
-12z

Le système (S1) est donc incompatible, il n 'y a pas de solution.


-7t
+16t
0
=
-2
12
-12 L3 ~ 4L3 + 3L2

Le système (82) comporte 4 équations pour 3 inconnues donc il y aura nécessairement


une équation de compatibilité.

~ [TI-v -y +3z 3
"O

0
0
r::::
:::J
(82) Ç:::::::;>
{ 5y
y
7y
-l9z
-5z
-29z
=
=
=
-9
-3
-15
L2 ~ 2L2 - 3L1
L3 ~ L3 - 2L1
L4 ~ 2L4 - L1
lfl 2x -y +3z 3

{
,.-1
0 y -5z -3
N Ç:::::::;> L2 H L3
@ 5y -l9z -9
....., 7y - 29z - 15
r:
Ol
ï::: 2x -y +3z 3
>-
u
Cl.
0 Ç:::::::;>
{ ITJy - 5z
6z
6z
- 3
6
6
L3 ~ L3 - 5L2
L4 ~ L4 - 7L2
2x -y +3z = 3
Ç:::::::;>
{ y -5z
œz
0
= -3
6
0 L4 ~ L4 - L3
Exercice 4.2 Inversion matricielle et systèmes 95

(S2) est donc com patible et :


1

~
- (3 + y - 3z) 1
2
(S,) = { - 3 + 5z
,..______.._ {
.,,_,... yX
z
2
1
1
Ainsi, (S2) admet le triplet (1, 2, 1) pour unique solution.

Le système (53 ) est carré (autant d 'équations que d'inconnues) : s'il admet une unique
solution, ce sera un système de Cramer.

ITJx +2y +3z + 4t 10

{ -5y
-5y
lüy
-5z
-5z
+lüz
-9t
-9t
+18t
-19
-19
38
L2
Ls
L4
~
~
~
L2 - 2L1
Ls - 3L1
L4 + 2L1
+2y +3z +4t 10

r{ -5y
X
8} - 5z - 9t
0
0
10 - 2y - 3z - 4t
-19+5z +9t
0
0
- 19

{=?
Ls ~ L3 - L2
L4 ~ L4 + 2L2

{: =
=
-12 - z - -2 t
~
p95 - z - 5t
(S3 ) est donc compatible et son ensemble de solutions est :
12 2 19 9 )
{ ( -5 - z - -5 t ' -5 - z - -5 t ' z ' t ·' (z ' t) E lR
2}.

~!
2
Soit P =( -1 ! 1) .Montrer que P est inversible et calculer p- 1
.

"O
-2 -2
0
r::::
:::J
0
lfl
,.-1
0
N On introduit un système linéaire (5) aux seconds membres génériques et dont la
@
....., matrice associée est P. P uisque
r:
Ol
·;::
>
Cl. X+ 2y + Z a
0
u (5) - x -y- z b
{
- 2y - 2z c

il s'agit alors de vérifier que ce système (d'inconnues x , y et z) n'admet qu'une seule


solution et de l'exprimer en fonction des seconds membres (a, b etc) .
96 Chapitre 4 Systèm es linéaires et matrices

Soit (a,b,c) E JR3 . Quel q ue soit (x,y,z) E JR3 , o n a la succession d 'équivalences

x + 2y + z a { x + 2y + z a
-x- y- z b {=? y a+b L2 r L2 + Li
{ - 2y - 2z c - 2y - 2z c

{=? { X +2y+ ~ a
a+b
- 2z 2a + 2b + c L3 r L3 + 2L2
X a - 2y - z
{=? y a+b
{ z - a - b - .!c
2

-b
{=} { ~ a
-a
+b
-b

Il existe bien une unique solution au système linéaire, ce qui prouve l'inversibilité
de P. P uisque
- b
a +b
- a - b

la matrice inverse s'obtient par lecture des coefficients devant a, b et c.

~1 ~
-1
1
Ainsi, P est inversible et p- = ( 1
- 1 - 1

"O 1. Soit le système suivant* dépendant du paramètre À E IR :


0
r::::
:::J (5 - .X)x + 8y + l6z 0
0
lfl
(S.x) 4x + (1 - À)y + 8z - 0
,.-1 { - 4x - 4y - (11 + .X)z 0
0
N
@ a . Montrer qu'il existe exactement deux valeurs de À telles que (S.x) n'est
.....,
r: pas de Cramer .
Ol
·;::
> b. Résoudre (S.x) pour ces deux valeurs de À.
Cl.
0
u c . Que dire de l'ensemble des solutions de (S.x) lorsque À n 'est aucune des
deux valeurs précédentes?

*· Ce type de système homogène sera abondamment discuté en seconde année lors de la recherche
des éléments propres d 'une matrice carrée.
Exercice 4.3 Systèmes à paramètres I 97

2. Pour tout réel a, on considère le système d'inconnues x, y, z E lR défini par :

(Sa) { -x + (ax _+2)~ ~ = ~1 .


2x + 2y +(a - 2)z = 1
Discuter l'ensemble des solutions de cc système en fonction du paramètre a.

1.a. Appliquons la méthode du pivot de Gauss à ce système carré avec 3 inconnues.

~ -4x 4y (11 + À)z = 0


(S>-) ~
L1 ttL3 { (5 - À)x
4x +
+
(1 - À)y
8y
+
+
8z
16z
= 0
0
1-4 lx
L2+;L2;+ L1
L3+-4L3+(5 ->-)L1 { 4y
(- 3 - À)y
(12 + 4À)y
+
+
(11 +>-)z
(- 3 - À) z
(À 2 + 6À + 9)z
0
0
0
4y (11 + À) z 0
{ - 4x
~
LJ+-L3+4L2
1 (-3 - À) fy + (-3 - À)z 0
2
(À + 2À - 3)z = 0

Le système équivalent obtenu est échelonné (la matrice associée est triangulaire), il
est donc de Cramer ssi les coefficients « diagonaux »
- 4, - (3 +À), À2 + 2À - 3
'-v-'
= (>.+3)(>.- 1)
sont tous non nuls.

~1
-(3+>-)#0
(S>-) est de Cramer ssi { (À+ 3)(À _ l) #0 i.e. À tf. {-3, l}. On conclut que (S>-)
"O n'est pas de Cramer ssi À E {- 3, l} qu i sont donc les deux valeurs demandées.
0
r::::
0
:::J 1.b. Le système échelonné précédent, équivalent à (S>.), a été obtenu indépendamment
lfl
,.-1
de la valeur de À : il peut donc être utilisé.
0
N
D'après ce qui précède ,
@
....., -4x - 4y - 8z = 0
r:
Ol
·;:: (S-3) ~ O = O ~ x +y + 2z = 0 ~ x = -y - 2z
> {
Cl. 0 = 0
0
u donc l'ensemble des solutions de (S-3) est {(-y - 2z, y, z) ; (y, z) E IR
2
}.
Par ailleurs,
- 4x - 4y - 12z = 0
= -y- 3z = -2z
(S1 ) ~ -4y - 4z = 0
{ -z
0 = 0
donc les solutions de (S1 ) sont les triplets (-2z, -z, z) avec z E IR.
98 Chapitre 4 Systèmes linéaires et matrices

1.c. Dans le cas d'un système homogène, on a toujours x = y = z = 0 comme solution


évidente. S'il devait y avoir d'autres solutions le système ne serait plus de Cramer.

~I
D'après l'étude faite au 1.a, (SÀ) est de Cramer lorsque À rJ. {-3, l}. pu isque le
système est homogène, il admet une unique solution : le triplet (0, 0, 0) .

2. Là encore le système est carré avec 3 inconnues.

~ ITJx + ay z 1
(Sa) ~
{ 2(a - l)y
2(1 - a)y + az
0
- 1
L2 +--- L2 +Li
L3 +--- L3 - 2L1

r + ay z = 1
~ 12 (a -l)~ 0
az = -1 L3 +--- L3 + L2
Ainsi, le système est de Cramer ssi 2( a -1) =I= 0 et a =I= 0, autrement dit, ssi a rJ. {O, 1}.

On va traiter séparément les deux cas particuliers a = 0 et a = 1.

• Dans le cas où a~ {O, 1}, le système (Sa) est compatible, de Cramer et

X + ay - Z 1 1- ay + z
(Sa) ~ 2(a - l)y 0 0
{ 1
az -1
a
a-
Finalement le système admet pour un ique solution ( --,0,-- . 1 1)
a a
• Si a, = 0, le système est incompatible (la dern ière équation est 0 = -1 et il y a
deux pivots) , en particul ier (So) ne possède aucune solution.
• Enfin , pour a= 1,
1
1 - y+z X= - y
0 ~ {
= -1 z= - 1 .
-1
"O
0
r::: Ainsi, (S1) est compatible et l'ensemble de ses solutions est {( - y, y, - 1); y E ~}.
::J
0
lfl
,.-1
0
N
@
.....,
r:
Ol
·;::
>-
Cl.
x-y-z - a
0
u 2
1. Soit (a, b, c, d) E IR.4 . On considère le système (S) : x +Y- z b
y- 3z { C X+
2x -y - z d
Déterminer à quelle condition sur (a, b, c, d) le système (S) est compatible et
le résoudre dans ce cas.
Exercice 4.4 Systèmes à paramètres Il 99

x+y-z+w 1
2. Soit a, b deux réels et le système (Sa,b) ax+y+z+w b
{ 3x + 2y + aw l+ a
d'inconnue (x, y, z, w).
a. Déterminer les valeurs de a et b pour lesquelles le système (Sa,b) est
compatible.
b. Déterminer l'ensemble des solutions lorsque a = b = 2.

1. Le système est rectangulaire avec plus d'équations que d'inconnues donc il y aura
nécessairement une équation de compatibilité.

ITJx-y-z = a
(S) ~
{ 3y + z
2y- 2z
y+z
b - 2a
c-a
d- 2a
L2 t- L2 - 2L1
L3 t- L3 - L1
L1 t- L1 - 2L1
x-y-z = a

{ Œ:Jy+z
- 8z
2z
b- 2a
3c - 2b +a
3d - b - 4a
L3 t- 3L3 - 2L2
L1 t- 3L4 - L2
x-y-z = a

{ 3y+z
1-s lz
0
=

=
b- 2a
3c - 2b +a
12d + 3c - 6b - 15a L1 t- 4L4 + L3
donc, par division par 3, (S) est compatible ssi - 5a - 2b + c + 4d =O.
,. .
D ans ce cas, 1unique solution de (S) est
(a + 2b - c - 5a + 2b + c - a + 2b - 3c)
, , ·
4 8 8

"O
2.a. Le système est encore rectangulaire mais avec plus d'inconnues que d'équations :
0
r:::: il y aura donc ou bien aucune solution ou bien une infinité.
:::J
0
lfl
,.-1
0
N
@
.....,
r:
Ol
{ (1 - a)y + (1
ITJx+y-z+w
+ a)z + (1 -
a)w
-y+3z+(a-3)w
1
b- a
a-2
·;:: x+y- z+w 1

u
>
Cl.
0 { - y+ 3z + (a - 3)w
(1 - a)y + (1 + a)z + (1 - a)w =
a- 2
b-a
x+y-z+w = 1

{ c=IJy+3z+(a-3)w
2(2 - a)z + (1 - a)(a - 2)w =
a-2
b + 2a - 2 - a2

On a déjà obtenu deux pivots et le troisième candidat à être un pivot est 2(2 - a).
100 Chapitre 4 Systèmes linéaires et matrices

• Si a -:/= 2, le système est compatible et admet une infinité de solutions.


• Si a= 2, (Sa,b) est équivalent au système échelonné
x+y-z+w 1
-y + 3z -w 0
{
0 b- 2
ô Si b = 2, il est compatible et admet une infinité de solutions.
ô Si b-:/= 2, le système est incompatible et n'admet donc aucune solution.
En résumé, (Sa,b) est compatible si et seulement si a-:/= 2 ou a= b = 2.

2.b. Lorsque a= b = 2, le système est échelonné et compatible.


Le système équivalent obtenu s'écrit sous forme d'un système de Cramer pour les
inconnues x et y (z et w pouvant elles prendre n'importe quelle valeur)

x+y l-z-w
{ - y - 3z+w

donc (82,2) admet une infinité de solutions paramétrées par deux réels (ici z et w) .

Si a = b = 2, on a, avec les calculs de la question précédente,

(Sa,b) <=} { x +y- z +w 1 <=} { xy l-y+z-w


- y+ 3z - w 0 3z - w
L'ensemble des solutions de (S2,2) est alors donné par :
2
{(1 - 2z, 3z - w, z, w) ; (z, w) E JR }.

"O
0
r::::
:::J

~ ~
0
lfl
,.-1
Soit A = ( ) une matrice carrée d'ordre 2. On définit son déterminant,
0
N
noté det(A), par
@
....., detA =ad - be
r:
Ol
·;:: et on pose aussi
>
Cl.

u
0 ae db 1 = ad- be.

1. a. On pose B = ( d
-e
-b)
a . Calculer AB.

b. Montrer que A est inversible ssi det(A) -=f. O.


Exercice 4.5 Systèmes et déterminant 101

2. Donner une condition nécessaire et suffisante pour que le système


ax+by =u
(S) { ex+ dy = v

soit de Cramer et montrer que dans ce cas l'unique solution est donnée par

x=
1 ~ ~ 1
et y= - - -
1 ~det(A)~ . 1

det(A)
3. Soient À et µ deux réels. En exploitant les résultats ci-dessus, donner une
condition nécessaire pour que
1
À
À2

soit inversible, et calculer son inverse dans cc cas là.

1.a. Il suffit de « poser » le produit matriciel.

~I AB = ( ad - be
cd-de
- ab + ba ) = det(A) . h
-cb +da

1.b. L'implication réciproque est la plus simple. Il s'agit en effet d'exhiber un inverse
(à droite par exemple) de A ce qui ne saurait être trop difficile à trouver d'après la
question précédente.

Supposons que det(A) -# 0, on en dédu it grâce au calcul précédent

A x (<let~ A) B) = h
"O On a obtenu un inverse à droite de la matrice carrée A par l'intermédiaire de det(A) B.
0
r:::: Ceci prouve que A est inversible et que son inverse coïncide avec son inverse à droite
:::J
0
lfl
,..-1
A-1 = 1 B = 1 ( d -ab .) t.
0 det(A) ad - be -c
N
@
....., Pour l'implication directe nous allons raisonner par contraposition et montrer que
r:
Ol
·;:: l'égalité AB = 0 ne peut aboutir à l'inversibilité de A (comme souvent, pour montrer
>
Cl. une négation on procède par l'absurde).
0
u
Supposons cette fois que det(A) = 0, le calcul précédent nous donne alors AB =O.
Si , par l'absurde, A était inversible, en multipliant l'égalité ci-dessus à ga uche par A - 1 ,
on obtiendrait B = 0 et donc tous ses coefficients seraient nu ls, à savoir
d = - b = - c = a= 0 i.e. a= b = c = d = O.

t. C'est une formule du cours.


102 Chapitre 4 Systèmes linéaires et matrices

Et donc A= 0, ce qui est en contradiction avec l' inversibilité de A.


Ceci prouve, par l'absurde, que A est non inversible et donc aboutit à la contraposée
1 souhaitée.

1.c. Tout système linéaire est associé à une matrice. Le caractère cramérien est, quant
à lui, lié à l'inversibilité de la matrice associée.
On va donc traduire matriciellement la problématique initialement posée du point de
vue des systèmes linéaires.

Au système (S) est associée la matrice A introdu ite ci-dessus.


Dire que (S) est de Cramer équivaut à dire que A est inversible, on a donc, grâce à
ce qui précède, l'équivalence : (S) est de Cramer ssi ad -
"'-v-"
O. be#
det(A)

En passant par l'écriture matricielle du système on trouve les solutions correspon-


dantes par inversion de la matrice associée.

On a alors la succession d 'équ ivalences

(x , y) est solution de (S) ~A ( : ) ( ~) ~( : ) = A-


1
( ~ ) .

D'où , grâce à la formule donnant l'i nverse d ' une matrice carrée d 'ordre 2,

(x,y) est solution de (S) ~ ( ~ ) =ad~ be ( !e ~,b ) ( ~ )


~ ( ~ ) = det~A) ( !;u~b;,v) ·
Finalement, on obtient

X =
1 ~ ~ 1
et
1 ~ ~
y = "'"-----'-
1

det (A) det(A) ·

L'unique solution d'un système de Cramer (à deux équations, deux incon-


"O
0
r::: nues) est donnée par le quotient de deux déterminants.
::J
0 La première (resp. la deuxième) inconnue prend alors comme valeur un
lfl
,..-1
quotient dont le dénominateur est le déterminant de la matrice associée au
0
N système et dont le numérateur est ce même déterminant où l'on a remplacé
@ la première (resp. seconde) colonne par le second membre du système.
.....,
r: Ces relations simples entre les inconnues du système x, y et leurs expressions par le
Ol
·;::
>
biais d'un quotient de déterminants s'appellent les formu,les de Cramer.
Cl.
0
u
2. Puisque la matrice proposée n'est pas de taille (2, 2), on va résoudre la question de
l'inversibilité et calculer l'inverse en résolvant le système associé.
Au cours de l'analyse, on cherchera à réduire le système en éliminant une inconnue
et une équation, ce qui nous mènera à résoudre un système à deux équations et deux
inconnues et donc nous permettra de faire le lien avec ce qui précède.
Exercice 4.6 Résolution de systèmes par Scilab 103

Posons V = ( ~ ~ ~ ) . L 'étude de l'inversibilité de V passe par l'étude de


0 .>..2 µ,2
son système associé (d 'inconnues x,y,z et de seconds membres a,b,c)
=a
(S) = b .
=C
Puisque l'inconnue x n'a pparaît que dans une seule équation, nous allons découper ce
système en deux sous-systèmes

(S) ~ [ x =a - y - z et (S') = b ] .
=c
(S') est un système linéaire de deux équations, à deux inconnues, dont le déterm inant
de la m atrice associée vaut
Àµ2 - À2µ = .>..µ(µ - .>..).
Puisque x est entièrement déterminé par la donnée de y et z, on obtient que (S) est
de Cramer ssi (S') est de Cramer.
Ainsi, grâce à 1.c, on en déduit (S) est de Cramer ssi le déterminant de la m atrice
associée à (S') est non nu l, ce qui équivaut à
À =P 0 et µ =P 0 et µ =P .>..,
i.e. À et /J, sont deux réels non nu ls disti ncts.
Dans ce cas, grâce aux formules de Cram er établies en 1.c, on sait que l' unique solution
de (S') est donnée par

1 b /J, bµ - c b c - bÀ
z = Àµ(µ1 _ >.)
1 1 1
y = >.µ(µ - .>..) c µ2 = .>..(µ - >.) et
1
ÀÀ2 c - µ(µ - >.)"
Finalement, en injectant les expressions de y et z dans le sous-système x = a - y - z,
on aura réussi à inverser le système (S)
.X -- a - µ+ À b +....!....c
˵
--1!:...._b >-t
(S)=> { y= À(µ-À) - >-(µ->-)c
z= _ _À_b + µ(µ1- À) c'
µ(µ - À)

Ceci nous permet de conclure


"O

~
0
r:::: l ˵
0
:::J
v - 1= 1
- >-</-À)
)
.
lfl (
,-1
µ(µ - À)
0
N
@
.....,
r:
Ol
·;::
>
Cl.
0
On considère le système suivant
u
X+ 2y + 3z + t -2
(S) x + 2y + 6z + 3t 6
{ 2x + 2y + z -10
X+ 2y + 3z + 2t 0
104 Chapitre 4 Systèmes linéaires et matrices

1. a. Voici une fonction Scilab qui prend en argument une matrice A et un


entier i.
function B=ElimineBas(A,i)//
[n,p]=size(A); //A est de taille n*p
B=A; pivot=A(i,i); //
for k=i+1:n // boucle d'indice k
B(k,:)=pivot*A(k, :)-A(k,i)*A(i,:); //ligne mystère
end //
endfunction //
Quelle opération effectue la ligne mystère?
b. On exécute M=[1,2,3,1,-2;1,2,6,3,6;2,2,1,0,-10;1,2,3,2,0] et
N=ElimineBas(M,1).
Quel lien y a-t-il entre les matrices M, N et le système (S)?
c. En déduire, grâce à Scilab, un système (S') équivalent à (S) et préciser
les opérations élémentaires qui sont intervenues.
d. A-t-on un système équivalent à (S') (et donc à (S)) si l'on exécute la
commande P=ElimineBas (N, 2);?
2. a. Proposer une fonction Scilab d 'entête function B=Echange (A, i, j) qui
renvoie comme matrice B, une copie de A où les lignes i et j ont été
échangées.
b. Exécuter les instructions P=Echange (N, 2, 3) ; et Q=ElimineBas (P, 2) ; .
P roposer un système (S") équivalent à (S') (et donc à (S)).
(S) est-il un système de Cramer?

1.a. Lors des trois premières lignes, cette fonction :


<:; enregistre, sous les variables n et p, le nombre de lignes et de colonnes de A ;
"O
0
r::::
:::J
0 crée une matrice B copie conforme de la matrice A ;
0
lfl
0 nomme pivot l'élément (éventuellement nul!) de la matrice A situé en ligne i
,.-1
0
colonne i;
N
@ 0 introduit une boucle for ayant pour vocation de modifier exclusivement les lignes
....., de B numérotées de i +1 à n (Scilab utilise la variable k pour nommer cet indice
r:
Ol
·;:: de boucle et donc de ligne).
>
u
Cl.
0 • • • • • • • • • •
• • • • • • • • • •
Illustration : i = 3, A= • • p • • --7 B= • • p • •
• • • • • 0 0 0 0 0

• • • • • 0 0 0 0 0

Attention, les coefficients représentés ici par le symbole o et le symbole • ne sont pas
nécessairement les mêmes.
Exercice 4.6 Résolution de systèmes par Scilab 105

Convenons de noter, pour toute matrice M. L1{1, ... , L:;/ ses lignes et, avec des lett res
minuscules mk ,l . ses coefficients (en l'occurrence celui situé en ligne k et colonne f ).
La traduction de la « ligne mystère » donne alors ceci
L~ =pivot· Lt - ak,k · Lt.
On remarque en particulier que bk,i = ai,iak,i - ak,iai,i =O.
Ainsi, au final de la boucle for, seules les lignes de A situées sous le pivot sont
modifiées pour donner B et ces lignes ont toutes un coefficient nul lorsque l'on regarde
sous la colonne du pivot ... C'est l'opération type que l'on effectue avec un pivot de
Gauss .
1.b. Si l'on exécute disp(M) on obtient:
1. 2. 3. 1. -2.
1. 2. 6. 3. 6.
2. 2. 1. o. -10.
1. 2. 3. 2. O.
Ainsi les coefficients en première colonne sont ceux qui multiplient l'inconnue x dans
le système (S), on retrouve ceux multipliant les autres inconnues y, z et t en 2e, 3e et
4e colonne, enfin en 5e colonne (par souci pédagogique, une barre verticale apparaît
ici pour séparer celle-ci des autres) les coefficients sont ceux correspondant au second
membre du système. On dira que M code le système ( S) .

M code le système (S) et, après application de la fonction ElimineBas à partir du pivot
situé en ligne 1, colonne 1 ( ici pivot= 1), on obtient la matrice N qu i code le système,
obtenu à partir de (S), après application des opérations élémentaires suivantes :
L2 +--- L2 - L1
L3 +--- L3 - 2L1
L4 +--- L4 - L1

1.c. Rappelons que les opérations élémentaires, permettant de passer d 'un système à
un système équivalent, sont les opérations de type suivant
• [Dilatation) pour a un scalaire non nul : Li +----- aLi ;
"O
0
r::::
• [Échange] pour i et j deux indices de ligne distincts : Li f-+ Lj ;
:::J
0 • [Transvection] pour a un scalaire et i et j deux indices distincts: Li+----- Li - aLj .
lfl
,..-1
0
N
Ces opérations, à elles seules, permettent de mener à bon terme la méthode du pivot
@ de Gauss, et obtenir ainsi un système plus simple et équivalent au premier (notez que
.....,
r: la non nullité du scalaire a est essentielle pour la dilatation) .
Ol
ï::: Ces opérations élémentaires peuvent se combiner pour donner des combinaisons li-
>
Cl.
0
néaires qui assurent l'équivalence entre systèmes
u
• [CL2] pour a, b (scalaires et a non nul) , i,j (indices distincts) : Li+----- aLi -bLj;
• [CLn ] Pour (a1, . .. , an) n scalaires avec ai non nul Li+----- aiLi - L akLk.
k#i
Ici encore la non nullité de ai et de a joue un rôle essentiel.
106 Chapitre 4 Systèmes linéaires et matrices

Puisque la variable pivot utilisée dans N=ElimineBas(M,1) est non nulle (ici
pivot= 1), les opérations élémentaires effectuées par la fonction (voir l.b) mènent
à un système (S') (codé par N) équivalent à (S), plus précisément, pu isq ue disp(N)
nous donne
1. 2. 3. 1. - 2.
o. o. 3. 2. 8.
o. - 2. - 5. - 2. - 6. '
o. o. o. 1. 2.
on a
X +2y + 3z +t -2
3z +2t 8 L2 +---- L2 - L 1
(S) <= (S') { -2y -5z -2t -6 L3 +---- L3 - 2L1
t 2 L4 +---- L4 - L 1

Lors d'un pivot de Gauss , on peut mener simultanément plusieurs opé-


rations élémentaires du moment, comme c'est le cas ici, qu'il s'agit
d'opérations élémentaires du type CL 2
Li+---- aLi - bLj (a-/:- 0)
où les indices i utilisés sont tous différents de l'indice j servant de
référence.
Ainsi une action simultanée du type
L1 +---- L1 + L2 L2 +---- L2 - Li
et
serait ambiguë car le résultat dépendrait de l'ordre dans lequel sont
menées ces opérations.

1.d. Passant de (S) à (S') la fonction ElimineBas nous a permis d'éliminer la pré-
sence de l'inconnue x sur les 3 dernières lignes, on souhaite poursuivre le même type
d'opération et éliminer une (voire plusieurs) nouvelle inconnue ligne après ligne. Néan-
moins, il est indispensable que les systèmes obtenus soient équivalents entre eux pour
"O
0
r::::
que la recherche des solutions du premier système soit équivalente à la recherche des
0
:::J solutions du dernier système.
lfl
,--1
Pour montrer que deux systèmes ne sont pas équivalents, il suffit d'exhiber une solu-
0
N
tion d'un des deux systèmes qui n'est pas solution de l'autre.
@
.....,
r: Puisque l'instruction P=ElimineBas (N, 2) affecte la valeur 0 à la variable pivot , le
Ol
·;:: système codé par P n'est pas nécessairement équivalent à (S'). Plus précisément, on
>
Cl. obtient
0
u +2y +3z +t = -2
3z +2t = 8
(S') ==*' (S')
6z +4.t 16
0 = 0

Or la réciproque est fausse, puisque (x, y, z, t) = (0, -3, 0, 4) est solution de (S') sans
être solution de (S').
Exercice 4.7 Méthode de Gauss-Jordan 107

2 . Puisque l'échange de lignes nous donne un système équivalent, on cherche à placer,


par cette opération élémentaire, un réel non nul dans la position souhaitée (ici ligne
2 colonne 2) et ainsi pouvoir continuer le procédé d'élimination d'inconnues par la
fonction ElimineBas en s'appuyant sur ce pivot.
2.a. Selon la manière avec laquelle on choisit de procéder, il peut s'avérer important
d'introduire une variable temporaire ou copie lorsqu'il s'agit d'échanger les contenus
(ici valeurs) entre deux contenants (ici variables).

function B=Echange(A,i,j)//
B=A; //copie conforme de A
B(i,:)=A(j,:); //nouvelle ligne ide B
B(j,:)=A(i,:); //nouvelle ligne j de B
endfunction //

2.b. Nous allons exécuter les instructions proposées sur Scilab et interpréter les
systèmes codés par les matrices Scilab obtenues à l'écran.

Lorsque l'on exécute P=Echange(N,2,3), s'affiche


1. 2. 3. 1. - 2.
o. - 2. - 5. - 2. - 6.
o. o. 3. 2. 8.
O. O. O. 1. 2.
Ceci code un système (S') équivalent à (S') (puisqu'obtenu par échange de lignes)
+2y +3z +t -2
- 2y - 5z - 2t -6
(S') => (5') { x
3z +2t 8
t 2
Par suite, le coefficient en position (2, 2) étant non nul, ce pivot permet d'ob-
tenir, par l'exécution de Q=ElimineBas (P, 2), un système (S") codé par Q
"O
0 1. 2. 3. 1. - 2.
r::::
0
:::J o. - 2. - 5. - 2. - 6.
lfl o. o. - 6. - 4 . - 16 . .
,..-1
0 o. o. o. - 2. - 4.
N
Ainsi
@
....., +2y +3z +t = -2
r:
Ol - 2y - 5z - 2t -6
·;:: (S') => (S") { x
>
Cl.
- 6z - 4t - 16 L 3 +-- - 2L3
u
0 -2t = -4 L4 +-- -2L4
Ce dernier système est échelonné et de Cramer (plus exactement, la matrice associée
est une matrice triangulaire dont les coefficients diagonaux sont tous non nuls). Et
donc, par équivalence des systèmes, (S) est un système de Cramer.

On vient donc de réduire le système par la méthode du pivot de Gauss


108 Chapitre 4 Systèm es linéaires et matrices

Cet exercice fait suite à l'exercice 4.6 et reprend les mêmes objets et notations.
1. On considère la fonction Scilab ElimineHaut obtenue à partir de ElimineBas
en remplaçant la boucle « for » par for k=i -1 : -1 : 1.
Proposer une suite d'instructions Scilab, permettant d'obtenir un système
trivial équivalent à (S) et codé sous la forme
1 0 0 0 ?
0 1 0 0 ?
0 0 1 0 ?
0 0 0 1 ?
Quelle est donc l'unique solution de (S)?
2. On se propose d 'inverser la matrice A associée au système (S), pour cela on
introduit quatre nouveaux systèmes (81 ), (S2), (S3) et (S4 ) définis par
X+ 2y + 3z + t Ô1,i
(Si) x+2y + 6z +3t ô2 ,i
{ 2x + 2y + z Ô3 ,i '
X + 2y + 3z + 2t Ô4 ,i

où, pour tout (i, j) E [1, 4] 2 , le symbole t Ôi ,j vaut 1 si i = j et vaut 0 sinon.


On note C 1 ,C2,C3,C4 les colonnes de M3, 1 (1R) vérifiant respectivement

a. Quel lien y a-t-il entre ces colonnes C 1 , C2 , C3, C4 et les solutions des
systèmes (81), (S2), (S3) et (84)?
b. Montrer que C 1 , C2, C3, C 4 sont les colonnes (de la première à la dernière)
de la matrice A - 1 .
c. Proposer une suite d'instructions Scilab, à partir des fonctions
"O
0
ElimineHaut, ElimineBas, Echange, qui partant de la matrice Scilab
r:::: 1 2 3 1 1 0 0 0
:::J
0 1 2 6 3
lfl
0 1 0 0
,-1
0
2 2 1 0 0 0 1 0
N
1 2 3 2 0 0 0 1
@
....., 1 0 0 0 ? ? ? ?
r:
Ol
·;:: 0 1 0 0 ? ? ? ?
>- aboutit à la matrice Scilab ?
Cl. 0 0 1 0 ? ? ?
0
u 0 0 0 1 ? ? ? ?
d. En déduire l'expression des coefficients de A - 1 .

+. dit sym bole de Kronecker


Exercice 4.7 Méthode de Gauss-Jordan 109

1. Puisque l'élimination des coefficients sous la diagonale de la matrice M (en réalité


des inconnues du système (S)) a été obtenue par les fonctions Echange et ElimineBas,
en déplaçant la recherche du pivot de la première colonne à la dernière (et en agissant
exclusivement sur les lignes situées en dessous du pivot), le procédé consistant à elimi-
ner les coefficients au dessus de la diagonale procédera, par effet miroir, en invoquant
les fonctions Echange et ElimineHaut puis en déplaçant cette fois la recherche du
pivot de la dernière colonne à la première (et en agissant exclusivement sur les lignes
situées au dessus du pivot).
En réalité la fonction Echange ne sera pas nécessaire puisque, les systèmes étant éche-
lonnés et de Cramer à chaque étape, les coefficients diagonaux seront non nuls.
On obtient ainsi un système équivalent où chaque ligne ne fait intervenir qu'une seule
inconnue.
Pour aboutir au système réduit, où chaque inconnue apparaît sans coefficient multi-
plicateur, il suffira de procéder par dilatation sur chaque ligne.

On exécute Q=ElimineHaut (Q, i) pour i allant de 4 à 2, en procédant le cas échéant


à des échanges de ligne Q=Echange(Q,i,j) si cela s'avère nécessaire .
On obtient consécutivement :
- 2. - 4. - 6. O. 8.
Q=ElimineHaut(Q,4) --r O. 4. 10. o. 4.
o. o. 12. o. 16.
o. o. - 2.
o. - 4.
- 24. o. o.
- 48. 192.
Q=ElimineHaut(Q,3)--r
o. o. o. - 112.
48.
o. o. 12. o. 16.
o. o. o. - 2. - 4.
- 1152. o. o. o. 3840.
Q=ElimineHaut(Q,2)--r
o. 48. o. o. - 112.
o.
12. o. o.
16.
O. O. O. - 2. - 4.
Pou r tm1r on procede a la reduct1on du systeme par les dilatations sUJvantes
for i=1:4 Q(i,:)=Q(i,:)./Q(i,i); end. Etonobtientavecdisp(Q)

"O
1. o. o. o. - 3.3333333
0
r:::: o. 1. o. o. - 2.3333333
:::J
0 O. O. 1. O. 1.3333333
lfl
,..-1
o. o. o. 1. 2.
0 Ceci nous permet de conclure à l'équivalence suivante entre systèmes (on en profite
N
@ pour exprimer sous forme de fraction les valeurs approchées fournies par Scilab)
.....,

~ ~=
r: - 10/3
Ol
·;:: - 7/3
>
Cl. (S) { 4/3
0
u t= 2

2.a. Nous allons interpréter le système (Si) par une équation matricielle faisant in-
tervenir la matrice A et une colonne X qui jouera le rôle d'inconnue.
L'existence et l'unicité des colonnes C1 , ... , C4 sont garanties par le fait que, (S) étant
de Cramer, A est inversible.
110 Chapitre 4 Systèmes linéaires et matrices

X
Posons X= y ) , avec x, y, z, t quat'e 'éels. On obbent pa' calcul •
z
(
t
0

(x, y, z, t) est solution de (Si)~ AX = 1

0
Ainsi Ci est la colonne dont les coefficients forment l'unique solution du système (Si)·
2.b. Connaissant le produit de la matrice A avec les colonnes C 1 , ... , C 4 , nous allons
interpréter le produit matriciel entre deux matrices par le biais du produit de la
première matrice avec les colonnes de la deuxième matrice.

Notons B la matrice dont les colonnes sont (dans l'ordre) C1 , ... , C4.
Par produit matriciel AB est la matrice dont les colonnes sont (dans l'ordre)

ACi, . .. ,AC4 , ;e ( ~ ) , ( ~ ) , ( ~ ) , ( ~ )

Ainsi AB = f 4 et donc B est l'inverse à droite (i.e. l'i nverse tout court) de A, soit
B = A- 1 .
1
Ceci prouve bien que C1, ... , C4 sont les colonnes de A - .

2.c. Si l'on fait abstraction des quatre dernières colonnes de la matrice initiale, on
retrouve les mêmes quatre premières colonnes étudiées en question 1 (lors du codage
"O du système (5)).
0
r:::: Nous avions obtenu en 1 (et à l'aide des fonctions Scilab proposées dans cette ques-
:::J
0 tion et dans l'exercice 4.6) une mise sous forme réduite telle que souhaitée ici.
lfl
,..-1 Il nous suffit donc de reproduire le même schéma.
0
N
@
.....,
r: Notons R la matrice, de taille 4 x 8, initia le .
Ol
·;::
> R=ElimineBas(R,1); R=Echange(R,2,3); R=ElimineBas(R,2);
Cl.
0 R=ElimineHaut(R,4); R=ElimineHaut(R,3); R=ElimineHaut(R,2);
u for i=1:4 R(i,:)=R(i,:)./R(i,i); end
Ainsi disp (R); affiche le résultat suivant.
1. o. o. o. - 1.3333333 0.6666667 1. - 0.3333333
o. 1. o. o. 1.1666667 - 0.8333333 - 0.5 0.6666667
o. o. 1. o. 0.3333333 0.3333333 o. - 0.6666667
o. o. o. 1. - 1. o. o. 1.
Exercice 4.7 Méthode de Gauss-Jordan 111

2.d. Si l'on fait abstraction des trois dernières colonnes, puisque les opérations élé-
mentaires utilisées n'agissent que sur les lignes (et à aucun moment sur les colonnes),
cela revient à considérer comme matrice de départ
1 2 3 1 1
1 2 6 3 0
2 2 1 0 0
1 2 3 2 0
on aura alors codé une succession de systèmes équivalents partant de (S1 ) et aboutis-
1. o. o. o. - 1.3333333
santà
o. 1. o. o. 1.1666667
o. o. 1. o. 0.3333333
O. O. O. 1. - 1.
Grâce à la question 1, on sait que cette dernière colonne représente l'unique solution
de (S1 ), et grâce à la question 2.a on sait qu'il s'agit de C 1 .
1. o. o. o. - 1.3333333 0.6666667 1. - 0.3333333
o. 1. o. o. 1.1666667 - 0.8333333 - 0.5 0.6666667
o. o. 1. o. 0.3333333 0.3333333 o. - 0.6666667
o. o. o. 1. - 1. o. o. 1.
Î
C1
De même si l'on fait abstraction des colonnes 5, 7 et 8, c'est la colonne C2 qui aura
été codée en lieu et place de la 6e colonne affichée. Les colonne C3 et C4 sont donc
codées, par le même raisonnement, en lieu et place des colonnes 7 et 8.

1. O. O. O. - 1.3333333 0.6666667 1. - 0.3333333


O. 1. O. O. 1.1666667 - 0.8333333 - 0.5 0.6666667
O. O. 1. O. 0.3333333 0.3333333 O. - 0.6666667
o. o. o. 1. - 1. o. o. 1.
t t t t
C1 C2 C3 C4
Et donc, grâce à la question 2.b, par lecture des quatre dern ières colonnes du codage
ci-dessus, on obtient A - 1 , ce qui (par réécriture des valeurs approchées sous forme
"O
0
fractionnaire) nous donne
r::::
-4/ 3 2/3 1 -1/3

)
:::J
0
lfl A- 1= 7/6 - 5/6 - 1/2 2/3
,..-1
0
N ( 1/3 1/3 0 - 2/3
- 1 0 0 1
@
.....,
r:
Ol
ï:::
>-
Cl.

u
0

f La méthode que l'on vient d'illustrer est la méthode d'inversion de


Gauss-Jordan.
Elle consiste à procéder, pour une matrice inversible A, par le biais
d'une méthode du pivot de Gauss agissant exclusivement sur
les lignes à la transformation suivante ( A 1 In ) ---+ ( In 1 B ) .
On en déduit alors que B est l'inverse de la matrice A.
112 Chapitre 4 Systèmes linéaires et matrices

Liste des capacités attendues

• S avoir m ettre en œ uvre la m éthode du pivot d e Gauss (cf exercices 4.1,


4.3, 4.4, 4.6 et 4.7) .

• Savoir décrire les solutions d'un système linéaire (cf exercices 4. 1, 4.3, 4.4).

• Savoir obtenir l' inverse d ' une matrice carrée invers ible
() en résolvant un système linéaire (cf exercice 4.2 et question 4.5.2);

(~ ~) - ad~ be (!c -:Xb)


1
(j en utilisant 1 - 1 pour les matrices de GL2 (1K)

(cf exercice 4.5).

"O
0
r::::
:::J
0
lfl
,.-1
0
N
@
.....,
r:
Ol
·;::
>
Cl.
0
u
CHAPITRE

Espaces vectoriels et sous-espaces


vectoriels

Dans tout ce chapitre lK désigne le corps des réels IR ou celui des complexes C
Sauf mention du contraire on désignera par 0 l'élément neutre de l'espace vecto-
riel manipulé (souvent plusieurs espaces vectoriels seront manipulés et on ut ilisera
le même symbole 0 pour désigner les vecteurs nuls de chacun de ces espaces). Pour
plus de concision, on emploiera parfois le terme sous-espace pour signifier en réalité
sous-espace vectoriel de l'espace ambiant.

Étant données deux familles finies !.:, et F = U1 )jE J , on dira que !.:, est une sous-famille
de F (ou de façon équivalente que F est une sur-famille de !.:,) lorsque !.:, est ext raite
de F , autrement dit, lorsque!.:, = (fi)iEI avec I C J. On notera, par ailleurs, Card F
le cardinal de la famille F . Il s'agit du cardinal Card J de l'ensemble J indexant les
éléments de F .

"O
0
r::::
:::J
0
lfl
,.-1
0
N
@
.....,
r:
Ol
·;::
>
Cl.
0
u
114 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

1. On considère l'ensemble
A = {(x, y, z, t, u) E IR.5 x + 2y + 3z + 4t + 5u = 0 et x - y+ z - t + u
1 = O}.
a. Montrer que A est un sous-espace vectoriel de JR5 .
b. Montrer qu'il existe a, b, c trois vecteurs de JR5 tels que
A= {-\a+ µb + vc; (-\,µ, v) E JR 3 }.

c. En déduire que (a, b, c) est une base de A.


2. Soit
A'= {(x', y', z', t', u') E IR5 1 V (x, y, z, t, u) E A, xx' +yy' +zz' +tt' +uu' = O}.
a. Montrer que A' est un sous-espace vectoriel de JR5 .
b. Montrer que
A'= {(x',y',z',t',u') E 1R5 I V(x,y,z,t,u) E {a, b,c}, xx'+yy'+zz'+tt'+uu' = O}
c. En déduire une base (d, e) de A'.
3. Montrer que (a, b, c, d, e) est une base de IR.5 . Calculer, à l'aide de Scilab, les
coordonnées de (1, 2, 3, 4, 5) dans cette nouvelle base.

1.a. On commence par les vérifications préliminaires simples, on montre que A est
bien une partie de JR5 non vide. Pour montrer qu'un ensemble est non vide il suffit
d 'exhiber un « habitant » de l'ensemble, en l'occurrence, puisque A est censé être un
sous-espace vectoriel, il se doit de contenir le vecteur nul.

~I A est, par construction , une partie de JR5 . Elle est, de plus, non vide, puisque le
vecteur nu l vérifie les deux équations caractérisant les vecteurs de A.

On s'attaque, à présent, au caractère stable par combinaison linéaire.


"O
0
r::::
:::J Soient À un réel (ici on travaille sur des IR-espaces vectoriels) et a= (x, y, z , t, u),
0
lfl
a' = (x', y' , z', t' , u') deux vecteurs de A. Par construction, on a
,-1
0
N x + 2y + 3z + 4t + 5u = 0 et { x' + 2y' + 3z' + 4t' + 5u' = 0
@ { x - y +z - t +u = 0 x' - y' + z' - t' + u' = 0
.....,
r: Ainsi, en ajoutant À fois la 1e ligne du deuxième système à la 1e ligne du premier
Ol
·;::
> système (et en faisa nt de même avec la 2e), on t rouve
Cl.

u
0
(x + >.x') + 2(y +>.y') + 3(z + Àz1 ) + 4(t + >.t') + 5('u + Àu1 ) = 0
{ (x + Àx1 ) - (y + Ày 1 ) + (z + Àz1 ) - (t + Àt 1 ) + (u + Àu1 ) = 0
Ceci prouve que
a+>.o,' = (x+>.x',y + >.y',z+>.z',t +>.t',u +>.u') E A.
Et donc A est stable par combinaison linéaire, ce qui permet de concl ure que A est
un sous-espace vectoriel de JR 5 .
Exercice 5.1 Sous-espaces de ~ 5 115

Cet exemple illustre le résultat général suivant: les solutions d'un système
linéaire homogène forment un sous-espace vectoriel de JKN, où N est le
nombre d'inconnues du système.
1.b. P uisque A n'est autre que l'ensemble des solutions d'un système linéaire homo-
gène, il s'agit ici de donner l'ensemble des solutions et d'écrire cet ensemble sous forme
paramétrée.

Soit a= (x,y,z,t,u), on a, par construction,

- y+ z - t +u =0
aEA
+2y + 3z + 4t + 5u =0
- y+ z - t +u =0
3y + 2z + 5t + 4u =0

S'agissant d'un système à 2 équations et 5 inconnues (et puisqu'il est écrit sous forme
réduite par le biais du pivot de Gauss), 3 de ces inconnues peuvent jouer le rôle de
paramètre. On choisit de faire jouer ce rôle à z, t et u (i.e. les trois dernières dans
le système réduit obtenu par pivot de Gauss car ce choix nous assure que le système
obtenu, d 'inconnues x et y soit de Cramer).

Ainsi
x- y =-z+t-u
ŒE A {::::::::} { 3y = - 2z - 5t - 4'U

{~
Pour exhiber les vecteurs a, b, c on passe par une écriture en colonnes. On va ainsi
mettre en évidence une combinaison linéaire donnant la colonne associée à o:. Trois
colonnes vont s'imposer naturellement sachant que les paramètres z, t et u jouent le
rôle de coefficients dans cette combinaison linéaire.
X ? ? ?
y ? ? ?
"O
0
r:::: z =z 1 +t 0 +u 0
:::J
0 t 0 1 0
lfl
,..-1
u 0 0 1
0
N
@ Finalement
.....,
r: X -5/3 -2/3 -7/3
Ol
·;::
> y -2/3 -5/3 -4/3
Cl.
0 aEA {::::::::} z =z 1 +t 0 +u 0
u t 0 1 0
u 0 0 1
ce qui nous incite à poser, par exemple,

a=(- ~, - ~ 1 1,0,o), b=(- ~,- ~,0,1,0) et c=(- ~, - ~ , 0,0,1).


Auquel cas, a E A {::::::::} a = za + tb + 'UC.
116 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

Il s'agit à présent de montrer que A= Vect(a, b, c). L'étape qui suit est très souvent
négligée dans la plupart des corrigés car il est entendu que la méthode du pivot de
Gauss fournit bel et bien une famille génératrice. Nous allons exceptionnellement igno-
rer cette habitude et montrer concrètement que l'on a bien ici une famille génératrice.
Le résultat n'étant pas spécifique à cet énoncé, nous pourrons par la suite affirmer le
caractère générateur sans donner le détail de la preuve.

Rappelons que l'on a posé a= (x, y, z, t, u).


Ainsi, il ne faut pas confondre « a E A {::::::::} a = za + tb + uc » avec
«a E A {::::::::} [:J(z',t',u') E IR3 , a= z'a + t'b+u'c] ».
En effet, la première équivalence fait intervenir une combinaison linéaire
au travers des coefficients z, t et u (qui se trouvent être précisément
choisis comme certaines des coordonnées de a) ; quant à la deuxième
équivalence, les coefficients sont les variables muettes z', t' et u' (qui
n'ont donc aucun rapport avec les coordonnées de a) .
Hors contexte, on ne peut donc pas affirmer
a= za + tb + uc {::::::::} a E Vect(a, b, c).
On peut s'en convaincre par l'absence d'équivalence entre
(x, y, z, t, u) E Vect((2, 1, 0, 2, 1)) et (x, y, z, t, u) = t · (2, 1, 0, 2, 1).

D'après ce qu i précède on sait que a E A:::} a E Vect(a, b, c), ainsi AC Vect(a, b, c).
Or, par un calcul immédiat, on remarque que les coordonnées de a, b, c ci-dessus
vérifient bel et bien les équations caractérisant A. Ainsi on a {a, b, c} C A et donc
(A étant un espace vectoriel) Vect(a, b, c) c A.
Finalement on a, par double inclusion ,
A= Vect(a, b, c) = p.a + µb + vc; (>.., µ, v) E JR3 }.

"O Dans cette preuve on a pris soin de vérifier que a, b, c sont bel et bien des éléments
0
r::::
:::J
de A. Cette vérification est un moyen précieux pour conforter l'idée que nous n'avons
0 pas commis d'erreurs dans nos calculs (il y a présomption de non erreur).
lfl
,.-1
0
N
@
....., Il va de soi que la solution proposée n'est pas unique (il n'y a pas
r:
Ol
·;::
d'unicité lorsqu'il s'agit de trouver une famille génératrice d'un espace
>
Cl. vectoriel).
0
u On peut proposer, afin de rendre les calculs à venir plus commodes, de
changer une famille génératrice ('v 1 , . . . , vp) en une autre obtenue par
multiplication des vecteurs par des scalaires tous non nuls ..\ 1 , ... , Àp :
(À 1 · V1, ... , Àp · Vp)
Exercice 5.1 Sous-espaces de ~ 5 117

~1
Puisq ue changer (a,b,c) en (- 3a,-3b, - 3c) n'altère en rien le caract ère générateur,
on considère, à parti r de maintenant,
a= (5, 2, -3, 0, 0), b = (2, 5, 0, -3, 0) et c = (7, 4, 0, 0, -3) .

1.c . On sait que, par construction, (a, b, c) est une famille génératrice de A. Il nous
suffit donc de montrer que cette famille est libre.

Soient À, µ, v trois réels tels que Àa + µb + vc =O.


Ainsi, en identifiant chacune des coordonnées du membre de gauche à celle du membre
de droite, on t rouve
5À +2µ +7v =0
2À +5µ +4v =0
- 3À =0
- 3µ =0
- 3v =0
D 'où, grâce aux t rois dern ières lignes de ce système, À = µ = v = 0, ce qui prouve
que (a, b, c) est libre.
Puisque, par ailleurs, (a ,b,c) est, par const ruct ion , générateur de Vect(a, b, c), on en
déduit , grâce à 1.b, que (a , b, c) est une base de A .

Le caractère générateur de la famille obtenue par pivot de Gauss à


partir d'un système linéaire est, très souvent, chose admise dans les
corrections proposées. De même, comme le démontrera l'exercice 5.6,
le caractère libre de cette famille est inhérent au procédé du pivot de
Gauss.
Ainsi, la pratique veut que, lorsqu'il s'agit de résoudre un système li-
néaire homogène (S) à n inconnues et que celui-ci abouti par la méthode
du pivot de Gauss à
(x1, ... , Xn) solution de (S) <=:> x =Xi ai + Xjaj + · · · + Xmam ,
on puisse alors affirmer que (ai, aj, ... , am) constitue une base de l'en-
semble des solutions de (S).
"O
0
r::::
:::J
0 2.a. Tout comme A, A' est caractérisé par des équations linéaires, mais contrairement
lfl
,..-1
0
à A, il ne s'agit pas d'un nombre fini d 'équations.
N
On aboutit néanmoins à un sous-espace vectoriel car une interse ction d ' es paces
@
....., vectoriels est un espace vectoriel et
r:
Ol
·;::
>
Cl.
0
A' = n
(x,y,z,t,u)EA
{(x',y' ,z' ,t',u') E ~5 1 xx' + yy' +zz' + tt' + uu' = 0}.
u
Laissons cet argument, on va ici ut iliser la méthode employée en 1.a.

~1
Par const ruct ion A' est une part ie de ffi. 5 et, pu isque 0 est de façon évident e un
élément de A', il est non vide.
Soient À un réel ( ici on t ravail le sur des ffi.-espaces vectoriels) et deux vecteurs de A'
ai= (x1, y1 ,z1, t 1,u1) et a2 = (x2,y2,z2,t2,'u2).
118 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

Par construction, on a

V(x,y , z,t, u) E A,
XXI + YYI + ZZ1 + tt1 + UU1 =0
{ XX2 + YY2 + ZZ2 + tt2 + 'U'U2 =0
On en déduit, par l'opération L1 + ÀL2,
V (x, y,z, t , u) E A, x(x1 +Àx2) + y(y1 +Ày2)+z(z1 +Àz2)+t(t1 +Àt2)+u(u1 +Àu2) =O.
Ceci prouve que
a1 + Àa2 = (x1 + ÀX2, Y1 + Ày2 , z1 + Àz2, t1 + Àt2 , u1 + Àu2) E A'.
Et donc A' est stable par combinaison linéaire, ce qu i permet de conclure que A' est
un sous-espace vectoriel de ~5 .

2.b. Une inclusion est évidente et repose sur le principe du «qui peut le plus peut le
moins».

~1
Pu isque a, b et c sont t rois éléments particuliers de A, on a de façon évidente
E ~5
1 1 1 1 1
A' C {(x ,y ,z ,t ,u ) 1 V(x, y ,z,t,u) E {a,b,c}, xx'+yy'+zz'+ tt'+uu' = O}.

Pour l'inclusion réciproque, on va exploiter le fait que (a, b, c) est génératrice de A et


ainsi modifier la quantification V (x, y, z, t, u) E A par V (x, y, z, t , u) E {a, b, c}.

. ( x 1 , y 1 , z 1 , t' , u 1) E 1!l>5
Soit Jl'li.. te 1que
V (x, y , z, t , u) E {a, b, c}, xx' + yy' + zz' + tt' + uu' = 0, on a alors
aix' + a2y' + a3z' + a4t' + a5t' = 0
(E) b1x' + b2y' + b3z' + b4t' + bst' = 0
{
C1X1 + C2y' + C3Z + C4t +est' = 0
1 1

où a= (a1, ... ,a5),b= (b1, ... , b5),c= (c1, ... ,c5) .

En gardant les expressions littérales pour les coordonnées de a, b et c (au lieu des
valeurs explicites calculées précédemment), on obtient un double avantage : le premier
est que nous évitons que des erreurs de calculs éventuelles, commises précédemment,
viennent compromettre notre tâche actuelle; le deuxième est la mise en évidence du
u
0
fait que le choix particulier fait pour (a, b, c), dans notre corrigé, n'influence en rien
§ la validité du résultat.
0
lfl
,..-1
0 Soit (x, y, z, t, u) un vecteur quelconque de A, on sait d'après l.b que
N
@ (x , y , z, t , u) = Àa + µb + vc = (Àa1 + µb 1 + vc1 , ... , Àa5 + µbs + vc5).
.....,
r:
Ol
Or, si l'on agit sur les lignes du système (E) selon l'opération ÀL1 + µL2 + vL3, on
ï::: obtient
>
Cl.
0 (Àa1 +µhi + vc1)x1 + · · · + (Àa5 + µb s + vc5)u1 = 0,
u
i.e. xx' + yy' + zz' + tt' + uu' = 0 et ce quel que soit (x, y, z, t, u) E A. C'est donc
que (x', y', z', t', 'u') E A' et donc l'inclusion réciproque
{(x',y',z',t',u') E ~5 1 V(x,y,z,t,u) E {a,b,c}, xx'+yy' + zz' +tt'+uu' = O} CA'
est établie, ce qu i, finalement, prouve l'égalité par double inclusion :
E ~5
1 1 1 1 1
A'= {(x ,y ,z ,t ,u ) 1 V(x, y ,z,t,u) E {a,b,c}, xx'+yy'+zz'+ tt'+uu' = O}.
Exercice 5.1 Sous-espaces de ~ 5 119

2.c. Puisque, grâce à ce qui précède, A' s'écrit comme l'ensemble des solutions d'un
système homogène (à savoir (E)), on va reproduire ici les méthodes utilisées en 1.b
et 1.c.

Soit a= (x,y,z,t,u), on a d'après ce qui précède


5x + 2y -3z =0
a E A' {::::::::} 2x +5y -3t =0
{
7x +4y -3u = 0

S'agissant d'un système à 3 équations et 5 inconnues, on constate après une réduction


de Gauss que 2 de ces inconnues (bien choisies) peuvent jouer le rôle de paramètre.
On choisira ici de faire jouer ce rôle à t et u (la mise sous forme réduite du système
par pivot de Gauss nous assure que le système obtenu, d 'inconnues x, y, z, sera de
Cramer)
Ai nsi
5x +2y - 3z =0
a E A' {::::::::}
{ 2x
27x
+5y - 3t
+12t
=0
-15u = 0 L3 +--- 5L3 - 4L2
-3z + 2y 5x =0
{ +5y + 2x
+ 27x
- 3t
+12t
=0
- 15u = 0
Cette mise sous forme réduite par le biais d ' un pivot de Gauss nous incite à considérer
t et u comme paramètres, d 'où le système de Cramer d 'inconnues z, y, x
- 3z + 2y + 5x 0 27x = - 12t + 15u
a E A' {::::::::}
{ 5y + 2x
27x
=
=
3t
-12t + 15u
{::::::::}
{
27y
27z
= 2lt - 6u
= -6t + 2lu
Finalement
X -4 5
y 7 -2
t u
a E A' {::::::::} z -2 +- 7
9 9
t 9 0
'U 0 9
"O
0
r:::: Ainsi, en posant
:::J
0 d=(-4,7,-2,9,0) et e=(5,-2,7,0,9),
lfl
,..-1
0 on montre, de man ière ana logue à ce qu i a été fait en 1.b et 1.c, que (d, e) est une
N
base de A'.
@
.....,
r: Remarquons que le système était initialement sous forme réduite (à condition de chan-
Ol
ï::: ger l'ordre d'apparition des inconnues). Ainsi, en faisant jouer le rôle de paramètres
>
Cl.
0
à x et y , on avait la possibilité de proposer directement ((3,0, 5,2, 7) , (0,3,2,5, 4))
u comme base de A', puisque
X 3 0
3 5x + 2y y 0 3
+~
X
a E A' {::::::::} { z 3t 2x + 5y z 5 2
3 3
3u = 7x+4y t 2 5
u 7 4
120 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

Grâce au petit script Scilab ci-dessous, on vérifie que d et e sont bel et bien deux
vecteurs de A', ainsi il y a présomption de non erreur.
a=[5,2,-3,0,0] ;b=[2,5,0,-3,0] ;c=[7,4,0,0,-3];
d=[-4,7,-2,9,0] ;e=[5,-2,7,0,9];
disp(sum(a.*d));disp(sum(b.*d));disp(sum(c.*d));
disp(sum(a.*e));disp(sum(b.*e));disp(sum(c.*e));

3 . Lorsque la notion sera introduite au second semestre, on saura que la question


posée ici revient à montrer que An A' = {O} (on dira alors que A et A' sont en
somme directe et on prouvera, grâce à cela, qu'ils sont supplémentaires, i.e. qu'une
concaténation de leurs bases donne une base de IR5 ).
Nous allons développer ici la méthode suscitée par la définition de ce qu'est une base :
au lieu de montrer que la famille est libre, puis montrer qu'elle est génératrice (ce
qui serait fastidieux en raison du dédoublement des calculs) , nous allons montrer que
tout vecteur (a, /3, 'Y, ô, c;) de JR5 admet une unique décomposition comme combinaison
linéaire de vecteurs de la famille (a, b, c, d, e).

o,
Pour (a, {3, f', ê) de IR5 fixé, il s'agit d'étudier les sol utions de l'éq uation (où les
scalaires x, y, z, t, u sont les inconnues)
xo. + yb + zc + td + ue =(a, {3,/, O,ê).
Ainsi, en identifia nt les coordonnées du membre de gauche à celles du membre de
d roite, on trouve
5x +2y +7z -4t +5u =a
2x +5y +4z +7t -2u =!3
(S) - 3x - 2t +7u =f'
- 3y 9t =o
-3z +9u =ê
Étant donné l'all ure des trois dernières lignes, nous pouvons exprimer aisément, à partir
de ces t rois lignes, les inconnues x, y et z en fonction de t et u,
(*) 3x = - !' - 2t + 7u, 3y = -o+ 9t, 3z = - ê + 9u.
"O En injectant ces relations dans les deux premières éq uations de (S) (q ue l'on aura au
0
r:::: préa lable multipliées par 3) on trouve
:::J
0
lfl 5(--y - 2t + 7u) +2(-8 + 9t) +7(-ê + 9u) -12t +15u = 3a
,..-1 (S') { 2(--y - 2t + 7u)
0 +5(-8 + 9t) +4(-ê + 9u) +21t -6u = 3/3
N
@ Ainsi
.....,
r: , { - 4t +113u =3a+5!'+28+7ê
Ol
·;:: (S ) ~ 62t + 44u = 3{3 + 2/ + 58 + 4ê
>
Cl. Or ce système est de Cramer (puisque - 4 x 44 - 113 x 62 # 0) ainsi t et u sont
0
u un iquement déterminés à partir de (a, /3, /', 8, ê) et, par suite, il en va de même pou r
x,y et z grâce à(*). Ceci prouve l'existence et l' unicité de la décomposition et montre
donc que (a, b, c, d, e) est une base de JR5 .

On pouvait procéder par la méthode du pivot de Gauss et ainsi montrer que, (S)
étant de Cramer, (a, b, c, d, e) est une base de JR5 .
E n effet, la méthode du pivot est ici grandement facilitée par l'allure du système qui
Exercice 5.1 Sous-espaces de ~ 5 121

nous incite à permuter les lignes de la façon suivante


-3x -2t +7u = /
- 3y 9t = 0
- 3z +9u = E:
5x + 2y +7z -4t +5u =a
2x +5y +4z +7t - 2u = fJ
Ainsi le pivot continue par
- 2t +7u =/
-3y 9t =5
(S) ~ - 3z +9u = €
6y +2lz - 22t +50u = 3a + 5/ L4 +----- 3L4 + 5L 1
l5y +12z +l7t +8u = 3/3 + 21 L 5 +----- 3L5 + 2L 1
-3x - 2t +7u = /
ffi 9t = 0
-3z +9u = E:
21z - 4t +50u = 3a + 51 + 25 L4 +----- L4 + 2L2
12z + 62t +8u = 3/3 + 21 + 5o Ls +----- Ls + 5L2
-3x - 2t +7u = 1
- 3y 9t =O
l -3 lz +9u = é
- 4t +ll3u = 3a + 51+25 + 7ê
+ 62t +44u = 3fJ + 21 + 5o + 4s
le dernier système ayant été obtenu après les transvections
L4 +----- L4 + 7L3 et L5 +----- L s + 4L3.
On en déduit alors, grâce à la transvection Ls +----- 2Ls + 31L4 ,
- 3x - 2t +7u = 1
-3y 9t = 5
(S) ~ - 3z +9u = ê
"O
0
1-4lt +ll3u = 3a + 51 + 25 + 7.s
r:::: 359lu = 93a + 6/3 + 159/ + 725 + 225é
:::J
0
lfl
Ce dernier système est échelonné et de Cramer donc (S) est de Cramer.
,..-1
0 Si l'on avait continué jusqu'au bout les calculs, on aurait abouti à inverser la matrice
N
@
P associée au système (S) .
....., On remarque que les colonnes de la matrice P reproduisent les coordonnées des vec-
r:
Ol
·;:: teurs a, b, c, d, e dans la base canonique et puisque le système s'écrit
>
Cl.
0 X a X a
u y y
/3 /3
p z ceci étant équivalent à z = p-I I
I
t 0 t 0
u é u ê

on en déduit un moyen très simple pour calculer les coordonnées dans la nouvelle base
122 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

1
2
(a,b,c, d,e) du vecteur (1,2, 3,4,5). Il suffit de calculer p- 1 3
4
5

P=[[5,2,7,-4,5];[2,5,4,7,-2];[-3,0,0,-2,7];[0,-3,0,9,0]; [0,0,-3,0,9]];
C=P-{-1}*[1;2;3;4;5]

Le résultat affiché correspond alors aux coordonnées demandées.

Bien sûr les coordonnées calculées ici sont celles spécifiques à la base choisie dans ce
corrigé. Si l'on avait fait un tout autre choix de base, nous aurions sans doute trouvé
un résultat différent. Par ailleurs, l'instruction :
disp(C(l, 1)*a+C(2, 1)*b+C(3, 1)*c+C(4, 1)*d+C(5 , 1)*e); renvoie le vecteur
xa+ yb + zc+ td+ eu, où x, y, z, t, u sont les coordonnées obtenues par les instructions
Scilab précédentes.
À l'exécution du script on trouve 1. 2. 3. 4. 5. ce qui nous fait
comprendre que le premier script proposé fonctionne convenablement.
Tout sou s-es pace F de ocn peut s'écrire comme solution d ' un système (S)
linéaire homogène à n inconnues, les équations de (S) sont dites les équa-
tions cartésiennes de F. On vient d'illustrer comment passer des équations
cartésiennes à la détermination d'une base. Dans l'exercice qui suit nous
allons illustrer la démarche inverse.

Exercice 5. 2 : Équations cartésiennes et paramétrisation

On appelle équations cartésiennes d'un sous-espace F de ocn, la donnée d'un


système (S) à n inconnues tel que
F = {x E ocn 1 X est solution de (S)}.
Le but de l'exercice est d'illustrer, par un exemple, que tout sous-espace vectoriel
F admet des équations cartésiennes~. Puisque tout sous-espace de ocn admet une
"O
0
r::::
base, nous allons choisir un exemple à partir d 'une famille jouant le rôle de base.
0
:::J
On considère ici F , le sous-espace de JK5 dont une base B est constituée des
lfl
,.-1
vecteurs f = (1, - 1, 3, 4, 5) et g = (1, - 1, 1, - 1, 1).
0
N 1. Montrer que, pour tout (x,y,z,t,u) E IK5 , on a l'équivalence
@
....., a +b =X
r:
Ol
·;:: -a -b =y
>
Cl. (x,y,z,t,u) E F {:::::::::> 3(a,b) E IK 2 , (E) 3a +b =Z
0
u 4a -b =t
5a +b =u

~· Ce système peut même être choisi de façon à contenir n - r équations avec r = dim F
Exercice 5.2 Équations cartésiennes et paramétrisation 123

2. Montrer que (E) équivaut à un système à 3 équations, dont les inconnues sont
exclusivement (x, y, z , t), et un système à deux équations donnant les valeurs
de a et ben fonction de (x, y, z, t).
3. Conclure.

1. Puisque Best une base de F, on peut écrire F = Vect (f,g) . Ainsi les éléments de
F sont les combinaisons linéaires de f et g. Ceci va nous permettre de paramétrer
l'ensemble F .

Soit (x,y,z,t,u) E JK 5 , pu isqu e F = Vect(f,g) , on en déduit


(x,y,z,t,u)EF ~ (3(a,b)ElK2 , (x,y,z,t,u)=af+bg).
D 'où , en écriva nt le syst ème correspond ant à l' ident ifica tion coordonnée par coordon-
née entre les deux membres de l'égalité ci-dessus,
a +b =x
-a -b =y
2
(x,y,z,t,u)EF ~ 3(a,b)ElK , 3a +b =z
4a - b =t
5a +b =U

2. Il s'agit d 'éliminer les paramètres a et b dans le système (E) . Pour cela on va


appliquant la méthode du pivot de Gauss qui nous fournira deux premières équations
donnant accès aux valeurs de a et b (en fonction de x, y et z ) suivi de trois équations
(de compatibilité) où ni a ni b ne seront présents.

~ a +b =x
0 =x+y L2 +-- L2 + L1
- 2b = - 3x + z L3 +-- L3 - 3L1
-5b = -4x + t L4 +-- L4 - 4L1
"O
-4b = -5x +u L5 +-- L5 - 5L1
0
r:::: a +b =X
:::J
0 - 2b = -3x + z L2 f------7 L3
lfl
,.-1 0 = x+y
0
N - 5b = - 4x + t
@
....., - 4b = - 5x + u
r:
Ol a +b =x
·;::
> -2b = -3x + z
Cl.

u
0 0 =x+y
0 = 7x - 5z + 2t L4 +-- 2L4 - 5L2
0 = x - 2z + u Ls +-- Ls - 2L2

Fi nalement

(E) <==> [(S,) { :


=
z - x
2
3x - z
2
et (S2)
{
x+y
7x - 5z + 2t
x - 2z +u
=
= 0

0 l
.
124 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

On a profité ici de la linéarité du système ('E) pour appliquer mécaniquement la


méthode du pivot. Néanmoins il existe une méthode d'élimination des paramètres
(dans un système d 'équations comportant plus d'équations que de paramètres) qui
s'applique à tout système linéaire et à certains systèmes non linéaires. Il s'agit d'ex-
traire du système un sous-système (ici, par exemple, les lignes 1 et 3 de (E)) dont
la résolution permet de déterminer les paramètres (a et b) en fonction des variables
(x, y, z, t et u) , puis, en injectant les valeurs obtenues pour les paramètres (a et b)
dans les équations restantes, on obtient le système correspondant aux équations de
compatibilité.

+b
+b
=X
=z
et (5~) { ~:
5a
-b
-b
+b
=y
=t
=u
l .

(5D est de Cramer {puisque 1 x 1- 1 x 3 # 0). D 'ailleurs l'un ique solution de (SD
est donnée par
Z - X 3x - Z
a= - - et b= .
2 2
Finalement, en injecta nt ces valeurs de a et b dans (S~) on trouve
z - x
3x - z
2

2
et (52)
{
7x +
X -
x+y
- 5z + 2t
2z
:~ l·
+ U =0

3 . Puisque le quantificateur annonce l'existence d'un couple de paramètres et que,


par la suite, (BD précise la valeur de ces paramètres, on peut procéder à l'élimination
physique (on liquide, on ventile, on disperse ... ) de a et b dans l'équivalence posée en 1.

l
D 'après ce qu i précède, (x, y, z, t, u) E F équivaut à
z-x x+y
3x~z 7x + - 5z + 2t 0
"O =
0 et (S2) = 0 .
r:::: {
:::J
2 x - 2z + u =0
0
lfl
,..-1 Or, a et b n'intervenant pas dans le système (S2). ce qu i précède équ ivaut encore à
0

Fz ) -5;-c:2~ ~
N
@ 2
....., 3 (a, b) E K ; (S1 ) { ab = :. et (52) { 7x + :
r: ( X - 2z + U = 0
Ol
ï:::
>
Cl.
~
z-x
x;z
u
0 Finalement, puisque 3 (a, b) E K
2
, (51) { : 3 est vraie, et ce quelles

que soient les valeurs de x, y et z , on en déduit l'équivalence


x+y =0
(x,y,z,t,u) E F ~ (S2) 7x + -5z + 2t = 0
{ X- 2z + 'U = 0
On a finalement trouvé un système d 'équations cartésiennes de F, à savoir (52 ).
Exercice 5.3 Espace de suites 125

1. On note S(JR) le IR-espace vectoriel des suites réelles.


a . Montrer que l'ensemble B des suites bornées de S(JR) est un sous-espace
vectoriel de S(IR).
b. Montrer que l'ensemble S 0 (JR) des suites de S(JR) qui tendent vers 0 est
un sous-espace vectoriel de B.
2. Soit r un élément de IR. On note 9r l'ensemble des suites géométriques de
raison r, et on note Q l'ensemble des suites géométriques (quelles que soient
leurs raisons).
a. Montrer que, pour tout r E IR, 9r est un sous-espace vectoriel de S(JR).
b. Donner une condition nécessaire et suffisante sur r pour que 9r soit un
sous-espace vectoriel de S 0 (1R) (resp. de B).
c . Q est-il un sous-espace vectoriel de S(IR)?
3. Soit r un réel. On note Ar l'ensemble des suites arithmétiques de raison r, et on
note A l'ensemble des suites arithmétiques (quelles que soient leurs raisons).
a. Pour quelle(s) valeur(s) der E IR, A r est-il sous-espace vectoriel de S(IR)?
b. Montrer que A est un sous-espace vectoriel de S(IR) et préciser une base.

1.a. Constatations préliminaires ...

~I B est , par construction, une partie de S(IR) et , puisque la suit e nulle est bornée, B
est non vide.

Il s'agit de montrer à présent qu'une combinaison linéaire de suites bornées est une
suite bornée.

Soient À un scalaire et u , v deux suites de B, pu isq u'elles sont bornées, on peut donc
"O
0
r::::
t rouver deux réels Mu et M v tels que 'in EN, lun l ~ Mu et lvnl ~ M v.
:::J Posons w = À U + v , on a alors par inégalité tria ngulaire
0
lfl
,.-1 'in EN, l.X.un + Vn l ~ l.X.I · lunl + lvn l ~ l.X.I · Mu+ Mv .
0
N Ainsi V n E N, lwnl ~ l.X.I · Mu + M.u et donc w est bornée, ce qu i prouve bien
@
....., que .X.·u + v E B. Finalement, grâce à cette stabilité par com binaison li néaire, on peut
r: concl ure q ue Best un sous-espace vectoriel de S(IR) .
Ol
ï:::
>
Cl.
0
1 . b . Constatations préliminaires ....
u

~I
D ' après le cours t o ute suite convergent e est bornée, on a donc So (IR) C B . Par
ailleurs, puisque la suit e nu lle t end vers 0, So(IR) est no n vide.

Il s 'agit de montrer à présent que toute combinaison linéaire de suites tendant vers 0
tend elle aussi vers O.
126 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

Soient À un scalaire et u, v deux suites de So(IR). Par construction,


lim Un = 0 et lim Vn = 0.
n~+= n~+=

Si l'on pose w = >.u + v, on obt ient alors, par linéarité de la limite, que w converge
et que sa limite vaut
lim Wn = À lirn 'Un+ lirn Vn =O.
n~ + = n~+= n~ + =

Finalement >.u + v E So(IR) et donc, grâce à cette stabilité par combinaison linéaire,
on peut conclure que So(IR) est un sous-espace vectoriel de B.

Lorsque A est un sous-espace de B et B un sous-espace de C, on en


déduit que A est un sous-espace de C .
On peut donc dire que S 0 (1R) est un sous-espace vectoriel de S(JR).

2.a. Soit r E IR, commençons par les constatations préliminaires.

~1
La suite nulle étant bien géométrique de ra ison r (et de prem ier terme nu l), on en
dédu it que 9r est non vide pu isque contenant la suite nu lle. Par ailleurs, on a, par
construction , 9r C S(IR).

Il s'agit de montrer, à présent, qu 'une combinaison linéaire de suites géométriques de


raison r est, encore, une suite géométrique de raison r.

Soient >. un scalaire et ·u, v deux suites de 9r. Par construction ,


Vn EN, Un+l = run et Vn+l = rvn.
Posons w = >.·u + v, on a alors
Vn EN , Wn+l = ÀUn+l + Vn+ l = Àrun + rvn = r(Àun + Vn) = rwn.
Ainsi >.u + v E 9r et donc, grâce à cette stabilité par combinaison linéaire, on peut
conclure que 9r est un sous-espace vectoriel de S(IR).

"O
0
r::::
:::J
0 Étant donné que
lfl
,.-1
0
N
UE Yr {::::::::} Vn E N, Un = uorn {::::::::} u = Uo (rn )nEN,
@
....., Yr = Vect((rn)nEN ).
r:
Ol On prouve ainsi que Yr est sous-espace vectoriel de S(JR). C'est même,
·;::
>
Cl.
lorsque r -=/= 0, une droite vectorielle.
0
u

2.b. Cherchons d 'abord une condition nécessaire pour que Yr soit inclus dans S 0 (1R)
(resp. dans B). P our cela on commencera par étudier les limites éventuelles d 'une
suite géométrique de raison r . On discutera en fonction de la position de la raison r
relat ivement à l'intervalle d'extrémités -1 et 1.
Exercice 5.3 Espace de suites 127

Soit u une suite de 9r. on a alors 'c:/n EN, Un= uorn.


Dans le cas uo = 0, il s'agit de la suite nulle qui est bornée et qui tend vers O. Dans
le cas contraire, on trouve :
• Sir E] -1 , l[, alors lim rn = 0 et u converge avec limite nulle (i.e. u E So(IR) ),
n-++oo
à plus forte raison elle est bornée (i.e. u E B).
• si r= 1 alors u est la suite constante égal à uo, elle est donc bornée (i.e. u E B),
en revanche elle ne tend pas vers 0 (sa limite est uo # 0).
• Sir= - 1 alors 'c:/n EN, u2n = uo et u2n+1 = - uo.
Ainsi, ne prenant que deux valeurs, u est bornée (i.e. u E B). En revanche, même
si les suites extraites (u2n)nEN et (u2n+1)nEN convergent bel et bien, la suite une
converge pas car ces deux sous-suites n'ont pas même limite {ici uo # -uo).
• Si lr l > lim lrnl = +oo , ce qui prouve que lim lunl = +oo. On en
1 alors
n-++oo n -+ +oo
déduit que u n'est pas bornée et à plus forte raison elle ne tend pas vers 0 (il se
peut même qu'elle n'admette pas de limite).
Finalement, on peut conclure que
9r C B <=? r E [-1, l] et 9r C So (~) <=? r E] - 1, l [.

Si A et B sont deux sous-espaces d'un espace vectoriel E alors :


A C B ssi A est un sous-espace vectoriel de B.

9r et B sont des sous-espaces vectoriels de S(~). on en déduit que


Puisque
9r est un sous-espace vectoriel de B <=? r E [- 1, l ].
De même, puisque 9r et So(~) sont des sous-espaces vectoriels de S(~).
9r est un sous-espace vectoriel de So (IR) <=? r E] - 1, l[.

2.c. Les constatations préliminaires ne posent aucun problème. En effet Ç} est une
partie non vide (elle contient même la suite nulle) de S(JR).
"O
0 En revanche, lorsqu'il s'agit de vérifier qu'une combinaison linéaire de suites géomé-
r::::
0
:::J triques est encore une suite géométrique, le fait qu'ici les raisons peuvent différer va
lfl empêcher la stabilité souhaitée.
,--1
0
N
Notons u et v les deux suites définies par 'c:/ n E N, Un = 1 et Vn = 2n,
@
....., u et v sont donc deux suites géométriques {de raisons respectives 1 et 2) .
r:
Ol Si, par l'absurde, ç; est un sous-espace vectoriel, on peut affirmer que u + v est
·;::
> également une suite géométrique, notons r sa raison. Ceci nous donne
Cl.
0
u 'c:/n EN, (u + v)n = (u + v)orn i.e. 'c:/n EN, Un + Vn = (uo + vo)rn .
Ainsi 'c:/n EN, 1 + 2n = 2rn. En particulier pour n = 1 puis pour n = 2, on trouve
1 1 2 2 3 2 5
1+2 = 2r et 1+2 = 2r i.e. r = 2 et r = 2·
La contradiction 32 ) 2 --
(- ~
~ nous assure que Ç n'est pas un sous-espace vectoriel
de S(~) .
128 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

3.a. Dès les constatations préliminaires on trouve des valeurs de r qui interdisent la
structure d'espace vectoriel de Ar.

Ar est manifestement une partie de S(~) de plus non vide, puisqu 'elle contient la
suite de terme général r · n. En revanche la suite nulle appartient à Ar ssi
'c:/nE N, 0
'-v-"
0
'-v-"
+ r
'
terme d 'ind ice n + 1 terme d'indice n

i.e. ssi r = O. Ainsi, si A r est un sous-espace vectoriel alors nécessairement r = O.

Vérifions s'il s'agit d'une condition suffisante.

Si r = 0 alors A r n 'est autre que l'ensemble des suites constantes, que l'on peut
identifier à ~-
On savait déjà qu'il s'agit d'une partie non vide de S(~) et grâce à cette identification
(et dû au fait que les opérations d'addition entre vecteurs (resp. de produit par un
scalaire) coïncident dans cette identification), on en dédu it que Ar est bien un sous-
espace vectoriel de S(~) . Fina lement la condition nécessa ire et suffisante est r =O.

3.b. On va ici exposer une méthode différente de celles développées jusqu'ici.

Pour toute suite u on a


u EA {::::::::} 3 r E ~ ' u E A r {::::::::} 3 r E ~ ' 'c:/ n E N, Un = uo + n · r
{::::::::} 3r E ~' u = uo · (l)nEN + r · (n)nEN·
Par ailleurs, pour tous À et r réels on a
U = Uo · (n)nEN {::::::::} 3 À E ~' U = À· (l)nEN + r · (n)nEN ·
(l)nEN + r ·

En effet, en évaluant l'égalité pour n = 0, on trouve À = uo ce qui donne l'implication


réciproque (l'implication directe est elle évidente).
Finalement on obtient l'équivalence
uE A {::::::::} 3(r,À)E~ ,
2
U =À·(l)nEN + r·(n)nEN·
Ceci prouve que A= Vect ( (l)nEN, (n)nEN) . Ainsi A est un sous-espace vectoriel de

S(~) et ( (l)nEN, (n)nEN) est une famille génératrice de A.


"O
0
r::::
:::J
Il nous faut à présent t rouver une base de A. D'après le théorème de la base incomplète
0
lfl
cette base peut être extraite de la famille[, = ( (l)nEf\!, (n)nEN). On montre ici que
,..-1
0
N
la famille tout entière est libre.
@
....., Soient a et b deux scalaires tels que a· (l)nEN + b · (n)nEN =O .
r:
Ol
·;:: On en déduit, par identification des termes d 'ind ices n = 0 et n = 1,
>
Cl. 0
u
0 a b
{ a+ = i.e. a = b = O.
= 0
Ceci prouve que la famille !:., est libre. Comme, de plus, il a été établi qu 'elle est
génératrice de A, on peut conclure que ( (l)nEN, (n)nEN) est une base de A.

Cont rairement au cas des suites géométriques, c'est le fait que la raison n'ait pas été
fixée à l'avance qui a permis d'aboutir à la structure d 'espace vectoriel.
Exercice 5.4 Famille de polynômes 129

1. B = {P E IR4[X] 1 P(O) = 0}.


Montrer que B est un sous-espace vectoriel de IR 4 [X] et donner une base B de
B extraite de la base canonique de IR4 [X].
2. A= {P E IR4[X] 1 P(4) = 0}.
Montrer que A est un sous-espace vectoriel de IR 4 [X] et donner une base A de
A constituée de puissances de X - 4.
3. Soit C =An B, on pose W = X(X - 4).
a. Montrer que C un sous-espace vectoriel de A et de B.
b. Montrer à l'aide d'une division euclidienne que
C = {tt! x T; TE IR2[X]}.
c. Trouver une base C de C constituée de polynômes tous multiples de W
(rappelons qu'un polynôme Pest dit multiple d'un polynôme Q, lorsque
l'on peut trouver un polynôme R tel que P = QR).

1. Pour un polynôme P , la relation P(O) = 0 équivaut à dire que le coefficient constant


de P est nul.

L'ensemble Best l'ensemble des polynômes de JR 4 [X] dont le coefficient constant est
nul , c'est donc l'ensemble des polynômes P qui s'écrivent sous la forme
P = aX 4+ bX3 + cX2 + dX avec (a, b, c, d) E lR4 .
Ainsi B = {aX4 + bX 3 + cX 2 + dX; (a, b, c, d) E JR4 } = Vect(X, X 2 , X 3 , X 4 ). Ceci
2 3 , X4)
prouve que B est un sous-espace vectoriel de JR4 [X] et que B = (X, X , X est
une famille génératrice de B.

Afin de déterminer que B est une base, il suffit de montrer que cette famille est libre.
Pour cela il suffit de constater que la base canonique (1, X , X 2,X 3 ,X4) est libre.
"O

~I
0
r:::: Puisque la base canonique de JR4[X] est libre, on en déduit que la famille extraite B
:::J
0 est libre. Finalement Best bien une base de B extraite de la base canonique de ~ [X] .
lfl
,..-1
0 2. Constatations préliminaires ...
N

~I
@
....., A est, par construction, un sous-ensemble de 1R1[X] et, puisque le polynôme nul
r:
Ol
·;::
s'annule en 4, A contient le polynôme nul et est donc non vide.
>
Cl.
0 Montrons à présent que A est stable par combinaison linéaire.
u
Soient À un scalaire et P, Q deux polynômes de A. Par construction
P(4)=0 et Q(4)=0.
Donc (.X.P + Q)(4) = .X.P(4) + Q(4) =O. i.e . .X.P + Q E A.
Ainsi A étant stable par combinaison linéaire, on peut conclure que A est un sous-
espace vectoriel de JR 4 [X].
130 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

Puisqu'il s'agit de trouver une base de A constituée de puissances de X - 4, on va


construire cette base en piochant parmi les polynômes

(en effet toute puissance strictement supérieure à 4 n'est plus un élément de JR 4 [X]
ni, à plus forte raison, un élément de A).
Par ailleurs, il faut également éliminer le polynôme 1 puisque celui-ci n'appartient pas
à A. Finalement, c'est à partir de la famille A = (X - 4, (X - 4) 2 , (X - 4) 3 , (X - 4) 4 )
que l'on cherche à extraire une base. On va montrer que A tout entier est une base.

Pour tout P dans A. on a, grâce à la formule de Taylor,

P = P(4) + P'(4) · (X - 4) + P'; ) (X - 4) 2 + p<~/ ) (X -4) 2 + p<~!( ) (X - 4) 4 .


4 4 4

Ainsi P étant combinaison linéaire des vecteurs de


A= (X - 4, (X - 4)2, (X - 4) 3 , (X - 4) 4 ),
et ce quel que soit P E A. Finalement A est génératrice de A.

Montrons que la famille est libre (on verra lors de l'exercice 5.5 qu'elle l'est en tant
que famille de polynômes échelonnée en degré).
4

Soient ai, ... , a4 quatre scalaires tels que L ak(X - 4)k =O.
k=l
p
On en déduit, par composition à droite avec le polynôme X+ 4, P(X + 4) = 0, i.e.
4

:l::: akxk =o.


k=l
"--v-'
Q
Ainsi Q est le polynôme nu l, ses coefficients sont tous nuls :
a1 = a2 = a3 = a4 = O.
Ceci prouve le caractère libre de la famille A et donc permet de conclure que A est
"O
0
r::::
une base de A constituée de pu issances de X - 4..
:::J
0
lfl
,..-1
0 La composition avec le polynôme nul ne donne pas systématiquement
N
@
.....,
& le polynôme nul,
r: V P E JR[X], Po 0 = P(O ) et 0 o P = 0,
Ol
·;::
>-
Cl. tout dépend si l'on compose à gauche ou à droite.
0
u

3.a. On va exprimer C comme intersection de deux sous-espaces vectoriels.

~1
En t ant qu 'i ntersection de sous-espaces vectoriels de IR1 [X ] (à savoir A et B), C est
un sous-espace vectoriel de IR1 [X ] .
De plus, pu isque C C A et que A, tout comme C, est un sous-espace vectoriel de
Exercice 5.4 Famille de polynômes 131

JR4[X], on en déduit que C est un sous-espace vectoriel de A.


1 Par un raisonnement analogue on montre que C est un sous-espace vectoriel de B .

3.b. Une inclusion est évidente.

Soit P un élément de {W x T; TE IR2 [X]}, on a alors


P = W x T avec TE IR2[X].
Par étude du degré, on montre que P E JR4[X], en effet
degP = degW + degT ~ 4.
~ '-v-'
=2 ~2

Par ailleurs, P(O) = W(O) xT(O) = 0 ainsi P E B.


'-v-'
=0
De même, P(4) = vV(4) xT(4) = 0 ainsi P E A.
....__..,
=O
Puisque C =An B, on a donc P E C ce qui prouve l'inclusion
{W x T; TE IR2[X]} CC.

Pour l'inclusion réciproque nous allons utiliser l'indication qui nous recommande de
procéder par division euclidienne.

Soit P un élément de C.
Par division euclidienne de P par W on sait qu ' il existe un couple (unique) de poly-
nômes (T, R) t el que P = T x vV + R avec deg R < deg vV .
~
=2
Puisque deg R < 2, on peut écrire R sous la forme R = aX + b, avec (a, b) E IR2 .

On souhaite à présent, montrer que Rest le polynôme nul. Il s'agit donc de montrer
que ses coefficients a et b sont nuls.
Afin d'obtenir la valeur de a et b il nous faut deux équations (au moins), nous allons
obtenir ces deux équations en évaluant l'égalité P = T x W + R en deux points
distincts , ces points devront être choisis afin d'éliminer toute référence au polynôme
inconnu T.

~
"O
0 En éva luant l'égal ité issue de la division euclidienne en 0 et en 4., on obtient
r::::
0
:::J
P(O) = W(O) xT(O)
'-y-/ ....__..,
+ '-y-/
R(O) et P(4) = W(4) xT(4)
'-y-/ ....__..,
+ '-y-/
R(4).
lfl
,-1 =0 =0 b =0 =0 4a+ b
0
N
Ainsi b = 0 et 4a +b = 0, i.e. a = b = O. Ceci prouve que R = 0 et donc permet
@
....., d 'écrire
r: P=WxT.
Ol
·;::
>- Par déterm ination du degré on trouve 4 ~ degP = degW +degT, ainsi degT ~ 2.
Cl.
0 ~
u =2
Finalement on a prouvé l' inclusion réciproque
CC {W x T; TE IR2 [X ]} .
D'où l'égalité, par double inclusion.

3.c. Du fait que C est paramétré à l'aide de l'ensemble IR2 [X], on va utiliser la base
canonique de IR2 [X] pour déterminer une base de C.
132 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

2
Puisque 1R2 [X] = { aX +bX + c; (a , b, c) E JR 3 }, on déduit de la question précédente
C= {Wx(aX 2 + bX + c); (a , b, c) E JR3 } = {aX 2 W+bXW + cW; (a ,b,c) E JR3 } ,
i.e. C = Vect(X 2 W, XW, W), ce qui prouve que C = (X 2 W, XvV, W) est une famille
génératrice de C.
Une base de C peut alors être obtenue par extraction dans la famille C.
Nous allons montrer que la famille C tout entière est libre.

Soient a, b, c trois scalaires tels que


aX 2 W + bXW + cW = 0 i.e. W x (aX 2 + bX + c) =O.
Puisque W n'est pas le polynôme nul, on en déduit aX 2
+ bX + c =O.
D'où, un polynôme étant nul ssi tous ses coefficients sont nuls (et oui la base canonique
est libre), a= b = c =O.
Ainsi C est libre, en conséquence de quoi , on peut affirmer que C est une base de C
constituée de polynômes multiples de W.

En général lorsqu'un produit de fonctions est nul f x g = 0, il est faux


de croire qu'alors l'une des deux fonctions est nulle.
Ceci est illustré par le contre-exemple
f :X t-7 { 1 si X .E Q et :X t-7 { 0 si X .E Q
0 smon g 1 smon
En revanche lorsque deux polynômes Pet Q, vérifient Px Q = 0, on
peut alors conclure que P = 0 ou Q =O.
En effet, si les deux polynômes étaient non nuls alors P x Q serait non
deg P + ..._,,,_,,
nul du fait que deg(P x Q) = ..._,,,_,, deg Q i= -oo .
EN EN
On dit que K[X] est intègre (tout comme K, alors que l'ensemble des
fonctions, des suites, ou des matrices carrées ne le sont pas).

"O
0
r::::
Exercice 5.5 : Famille échelonnée et famille de puissances
:::J
0
lfl
,.-1
0 1. Soit .C = (Po, ... , Pn) une famille de polynômes de K[X] vérifiant
N
@ Vk E {0, ... ,n}, degPk = k.
.....,
r:
Ol
·;::
On dit alors que L, est une famille de polynômes échelonnée en degré
>
Cl.
dans Kn[X].
0
u a. Montrer que L, est une famille libre.
b. Montrer que L, est une base de Kn[X] .
2. Montrer que toute famille finie de polynômes non nuls, dont les degrés sont
deux à deux distincts, forme une famille libre de K[X].
Exercice 5.5 Famille échelonnée et famille de puissances 133

3. Montrer que les familles F = (Jo, ... , fn) (définies ci-dessous) forment une
famille libre du K-espace vectoriel F(IR, K).
a. V' k E {O, ... , n}, V' x E IR, fk(x) = exp(kx) avec K =IR.
b. V'kE{O, ... ,n}, V'xEIR, fk(x)=eikx avecK=<C.
c. V'kE{O, ... ,n}, V'xEIR, fk(x)=cosk(x) avecK=IR.
4. Soit E un espace vectoriel. On considère deux familles de vecteurs de E
Bn = (e1, ... , en) et Cn = (u1, ... , un)· On admet que Cn et Bn vérifient :
u1=e1 et V'kE{2, ... ,n}, Uk-ekEVect(e1, ... ,ek-1).
On dit alors que Cn est u-échelonnée relativement à Bn.
a. Que dire de Cn lorsque E = IR[X] et Bn = (1, X, ... , xn- I)?
b. Montrer que Vect(Cn) C Vect(Bn)·
c. Montrer que Bn est u-échelonnée relativement à Cn.
d. En déduire que Vect(Bn) = Vect(Cn)·
e. Montrer que Bn est libre ssi Cn est libre.
f. En déduire que Bn est une base de E ssi Cn est une base de E.

1.a. Puisque la famille est ordonnée selon un critère particulier (ici le degré) une
récurrence se prête bien à la démonstration du caractère libre.

Montrons par récurrence que, quel que soit n EN,


toute famille de n+ 1 polynômes échelonée en degrés dans Kn [X] est libre.
'P(n)
• Initialisation: Puisqu'un polynôme de degré 0 est un polynôme non nul , il constitue
à lui tout seul une famille libre. Ainsi P(O) est vraie.
"O • Hérédité : Supposons que pour un certain entier non nul n la propriété P(n - 1)
0
r:::: soit vraie, montrons que P( n) est alors vraie.
:::J
0 Soit .L =(Po, ... , Pn) une famille de polynômes échelonnée en degré dans 1Kn [X],
lfl
,..-1 on en déduit que (Po, ... , Pn- 1) est échelonnée en degré dans 1Kn- dXJ; et donc,
0
N grâce à la propriété admise P(n-1), on sait que (Po, ... , Pn- 1) est libre. Prouver
@ (cf 5.7.1.a) que.Lest libre équivaut donc à prouver que Pn </. Vect(Po, ... , Pn- d·
.....,
r: Puisque {Po , ... , Pn- 1} C 1Rn- dX] et que 1Rn- i[X] est un sous-espace vectoriel
Ol
·;::
> Vect(Po , .. . , Pn- 1) C 1Rn- 1[X].
Cl.
0 Donc, puisque Pn </. 1Rn- dXJ (étant donné que degPn = n), on a a fortiori
u
Pn ~ Vect(Po , ... , Pn-1) . Ainsi la famille.Lest libre et donc P(n) est vraie.
• Conclusion : Grâce au principe de récurrence on a prouvé que, quel que soit n E N,
P(n) est vraie.

Une deuxième méthode s'appuie sur l'ordre imposé par le degré qui crée une forme
de « domination » croissante, deg Po < · · · < deg Pn.
134 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

On va donc faire usage d 'un argument de maximalité. Il s'agit de raisonner par l'ab-
surde et d 'isoler dans la famille un vecteur particulier maximal (ici maximal au sens
du degré).

~1
Si, par l'absurde, L est liée, on peut trouver n + 1 scalaires ao, ... , an non tous nu ls
n
(à ne pas confondre avec « t ous non nuls») tels que L akPk =O.
k=O

On va donc isoler le polynôme de plus haut degré, parmi aoPo, ... , anPn, car c'est lui
n
qui détermine le degré de L akPk.
k=O

En notant ap le coefficient non nu l de plus grand indice, on a alors

L ak Pk = 0 i.e.
k=O

E IRp _ i[XJ

On a donc deg (~ a,P,) < p et deg(a,P, ) =p.

A; ns; deg ( a,P, + ~ a,P,) = p ;' - oo, d'où la contrad kfon.

Finalement, on a prouvé par l'absurde que L est libre.

1. b. On va, ici encore, exploiter la caractère ordonné par degré. On raisonne par
récurrence sur n : on va montrer que toute famille échelonnée en degré dans Kn[X]
est génératrice de Kn[X] .
Lors de la preuve de l'hérédité, on va montrer que tout polynôme P de IKn[X] admet
une décomposit ion relativement à une famille échelonnée en degré (Po, ... , Pn, Pn+1 ).
Pour se ramener à l'hypothèse de récurrence, on va chercher un scalaire ..\ de sorte
que P - ..\Pn+l E Kn[X].

~
"O
0
r::::
:::J • Initialisation : Pu isqu ' un polynôme de degré 0 est une consta nte non nulle, il
0
lfl
constitue à lui tout seul une fam ille générat rice de OC 0 [X] que l'on identifie à K
A insi P(O) est vraie.
,..-1
0
N
@ • Hérédité : Supposons que pour un certain entier n, toute fa mi lle échelonnée en
....., degré dans OCn[X] est génératrice de OCn[X] .
r:
Ol
·;:: Soit L = (Po, .. . , Pn, Pn+i) une fa mille échelonnée en degré d ans OCn+dXJ,
>
Cl. mont rons qu 'elle est génératrice de OCn+i[X].
0
u Tout d 'a bord, puisque (Po, ... , Pn) est échelonnée en degré d ans OCn[X], on en
déduit, grâce à l' hypot hèse de récurrence, que
OCn[X] = Vect(Po , .. . , Pn)·
Soit P un polynôme de OCn+i[X] et notons an+1 son coefficient de degré n + 1.
Pu isque 0Cn+1[X] est stable par com binaison linéaire on a, pour t out scalaire.\
p - ÀPn+l E OCn+dX J.
Exercice 5.5 Famille échelonnée et famille de puissances 135

En particulier, le coefficient de degré n +1 de P - ÀPn+I vaut


ô = an+l - Àbn+l ,
où bn+I est le coefficient dominant de Pn+I· Celu i-ci étant non nu l, 8 peut
être rendu nul , il suffit de choisir À = a.bn+i . Ainsi, pour un tel À, on a
n+l
P - ÀPn+i E IKn[X] = Vect(Po , ... , Pn). c 'est donc que l'on peut trouver des
scalaires µo, ... , µn tels que
n n
P- >.Pn+i = °L, µkPk i.e. P = >.Pn+i + °L, µkPk.
k=O k=O
Finalement tout polynôme P de IKn+dX] s'écrit comme combinaison li néaire de
la famille .C. On conclut que .C est génératrice de IKn+1 [X] .
• Conclusion : Grâce au principe de récurrence, on a prouvé que , quel que soit
n EN, toute fam ille échelonnée en degré dans IKn [X] est génératrice de IKn [X] .

On pouvait, lors de l'hérédité, procéder par division euclidienne.


En effet par division euclidienne de P par Pn+l,
P = À.._,_,
Pn+l + R .._,_,
, l'appartenance À E IKo [X]
ElKo[X]=lK. EIK,.. [X ]=Vcct(Po, .. .,P.,..)
provenant du calcul de degrés suivant : deg R < deg P ou R = P donc
n + 1 ~ deg(P) ~ deg(P - R) = deg(.\) + deg(Pn+1).
'-..,--" '-v-'
= ÀPn+1 = n+l

Pour conclure on rappelle qu 'une base est la donnée d'une famille à la fois libre et
génératrice de l'espace étudié.

~I Pu isq ue .C est échelonnée en degré dans OCn[X], on en dédu it qu'elle est à la fois libre
et génératrice de OCn[X], c'est donc une base de OCn[X].

2 . Les familles échelonnées en degré sont des familles maximales selon le critère qui
'O
0
r::::
demande à ce que les degrés soient deux à deux distincts .
0
:::J
Pour une famille C de polynômes non nuls de degrés deux à deux distincts, il suffit
lfl
,..-1
alors d 'exhiber une famille f: de polynômes échelonnée en degré qui contient C.
0
N
@ Soit C une famille fin ie de polynômes non nuls, dont les degrés sont deux à deux
....., dist incts .
r:
Ol
·;:: Soit ~ l'ensemble des degrés des polynômes de C, notons n le plus grand élément de
>
Cl. ~.On adjoint aux polynômes de C les polynômes {X\ k E {O, ... , n} \ ~}. notons
0
u .C cette famille.
Puisque [, est formée de n + 1 polynômes de degrés 2 à 2 dist incts dans { 0, ... , n},
c'est donc que tous les degrés entre 0 et n sont représentés par un et un seul vecteu r
de .C. En réarrangeant l'ordre des vecteurs de .C, on obtient une fam ille échelonnée en
degré dans OCn [X], donc libre.
Puisque .C est libre et que C est une sous-famille de .C, on en déduit que C est libre
dans OCn[X], donc également libre dans OC[X].
136 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

3 . Toutes les familles de fonctions considérées ici s'écrivent sous la forme f k = r.pk,
où r.p est une fonction dont l'ensemble image I (à ne pas confondre avec l'ensemble
d'arrivée) est infini, i.e. r.p prend une infinité de valeurs.
:t\lfontrons que, dans ce cas, F = (fo, ... , fn) est une famille libre.

Soient ao, ... , O,n n + 1 scalaires tels que aofo + aif1 + · · · + anfn =O.
i.e. Vx E IR, ao + a1ip(x) + · · · + o,ncp(xt = 0,
n
Si l'on pose P = L °'kXk, on en déduit, avec I = ip(IR),
k=O
Vx E IR, P(ip(x))
0 i.e. Vy E J , P(y) = 0.
=

Ainsi, puisque I est infin i, le polynôme P admet une infinité de racines, c'est donc le
polynôme nul ce qui implique que tous ses coefficients sont nuls :
ao = ai = ... = an = o.
Finalement, F est une famille libre.

Il existe d'autres preuves axées sur la spécificité des fonctions utilisées. Ici encore le
caractère ordonné nous incite à raisonner par récurrence ou par critère de maximalité.
Par exemple dans l'exemple a. (on pourra aussi se référer à la question 6.8.3) on a

fo « fi << · · · << fn,


où f << g signifie f = o(g) au voisinage de +oo.
Si l'on suppose la famille liée, on en déduit qu'il existe des scalaires non tous nuls
ao, ... , an tels que aofo + · · · + anfn = O. En notant ap le coefficient non nul d'indice
maximal, on a alors
ao f o + · · · + apfp = 0.
Or grâce à l'échelle de comparaison, c'est le dernier terme qui domine au voisinage de
+oo, d 'où ..._
aofo +_
__ · · ·_+ _
apfp rv apfp·
__, +oo
=O
Cela implique que apfp, et donc fp, sont nuls au voisinage de +oo, ce qui est une
contradiction manifeste.
4. Puisque Vect(0) = {O}, on peut résumer le caractère u-échelonné par
"O
0
r::::
:::J V k E {1, ... , n}, uk - ek E Vect( e1, ... , ek-1) .
0
lfl
,-1 On remarque que si Cn est u-échelonnée relativement à Bn alors
0
N V k ~ n, Ck est u-échelonnée relativement à Bk·
@ Par ailleurs, on a V k E {1, . . . , n}, uk E Vect(e 1, . .. , ek) ·
.....,
r: 4.a. En notant Cn = (Po, ... , Pn), on a, par traduction du caractère u-échelonné,
Ol
·;::
> Po = 1, ainsi Po est unitaire de degré O.
Cl.

u
0 Plus généralement, pour tout k E {2, ... , n }, Pk - X k E Vect(l, ... , xk-l ). Ainsi , on
peut écrire
k- 1 k-1
Pk - x k = 2:aixi i.e. Pk = xk + l:: aixi,
i=O i =O
et donc Pk est unitaire et de degré k.
Exercice 5.5 Famille échelonnée et famille de puissances 137

~I
Cn est une famille de polynômes unitaires échelonnée en degré dans OCn[X].
Réciproquement, toute famille de polynômes unitaires échelonnée en degré dans OCn [X]
est manifestement u-échelonnée relativement à Bn

4.b. On ut ilise ici l'espace vectoriel F = Vect(Bn) et la partie U constituée des


vecteurs de Cn (que l'on va noter abusivement Cn) ·

~1
V k E {l, ... ,n}, U k E Vect(e1, ... ,ek) et Vect(e1, . .. ,ek ) C Vect(e1, .. . ,en),
on en déduit V k E {l , ... , n}, U k E Vect (Bn) . Ainsi Cn C Vect (Bn) . Et donc,
puisque Vect(Bn) est un espace vectoriel, Vect (Cn) C Vect(Bn)

Lorsque l'on cherche à établir une inclusion Vcct(U) c F, où U est un


ensemble et F un espace vectoriel, il suffit de montrer que U c F.

4.c. On va raisonner par récurrence sur la taille des familles manipulées.

~ • Initialisation : Soit C1 = (u1 ) une famille u-échelonnée relativement à Bi = (e1 ).


on a alors u1 = ei de sorte que B1 est u-échelonnée relativement à C1 .
• Hérédité : Supposons que, pour un certain entier n non nul , dès qu ' une première
famille den vecteurs est u-échelonnée relativement à une deuxième famille, alors la
deuxième famille est u-échelonnée relativement à la première (c'est notre propriété
de récurrence au rang n, ou hypothèse de récurrence) .
Soit Cn+1 = ( u1 , ... , Un, Un+1 ) une famille de n + 1 vecteurs u-échelonnée relati-
vement à Bn+l = (e1, . .. , en, en+l ).
Tout d 'abord, puisque Cn = (u 1, .. . , u n) est u-échelonnée relativement à
Bn = (e1, ... , en) . on en déduit, grâce à l'hypothèse de récurrence, que Bn est
u-échelonnée relativement à Cn . i.e.
Vk E {l, ... , n} , ek-Uk E Vect (u1 ,. . .,Uk- i).
Pour montrer que Bn+i est u-échelonnée relativement à Cn+1. il nous suffit alors
de montrer que
en+I - Un+ l E Vect('u1, ... ) 'Un )·
"O ""-v-"
0 c,,,
r::::
0
:::J
Or, d ' une part, puisque Bn est u-échelonnée relativement à Cn . on en déduit grâce
lfl
,..-1
à la question précédente que Vect (Bn) C Vect (Cn) ·
0 D'autre part, puisque Cn+I est u-échelonnée relativement à Bn+i. on en déduit
N
Un+ i - en+l E Vect(e1, .. . ,en) . Finalement, Un+i- en+l E Vect(Cn) . Et puisque
@
....., "--v-"
r: Bn
Ol
·;:: Vect(Cn) est un espace vectoriel , on trouve comme voulu
>-
Cl.
0 - (un+I - en+i ) E Vect(Cn) ·
u

• Conclusion : Grâce au principe de récurrence, on a prouvé que, quel que soit


n E N , la relation u-échelonnée entre familles de cardinal n est symétrique .

4.d. On sait déjà que Vect (Cn) c Vect(Bn ), il s'agit donc de prouver l'inclusion
réciproque. Cela découle de la symétrie de la relation « être u-échelonné ».
138 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

Du fait que Cn soit u-échelonnée relativement à Bn . on sait, d'après ce qui précède,


que Vect (Cn) C Vect (Bn)· Mais puisqu 'on a prouvé que Bn est aussi u-échelonnée
relativement à Cn . on peut appliquer cette même inclusion au couple (Cn, Bn ) en lieu
et place de (Bn, Cn ) : Vect(Bn) C Vect(Cn).
Donc, par double inclusion, Vect(Bn) = Vect(Cn).

4.e. On commence par l'implicat ion directe. On suppose Bn libre et on souhaite


montrer que Cn est libre. On peut ici encore raisonner soit par récurrence, soit par
maximalité. Prenons cette deuxième méthode.

Si, par l'absurde, Cn est liée, on peut trouver n scalaires ai, ... , an non tous nuls tels
n
que L a ku k = O.
k=O
En notant av le coefficient non nul de plus grand indice, on a alors
p p- 1

L a k 'Uk = 0 i.e. Up = L-
k=O
: k 'Uk .
P
k=O
"--v--"
E Vect(Cp-1 )

Ainsi , d'après la question précédente, U p E Vect (Bv- i) . Or, Cn et Bn étant u-


échelonnées, on a U p - ev E Vect (Bv-1). Et donc, par stabilité par combinaison
linéaire,
·uv - (up - ev ) E Vect ( Bv- 1
....__., ).
=ep (e1 , .. .,ep - 1)
Ainsi , si p = 1, on trouve ep = 0 et , si p > 1. ep est combinaison linéaire d ' autres
vecteurs pris dans (e1, .. . , en ). C'est donc que la famille Bn est liée, d 'où une contra-
diction . Finalement, Cn est libre.

L'implication réciproque résulte du caractère symétrique de la relation « u-échelonné ».

~1
Supposons Cn libre. Puisque Bn est u-échelonnée relativement à Cn . l'implication
précédente s'applique au couple (Cn , Bn) en lieu et place de (Bn, Cn) · On trouve alors
"O que Bn est libre. Ainsi, par double implication, Bn est libre ssi Cn est libre.
0
r::::
:::J
0 4.f. L'équivalence du caractère libre ayant déjà été prouvé, il nous reste à prouver
lfl
,..-1
0
l'équivalence du caractère générateur.
N
@
.....,
r: Puisque Vect(Bn) = Vect(Cn). on a l'équivalence :
Ol
·;::
>
Vect(Bn) = E {::::::::} Vect(Cn) = E,
Cl.

u
0 i.e. Bn est génératrice de E {::::::::} Cn est génératrice de E.
Comme, par ailleurs, l'équivalence a été prouvée pour le caractère libre, on en déduit:
Bn est génératrice de E
Bn est une base de E {::::::::} {
Bn est libre
{::::::::} { Cn est génératrice de E
Cn est libre
{::::::::} Cn est une base de E.
Exercice 5 .6 Manifestement libre 139

On se donne p colonnes de l'espace vectoriel Mn(IK), notées: X1, ... ,Xp.


1. On suppose que, pour chaque k E {1, ... ,p}, il existe un indice de ligne fk tel
queXk [fk,1]-/=0 et Vj-/=k, Xj [fk,1] =0.
Montrer alors que la famille (X1 , ... , Xp) est libre.
2. On suppose que, quel que soit le couple d'indices distincts (j, k), les colonnes
Xj et Xk sont non colinéaires. A-t-on (X1 , ... , Xp) libre?
3. Montrer que la famille constituée des vecteurs
(1, 0, 0, 5, 0), (0, 2, 0, 5, 0), (0, 0, 3, 5, 0), (0, 0, 0, 5, 4)
est libre dans JR.5 .

1. P uisque les coordonnées nulles sont quasi-systématiques sur autant de lignes qu'il
y a de vecteurs, c'est donc que le système associé à une combinaison linéaire annulant
la famille (X 1 , ... , Xp) , a 1 X 1 + ... +apXp = 0, est lacunaire (i.e. certaines lignes font
apparaît re une et une seule inconnue ai ) donc particulièrement simple à résoudre.

Soient a 1, ... , o,v p scalaires tels que a 1X 1 + ... + avX v =O.


La traduction coordonnée par coordonnée nous donne un système linéa ire homogène
(S) dont la ligne i, quel que soit i E {l, ... , n}, s'écrit
X 1[i, l]a1 + · · · + Xv[i , l ]av =O.
D 'après l'hypothèse faite, pour un indice k donné, on peut t rouver une ligne f k où
seule l'inconnue ak apparaît.

Soit k E {l, ... , p}, la ligne fk du système (S) s' écri t


X i[fk, 1] a1 + · +Xk- 1[fk, l] ak- 1+ Xk[fk, l]ak+Xk+ dfk, 1] ak+ 1+· · · X v [fk , l ] av = O.
"--v-" "--v-" "--v-" "--v-"
=O =O =O =O
"O
0 Soit X k [fk , 1] ak = 0 d 'où ak = 0, et ce quel que soit k E {1, ... ,p}.
r:::: "--v-"
:::J
0 ~o
lfl
,..-1
On a ainsi prouvé que la famille (X1, ... , X v) est libre.
0
N
@
2 . La non colinéarité deux à deux n'est pas une condition suffisante pour le caractère
....., libre. Pour montrer qu'une affirmation n 'est pas vraie en toute généralité il suffit
r:
Ol
ï::: d 'exhiber un contre-exemple.
>
Cl.
0

(~) , X 2 = (~) , X3 = (~)


u
Si on considère les vecteurs X 1 = dans M2,1 (1R), on

remarque qu 'ils forment une famille liée pu isque X 3 = X 1 + X 2 (ainsi, tout comme
X1 et X2, X 3 est dans Vect(X1, X 2); et, puisque les vecteurs X 1, X 2, X3 sont dans
un même plan vectoriel, on dit qu 'ils sont coplanaires). En revanche, pris deux par
deux, X i et X j sont non colinéaires.
140 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

Lorsque l'on manipule une famille de plus de 2 vecteurs la notion de


« non colinéarité » n'est d'aucune efficacité pour prouver le caractère
libre.

3. Dans le cas proposé ici les colonnes associées aux vecteurs (i.e. les colonnes dont
les coefficients reproduisent les coordonnées des vecteurs considérés) sont

1 0 0 0
0 2 0 0
X1 = 0 'X2 = 0 'X3 = 3 'X4 = 0
5 5 5 5
0 0 0 4

On remarque que la propriété introduite en début d 'énoncé est ici vérifiée

0 0 0
0 0 0
0
5
rn
5
0
5
0 0 QJ

avec f 1 = 1, f2 = 2, f3 = 3 et f4 = 5.
Pour chaque numéro de ligne f k on a encadré l'unique coordonnée non nulle de la
ligne numéro ek· Les flèches partent de ces coefficients non nuls et pointent, dans
cette même ligne, sur tous les autres coefficients (tous nuls).

"O
0
r::::

~1
:::J
0 Soit C = ((1, 0, 0, 5, 0), (0, 2, 0, 5, 0), (0, 0, 3, 5, 0) , (0, 0, 0, 5, 4)) .
lfl
,..-1 Puisque les colonnes associées aux vecteurs de [, forment une famille manifestement
0
N libre et que le système permettant de prouver qu ' une famille est libre est le même, que
@ l'on parle de vecteurs de Kn ou de colonnes de M n,1 (K), on en déduit que[, est libre .
.....,
r:
Ol
·;::
>
Cl.
0
u
On rencontre des colonnes « manifestement libres », comme celles que
l'on vient d'introduire ici, de manière extrêmement courante. Les co-
lonnes donnant paramétrage de l'ensemble des solutions d 'un système
linéaire homogène seront systématiquement de cette forme si l'on ap-
plique la méthode du pivot de Gauss.
Exercice 5. 7 Familles extrémales 141

Soit[,= (u 1 , ... ,up) une famille finie de vecteurs d'un espace vectoriel E.
1. Dans cette question uniquement, on suppose que [, est libre.
a. Montrer que, pour tout vecteur 'V de E, on a l'équivalence (u 1 , ... , up, v)
est libre ssi v f/. Vect(u 1 , ... ,up)·
b. Supposons que toute famille contenant tous les vecteurs de[, et d'autres
vecteurs est liée (on dit alors que [, est libre maximale). Montrer que [,
est une base de E.
2 . Dans cette question uniquement, on suppose que[, est génératrice de E.
a . Montrer que :
(u1, ... , Up -1 ) est génératrice de E ssi up E Vcct(u1, . .. , Up-d ·
b. Supposons que toute famille constituée de certains vecteurs (et non de
tous) de[, n'est plus génératrice de E (on dit alors que[, est génératrice
minimale de E). Montrer que[, est une base de E.
3. Soit ME Mn(lR) vérifiant M 2 = -In, par la suite on note E = Mn,1 (1R).
a. Soit p le plus grand entier non nul tel que l'on peut construire une famille
(e1, ... , ep) telle que (e 1, . . . , ep, Me 1 , ... , Mep- 1 ) soit libre.
Justifier l'existence de cc p.
b. Montrer que pour un tel p et une telle famille (e 1 , ... , ep) on a que
(e 1 , ... , ep, Me 1 , ... , Mep) est une base de E.
c. En déduire qu'il n'existe aucune matrice M dans M20 1s(lR) vérifiant
2
M = -ho1s-

1.a. Si Pon considère la contraposée, il s'agit de prouver que :


(u 1 , ... , up, v) est liée ssi v E Vect(u 1 , ... , up) ·
Commençons par l'implication la plus simple.
"O
0
r::::
0
:::J Supposons v E Vect(u1, .. . ,·up). on en déduit l'existence de p scalaires ai, .. . ,ap
p p
lfl
,.-1
0
N
tels que v = L akUk i .e. L akUk - v = O.
k=I k=I
@ Ai nsi (a
....., 1 , ... , ap,
-1) est une famille de scalaires non tous nuls (et oui le dernier
r: scalaire va ut - 1) qui an nule par combinaison linéaire la famille ( u1, ... , up, v). Cette
Ol
·;::
fa mille est donc liée.
>
Cl.
0
u Réciproquement, on va exploiter le caractère libre de L,.

Supposons (u1 , . . . , up, v) liée, il existe donc des scalaires non tous nuls: a 1 , ... , ap, b
tels que
p

(*) L ak'Uk + bv =O.


k=l
142 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

Si, par l'absurde, b = 0, alors les scalaires a 1, ... , ap sont non tous nuls et vérifient
p

L akuk =O. Ceci contredit le caractère libre de .C , on a donc prouvé, par l'absurde,
k=l
p

que b-# O. Ainsi, grâce à (*), v = L - abk 'Uk .

k=l
"-..,.-"'
EVect(u.1, ... ,-up)

Toute sous-famille d'une famille libre est libre.


Si, a contrario, on cherche à faire grossir une famille libre tout en conser-
vant le caractère libre, il s'agit d'ajouter des vecteurs qui ne sont pas
combinaison linéaire de ceux déjà présents dans la famille.

1.b. Supposons [,libre maximale.


Puisque[, est libre, il suffit de montrer qu'elle est aussi génératrice. Cela sera la consé-
quence de la maximalité. Ce type de raisonnement se mène en général par l'absurde.

~1
Soit v un vecteur de E. Si, par l'absurde, v fi. Vect(u 1, ... ,·up). on sait, d 'après ce
qui précède, que (u 1, ... , ·up, v) est libre, ce qui contredit la maxima lité de .C.
Ainsi, v E Vect(u1, ... , up). et ce quel que soit v dans E. C'est donc que .C est
génératrice de E. Comme, par ailleurs, .C est libre, .C est donc une base de E.
2.a. Commençons par l'implication la plus simple.

~I Si (u 1 , ... , Up- l) est génératrice de E, alors E = Vect( u 1, ... , Up - 1) et en particulier


puisque ·up E E, on en déduit ·up E Vect(u1, ... , Up- 1).

Réciproquement, on va exploiter le caractère générateur de L.

Supposons que Up E Vect(u1, ... , Up - 1). puisque, par ailleurs,


\:/k E {l, ... ,p-1}, uk E Vect(u1, ... ,up-i),
"O
0
on a {u1, ... , Up} C Vect(u1, ... ,'Up- 1). Et donc, puisque Vect('u1, ... , Up- 1) est un
r:::: espace vectoriel, Vect(·u1, ... , up) C Vect(u1, ... , Up- 1).
:::J
0 ~
lfl t:..
,..-1
0
.C étant génératrice de E, on a Vect(.C) = E, ainsi E C Vect(u1, ... , Up- 1).
N L'inclusion réciproque étant évidente, on en déduit Vect(u 1, ... , Up-i) = E,
@
....., i.e. (u1, ... ,Up-1) est génératrice de E .
r:
Ol
ï::: 2.b. Soit [, une famille génératrice minimale. Puisque [, est génératrice, il s'agit de
>
Cl.
0
montrer qu'elle est libre. Puisque la minimalité va intervenir, ce type de raisonnement
u se mène là encore par l'absurde.

Supposons par l'absurde .C liée, ainsi l'un de ses vecteurs est combinaison linéaire des
autres. Quitte à réindexer les vecteurs de.Con peut considérer que c'est le vecteur up
qui est combinaison linéaire des autres, i.e. up E Vect(u1, ... , Up- 1).
D'après ce qui précède cela nous donne (u1, ... , Up-1) génératrice de E, ce qui contre-
dit la minimalité de .C.
Exercice 5. 7 Familles extrémales 143

A insi, on a montré par l'absurde que C est libre. Puisque, par ailleurs, elle est supposée
1 être génératrice de E, on a donc prouvé qu e C est une base de E.

Toute sur-famille d'une famille génératrice est génératrice.


Si, a contrario, on cherche à faire maigrir une famille génératrice tout
en conservant le caractère générateur, il s'agit d'enlever des vecteurs
qui sont combinaison linéaire des autres vecteurs de la famille.

3.a. Il s'agit de prouver l'existence d'un plus grand entier soumis aux conditions don-
nées par l'énoncé. Pour cela nous allons montrer que l'ensemble des entiers répondant
aux mêmes critères forme une partie non vide et majorée de .N et donc admet un
maximum.

Posons A l'ensemble des entiers naturels non nu ls k pour lesquels il existe une fami lle
de k vecteurs (e1, ... ,ek) telle que (e1, .. . ,ek,Me1, ... ,Mek- 1) soit libre.
A est par construction une partie de N. Par ailleurs, il est non vide pu isque 1 E A.
En effet tout vecteu r non nu l ei constitue une famille li bre de E, or, pou r k = 1,
(e1, ... ,ek,Me1, ... ,Mek- 1) = (e1).
Enfi n pu isque toute famille libre à un cardi na l inférieu r à la dimension de l' espace E,
A est majoré (d isons par dim E puisqu'en effet, pour un k dans A, le cardinal de
(e1, ... ,ek,Me1, ... , Mek - 1) libre est 2k - 1 et donc k ~ 2k - 1 ~ dimE) .
Ainsi cette partie non vide et majorée de N admet un plus grand élément p, et puisque
p E A, cela signifie, par défi nition , que l'on peut construire une famille (e 1 , .. . , ep)
telle que (e1, ... ,ep,Me1, .. . ,Mep- 1) soit libre, p est par ailleurs maxima l.

3.b. Soit un tel pet une telle famille (e 1 , ... , ep) · Pour montrer que
(e 1 , ... , ep, lvf e 1 , ... , M ep) est une base de E, nous allons commencer par montrer
que cette famille est libre. On va pour cela invoquer le résultat prouvé en 1.a.

Puisque, par construction, (e1, ... , ep, Me1, ... , Mep- 1) est libre, on en dédu it (grâce
"O à 1.a) que :
0
r::::
:::J (e1, ... ,ep,Me1, ... ,Mep) est libre ssi Mep ~ Vect((e 1, .. . ,ep,Me 1, ... ,Mep-1).
0
lfl Ainsi, il suffit que l' on montre Mep ~ Vect(e1, ... ,ep,Me1, ... , Mep- 1).
,..-1
0
N
Pour montrer une non appartenance, il est habituel de raisonner par l'absurde.
@
.....,
r:
Ol
·;::
Supposons, par l'absurde, que
>
Cl. Mep E Vect((e1 , ... , ep, Me1, ... , Mep-1).
0
u On peut alors t rouver 2p - 1 réels À1, ... , Àp, µ1, ... , µp - 1 tels que
(• ) Mep = À1e1 + · · · + Àpep + µ 1Me1 + · · · + µp- 1Mep- l·
Si l'on veut tirer profit de la relation M 2 = -I, il convient de multiplier par M la
relation ( • ), on pourra ainsi trouver deux types de combinaisons linéaires donnant
Mev·
144 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

En multipliant (• ) à gauche par M. on trouve (par distributivité)


(.ft) M 2 ep = >.1Me1 + · · · + ÀpM ep + µ.1M 2 e1 + · · · + /J,p - 1M 2 ep- l·
Soit, du fait que M 2 = - I et en réarrangeant les termes,
(.ft) ÀpM ep = µ1 e1 + · · · + µ p- 1ep- 1 - ep - >.1M e1 - · · · - Àp- 1M ep- l·

On peut, à présent, donner deux combinaisons linéaires donnant t outes deux le même
vecteur ÀpM ep.

Ainsi, en comparant la décomposition de ÀvMep obtenue en (.ft) et celle que l'on


devine à partir de(•) (multiplié par Àp). on trouve

µ le1 + · · · + µ v- 1ev-1 - ev - À1Me1 - · · · - Àp-1M ev-1


ÀpMep = { , , ,2 , · · , M
"'v"'1e1 + · · · + "'pev + "'vµ 1M e1 + · · · + "'vµv-1 ev-1
Or, la famille (e 1, .. . , ep, M e1, ... , M ep- 1) étant libre, il y a unicité de la décompo-
sition. Ainsi

µ1 = ÀpÀ1 , .. . , µ p- 1 = ÀpÀp- 1, 1- l = À; 1, -À1 = Àpµ I, ... , -Àp- I = Àpµ p- I·

On remarque en particulier l'égalité >.; = - 1 qui est absurde compte tenu fait que
Àp E ~ .cette contradiction prouve finalement que (e1, . . . ,ep, M e1, ... , M ep ) est
libre.

Pour montrer qu'il s'agit d 'une base il nous suffit de montrer que .C est libre maximale.
Montrons la maximalit é. Pour cela nous allons procéder par l'absurde (comme souvent
pour ce genre de questions sur la maximalité) .

Supposons par l' absurde que C ne soit pas libre maximale, plus précisément
(C étant libre) supposons que l'on puisse trouver un vecteur ev+i qui joint à C
conserve son caractère libre . Cela nous donne p + 1 vecteurs ei , . .. , ep+I tel que
(e1, ... ,ep,ev+1, M e1, ... , M ep) soit libre, ainsi p + 1 E A ce qui contredit le carac-
tère maximal de p . Finalement C est libre maximal, c'est donc une base de E .
"O
0
r::::
:::J
0 3.c. Puisque la connaissance d 'une base nous donne, par calcul du cardinal, la dimen-
lfl
,..-1 sion. On a avec les notations précédentes
0
N
@
.....,
r:
Ol
ï:::
dim E = Card(e 1 , ... , ep, Me 1 , ... , M ep) = 2p.
>
Cl.
0
u

On déduit de ce qui précède que E est de dimension paire, Puisque par construction
dim E = n, cela impose que n soit paire.
On comprend alors que l'existence d ' une matrice M telle M 2 = -1 impose la parité
de n . Puisque 2015 est impair, on a donc prouvé qu'il n'existe aucune matrice M dans
M 2015 (~) vérifiant M = -ho15.
2
Exercice 5.8 Image et noyau d'une matrice 145

On considère E = M 5 , 1 (1R) que l'on munit de sa base canonique

:oit (:1, E(,,


1 2 3
rrr ~l ~ )
0 3
une matrice de M4,s(IR).

On rappelle que C 1 = AE1 , ... , C 5 = AE5 sont alors les colonnes de A.


1. On pose G = {AX; XE E}.
a. Montrer que G est un sous-espace vectoriel de M 4 , 1 (IR) dont
(C1, C2, C3, C4, Cs) est une famille génératrice.
b. En déduire une base de G.
2. On pose K = {XE E 1 AX = O}.
a. Montrer que K est un sous-espace vectoriel de E.
b. Par résolution d'un système montrer que l'on peut trouver une famille
génératrice (U1 , U2) de K vérifiant la propriété suivante : pour chaque
i E {1, 2} il existe un indice k tel que le coefficient d'indice k de Ui vaut
1 celui des deux autres vecteurs vaut O.
c. En déduire une base de K.

1. L'ensemble G = { AX ; X E E} est ce qu'on appelle l'image de A. Tout vecteur


colonne Y de G s'écrivant Y = AX est appelé image de X par A, X est ce qu'on
appelle un antécédent de Y par X.
1.a. Puisqu'il s'agit de montrer la structure d'espace vectoriel d'un ensemble, ainsi
que le caractère générateur d 'une certaine famille [,, ces deux propriét és peuvent être
démontrées simultanément par l'égalité G = Vect(I,).
Puisque Vect(I,) est l'ensemble des combinaisons linéaires de [, et que l'ensemble
"O
0 E (qui paramétrise G) est lui même donné comme l'ensemble des combinaisons li-
r::::
:::J néaires de la base canonique B, il s 'agit de relier la première combinaison linéaire à
0
lfl la deuxième.
,..-1
0
N
@ Puisque la base B est génératrice de [,, on en déduit que
.....,
r:
Ol
E = {x1E1 + x2E2 + x3E3 + x4E 4 + x sEs; (x1 , x2 , x3 , X4, xs) E IR5}.
·;::
> Ainsi, puisque, pour toute colonne Y de M4 ,1 (IR), Y E G ~ 3 XE E, Y= AX,
Cl.
0 on en déduit
u
Y E G ~ 3(x1 , x2,x3, x4 , x5) E IR
5
, Y= A(x1E1 + x2E2 + x 3E 3+x4E4+xsE s).
D'où, par distributivité du produit matriciel,
Y E G ~ 3 (x1 , ... , x s) E IR5, Y= xi AE1 +x2 AE2 + x 3 AE3 +x4 AE4 +xs AEs .
'-v-"' '-v-"' '-v-"' '-v-"' '-v-"'
146 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

L'équivalence donnant relation entre, d'une part, la décomposition d'une


image Y dans la famille génératrice des colonnes de la matrice A et,
d'autre part, les coefficients d'un antécédent X,

Y __ A ( X1 ) {::::::::} y= x1E1 + ... + XnEn,


Xn
est extrêmement utile lorsqu'il s'agit, par exemple, de détecter des solu-
tions particulières d'équations du genre AX = 0, ou, plus généralement,
d'équations du genre AX = >. · X, où >. est un scalaire fixé à l'avance.

On a ainsi
G = {x1C1 + x2C2 + x3C3 + x4C4 + xsCs; (x1, x2, x3, X4, xs) E IRs},
qu i se traduit par G = Vect(C1,C2,C3,C4,Cs) .
Ceci prouve, d'une part, que Gest un sous-espace vectoriel de M 4,1(IR) et, d'autre
part, que (C1, C2 , C3, C4, C5) en est une famille génératrice.

1.b. D'après le t héorème de la base incomplète, on sait que de toute famille généra-
trice on peut extraire une base.
Comme cela a été prouvé lors de la question 5.7.1.a, il s'agit de trouver une sous-
famille libre maximale et pour cela on procède en cherchant une colonne Ci non nulle
parmi les colonnes (C1,C2,C3,C4,C5), ce qui nous donne une famille libre (Ci)· Puis
on complète, petit à petit, la famille libre obtenue en une nouvelle famille libre par
adjonction d 'une nouvelle colonne Ck qui n 'est pas combinaison linéaire des précé-
dentes (cf question 5.7.2.a). Le procédé s'arrête lorsque toutes les colonnes restantes
sont combinaison linéaire des colonnes sélectionnées.

Cherchons une sous-famille .C, libre maximale, extraite de (C1, C2, C3, C4, Cs).
Puisque C1 est non nulle, on considère que C1 fait partie de la famille .C, et l'on a
G = Vect(C1, C2, C3, C4, Cs).
"O
0 Puisque C2 = 2C1, on exclut de prendre C2 dans .C, et, dû au fait que
r::::
:::J
0 C2 E Vect(C1, C3, C4, Cs), on en déduit (cf 5.7.2.a)
lfl
,-1 G = Vect(C1, C3 , C4, Cs).
0
Puisque, au vu de la troisième coordonnée de C1, C3, C4 , on a C4 rf. Vect( C1, C3) et
N
@
....., que (C1,C3) est libre, on en dédu it (cf 5.7.1.a) (C1,C3,C4) est libre (on prend alors
r:
Ol C1, C3 et C4 dans .C).
ï:::
> Enfin, puisque Cs E Vect(C1,C3,C4) (en effet Cs = 3C1. et donc on exclut de
Cl.
0 prendre Cs dans .C) et que G = Vect(C1,C3, C4 ,Cs ). on en dédu it
u
G = Vect(C1, C3, C4).
Ainsi, en tant que famille libre et génératrice de G, on en déduit que
.C = (C1, C3, C4) est une base de G.
2. K est ce que l'on appelle le noyau de la matrice A.
2.a. On commence par montrer que K est caractérisé par une équation cartésienne.
Exercice 5.8 Image et noyau d'une matrice 147

X
y
Par calcul mat ric iel on t ro uve, quelle que soit la colonne X = z E E,
t
u

2~
+2y +3z +3u = Ü
+4y +z - t +6u = Ü
X E K ~ AX = O ~ (S)
{ -z +2t = Ü
X +2y +3z +3u = Ü
(S) ét ant un système linéa ire homogène, on en déd uit , comme d ans 5.1.1.a, q ue K
est un sous- espace vect oriel de E.

2.b . On procède comme da ns 5.1.1. b.

Remarq uons que la première éq uation est égale à la dern ière éq uation
+2y +3z +3u = Ü
X EK ~ {2: +4y +z
-z + 2t
-t +6u =Ü
= Ü
D 'où, par la méthode du pivot de Gauss,

+ 3z + 3u = Ü
X EK ~
{ ITJ x + 2y
- 5z -t = Ü L 2 +- L 2 - 2L1
- z + 2t = Ü
Afi n d 'obt enir un pivot po ur la deuxième ligne en bo nne place, o n procède à une
perm utation sur les 4 derniers t ermes fa isant int ervenir les in connues ( resta ntes après
x ) y ,z, t ,u
+ 3z +3u = Ü

{"
+2y
-5z -t = Ü
-z + 2t = Ü

-0

0
0
c
:J

1..()
r-l
r +3z
[3J ·z -t
7t
+3u +2y = Ü
= Ü
= Ü
Ai nsi , en fa isant j ouer à y et u le rôle de paramètres, on trouve ( un système de Cramer
d'inconn ues x, z , t)
L 3 +- L 3 - 5L 2

0
N +3z = -3u - 2y
© XE K ~ { X - 5z - t = Ü
.......
..c 7t = Ü
Ol
ï::: = - 3u - 2y

{
>- X
a.
0 z = Ü
u
t = 0
X -3 -2
y 0 1
z =u 0 +y 0
t 0 0
u 1 0
148 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

- 3 -2
0 1
Finalem ent la famille constituée des vect eu rs U1 = 0 et U2 = 0 est
0 0
1 0
génératrice de K et vérifie la propriété demandée.
2.c. Il s'agit ici d'une famille manifestement libre comme évoqué dans l'exercice 5.6.

~I
U1, U2 étant manifeste ment no n colinéa ires, on a donc trouvé une famille libre et
géné ratrice de K, i. e. (U1 , U2) est une base de K.

Exercice 5. 9 : Espace de suites linéairement récurrentes

1. On dira d'une suite u (à valeurs réelles) qu'elle est une suite linéairement ré-
currente lorsqu'il existe un entier non nul d et des coefficients réels ao, ... , ad- I
tels que
d- l
'tin EN, Un+d = L akUn+k ·
k=O
d-l
On dit alors que Xd - L akXk est le polynôme caractéristique associé à u et
k=O
on dit que u vérifie une relation linéaire de récurrence d 'ordre d.
a. Quel est l'ensemble des suites linéairement récurrentes d'ordre 1 ?
b. Montrer qu'une suite linéairement récurrente d 'ordre d et de polynôme
caractéristique P est entièrement déterminée par la donnée de ses d pre-
miers termes.
c. Montrer que l'ensemble des suites u vérifiant la relation de récurrence li-
néaire
't/ n EN, Un+2 = 2un+l - Un
est un sous-espace vectoriel de l'espace des suites à valeurs réelles, et
"'O donner une base de celui-ci.
0
c
:J 2. Soit P un polynôme unitaire de degré d.
0
1..()
T"-l
a. Montrer que l'ensemble ry{(P) des suites linéairement récurrentes de poly-
0
N nôme caractéristique Pest un sous-espace vectoriel de l'espace des suites
© à valeurs réelles.
.......
..c b. Soit wCi) la suite de ry{(P) dont les d premiers termes sont
Ol
ï:::
>-
a. 0, 0, 1, 0, O.
0
u t t t
(i) (i) (i)
Wo wi wd-1

Montrer que la famille (wC 0 ), ... , wCd- l)) est une base de ry{(P). En déduire
que dim ry{(P) = degP.
Exercice 5. 9 Espace de suites linéairement récurrentes 149

3. Soient d réels strictement positifs distincts r 1 < ... < rd classés dans l'ordre
strictement croissant. On pose alors
P = (X - r1) x · · · x (X - rd).
a. Soit >.1 , ... , Àk k réels quelconques. En supposant Àk =f. 0 donner un
équivalent lorsque n tend vers +oo de
À1T~ + ·· · + ÀkTk.
b. Montrer que la famille [, constituée des suites (rï)nEN, ... , (r;J)nEN est
une famille libre de 91(P) .
c. Montrer qu'il s'agit d'une base de 91(P).

1.a. On va appliquer la caractérisation explicitée dans l'énoncé en fixant d = 1.

Une suite u est linéairement récurrente d'ordre 1 ssi


3a E IR, \:f n EN, Un+l = aun .
Ainsi, l'ensemble d es suites linéairement récurrentes d'ordre 1 est l'ensemble des suites
géom étriques.

1.b. Pour montrer qu 'une telle suite u est entièrement déterminée par la donnée des
d premiers termes, disons (to , ... , td- l ) E m;_d, on peut naïvement penser que cela
revient à démontrer par récurrence l'entière détermination de chaque valeur à partir
de la donnée des d premières. En effet, la relation
d-1
Un+ d = L akUn+k
k=O

permet d'obtenir successivement les valeurs ud , ud+ l, ud+ 2, ... en prenant successive-
ment n = 0, 1, 2, ....
-0
0
Néanmoins cette récurren ce ne peut prétendre prouver la détermination de toute la
c suite u mais uniquement la détermination de toute sous-suite finie de la prétendue
:J
0
suite u dont l'existence nous échappe (cette nuance est subtile, mais c'est une nuance
,....
I..{)
de taille). On va commettre une entorse à la rigueur mathématique et nous contenter
0
N
de montrer que, pour tout N ~ d - 1,
©
.......
..c (uo , ... , Ud - 1) = (to, .. . , td- 1)
Ol
ï::: 1 d-1
3 ! (Uo, +
u
>-
a.
0
... , UN) E IR;. N ,
{ Vn E {O, ... , N - d}, Un + d = L akUn+ k
k=O

Ceci étant montré, on va admettre qu'il existe alors une unique suite u t elle que
(uo, ... , Ud - 1 ) = (to , ... , td- 1)
d- 1
{ Vn E N, Un + d = L akUn+ k
k= O
150 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

Ce qui est, en partie, rigoureusement prouvé, si l'on admet l'existence d 'une telle suite
u (auquel cas on ne prouve ici que l'unicité) .

Notons P(N) la propriété :

( UQ , ... , Ud- 1) = (to, ... , td- 1)


d- 1
« 3 !(uo , .. . ,uN) E IRN+1, { )),
'lin E {O, ... , N - d}, Un+d = L akUn+k
k=O
• Initialisation : P(d - 1) ne dit rien d'autre que
3 !(uo, ... , Ud- 1) E IR.d, (uo, ... , Ud- 1) =(ta, ... , td- 1),
ce qui est manifestement vrai.
• Hérédité : Supposons que, pour un certain entier N ~ d - 1, la propriété P(N)
soit vraie , on a alors l'existence et l'u nicité d ' un vecteur ( uo, ... , UN) E JRN+l tel
que
(uo, ... , Ud-1) = (to, .. . , td- 1)
d-1
{ 'lin E {O, ... , N - d}, Un+d = L akUn+k
k=O
Montrons P(N + 1) i.e. qu ' il existe un unique (u~, ... , u~ , u~+I) E JRN+l tel que

(u~ , ... , u~_ 1 ) = (to , ... , td- 1)


d- 1
{ 'lin E {O, ... , N +1- d} , u~+d = L aku~+k
k=O

(
Posons (u~ ,. . ., u~) = (uo , .. .,uN), o n a alors, grâce à P(N),
u~, ... , u~_ 1) = (ta, ... , td- 1)
d-1
u~+d = Un+d = ~
1 'lin E {O, ... ,N - d} ,

d-1
L ak
k=O I
=un+k

Posons, à présent, u~+I L aku~+I -d+k · u~+ 1 est bien défini puisqu'il est
"'O
0
k=O
c déterminé à partir des va leurs (u~+I - d+k)o,;;;k,;;;d-1 = (u~+I - d' .. . ,u~) qui ont
:J
0 déjà ét é défin ies.
1..()
r-l Fin alement on a prouvé l' existence d'un (u~, ... , u~, u~+I) tel que
0
N
(u~ , .. . , u~_ 1 ) = (to , . .. , td- 1)
© d- 1
.......
..c
Ol { 'lin E {O, ... , N +1- d} , u~+d = Laku~+k
ï::: k=O
>-
a.
0 Il ne nous reste plus qu'à montrer l' unicité. Soit (u 0, ... , u~ , u'/v+ 1 ) une deuxième
u
fam ille vérifiant la caractérisation décrite dans P(N + 1).
. ue (u 0Il , . . . , uN
Pu1sq Il ) , "f.
ven 1e

(uû, ... , u~- 1) =(ta , ... ,td- 1)


d- 1
{ 'lin E {O, ... , N - d} , u~+d = Laku~+k
k=O
Exercice 5. 9 Espace de suites linéairement récurrentes 151

l'u nicité annoncée dans P (N) nous montre que (u~, ... , u'fv) (uo, ... ,uN) ,
d one, par const ruet .ion , ( u 0Il , . .. , uN
Il )
= ( u 0/ , ... , uN
/ )
.
d-1
Par a1·11 eurs, on a, par construction
. , u IlN+l =~
L ak u N+1-d+k = uN+l ·
Il /

k=O "-,.-"'
=u'.-v+1- d+k
Ainsi (u~ , ... , u'fv, u'fv+ 1 ) = (u~ , .. . , u'rv , u~v+ 1 ), et donc l' unicité est établie.
• Conclusion : Grâce au principe de récurrence, on a prouvé que, quel que soit
N ~ d - 1, P(N) est vraie.

1.c. On applique ici la m éthode permettant de caractériser toute suite linéairement


récurrente d 'ordre 2.

La suite u est linéairement récurrente d'ordre 2 son polynôme caractéristique est


X2 - 2X + 1 = (X - 1) . Puisque 1 est racine double, on en déduit la forme générale
2

de u
V n E N) Un = ,\ . 1n + µ . n . 1n .
Enfin, puisque de façon évidente toute suite u s'écrivant sous cette forme vérifie la
même relation de récurrence linéaire, on a prouvé que l'ensemble cherché est

Vect((l)nEN, (n)nEN).
C'est en fait l'ensemb le des suites arithmétiques.

On a, de façon ma nifeste, trouvé une famille génératrice [, (( l) nEN, (n)nEN ), on


montre que cette famille est libre.

Puisque (l )nEN n'est pas la suite nulle, dire que la famill e C, est liée équivaut à dire
que (n)nEN est colinéaire à (l)nEN · Or être colin éa ire à (l)nEN c'est êt re une su ite
constante ce qui n' est manifestement pas le cas de (n)nEN · Ainsi C, est libre.
Comme, par construction, C, est génératrice du sous- espace vectoriel qui nous occupe,
on en déduit qu'il s'agit d'une base.
d- 1
2.a. Convenons d 'écrire P = X d - L akXk . On commen ce par les vérifications de
k= O
routine.
-0
0
c

~1
0
:J 9l(P) est par construction une partie de l'espace vectoriel S(JR) des suites réelles. Il
1..() est de plus non vide, puisque la suite nulle est manifestement une suite linéa irement
T"-l
0 récurrente de polynôme caractéristique P.
N

© On montre à présent la sta bilité par combinaison linéaire .


.......
..c
Ol
ï::: Soient ,\ un scalaire et u , v deux suites de 9l(P). Par construction
>-
a.
0 d-1 d-1
u
VnEN, Un+d = L akUn+k et Vn+d = L akVn+k·
k=O k=O
Ainsi
d- 1 d- 1 d-1

V n E N, ÀUn+d + Vn+d = ,\ L akUn+k +L akVn+k = L ak(Àun+k + Vn +k ),


k=O k=O k=O
152 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

ce qui prouve que >.u + v E 9t(P) et donc la stabilité par combinaison linéaire est
prouvée.
1 Fin alement 9t(P) est un sous-espace vectori el de l'espace des suites à va leurs réelles.

2.b. Montrons que toute suite u de 9't(P) se décompose d'une manière et d'une seule
comme combinaison linéaire de vecteurs de la famille B = (w(O) , ... , wCd- l)) .
On procède par analyse et synthèse.

Soit u E 9t(P), montrons qu'il existe un uniqu e d- uplet (xo , . .. , Xd - l) dans ]Rd tel
que
u = xow (O) + · · · + Xd - l w (d - l ) .

Analyse : Supposons avoir trou vé un tel d-uplet, on a alors


- (0 )
'lin EN , Un - XoWn + · · · + Xd - lWn( d - 1)
.

Puisqu'il s'agit de déterminer d valeurs, il s'agit d'obtenir (au moins) d équations.


Pour cela on prend des valeurs particulières de n.

En particulier pour n = 0, puis n = 1, puis ... n = d - 1, on trouve


(0)
xowo + X1Wo(1) + ... + Xd - 1Wo(d - 1)
= uo
(0)
XOW1 + X1W1( 1) + · · · + Xd - 1W1(d - 1)
= UO

( 0)
X owd- 1 + X1 Wd( 1)- l + ... + X d - lWd-(d -11) = Ud - 1
Au vu de ce que sont les d premiers term es des suites w (i ) ce syst ème s'écrit
xo = uo
X1 = uo

1 Xd - 1 =
Ainsi, n'aya nt qu ' une seule possibilité pour les va leurs de
Ud- 1

xo , ... , Xd-l l'a nalyse prouve


l' unicité en cas d'existence de la décomposition .
Synthèse : Posons ( x o , . . . , X d - 1) = (uo , . . . , Ud- 1 ) et
v = xow (o ) + · · · + Xd - 1 w(d- l ) .
-0
0
c En tant que com binaison linéaire de suites d e 9t(P), on sa it que v E 9t(P) (c'est
:J
0 un espace vectori el) . Par ailleurs, un ca lcul analogue à celui mené d ans l'analyse no us
I..{)
r-l
montre qu e les d premières va leurs de v sont xo , ... , Xd - 1 i .e. uo, ... , U d- 1 · Ai nsi,
0
N
grâce à l' unicité établie en l.b, o n en déduit que v n'est autre que la suite u , i.e.
©
.......
u = xow (O) + · · · + Xd - 1 w (d - l ) .
..c
Ol Ceci prouve l'existence de la décomposition.
ï:::
>- Bilan : On a montré que tout vecteur u de 9t(P) se décompose d ' un e manière et
a.
0 d'une seu le comme combinaison linéa ire de vecteurs de J:. Ainsi [, est une base de
u
9t(P). Et la dimension s'obtient par calcu l du card inal
dim 9t(P) = Card [, = d = deg P.

3.a. Comme il n 'est pas question d 'additionner les équivalents nous allons dét erminer
(si possible) quel est le terme dominant dans cette somme.
Puisque pour 0 < s < t, on a sn = o(tn) lorsque n tend vers +oo (en effet , du fait que
Exercice 5. 9 Espace de suites linéairement récurrentes 153

1f 1< 1, on a sn =
tn
(~)
t
n-++oo
n0), on en déduit que le terme dominant dans cette
somme est Àkr'k. Pour montrer qu'il est équivalent à la somme, il suffit de factoriser
par ce terme dominant.

n
Ti Ti
Étant donné que, pour tout i < k, on a 0 < < 1, on en déduit -----+ o.
Tk Tk n--++oo
Ainsi,

-------+o+ .. .+o+ 1
n --+ + oo

3.b. Plusieurs méthodes sont ici possibles (voir par exemple 6.8.3) mais, au vu de la
question précédente introduisant un ordre de domination dans la famille considérée,
nous pouvons procéder (comme cela a été vu en 5.5 .3) par récurrence ou par l'absurde
en usant d 'un argument de maximalité. C'est cette dernière méthode que nous a llons
mettre en œuvre.

Supposons par l'a bsurde que[, est liée, on peut donc trouver des scalaires non tous
d

nuls: À1, ... , Àd tels que L Àj(r j' )nEN = O.


j =l
Notons Àk le scalaire non nul de plus gra nd indice, on a alors
k

L Àj (rj )nEN = O i.e. V n EN, À1rr + · · · + Àkrk = O.


j=l

On en déduit, d'après la question précédente que >-.krk "" 0 , ce qui, étant donné que
+oo
Tk # 0 et Àk # 0, est une contradiction. Final ement la famille .L est libre.

Il ne nous rest e plus qu'à vérifier que (rl)nEN , .. . , (r;J)nEN sont des éléments de 9l(P) .

-0 d-1

L a kXk,
~
0
c
:J
Noton s P = Xd - puisque Tj est une racine de P, on en déduit
0 k=O
1..()
,..... d- 1 d -1
0
N

©
rf - L ak rj = 0 i.e. rf = L akrj .
....... k=O k=O
..c
Ol D'où, en multipliant de part et d'autre de l'éga lité par r j (avec n EN), on trouve
ï:::
>-
a. d- 1
~
r jn+d akrjn+k .
0
u
\.-1
v n En , JM
=6
k=O
Ainsi on a bien (rj)nEN E 91(P) et ce quel que soit j E {1 , ... , d}.

3.c. P lutôt que de montrer le caractère libre et gén érateur, nous a llons ici prouver le
caractère libre et invoquer une égalité de cardinal et dimension.
154 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

~1
Puisque C, est une famille libre de 91(P) dont le cardinal vérifie , d'après ce qui a été
démontré plus tôt, Card C, = d = deg P = dim 91(P). On en déduit qu'il s'agit d'une
base de 91(? ) .

Comme dans le cas des suites linéairement récurrentes d'ordre 2, on re-


marque que pour tout autre ordre d, du moment que le polynôme carac-
téristique admet d racines distinctes : r 1 , .. . , rd (la stricte positivité des
racines n'est en réalité pas indispensable) une telle suite u se décompose
d
sous la forme : V n E N, Un = L Àkr'j .
k= l

1. Soient

J~ ( ; K~ ( ~l ~l)
D )
1 1 1 0
( -1
1 0 et L= ~ 0 -1
1 - 1 - 1 1
Montrer que la famille (J, K , L) est une famille libre de M 3 (IR).
2. On appelle carré magique, toute matrice M E M 3 (IR) dont les sommes des
coefficients sur chaque ligne, resp. chaque colonne et resp . cha que diagona le
sont égales à une même quantité (que l'on appelle la somme de !vl).
a. Montrer que l'ensemble 9J1 des carrés magiques est un sous-espace vecto-
riel de M 3(IR) .
b. Soit 9J1o l'ensemble des carrés magiques dont la somme est nulle. Montrer
que 9J1o est un sous-espace vectoriel de 9J1.
c. Montrer que
u+v
"'O 0
0
c -u-v
:J
0
1..() réalise une surjection entre IR 2 et 9J1o . En déduire que (K, L ) est une base
T"-l
0 de 9J1o.
N

© d. Montrer que
.......
..c 9J1 = Vect (J) EB 9J1o .
Ol
ï::: En déduire une base de 9J1.
>-
a.
0
u 3. Donner un carré magique dont les coefficients sont les chiffres 1, 2, .. . , 9, le
coefficient central étant égal à 5.

1 . On applique la définition.
Exercice 5 .10 Carrés magiques 155

Soient u , v, w trois scalaires t els que uK + v L + wJ = O. Par calcul matriciel, on en


déduit que

~ ~ U W+; +V W: ~ ~ V) =
( W:w+u w - u -v w+v
Ü.

Ainsi, puisqu'une matrice est nulle ssi chacun de ses coefficients est nul, on en déduit
w = 0 (cf coefficient central) ,
et donc 0 + u = 0 et 0 + v = 0 (cf coefficients d'indices (3, 1) et (3, 3)).
Finalement, u = v = w = 0, ce qui prouve que la famille (J, K , L) est une famille
libre de M 3(1R).

2.a. Pour que le travail soit plus aisé, nous a llons décomposer l'ensemble en intersec-
t ion de ce qui se révélera être des sous-espaces vectoriels.

Notons C2 l'ensemble des matrices dont les coefficients situés en ligne 2 ont la même
somme que ceux situés en ligne 1.
C2 ={M E M3(1R) 1 M [2, 1] + M [2, 2] + M[2, 3] = M [l , 1] + M[l, 2] + M[l , 3]}.
Montrons qu'il s'agit d'un sous-espace vectoriel de M 3 (1R) .
On commence par les constatations préliminaires.

~I C2 est , par constructio n, une partie de M 3(1R) . Elle est de plus non vide puisqu'elle
contient manifestement la matrice nulle.
On montre ensuite la stabilité par combinaison linéaire.

Soient À un scalaire et M, N deux matrices de C2, posons P = ÀM + N.


Puisque, par construction ,
M [2, 1] + M [2, 2] + M [2, 3] M [l , 1] + M [l , 2] + M[l , 3]
N[2, 1] + N [2, 2] + N[2, 3] N[l , 1] + N[l , 2] + N [l , 3],
on en déduit
.-\(M[2, 1] + M [2, 2] + M [2, 3]) + (N[2, 1] + N[2, 2] + N [2, 3])
.-\(M[l , 1] + M [l, 2] + M [l , 3]) + (N[l , 1] + N [l , 2] + N[l , 3])
"'O soit
0
c P[2, 1] + P [2, 2] + P[2, 3] = P[l , 1] + P[l, 2] + P[l, 3] .
:J
0
Ainsi P E C2, i.e. ÀM +NE C2 et la stabilité par combinaison linéa ire est établie.
1..()
r-l On peut donc conclu re que C2 est un sous-espace vectoriel de M3(1R).
0
N

© On introduit des espaces vectoriels an a logues.


.......
..c
Ol Par un raisonnement ana logue, on montre que les ensembles ci-dessous sont des
ï:::
>- sous-espaces vectoriels de M 3(JR).
a.
0
u • Ensemble des matrices dont les coefficients situés en ligne 3 ont la même somme
que ceux situés en ligne 1 :
J:,3 = {M E M 3(1R) 1 M [3, 1] + M [3, 2] + M[3, 3] = M [l , 1] + M[l , 2] + M[l , 3]}.
• Ensemble des matrices dont les coefficients situés en colonne i (avec i E {1 , 2, 3 })
ont la même somme que ceux situés en ligne 1 :
Ci = {M E M 3(1R) 1 M[l , i] + M [2, i] + M [3, i] = M[l , 1] + M[l , 2] + M [l , 3]} .
156 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

• Ense mble des matrices dont les coeffici ents situés sur la diagona le princ ipa le (resp.
non principale) ont la même somme que ceux situés en ligne 1 :
1J = {ME M 3(1R) J M [l , 1] + M[2, 2] + M[3, 3] = M[l , 1] + M [l , 2] + M [l , 3]},
resp. V'= {M E M3(1R) J M [3, l ]+M[2 , 2]+M [l , 3] = M [l , l ]+M[l , 2]+ M[l , 3]}.
Finalement , puisque
9J1 = .C2 n .C3 n C1 n C2 n C3 n v n v',
et puisqu ' une intersection de sous-espaces vect oriels est un sous-espace vect oriel, on e n
déduit que l'ensemble 9n des carrés magiques est un sous-espace vectoriel de M 3(1R) .
2.b. On procède ici de ma nière plus classique. On commence par les observations
p réliminaires d'usage.

~I 9n0 est , par construction , une partie de 9J1. Elle est non vide puisqu 'elle contient
ma nifest e me nt la matrice nulle.
On montre à présent la stabilité par combinaison linéaire.

Soient M , N deux matrices de 9n 0 et À un sca laire, posons P = ÀM + N .


Puisque 9J1 est stable par combinaison linéaire et que M et N en font partie , on sait
déjà que P E 9J1.
Il nous suffit donc de dém ontrer que la somme de P vaut O.
Puisque Met N sont de sommes nulles, on en déduit (cf somme des coeffi cie nts de
la première ligne )
M [l , 1] + M [l , 2] + M [l , 3] = 0 et N[l , 1] + N[ l , 2] + N[l , 3] = O.
On en déduit À(M [l , 1] + M[l, 2] + M[l , 3]) + (N [l , 1] + N[l , 2] + N[l, 3]) = 0 ,
i. e. P [l , 1] + P [l , 2] + P [l , 3] = O. ÀM + N est donc de somme nulle et la st a bilité
est dé montrée. On pe ut donc conclure que 9J1o est un sous-espace vect orie l de 9J1.
2.c. On remarque tout d 'abord que l'application <p est bien définie, puisque, quel que
soit (u, v) dans IR 2 , la matrice <p( u, v) est b ien u n carré magique de somme nu lle.
Pour montrer la surjectivité de <p, il s'agit de m ontrer que tout élément de l'ensemble
d 'arrivée 9.Jl 0 admet (au moins) un antécédent dans IR2 .

~1
-0 Soit M E 9J1o .
0
c Mont rons qu'il exist e u, v deux réels t els que M = i.p(u , v).
:J
0
1..()
,..... Une analyse, nous montre que u et v (s 'ils existent) ne peuvent être au tres que M[3 , 1]
0
N
et M[3, 3] respectivement . Ceci prouve par a illeurs qu'en cas d'existence il y a u nicité,
© c'est donc qu'une fois la surjectivité démontrée on pourrait conclure en réalité à la
.......
..c
Ol b iject ivité (cette bij ect iv ité aurait pu servir d'argument pour la détermination que
ï:::
>-
a. l'on fera du caractère base d e ( K , L)).
0
u Nous allons construire tous les a ut res coefficients de M à la manière d 'un Sudoku.

Posons pour cela u = M [3, 1] et v = M [3, 3] et montrons que M = i.p(u,v ).


Pour plus de commodité, on va nomme r w l'élément centra l de M. Puisque la somme
des coeffic ients de la derniè re lig ne vaut 0, o n en déduit qu e
?
w ; ) .
- u- v V
Exercice 5 .10 Carrés magiques 157

Puisque la somme des coefficients des deux diagonales et de la deuxième colonne


valent 0, on en déduit
-v- w u + v-w
M = ? w
( u - u -v
En particulier, puisque la somme des coefficients de la première ligne vaut 0, on a donc
(-V - W) + (U + V - W) + (-U - W) = 0.
-3w

Ainsi, puisque w = 0, on trouve M = ( -;v u; v


u - u- v
Les coefficients manquants sont alors déterminés par la nullité de la somme des coef-

ficients en colonne 1et3: M = ( v-_vu u;v u--uv ) =<p(u , v).


U -U - V V
Ainsi, puisque nous venons d'exhiber un antécédent de M pour l'application <p , on a
bien prouvé que <p réalise une surjection entre IR2 et 9J1o.

Donnons une interprétation de <p en termes de combinaison linéaire et voyons quelle


interprétation on déduit de sa surj ectivité.

Puisque <p : (u , v) i---+ uK + v L, la surjectivité que l'on vient d 'établir annonce que
tout M E 9J1o peut se décomposer sous la forme
M = uK +vL avec (u , v) E JR2 .
Ainsi la famille (K, L ) est génératrice de 9J1o, et comme par ai lleurs elle est libre (car
extraite de la famille libre (J, K , L )), on en déduit que (K , L) est une base de 9no.

2.d. Commençons pa r rema rquer que, J étant un carré magique, Vect(J) , tout comme
9J10 , est un sous-espace vectoriel de 9J1.
Il s'agit de montrer que tout élément M E 9J1 a dmet une et une seule décomposit ion
sous la forme
M = A
'-v-'
+ '-v-'
N,
-0 EVect( J) E 9J1o
0
c
:J
0 ou plus simplement , qu'il existe un et un seul couple (a, N) avec a E ~et N E 9J1 0
,....
I..{)
tel que NI = aJ + N .
0
N R emarquons qu'il suffit d e trouver a car a lors N est donné par N = M - aJ.
© On va raisonner par ana lyse et synthèse.
.......
..c
Ol
ï::: Analyse : Supposons avoir trouvé a E lR et N E 9J1o tels que
>-
a.
0 M = aJ+N.
u
Notons Πla somme de M.
Puisque N E 9J1o, on en déduit
N [l , 1] + N[l , 2] + N[l , 3] = O.
D'où
Π= M [l , 1] + M [l , 2] + M [l , 3] = (a+ N[l , 1]) +(a+ N [l , 2]) + (a + N [l , 3]) = 3a.
158 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

Ainsi, a = ~. et donc N = M - ~ l.
Ceci prouve l'unicité en cas d'existence de la décomposition.
Synthèse: Posons a=~· et donc N = M - ~ l.
On a de façon immédiate
M = al+ N et al E Vect(l).
Par ailleurs, en tant que combinaison linéaire des carrés magiques l et M, N E 9J1.
Or, par un calcul similaire à celui mené en analyse,
N [l , l ]+N[l , 2]+N[l , 3] = (M[l , l ]- a)+(M[l , 2]- a)+(M[l , 3] - a) = a - 3a = O.
Ceci prouve que NE 9J10 , d 'où l'existence de la décomposition.
Conclusion : Puisque tout vecteur M de 9J1 se décompose d'une façon et d ' une seule
comme somme d ' un vecteur de Vect(l) et d ' un vecteur de 9J10 , on a donc
9J1 = V ect( 1) EB 9J1o.
(1) étant une base de Vect(l), on en déduit, par concaténation avec la base (K, L )
de 9J1o, une base adaptée à la somme directe ci-dessus: (1, K, L) est une base de 9J1.

3. Pour dét erminer un carré magique il nous suffit de déterminer ses trois coordon-
n ées dans la base (J ,K,L). On va donc, à la manière d 'un Sudoku , déterminer les
coefficients du carré magique recherché.

Soit M une carré magique dont les coefficients sont les ch iffres 1, 2 , .. . , 9, le coefficient
central étant égal à 5.
Par décomposition dans la base que l'on vient de mettre en évidence, on sa it que l'on
peut trouver trois sca laires a, b, c tels que
a- c a+b+c a- b
M = al + bK + cL =
(
a - b+ c
a+b
a
a - b- c
a + b- c
a+c
)
Pu isque le coefficient central vaut 5, on en déduit que 1a = 5 I. Ainsi
5- c 5+b+c 5- b )
M = 5 - b+c 5 5+b - c .
(
5+b 5- b -c 5+c

-0
0 Puisque chaque coefficient de M est distinct et parmi {l,... ,9}, les coefficients en
c
:J (1 , 1) et (1, 3) n ous montrent que b et c sont distincts non nuls (voir coefficient (2, 2))
0
1..() et pris dans
T"-l
0
N {-4, -3, -2, - 1, 1, 2, 3, 4} .
©
.......
..c
Ol
Puisque cha nger b et -b revient à ch an ger le carré magique M en t M (carré ma-
ï::: gique avec 5 en élément central et dont les coefficien ts sont les chiffres 1, ... , 9),
>-
a.
0 on peut supposer b positif. Il en va d e même pour c, puisque cha nger cet -c revient
u
à changer NI en son symétrique M' par rapport à la deuxième diagonale (M' est
encore un carré ma gique avec 5 en élément central et dont les coefficients sont les
chiffres 1, . . . , 9). Enfin échanger b etc revient à prendre la matrice M " obtenue par
symétrie par rapport à la deuxième colonne ( M" est en core un carré magique avec
5 en élément central et dont les coefficients sont les chiffres 1, ... , 9). Ainsi, puisque
distincts, on peut choisir de prendre b < c.
Exercice 5 .10 Carrés magiques 159

Les couples (b, c) auxquels on s 'intéresse sont donc

(1 , 2), (1, 3), (1, 4) , (2, 3), (2, 4) , (3, 4).


Puisque, par ailleurs, les coefficients de M sont des entiers non nuls, on a, en particulier
au regard du coefficien t (3 , 2),

1 ~ 5 - b- c <5- 2b donc b < 2.


" '-v-"
>b

Finalement, en ayant choisi d e prendre 0 < b < c, on a nécessairement b = 1.

Fixons b = 1, ainsi la matrice s'écrit


6+c
5
4- c
Si l'on choisit c > 0, le plus grand coefficient est alors 6 + c. Il est donc égal à 9, d 'où
1c=31. Ainsi
9
5
1

Une rapid e vérification pour chacune d es sommes sur les lignes, colonnes et diagonales
nous montre qu ' il s'agit là d ' un carré magique (de somme 15) et dont les coefficients
sont les chiffres 1, . . . , 9 (et 5 pour coefficient central).

D 'autres carrés magiques pouvaient convenir , n ous avons choisi ici d'exhiber la solu-
t ion pour les coordonnées (a , b, c) = (5 , 1, 3).
Mais au vu des ch oix a rbitraires que l'on a posé pour faciliter le calcul (grâce à la
conservation des propriétés par cer taines symétries) , on pouvait également obtenir
d'au tres carrés magiques

(a, b, c) = (5, -1, 3) soit M1 = ( 429 ~7 6~) symétrie : ]\/[--+ tM,

"'O

M = ( s~ 3~ 4~ )
0
c
:J
0 (a , b, c) = (5 , 1, - 3) soit symétrie/ 2e diagonale,
I..{)
T"-l
0
N

©
.......
..c
Ol
(a , b, c) = (5, 3, 1) soit M = ( 4~ 9~ 627 ) symétrie : C1 ~ C3,
ï:::
>-
a.

M1 = ( 6~ ~1 483 )
0
u
(a, b, c) = (5, - 3, - 1) soit symétrie : L1 ~ L 3,

(a, b, c) = (5, - 1, - 3) soit M = ( !~ ~) avancer de 30 minutes,


160 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

0n
7
(a,b,c) = (5,3,- 1) soit M = 5 avancer de 15 minutes,
3

(a, b, c) = (5, -3, 1) soit M=


un3
5
7
reculer de 15 minutes.

Pour les trois derniers carrés magiques, la transformation est imagée et prend comme
référence le cadran d'une montre dont les numéros seraient disposés à la manière d 'un
carré magique (hors coefficient central).

1. Soit E un JK-espace vectoriel de dimension finie n. Soient A et B deux sous-


espaces de E.
a. On suppose dans cette question uniquement A c B. Montrer que
A=B ~ dimA ;;::: dimB.
b. Montrer que la concaténation d'une base BA de A et d'une base BB de B
donne une famille C génératrice de A + B.
c . En déduire, sans faire appel à la formule de Grassmann
(i.e. dim(A + B) = dim(A) + dim(B) - dim(A n B)), que
dim(A + B) :::;; dim(A) + dim(B).
2 . Soient A 1 , .. . , Ap p sous-espaces de E.
a. Montrer que lorsque dim A 1 + · · · + dim Ap > n alors les A 1 , ... , Ap ne
sont pas en somme directe.
b. On suppose ici que les A 1 , ... , A p sont en somme directe.
Montrer que E = A 1 E9 · · · E9 A p ssi dim A 1 + · · · + dim Ap ;;::: dim E.
3. Soit [, = (u 1 , .. . , up) une famille de p vecteurs de E.
a . Montrer que rg(L,) = n ssi [, est génératrice de E.
"'O
0
c
:J
b . Montrer que rg(L,) = p ssi [, est libre.
0
1..()
T"-l
0
N
1.a . On suppose A C B .
©
.......
..c
L'implication directe est évidente .
Ol

~1
ï::: Lorsq ue A = B, il va de soi que dim A dim B et donc, a fortiori,
>-
a.
0 dim A ?: dim B.
u

P our la rec1proque nous allons exploiter l'inclusion init ialement supposée pour en
déduire deux choses : une inclusion et une inégalité de dimensions.

~I
Pu isque l' on a supposé A C B , on en dédu it par passage aux dimensions
dimA ::::;: dimB.
Exercice 5 .11 Dimensions e t espaces 161

A insi, lorsque l'on suppose dim A )! dim B, on a en réa lit é dim A = dim B. Cet te
éga lité de d imension conjointement avec l' inclusion A C B nous permet de conclu re
à l'éga lité A = B.
1 Fin alement on a bien l'équiva lence A = B ~ dim A )! dim B.

1.b . Ce résultat est en fait connu dans le cas de la somme directe (da ns ce cas
là la concaténation fourni t une base, et c'est d 'ailleurs une condition nécessaire et
suffisante) . On va mon trer le caractère générateur en déterminant l'espace vectoriel
engendré (on s'appuiera sur le fait que l'emploi du Vect t ransforme l'union en somme)
Vect(F U G) = Vect (F) + Vect(G) .
Puisq u' une base est en particulier génératrice
A = Vect(BA) et B = Vect(Bs ).
O n en déd uit Vect(C) = Vect(BA U BB) = Vect (BA) + Vect (Bs) = A + B.
A insi, C est générat rice de A + B.

Avec r vect eurs u 1 , . .. , Ur on peut tou t aussi bien construire (au moins)
une famille ou r -uplct (u 1, ... , U r) et un (unique) ensemble {u 1, ... , Ur}
(d 'au plus r éléments). L'espace vectoriel engendré ét ant le même,
Vect (u 1 , . .. , U r) = Vect ( {u 1 , ... , Ur } ),
nous avons ici utilisé l'abus de notation B AU BB pour désigner l'en-
semble constit ué des éléments provenant de la famille B A et B B, i.e. pro-
vena nt de la famille C obtenue par concaténa tion.

1.c . On va utiliser le fait que la dimension désigne le nombre de vect eurs en dessous
duquel il ne peut y avoir de famille génératrice (et a u dessus duquel il ne peut y avoir
de famille libre) .

~
Puisque C est générat rice de A + B, on en dédu it q ue
"O dim (A + B) ~ Card (C).
0
c O r , pu isque C est la résulta nt e de la concaténation de BA et Bs, on en déd uit
:J
0
1..() Card (C) = Card(BA) + Card (Bs ),
r-l
0 et, s' agissa nt de bases de A et B respectivement, on en déduit
N

© Card (BA) = dim A et Card (BB) = dimB .


.......
..c
Ol Finalement dim( A + B) ~ dim(A) + dim(B).
ï:::
>-
a.
0
u

m Il ne faut pas confondre le cardina l de la famille (u 1 , . . . , Ur ) (celui-ci


vaut r) et le cardinal de l'ensemble {u1, . . . , Ur } (celui-ci est inférieur
ou égal à r) .

2.a. On va raisonner par contraposit ion.


162 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

Supposons que A 1 , .. . , Av sont en somme directe.


A1 +···+Av étant un sous-espace de E, on en déduit dim(A1 + · · · + Ap) ~ n .
Or, la somme étant directe,

dim (A1 + · · · +Av) = dim A1 + · · · + dim Av.


Ainsi dim A i + · · · + dim Av ~ n et donc, par contra position , on peut affirmer que :
si dim A 1 + · · · + dim Av > n alors les A 1, . .. , Av ne sont pas en somme directe.

2.b. On va utiliser la question 1.a.

Puisque les A1, ... , A p sont en somme directe, on a l'équivalence


dim A1 + · · · + dimAv;::: dimE ~ dim(A1 EB · · · EB A p);::: dimE.
Or, par construction , A1 EB · · · EB Ap C E , et donc, grâce à l.a,
E = A 1 EB · · · EB A p ~ dim (A1 EB · · · EB A p);::: dimE.
Ainsi E = A1 EB · · · EB Ap ssi dimA1 + · · · + dim Ap;::: dimE.

3.a. Le caractère générateur étant lié à l'étude de Vect(.C), il nous suffit de montrer
que ce dernier vaut E ssi sa dimension (i.e. le rang de la famille .C ) est celle de E.

Puisqu e l' inclusion Vect(.C) C E est immédiate. l' égalité des espaces équivaut à
l'égalité des dimensions
Vect(.C) =E ~ dim(Vect(.C)) = dim(E).
'-.,..--'
rg(.C) =n

Or dire que .C est génératrice de E équivaut à dire que Vect(.C) = E.


Finalement , rg(.C) = n ssi .C est génératrice de E.

3.b. Nous allons utiliser la caractérisation du caractère libre au travers du caractère


base. En effet , puisque .C est par construction générat rice de Vect (.C), on a l'équiva-
lence
-0
0
c
:J .C est libre {:::::::::} .C est base de Vect(.C).
0
1..()
r-l
0
N

~
© Puisqu e .C est une famille de vecteurs de Vect (.C), on a la caract érisation de la base
....... par son caractère générateur et son cardinal
..c
Ol
ï::: .C est génératrice de Vect(.C)
>-
a.
0
.C est base de Vect (.C) ~ { Card (.C) = dim(Vect(.C))
u
Or .C est, par construction , génératrice de Vect(.C), on en déduit
.C est base de Vect(.C) ~ Card (.C) = dim(Vect(.C)).
"--v-"'
=p rg(.C)

On en déduit également que .C est libre ~ .C est base de Vect(.C) .


A insi rg(.C) = p ssi .C est libre.
Exercice 5.12 Analyse harmonique 163

Soit E = F (R, R) l'espace vectoriel des fonctions réelles d 'une varia ble réelle.
1. Exprimer, pour tout couple de réels (a, b), cos( a) cos(b) et sin(a) sin(b) en fonc-
tion de cos( a + b) et cos( a - b).

2. a . Calculer , pour k et j deux ent iers naturels, 1 71' cos(kx) cos(jx) dx.
b. Montrer que C = (ck : x t--+ cos(kx))o::;;k::;;n est une famille libre de E .
c. Montrer que toute fonction de C = Vect(C) est paire et 2n-périodique.

3. a. Calculer , pour k et j deux ent iers naturels, 1 71' sin(kx) sin(jx) dx.
b. Montrer que S = (sk : x t--+ sin(kx) )i ::;; k::;;n est une famille libre de E.
c. Mont rer que toute fonction de S = Vect(S ) est impaire et 2n-périodique.
4 . Montrer que C , Set E = Vect (exp : xi--+ ex) sont en somme directe.
5. Donner une base de C +S +E.

1. Il s'agit des formule de linéarisation, celles-ci s'obt iennent aisém ent à pa rtir des
formules permett ant d'exprimer cos(a + b) et cos(a - b) en fonction des sinus et cosinus
de a et b.

Puisque
(1) cos(a+ b) cos( a) cos(b) - sin (a) sin (b)
(2) cos(a - b) cos (a ) cos (b) + sin (a ) sin (b) ,
on en déduit
(1) + (2) = 2 cos(a) cos(b)
cos(a + b) +cos (a - b)
et (2) - (1) cos(a - b) - cos( a+ b) = 2 sin(a) sin(b).
Finalement,
"'O 1 1
cos(a+ b) +
0
c
cos( a) cos(b) =
2 2 cos(a - b)
0
:J

,....
1..()
et sin(a) sin(b) = l cos( a - b) - ~cos( a - b).
0
N
2.a . On va exploit er les formules de linéarisat ion établies en question 1 et ainsi t rans-
©
....... former ce calcul d 'intégrale d'un produit en celui d 'une intégrale d 'une somme, beau-
..c
Ol
ï::: coup plus simple à obtenir (grâce à la linéarité de l'intégration).
>-
a.
u
0 Grâce à 1 et à la linéarité de l' intégratio n, o n t rouve

11" cos(k x ) cos(jx) dx = 1


2
17r cos((k + j)x) d x + 1
2
17r cos((k - j )x) dx .
10 0 0
Or k +j est un entier naturel éventuellement nul , lorsqu'il est non nul,

1 11" cos((k + j)x) dx = [ - k: j sin((k + j )x) [ = O


164 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

(en effet sinu s s'a nnule sur t o ut multiple de 7r) ,


et lorsque k + j = 0, i. e. k = j = 0, on trouve

11' cos((k + j)x) dx = 11' 1 d x = 7r .


Par ailleurs, k - j est un entier rel atif éventuellement nul, d 'où

1' COS ( ( k - j) X ) d x =
{ l
11'a d x = 7r si k = j

1a [- -
k- J
. sin ((k - j)x)J
a
7r

= 0 sinon

Finalement ,

{1' { 7f /2 si k = j et j -:j:. 0
l a cos (k x) cos (jx) d x = ~ si k = j = 0
si k -:j:. j

2.b. L 'applica tion() : f H 17r f( x )cj(x) dx s'a nnule au vecteur nul et en tout vect eur
ckavec k -f::. j, et est non nul en Cj . Ainsi () et la linéarité de l'intégration donnent un
moyen efficace pour éliminer tous les t ermes faisant référence a ux À k pour k -f::. j et
n
seul subsistera le terme faisant mention à Àj dans l'égalit é L À kCk = O.
k=O

n
Soient Àa, ... , Àn n + 1 scalaires t els que L ÀkCk = O.
k= a
Par distributivité du produit (avec Cj ) et linéarité de l'intégration, on obtient, grâce à
la q uestio n précédent e,

t > -k {1'
Cj (x)ck(x) d x = {1'
Cj (x)· Odx .
k= a l a
=a si kof-j
l a
------ =a

Ainsi Àj 11' Cj (x)cj (x) d x = 0, i.e. Àj = 0 et ce quel que soit j E {O, . .. , n} .


""O
0
c
:J O n a donc prouvé que
""a C = (ck : x H cos(kx) )a( k( n est une famill e libre de E .
0
,....
1..()

0 2.c. P u isque l'ensemble des fonctions paires et 27r-périodiques est sta b le par combi-
N
n aison linéaire (c'est même un espace vectoriel), il suffit de montrer que tout es les
©
.......
..c
fonct ions d e la fam ille C sont pa ires et 27r-périodiques .
Ol
ï:::
>-
a. Par parité et 27r- péri odicité de la fon ctio n cosinus, on en déduit , pour t out entier
0
u j E {O, .. . ,n} ,
= COS ( - j X) = COS (j X) = Cj ( X)
Vx E ~' = cos(jx + ...__,,
j ·27r) = cos(jx) = Cj(x)
EZ

A insi t out élément de C est une fonctio n paire et 27r- péri od ique. O r une combinai-
son linéaire de fonct ions paires et 27r- périod iq ues est encore une fonct ion paire et
Exercice 5.12 Analyse harmonique 165

27r-périodique, ainsi l'ensemble C des combinaisons linéaires de fonctions de C est


1 constitué de fonctions paires et 27r-périodiques.
3.a. On suit la même méthode que décrite en 2.a.
Grâce à 1 et à la linéarité de l' intégration on trouve

1 1r sin(kx) sin(jx) dx = ~ 1 1r cos((k - j)x) dx - ~ 1 1r cos((k + j)x) dx.


Finalement, grâce aux calculs menés en 2 .a ,

si k = j
[ sin(kx) sin(jx) dx = { :
sinon

3.b. On s'inspire de ce qui a été fait pour C.


n

Soient À1 , ... , Àn n + 1 scalaires tels que L Àksk = O.


k=l
Par distributivité du produit (avec Cj ) et linéarité de l'intégration , on obtient, grâce à
la question précédente,

tÀk {1r Sj(x)sk(x)dx= {1r Sj(x) ·Odx.


k=O Jo
= 0 si k,tj
Jo
---.--- =O

Ainsi Àj 1 1r Sj(x)sj(x) dx = 0, i.e. Àj = 0 et ce quel que soit j E {1, ... , n}.


=~,tO
On a donc prouvé que S = (sk : x H sin (kx))i ::;; k::;;n est une famille libre de E.
3.c. On s'inspire de ce qui a été fait pour C.

Par imparité et 27r-périodicité de la fonction sinus, on en déduit , pour tout entier


j E {l , ... ,n},
= sin( - jx) = - sin(jx) = - sj(x)
-0
0 Vx E IR, = sin (j x + .._,,,,....,
j ·27r) = sin (j x) = s j ( x)
c
:J
0 EZ
I..{)
r-l
Ainsi tout élément de S est une fonction impaire et 27r-périodique. Or une combinaison
0 lin éa ire de fonctions impaires et 27r-périodiques est encore une fonction impaire et
N

© 27r-périodique, ainsi l'ensemble S des combinaisons linéaires de fonctions de S est


....... constitué de fonctions impaires et 27r-périodiqu es .
..c
Ol
ï::: 4. Puisqu'il n 'est pas question de montrer que les intersections 2 à 2 sont réduites au
>-
a.
0 vecteur nul , on va ici revenir à la caractérisation selon laquelle seule la décomposi-
u
tion triviale (celle s'écrivant comme la somme des vecteurs nuls) permet d'obtenir le
vecteur nul.

~1
Supposons avoir trouvé trois vecteurs f ,g , h tels que

f + .._,,,,....,
.._,,,,...., h = o.
g + .._,,,,....,
EC ES EE
166 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels

Puisqu'alors h = - f - g , et que f et g sont 2n-périodiques, on en déd uit qu'il en va


de même pour h .
Or h s'écrit sous-la forme h = À· exp avec À un scalaire. Puisque exp n'est pas 2n-
périodique, on en déduit que À = 0, i.e. h = O.
Ainsi, (*) s'écrit f = - g , mais puisque, tout comme g, - g est impaire, on en déduit
que f est impaire.
Ainsi f est à la fois paire et impaire , ce qui impose que f = O. En effet, on a par
imparité et parité
Vx EIR, f( x)= f( - x)= - f(x ).
Finalement (*) s'écrit g = 0, et nous permet de conclure que f = g = h = O. Ceci
prouve que C, S et E sont en somme directe.

5. Puisque la somme est directe on sait qu'une concaténation de bases donne une base
(dite adaptée) à C œS œE.
Il ne nous rest e plus qu'à déterminer une base de C, S et E.

Par construction C est une famille génératrice de C = Vect(C), comme par ailleurs il
a été prouvé que C est libre, on a donc une base de C . De même, S est une base de S.
Enfin puisque exp n'est pas le vecteur nul, on en déduit que (exp) constitue une base
de la droite vectorielle E = Vect(exp).
Puisque la somme est directe, C + S + E = C E9 S E9 E , on en déduit une base par
concaténation de bases, à savoir
(co , ... , Cn , s1, .. . , Sn, exp) .

-0
0
c
:J
0
,....
1..()

0
N

©
.......
..c
Ol
ï:::
>-
a.
0
u
Liste des capacités attendues 167

Liste des capacités attendues

• Savoir montrer qu'une partie est un sous-espace vectoriel (cf exercices


5.1 , 5.3, 5.4, 5.8, 5.9 et questions 5.10.2.a, 5.10.2.b).

• Savoir déterminer le caractère base , libre ou générateur d'une fa-


mille (cf exercices 5.4, 5.5, 5.6, 5.7, 5.8, 5.9 et questions 5.1.1.c, 5.1.3, 5.3.3.b,
5.10.1 , 5.11. 1.b, 5.12. 2.c, 5.12.3.c, 5.12.5 ; voir aussi exercices 6.6, 6.11 et ques-
t ions 6.2.1.d, 6.5.1 , 6.5.2, 6.9.2.c, 6.10.1 , 6.11.2, 6.11.3, 6.15.3).

• Savoir montrer que deux sous-espaces sont supplémentaires, que plu-


sieurs sous-espaces sont en somme directe et déte rminer la décomposi-
tion d'un vecteur selon une somme directe (cf questions 5.10.2.d, 5.12.4 ;
voir a ussi exercice 6.16 et questions 6.2.1.d, 6.3.1.a).

• Savoir calculer le rang d'une famille ou la dimension d'un sous-espace


vectorie l (cf exercice 5.11 et questions 5.7.3.c, 5.9. 2.b ; voir aussi questions
6.2.1.d, 6.9.2.c, 6.11.2.b, 6 .15.2.a et 6.15 .3.b).

• Savoir utiliser le rang ou la dimension pour caractériser une famille d e


vecteurs ou comparer des sous-espaces vectoriels (cf exercice 5 .11).

"'O
0
c
:J
0
,....
1..()

0
N

©
.......
..c
Ol
ï:::
>-
a.
0
u
1:J
0
c
:J
0
lJ)
r-1
0
N
@

L
01
ï::::
>-
Q.
0
u
CHAPITRE

Applications linéaires et matrices

On considère Kn muni de sa base canonique B = (e 1 , .. . , en ) et on introduit les


applications coordonnées, définies pour tout i E { 1, . . . , n} par

e; s'appelle la ie application coordonnée (relativement à la base B) .


1. e;
a. Montrer que, pour tout i E { 1, . .. , n} , est une a pplication linéaire entre
Kn et K (on parle alors de form e linéaire).
b. Montrer que, quel que soit le vect eur u, l'application x H ei(x )u définit
un endomorphisme de Kn .
c. En déduire que, quels que soient les vecteurs u 1 , . . . , Un de Kn,
n
r.p: (x 1, . . . ,xn) H L Xi Ui
i= l
définit un endomorphisme de Kn .
d . Calculer, pour t out i E {1 , . . . , n} , r.p(ei)·
2. a. Montrer que f est un endomorphisme de Kn ssi il existe une matrice
A E M n (IR) dont les coefficients (ai,j) 1::;; i,j ::;; n vérifient
"'O
0
c
:J
'\/x= (x 1, .. . ,xn) EKn, f( x ) = (ta1 ,jXj, ... , t an,jXj ).
0 j= l j= l
1..()
T"-l
0 b. Quelle est la matrice canoniquement associée à f ?
N

©
.......
..c
Ol
ï:::
>-
a.
0
1.a. On vérifie sans peine que t out élément de l'espace de départ a bien une (et une
u seule) image dans l'espace d'a rrivée. Il s'agit ensuite de vérifier que est linéaire. e;
e; : ocn ---+ IK est bien défini, puisque pour tout X = (x1 , ... ' Xn) dans ocn' on a
e;(x) =Xi E !K. Par ailleurs, qu els que soient,\ dans IK et x , y dans ocn , on a (en
nota nt x = (x1, .. . , Xn ) et y = (y1, ... , Yn) )

X+ Ày = (x1 + Ày1, ... , Xi+ Àyi, ... , Xn + Àyn ).


1 70 Chapitre 6 Applications linéaires et matrices

Ainsi, la ie coordonnée du vecteur ci-dessus est donnée par

e:(x + >.y ) = Xi+ ÀYi = e:(x) + >.e:( y ),


1 ce qui finit par prouver la linéarité de e:. Finalement e: est une forme linéaire de ocn .
1.b. On reproduit ici les mêmes étapes que dans la question précédente.

Soit u un vecteur de ocn <p 1 : X H ei (x )u définit bien une application de ocn dans
lui-même, puisque, pour tout X E ocn ' on a
EOCn

<p(x) = ei(x) ·~ E !Kn .


..._.,,.....,,
E OC

Par ailleurs, quels que soient>. dans IK et x, y dans ocn, on a, grâce à la linéarité de ei,
<p(x +>.y)= ei(x + >.y)· u = [ei(x) + >.ei(y)] · u.
Donc, grâce aux propriétés du produit d 'u n vecteur par un scalaire,
cp(x +>.y)= ei(x) · u + >.ei(y) · u = cp(x) + >.cp(y),
ce qui finit par prouver la linéarité de <p. Finalement cp est un endomorphisme de ocn .
1.c. Puisque l'indice 1 utilisé dans la question précédente n'a joué aucun rôle, il est
clair que l'on peut affirmer que, pour tout indice i, x H e:(x)ui est linéaire.

~1
Soient U1' ... 'Un n vecteurs de ocn . Par un raisonnement ana logue à la question
précédente o n montre que, pour tout i E {1 , . .. , n},
C{Ji : x H e:(x)ui E .C(!Kn) .

On remarque alors que l'application introduite par l'énoncé est la somme des t.p 1 , ... , i.{Jn·
Il nous suffit d'évoquer la structure d' espace vectoriel de L (IK.n) pour conclure que
cette combina ison linéaire est, elle-même, dans L(IK.n) .

Puisqu'une combinaison linéa ire d'endomorphismes est un endomorphisme, on en


déduit que <p1 + · · · + C{Jn E .C(!Kn).
Or, pour tout X = (x1 ' ... ' Xn) vecteur de ocn on a 1

n n n

"O
0 i= l i= l i= l
c n
:J
0
I..{)
Ainsi, cp : (x1 , ... , xn) H L XiUi est un endomorphisme de ocn .
r-l
0 i= l
N

© 1.d. Il s'agit d 'un calcul direct. Puisque les coordonnées de ei sont connues, on a
......
..c
Ol
1 si i = j
ï::: ej(ei) = { 0 sinon *
>-
a.
0
u

~1
Soit i un indice fixé dans {1 , ... , n}. Par définition de cp , on a
n

*· voir symbole de Kronecker introdui t dans l'exercice 4.7 en page 108


Exercice 6.1 Applications coordonnées 171

La manip ulation d 'indices conj ointement à la manipulation du symbole


somme doit se faire avec la plus grande attent ion. Ici il ne fallait surtou t
pas ut iliser deux fois le même indice i (une fois comme indice de somme
et une deux ième fois comme indice du vecteur de B dont on cherche à
n n
calculer l'image) , cela a ura it abouti à une erreur : L ei(ei)ui = L ui.
i= l i=l
n
P ire encore, à une absu rdité: cp(ei) = :L: ei(ei)ui.
i= l
En effet, on voit dans cette égalité que le membre de gauche confère à
l'indice i le statu t de variable explicite (fixée a uparavant dans la preuve
ou dans l'énoncé) , a lors que le membre de droite confère à i le statu t
de variable muette (n on introduit jusqu'ici par l'énoncé ou la preuve
et pouvant être rebap tisé pa r n'importe quel nom d'indice disponible,
sans rien changer à l'expression ).

2.a. Commençons par la réciproque. Supposons avoir trouvé une t elle matrice A et
montrons que l'application construite à part ir de A est b ien u n endomorphisme.

Soit A une matrice t ell e que, pour tout X = (x1 , ... , xn) dans ocn.

f (x) = (t, a,,;x,, t,


, an,jX; ) .
On va se ramener à la question précédente en décomposant l'expression de f (x ) comme
somme de termes faisant apparaître u ne coordonnée Xi de x et un vecteur Ui à définir.
Pour cela on va décomposer l'image comme une somme et factoriser chaque terme
d 'indice i par la coordonnée Xi .

n n
"O
0
c
Par ca lcul , o n trouve f (x) = L (a1 ,jXj , . . . , an,jXj ) = L Xj (a1 ,j , ... , an,j ) .
:J j = l j= l
0
Ainsi, en not ant u1, ... , un les vect eurs définis t els que ci-dessus, on tro uve que
,....
1..()
n
0
N
f: (x1 , ... , xn) H L XiUi.
© i =l
.......
..c
Ol Et donc, d 'après la question l.d, on peut affirm er que f est un endo morphi sme de ocn .
ï:::
>-
a.
0
Il s'agit cette fois, à pa rt ir d 'un en domorp hisme f de ocn, de déterminer une matrice A
u qui conv ienn e. Comme souvent dans ce type de quest ion, où il s 'agit de déterminer
l'ex isten ce d 'u n objet réponda nt à certa ins critères, on va exhiber celui-ci en procédant
par an a lyse et syn thèse. L'an a lyse est p récisément ce qui a été fait dans l'implication
réciproque. Celle-ci a abouti à l'introdu ct ion de vecteurs u 1 , . . . , Un dont les coordon-
n
n ées donnent les coefficients de A et tels que f : (X 1 , ... , Xn) H L Xi ui.
i= l
1 72 Chapitre 6 Applications linéaires et matrices

Pour connaître A il nous suffit donc de connaître les u 1 , . .. , Un (d éfinis uniquement à


partir de f et de la base canonique B). Ceci est le cas grâce à la question 1.d. Ainsi,
si une telle matrice existe, nécessairement ses coefficients sont ceux que l'on retrouve
dans les coordonnées de J(e 1 ), . .. , J(en) (n'ayant qu'un seul choix possible pour la
matrice A ceci prouve l'unicité de la matrice A cherchée).
Une fois définie une t elle matrice A, il s'agit de vérifier que la condit ion attendue est
b ien vérifiée (c'est la synthèse, ce qui finira pa r prouver l'existence) .

Réci proquement, not ons les coord onnées de f( e1), ... , f (en) de la manière suiva nte:
J(e1) = (au , ... , an1 ), . . . , f( ej) = (a1j , .. . , anj ), ... , f( en) = (a1n, . .. , ann )·
Par linéarité de f, on en dédu it q ue, pour tout vecteur x = (x1, .. . , xn) de ocn , on a

f(x) f (t,x;e;) t,x;f(e;) t, x;(a,,;, ...,


= = = a.,;) .

Et donc, d'a près les règles de calcul da ns ocn ,

J (x)
n
= 2:)a1,jXj, ... , an ,jXJ ) =
(
L a1 ,j Xj, ... , L an ,jXj
n n )
.
j=l j =l j =l

2.b. Il suffit d'appliquer la définition de la matrice canoniquement associée à l'endo-


morphisme f. Ainsi il nous faut calculer les images J(e 1 ) , ... , J (en)·

Par constru ctio n on a


f( e1) = (au , ... , an1), . . . , f( eJ) = (a1j , ... , anj ), ... , f (en) = (a1n, . .. , ann) .
A insi, par définit ion de la matrice canoniquement associée à f,

au
ai n )
Mato(!) = (
a~n = A.

"'O
0
c
:J 1. Soit p l'application de ffi.3 dans lui-même, dont l'expression analytique est
0
1..() donnée par:
r-l
0 1
N
p : (x , y, z ) f----+ (2x - y - z , -x + 2y - z , -x - y+ 2z) .
© 3
.......
..c
Ol
a. Montrer que p est un endomorphisme de ffi.3 .
ï:::
>-
a. b. Déterminer la matrice de p dans la base canonique de ffi. 3 .
0
u c. Déterminer une base de Ker pet une base de Im p. L'application p est-elle
inject ive? surjective? E st -ce un automorphisme de ffi.3 ?
d . Montrer que Ker p EB Im p = ffi.3 .
e . Déterminer la matrice de p op da ns la base canonique de ffi. 3 . Que conclure?
Exercice 6.2 Projecteurs et symétries I 173

2. Soit s l'endomorphisme de IR 3 dont l'expression analytique est donnée par :


s : (x, y, z) r---+ ( - 2x - 3y, x + 2y, 2x + 2y + z) .
a. Déterminer la matrice de s dans la base canonique de IR3 .
b. Déterm iner Ker s et lm s. L'application s est-elle injective? surjective?
Est-ce un automorphisme de IR 3 ?
c. Déterminer la matrice de sos dans la base canonique de IR 3 . Que conclure?

1 .a. On peut démontrer la linéarité par application de la définition comme cela est fait
dans l'exercice 6.9. Nous allons plutôt suivre la méthode proposée dans l'exercice 6.1.

~1
Les applicatio ns p1 : (x, y , z) f--7 x · (2, - 1, - 1), p2 : (x , y, z) f--7 y· (- 1, 2, - 1) et
p 3 : (x , y ,z) f--7 z · (- 1, - 1,2) sont ma nifest ement des endomorphis mes de JR 3 .
Ainsi, pa r com bin aison lin éa ire d'endomorphismes, p = ~ (p1 + p2 + p3) est , lui a ussi,
un endo morphis me de JR 3 .

1.b . Cette matrice se lit très simplement sur l'expression analytique de p : pour
i E [ 1, 3], sa ie ligne est formée des coefficients devant x , y et z (dans cet ordre) de
la ie composa nte de p(x , y, z). Pour une rédaction correct e, il faut raisonner sur les
colonnes qui sont les images par p des vecteurs de la base canonique de IR3 .

Les images par p des vect eu rs de la base ca nonique sont p(( l , 0 , 0)) = ~(2, - 1, - 1),
1 1
p((O, 1, 0) ) = (- 1, 2 , -1) et p((O , 0, 1)) = (- 1, - 1, 2) do nc la mat rice de p d a ns
3 3
la base ca no nique de JR 3 (i.e. ca non ique me nt associée) est
- 1
2 -1)
- 1 .
- 1 2
-0
0
c
:J
0 1.c. Pour déterminer Kerp on peut résoudre l'équation vectorielle p((x , y , z)) = 0 que
1..()
r-l l'on écrit sous forme d'un système homogène.
0
N

~
© Avec la notation M int rod ui te e n l.b,
.......

m { ::
..c

u
Ol
ï:::
>-
a.
0
(x,y, z ) E Kerp ~ Mx G) ~

-x
+
y
y
2y
+
z
z
2z
0
0
0
2x y z 0
~
{ 3y
3y +
3z
3z
0
0
L 2 +-- 2L2
L3 +-- 2L3
+ L1
+ L1
~
{ 2x - 2z
y= z
=0 ~ x = y = z.
174 Chapitre 6 Applications linéaires et matrices

À partir de la représentation paramétrique de l'ensemble des solutions du système,


on en déduit une famille génératrice de Ker p . Il ne reste plus qu'à vérifier qu'il s'agit
d 'une base de ce sous-espace (ici, ce sera immédiat) .

D'après l'équivalence
(x, y , z) E K erp ~ (x, y, z) = x · (1, 1, 1),
on en déduit (cf 5.1.1.b)
Kerp = {x · (1, 1, 1) ; x E ~ } = Vect((l, 1, 1))
Ainsi (1 , 1, 1) est un vecteur non nul générateur de Kerp, c'est donc que ((1 , 1, 1))
est une base de K erp.

Étant donné un endomorphisme u de ~n, les colonnes de sa matrice dans la base


canonique forment toujours une famille génératrice de lm u. Cependant, en général,
cette famille n'est que génératrice (elle n'est une base d e lm u que si rg u = n , i.e. que
si u est bij ective). La plupart du temps , il faut donc essayer d'en extraire une base
(cf 5.8.1.b).

Les vecteurs images par p des vecteurs de la base canonique de ~ 3 se lisent dans
les colonnes de M: 2 1 -- 1) ( - -1 -2 - -1) et ( - -1 - -1 -2) . On sait
. que ces
( -3 ' - -
3' 3 ' 3' 3 ' 3 3' 3' 3
vecteurs forment une fam ille génératrice de Imp et qu'il en va de même s' ils sont
multipliés par 3.
Im p Vect(p( (1 , 0, 0) ), p( (0, 1, 0) ), p( (0, 0, 1)))
Vect((2, -1, -1), (-1, 2, -1), (-1 , -1, 2)).

On connaît Ker pet sa dimension, on peut donc en déduire dim lm p grâce à la formule
du rang. Cela permettra de savoir combien de vecteurs sont à extraire de la famille
génératrice précédente pour avoir une base de lm p.

~1
Or, par la formule du rang, dim Imp = 3-dim Ker p = 2 donc deux vecteu rs colonnes
de M non colinéaires forment une base de Im p : c'est le cas des deux premiers ce qui
permet de conclure que ((2, - 1, - 1) , (- 1, 2, - 1)) est une base de Imp.

-0 Puisque u est linéaire l'étude du caractère injectif (resp. surjectif) se ramène à l'étude
0
c de son noyau (resp. son image) .
:J
0

~I
1..()
,..... L 'a pplication n'est pas injective ca r Kerp f- {O} et n'est pas surjective car Imp est
0
N de dim ension 2 et ainsi Imp f- ~ 3 . A fortiori, p n'est pas un automorphisme de ~ 3 .
©
.......
..c
Ol
ï:::
>- p étant un endomorphisme en dimension finie , le caractère bijectif
a.
u
0 équiva ut a u caractère injectif qui équivaut encore a u caractère surjectif.
Par contraposition, dès que l'un de ces trois caractères fait défaut, les
autres font également défaut.
Ainsi, l'étude de l'injectivité étant la plus simple (puisqu'elle se résume
à l'étude du noyau Kerp) nous aurions pu tout déduire à partir de
l'étude du noyau.
Exercice 6.2 Projecteurs et symétries I 175

1.d. Nous proposons trois méthodes pour montrer le caractère supplémentaire :


Méthode 1 : Par an alyse et synth èse.
On montre que tout vecteur (x , y, z) de IR3 admet une unique décomposit ion

(x, y,z) = (a' ,b',c')+(a,b,c).


--..,.._, ~

EKerp E lmp

On procède par a na lyse et synthèse. L'analyse aboutira à une unique décomposition


p ossible (d'où l'unicité), la synthèse prouvera que le couple candidat trouvé lors de
l'analyse répond effectivement aux critères (d'où l'existence). Remarqu ons que l'ana-
lyse ne cherchera à déterminer explicitement que l'un des deux vecteurs, par exemple
(a, b,c), l'autre vecteur sera a lors donné par (a' ,b' ,c') = (x,y,z)- (a,b ,c).

Soit (x,y,z) un vecteur quelconque de JR3 .


Analyse : Admettons avoir trouvé une décomposition sous la forme
(*) (x,y ,z) = (a', b' ,c')+ (a , b,c).
"-...-"' ~
EKcr p E i rn p

En composant par p dans (*) , on trouve, puisque (a' , b',c') E K erp et que p est
lin éa ire,
p(x , y , z) = p(a, b, c) + p(a' , b', c') .
'-.,...--'
0
Or, puisque (a , b, c) E Imp = Vect((2, - 1, - 1) , (-1, 2, - 1)), on peut écrire
(a, b, c) = À(2 , - 1, - 1) + µ( - 1, 2, - 1) avec (À,µ) E IR
2
.

Ainsi , il s'agit d e déterminer ce que va lent À, µ à partir de l'équation


p(x, y , z ) = À(2 , - 1, - 1) + µ( - 1, 2, - 1) ,
1
i.e.
3
(2x - y - z, - x + 2y - z, - x - y+ 2z) = (2À - µ , - À+ 2µ , -À - µ).
Ceci nous amène à poser un système linéa ire (S) (pour simplifier les écritures on aura
au préalable multiplié par 3 de part et d'autre de l'égalité ci-dessus) et le résoudre :
6À - 3µ = 2x - y - z { 6À - 3µ = 2x - y - z
"'O
0 (S) - 3À+6µ = - x+2y - z ~ - 3À+6µ = - x+2y - z
c { - 3À - 3µ = - X - y+ 2z L 3 f-L 3+L2+L1 Ü =Ü
:J
0
1..()
r-l
Ce système nous ramène à un système de Cramer à de ux équations, deux inconnues :
0
N
(S) ~ { 6À - 3µ = 2x - y - z
© L 2 f-2L 2+L1 9µ = 3y - 3z
.......
..c
Ol
ï::: Finale mentµ = ~(y - z) et À = ~(x - z) et donc
>-
a. 1
u
0 (a , b, c) = "3 (2x - y - z, -x + 2y - z, -x - y + 2z).
D'après(*) , on e n déduit
1 1 1
(a , b , c ) = (x , y , z) - "31 (2x - y - z, - x + 2y - z, - x - y+ 2z )
a utrement dit
(a' , b' , c' ) = x + y + z ( 1, 1, 1) .
3
1 76 Chapitre 6 Applications linéaires et matrices

Du fait que l'an alyse n'aboutisse qu 'à une seule décomposition possible en cas d 'exis-
tence, l' unicité de la décomposition est établie.
Synthèse : Posons

(a , b, c) = 1 (2x - y - z, -x + 2y - z, -x - y+ 2z) et ( a1 , b,
1
c' ) = X + y + Z ( 1, 1, 1 ) .
3 3
Par un calcul immédiat on trouve (a,b,c) + (a',b',c') = (x,y,z).
Par ailleurs, grâce à l.c (et aux calculs intermédiaires menés lors de l'étape d 'a nalyse) ,
(a' , b' ,c') E Vect((l, 1, 1)) = Kerp
et
y -z x -z
(a, b, c) = - -(2, - 1, - 1)+ -- (- 1, 2, - 1) E Vect((2 , - 1, - 1), (- 1, 2, - 1)) = Imp,
3 3
ce qui prouve l'existence de la décomposition .

Méthode 2 : Par intersection et égalité d e dimensions.


On commence par montrer que lm p n Ker p = { 0} (i.e. que les sous-espaces sont en
somme directe).
Les bases de Ker p et lm p obtenues précédemment fournissent des représentations
paramétriques de ces sous-espaces vectoriels. Un vecteur dans leur intersection doit
satisfaire à ces deux représentations.

Soit u E K erp n Im p. On peut écrire u = >.(1, 1, 1), avec À E IR, car u E K erp et
((1, 1, 1)) est une base de Kerp mais aussi : u = o:(2 , - 1, - 1) + (3(- 1, 2, - 1) , avec
o: et f3 deux réels, car u E Imp et ((2 , - 1, - 1), (- 1, 2, - 1)) est une base de Imp. Or
f3 À
,\(1, 1, 1) = o:(2, - 1, - 1) + {3(- 1, 2, - 1) + 2{3 À
f3
==? 0 = 3,\ L 1 + L2 + L3
==} ,\ = 0,
donc u = O. On en déduit que Kerp n lmp C {O} et donc (l'inclusion réciproque éta nt
évidente) Kerp n Imp = {O}.

On finit par une égalité des dimensions et pour cela on invoque la formule du rang.

~1
-0 Puisque, par ailleurs, la formule du rang nous donne
0
c
0
:J
dim nr = dim Ker p + dim lm p.
1..()
T"-l On en déduit que !Rn = Imp EB Ker p.
0
N
Méthode 3 : Par concaténation de bases.
©
.......
..c
Il nous suffit d e montrer qu'une concaténation des bases de lm p et Ker p fournit une
Ol
ï::: base d e IR. 3 .
>-
a.
0
u La concaténation des bases obtenues en l.c pour Ker pet Im p nous donne la famille
C, = ((1, 1, 1), (2, - 1, - 1) , (- 1, 2, - 1)).
On peut ca lculer son rang par le biais de la représentation matricielle canonique

rg(L) = rg ( ( ;~) ' G) 'm) .


Exercice 6.2 Projecteurs et symétries I 177

Or le rang d'une matrice étant égal au rang de ses colonnes, on en déduit

rg(L) = rg G -1) - 1
-1
2
2
-1
.

Finalement, par la méthode du pivot de Gauss qui commence par

(~
2
rg(L) = rg -3
-3
et finit par échange des colonnes C2 t t C3 (ce qui n'a ltère pas les rang), on trouve
une matrice triangulaire à coefficients diagonaux tous non nuls (donc inversible).

rg(L) = rg G -1
3
0
~3)
-3
= 3.
Par suite J:, est une famille de rang 3 constituée de vecteurs de IR. 3 donc :
Vect(J:,) = IR.3 , i.e. J:, est génératrice de IR. 3
(en effet V ect(J:,) C IR. 3 et dim V ect(J:,) = dim IR.3 ).
Puisque, par ailleurs, le cardinal de J:, est égal à la dimension de IR.3 , c'est donc une
base de IR.3 . On peut alors conclure que IR.3 = Imp EB Ker p.

Dans un espace Ede dimension n, une famille L den vecteurs constitue


une base de E dès lors que rg(L,) = n i.e. rg(M) = n, où M est la
matrice dont chaque colonne représente les vecteurs de L relativement
à une base donnée.
On utilisera parfois l'expression abusive « L est de rang maximal ».

Il existe une quatrième méthode bien plus rapide et élégante que celles développées
ici. Elle tient du fait que lm p est un hyperpla n et Ker p une droit e non incluse dans
Imp, la preuve de ceci sera exposée dans l'exercice 6.16.
1.e. Si u : JR.P --+ IR.n et v : IR.n --+ IR.m sont deux applications linéaires d e matrices
-0
0 respectives U et V dans les bases canoniques, on rappelle que la matrice de v ou dans
c
:J les bases canoniques est V x U. Ici, u = v = p.
0

~
le c
1..()
r-l
0
N

©
.......
Mat(p o p) Mat(p) x Mat(p) = M
2
=-
9
- 1
- 1
- 1
2 -1)
- 1 X - 1
- 1
2 -1)
- 1
..c - 1 2 - 1 - 1 2
Ol
ï:::

u
>-
a.
0
~ul
3 - 1
- 1
2 -1)
-;1 = Mat(p).
- 1
p et p o p sont représentés par la même matrice (dans la même base) donc p = p o p.

Cette dernière relation signifie que p est ce qu'on appelle un project eur de IR.3 .
2.a. Même méthode qu'au l.b, les colonnes de la matrice de s seront les images par
s des vect eurs d e la base canonique de IR.3 .
1 78 Chapitre 6 Applications linéaires et matrices

s(( l , 0, 0)) = (- 2,1 , 2), s((0, 1,0)) = (- 3,2,2) et s((0, 0, 1)) = (0, 0, 1) donc la
matrice Mat(s) de s dans la base canonique de IR3 est
- 2 -3
Mat(s) = ( ~ 2
2

2.b. On procède comme au 1.c.

~
(x , y ,z) E Ker s ~
Mat(s) G) = m- { - 2x - 3y
x+2y
2x + 2y + z
0
0
0

{ - 2x 3y 0
y 0 L2 +- 2L2 + L i
y + z 0 L 3 +- L 3 + L i
~ x = y =z= O.
Ainsi , Ker s = {O} donc s est inj ective. s éta nt de plus un endomorph isme de IR 3 ,
on conclut que s est un automorphisme de IR3 ; en particulier, s est surjective donc
Im s = !R3 .
2.c. On procède comme au 1.e.

~ -2
-3 0) (-2
Mat( sos) = Mat(s) x Mat(s ) = ~ 2 0 X 1
(
2 1 2
Mat(s o s) = ! 3 = Mat(IdJR3) donc s o s = IdJR3, i.e.: V x E IR3 , s( s (x) ) = x.

Cette dernière relat ion traduit que s est ce qu'on appelle une symétrie de IR. 3 (voir
l'exercice suivant) .

"'O
0 Soit n E N* et u un endomorphisme de E (OC-espace vectoriel de dimension n).
c
:J On dit que u une symétrie* si u ou= Id où Id est l'endomorphisme identité de
0
1..() E. Soit f et g deux endomorphismes de E.
T"-l
0
N 1. On suppose que f est un projecteur, on rappelle que de ce fait
© f o f = f et E =lm(!) œKer(!) .
.......
..c
Ol
ï::: a. Montrer que lm f = {x E E 1 f (x) = x }. Quelle est la matrice de f dans
>-
a.
0
une base C adaptée à la somme directe lm(!) œKer(!) ?
u
b. Démontrer que 2f - Id est une symétrie.

*· o n dit a ussi que u est u n endom o rph ism e involutif.


Exercice 6.3 Projecteurs et symétries 11 179

2. On suppose que g est une symétrie.

a. Démontrer que ~ (g +Id) est un projecteur.


b. En déduire que Ker(g +Id) et Ker(g - Id) sont supplémentaires. Quelle
est la matrice de g dans une base B adaptée à la décomposition en somme
directe E = Ker(g - Id) EB Ker(g +Id) ?
3. Soit h E .C(E) . Démontrer que h est une symétrie si et seulement si h s'écrit
sous la forme 2p - Id où p E .C(E) est un projecteur.

1.a. On procède par double inclusion. On commence par l'inclusion la plus simple.

~1
Soit x E E tel que f(x) = x, puisque par construction f( x) E lmf, on en déduit
x E lm f. Ainsi
{X E E i f (X) = X} C lm j.

Pour l'inclusion réciproque on va invoquer le caractère idempotent de f (i. e. f of = f) .


Un élément y de Imf admet bien un antécédent par f, mais on souhaite prouver ici
que cet antécédent peut être choisi égal à y lui-même.

Soit y E lm f, par définition de l'ensemble image, on sait alors qu 'il exist e un vect eur
x de E tel que y = f( x ).
Puisque f est un projecteur, on o btient alors
y= f (x) = (f o J)(x) = J(f(x) ) = f(y ) .
.._.,,..,, .._.,,..,,
= f of =y

Ainsi y E {z E E 1 f( z ) = z } et ce quel que soit y E lmf, on a donc prouvé


l' inclusion réciproque lm f C { z E E 1 J( z ) = z }.
Finalement, par double inclusion, lm f = {z E E 1 f( z ) = z }.
-0
0
c
:J
0
,....
I..{)

0
N

©
i Puisque f est un projecteur , on peut préciser qu'il s'agit du projecteur
sur A = lm f parallèlement à B = Ker f.
En notant alors g son projecteur associé, i.e. le projecteur sur B = Ker f
.......
..c
Ol
parallèlement à A = lm f , on a par , définition du projeté,
ï:::
>-
a. (*) V x E E, x = f(x)
..__.,
+ '-.r"
g(x) i. e. f +g = Id.
0
u EA EB
On retrouve ainsi le résultat :
Imf = A = Kerg = Ker(Id - f) = {x E E 1 f (x) = x }.

L'ensemble image d'un projecte ur est l'e nsemble d e ses « points fixes ».
180 Chapitre 6 Applications linéaires et matrices

Notons BI = ( a 1 , ... , ar) une base de l m f (avec r évent uellement nul et donc BI vide),
de même n ot ons BK = (ar+ I, ... , an) une base de Ker f (avec r = n éventuellement et ,
dans ce cas, BK est vide) . Puisqu'il s 'agit d'espaces supplémentaires, on peu t a ffirmer
que la concaténa tion B = (a1 , .. . , ar, ar+ i, .. . , an) d es deux bases est une base de E .
P our calculer la matrice associée il s'agit de calculer l'image de chacun de ces vecteurs
de base.

En notant B = (a 1, . . . , ar, ar+1, ... , an), une base adaptée à E = lm f E9 Ker f , on


"--....--'~
base de l m f base de K e r f
trouve alors
f(a i) = a 1, ... ' f (ar ) = ar,
puisque a1 , ... ,ar sont des vecteurs de lmf = { x E E 1 f(x) = x } . En outre,
f( ar+1 ) = 0 · · · = J( an) = 0,

puisque ar+i , ... , an sont des vecteurs de Ker f. Ainsi Mat a(!) = ( 6I ~ ) .
1.b. On doit montrer que (2f - Id) o (2f - Id) =Id. On utilise pour cela l'hypot hèse
sur f et la formule du binôme de Newt on.

En utilisant f of = f (à la deuxième égalité) et , puisque 2f et Id commutent, on


trou ve, par application de la formule du binô me de Newton,
(2f - Id) 2 = (2!) 2 - 2(2!) o Id + Id 2 = 4f - 4f + Id = Id.
Ainsi , 2f - Id est une symétrie.

2.a. La démarche est ici analogue à celle du 1. b.

Puisque 9 et Id commutent, on trouve, par la formule du binôme de Newton,


1 2 1 2 2 1
4(9+ Id) = "4(9 +290 Id + Id ) = "4(1d +29+ Id)
1 1
4(29 + 2Id) =
2(9 + Id),
1 .
-0
0
donc
2(9 + Id) est un proj ecteur.
c
0
:J 2.b. Posons f = ~(g + Id), s'agissant d'un project eur on sait que son image et son
,....
Lf'l noyau sont sup plémentaires.
0
N

© Image et noyau du projecteur f = ~(9 + Id) sont supplémentaires et, d' après l.a ,
.......
..c lm f = Ker(! - Id) . Ain si
Ol
ï::: E = Ker(! - Id) EB Ker(!) .
>-
a.
0 Et puisque le noyau est le même pour un endomorphisme et tout multiple non nul de
u
ce même endomorphisme, on trouve E = Ker (2(f - Id)) E9 Ker(2J).
Or 2f = 9 + Id et 2(! - Id) = 9 - Id, on conclut donc qu e
E = Ker(9 - Id) E9 Ker(9 + Id).

On rep roduit maintenant la démarche utilisée en fin de question 1.a .


Exercice 6.4 Matrice=Application Linéaire 181

Notons

base de lm f base de K er f
une base adaptée à E = lm f EB Ker f (c'est en fait la même que celle posée en l.a
avec f = ~ (g +Id)), on trouve alors
g (a 1) = a 1, ... , g ( ar) = ar .
Puisque a 1, ... ,ar sont des vecteurs de Ker(g - Id)= {x E E 1 g(x) = x }. De
même
g(ar+1) = - a r+1 , ... , g(an) = - an ,
puisque ar+i , ... , a n sont des vecteurs de Ker(g + Id) = {x E E 1 g(x) = - x}.
Ainsi

MatB(g) = ( 61 -I~-r )·
3. Un sens a déjà été vu à la question 1.b. Réciproquement, si h est une symétrie,
il suffit de résoudre l'équation h = 2p - Id d 'inconnue p pour constater que p est un
projecteur.

~1
On peut écrire h = 2 rn(h + Id)] - Id. Si h est une symétrie alors ~ (h + Id) est
un projecteur d'après 2.a et h s'écrit bien sous la forme indiqu ée . Réciproquement, si
h = 2p - Id avec p un projecteur, alors h est une symétrie d'après l.b .

Soit A E Mn ,p(K) une matrice composée den lignes et p colonnes. On note par
la suite B = (E1 , ... , Ep) la base canonique de M p,I (K) et C = (F1, ... , Fn) la
base canonique de Mn,1(K).

-0
1. Calculer, pour toute colonne XE Mp,1 (K), la matrice Mata(X) associée à X
0
c relativement à la base B.
:J
0 Qu'en est-il, pour toute colonne Y dans Mn,1 (K), de Matc(Y)?
,....
I..{)
2. On considère l'application  définie par
0
N

© 'ef X E Mv,1(K) , Â(X) = AX.


......
..c Montrer que  est une application linéaire dont on précisera les espaces de
Ol
ï::: départ et d'arrivée.
>-
a.
0
u 3. a. Quelle est sa matrice Matc,a(Â) associée, relativement aux bases B et C ?
En déduire rg(Â) en fonction de rg(A).
b. Montrer que, lorsque n = p (i.e. A E M n(K)), on a l'équivalence
A E GLn(K) -{:::==} ['ef X E Mn,1(K), (AX = 0 :::;. X = O)] .
182 Chapitre 6 Applications linéaires et matrices

4. a. Montrer que l'application () définie par


V A E Mn ,p(JK), O(A) = Â.,
est une application linéaire dont on précisera les espaces de départ et
d'arrivée.
b. Soit A E Mn ,p(JK ). Montrer que
Â. = 0 ~ [V XE Mp,1(1K), AX = O] ~ A = O.
c. En déduire que () réalise un isomorphisme d 'espaces vectoriels entre
Mn ,p (JK) et .C(Mp,l (JK) , Mn ,l (JK)).

1. La question peut paraître étrange, puisqu'il s 'agit ici d 'interpréter une matrice
par une a utre matrice. On va donc scrupuleusement suivre la définition de matrice
associée et considérer qu'une colonne X n 'est rien d 'autre qu'un vecteur d'un espace
vectoriel (celui des matrices colonnes).
Il s'agit d'exprimer les coordonnées du vecteur X dans la base B.

Soit X une colonne de M p,1 (1K) . Par définition de la base canonique


X [l , 1]
n

X= X [k, 1] = L X [k, l ]Ek .


k= l

X [n, 1]
Ainsi les coordonnées du vecteur X dans la base B sont
(X[l , 1], ... , X [k, 1], ... , X [n , 1]) et donc, par définition de la matrice associée,
X [l , 1]

-0
0
c Mats(X) = X [k, 1] =X.
:J
0
,....
1..()

X[n, 1]
0
N

© De même, on montre que Matc(Y) = Y pour toute colonne de M n,1(1K).


.......
..c
Ol
2. L 'espace de départ est donné par l'ensemble des « X » que prend en argument Â.
ï::: d ans la définition VX E Mp,1 (1K), Â.(X) = AX.
>-
a.
u
0 Un espace d'arrivée consiste en tout espace vectoriel contenant les images « Â.(X) »
définies ci-dessus.
Quant à la linéarité elle repose sur les règles de calcul matriciel qui vont nous permettre
de développer une expression de la forme A x (X+ ÀY).

~I
L' espace de départ est l'espace vectoriel M p,1(1K) et , puisque le produit d'une matrice
de M n,p(IK) par une matrice de Mp,1(JK) donne un e matrice de M n,1(JK), on peut
Exercice 6.4 Matrice=Application Linéaire 183

considérer que l'espace d ' arrivée est M n,1 (JK) .


Montrons à présent la linéarité de À..
Quels que soient X et Y deux vecteurs de M p,1(JK) et ,\ un scalaire, on a
À.(X +,\·Y) = A x (X+,\ · Y) = A x X+ À· A x Y = À.(X) + ,\À.(Y ).
Ainsi À. est une application linéaire entre les espaces vectoriels M p,1(1K) et M n,1(1K) .
3.a. La construction de la matrice associée passe par le calcul de l'image pa r A de la
base d e départ B.
P lus précisément on commence par calculer les images AE1 , .. . , AEP et, pour chacune
de ces images, on cherche à déterminer leurs coordonnées dans la base d 'a rrivée C.
Rappelons que dans le cas des bases canoniques, les coordonnées d 'u ne matrice ne
sont rien d 'autre que ses coefficients.

Quel que soit i E {1 , ... , n }, on a (voir plus bas) À.(Ei ) = AEi (;]Cf .
Ainsi la ie colonne de Mat c ,B(À.) n'est autre que
- A A
Matc(A(Ei)) = Matc(Ci ) = Ci .
En juxtaposant ces colonnes on trouve Matc,13(À.) = A.

Rappelons que Cf désigne la ie colonne de A .


L'égalité(*) a été démont rée pa r deux fois (en 3.8.1.b et en 3.5.1.a).
Nous a llons ici donner une n ouvelle preuve de ce résultat.

En effet , si l'on note a : JKP -r ocn l' applica tion linéaire canoniquement associée à A
et B= (e1, ... 'ep) (resp . ê = (!1, ... ' fn) ) la base canonique de JKP (resp. ocn ). o n
n
a, par définition, a(ei) = LA[k,i] f k. i. e. et= Matê(a(ei) ).
k= l
Or, par interprét ation matricielle de a(ei) .
Matê(a(ei)) = Matê,.B (a)Mat.B(ei) = AEi .
En s'appuyant sur la relation , pour toute matrice M ,
0
-0
0
c
0
:J cr=M 1
1..()
,.....
0
N Ü
©
.:t: une autre preu ve de Matc ,a(A) = A était possible.
Ol
ï:::
>-
a.
0
Not ons B = Matc,B (À.), on a alors
u
0

C iB-
-
B 1 <---< ie ligne = Matc ,13(À.) x MatB (E i ) = Matc(À.(Ei )) .

0
184 Chapitre 6 Applications linéaires et matrices

Or, grâce à 1,
Matc(À (Ei)) = Mat c(AEi) = Matc (Ct) =et .
1 Et donc, A et B ayant les mêmes colonnes, on a bien B = A.

Pour finir , on applique le résultat du cours annon çant l'égalité des rangs d 'une appli-
cation linéaire et d e sa ma trice da ns des bases.

~I On en déduit rg(À) = rg(A) .

On retrouve une preuve de ce résultat dans 6.5.1.


3.b. On suppose que n = p a insi A E M n(IK) et Â. est un endomorphisme de M n,1(IK) .
On sait que l'inversibilité d 'une matrice est équivalente à la bijectivité d e l'applica-
tion linéaire associée. Or, d ans le ca s d 'un endomorphisme en dimension finie , la
bijectivité équivaut à l'injectivité.
Il ne nous rest e plus qu'à connecter ces équivalences pour conclure.

Notons [ = M n,l (OC.) . Par interprétation matricielle et 3 .a , on a


A E GLn(lK.) <=> À E GL(E)
<=> À est injectif
<=> K er À C {O}
<=> VX E E, (X E K er À =:;. X E {O}))
<=> VX E E , (À(X) = O =:;.X= ü))
<=> V X E M n,1(OC.), (AX = 0 =:;. X = 0) J.

4.a. On reproduit la méthode employée en question 2.

~1
M n,p(JK.) est l'espace vectoriel de départ et, puisque, pour A E M n,p(JK.) ,
À est une application linéaire de M p,1 (OC.) dans M n,1(OC.), on en déduit que
.C(M p,l (OC.), M n, l (OC.)) convient comme espace vectoriel d'arrivée.

Il s'agit, à présent, de prouver la linéarité de B, c'est -à-dire une égalité ent re deux
a pplications linéaires : d 'un côté B(A + >-.B), de l'aut re B(A) + >-.B(B ).
P our ce faire, nous pouvons employer deux méthodes :
-0
0
c On peut montrer que les deux applications linéaires coïncident puisqu'elles ont même
:J
0 représentation matricielle
,....
1..()

0
N
Soient A et B deux matrices de M n,p(OC.) et À un scalaire, on a d'après la question 3.a .
©
.......
--------
Matc,13 (e(A + >.B)) = Matc ,13(A + >.B) = A + >.B .
..c
Ol
ï::: Or, toujours d 'après 3.a,
>-
a.
0
A+ >.B = Matc ,13 (À) + >.Matc ,13(Ë ) = Mat c,s (À + >.Ë) = Mat c ,s(B(A ) + >.e (B )).
u
Ainsi , puisque leurs représentations matricielles (relativement aux même bases B et C)
coïncident, on en déduit l'égalité entre applications linéaires :
e(A + >.B) = e(A) + >.e(B ).

Mais on peut également montrer que les deux applications coïn cident, en montrant
qu'elles ont les mêmes images (elles ont d éjà même espace d e départ et d'a rrivée) .
Exercice 6.4 Matrice=Application Linéaire 185

Soient A et B deux matrices de M n,p(IK) et >. un scalaire.


Pour plus de lisibilité posons f = O(A + >.B) et g = O(A) + >.O(B).
f et g sont deux applications ayant les mêmes espaces de départ et d'arrivée, dire que
f = g revient donc à montrer que f(X) = g(X) pour tout X élément de l'espace de
départ.
Soit X E M p,1 (IK), par construction, on a

J(X) = (A+ >.B)X = AX +>.EX= A(X) + >.B(X) = g(X),


et ce quel que soit X E M p,1(IK), c'est donc que f = g et donc

e(A + >.B) = e(A) + >.e(B).

4.b. On commence par la plus simple des équivalences : la première. Rappelons que
l'application nulle est caractérisée par : l'image de tout élément de l'espace de départ
vaut O.

~1
Par définition de À,
A = 0 <==> [\7' X E M p,1(IK), À(X) = ü]
<==> [\7' X E M p,1(IK), AX = O].

De même par interprétation matricielle et 3.a.

~1
On a la succession d'équivalences

À = 0 <==> Matc ,B(À) = 0 <==>A= O.

4.c. Il s'agit de prouver deux choses :


(i) ()est linéaire (déjà fait en 4.a),
(ii) () est bijective.
Le point (ii) lui-même se décompose en deux étapes. Habituellement on montre que
l'applica tion est injective et surj ective, ma is puisqu'ici les espaces vectoriels sont de
dimension finie, on va se contenter de l'injectivité et d 'une égalité de dimensions. Ainsi
le point ( ii) va se subdiv iser en deux étapes :
"8c (ii.a) Ker() = {O} (à relier avec la question précédente) ,
:J
o (ii .b) dimM n,p(IK) = dim.C(Mp, 1(IK), M n,1(IK)).
1..()
T"-l
0
N D'après la question précédente, on sait que
© \i A E M n,p(IK), [O(A) = 0 <==> A = O].
.......
..c
Ol
ï::: e
Ceci prouve que l'application linéaire a pour noyau Kere = {O} et est donc injective.
>-
a. Par ailleurs, on sa it que les espaces de départ et d 'arrivée ont pour dimensions respec-
0
u tives dim M n,p(IK) = n X p et

dim.C(M p,1(IK), M n,1(IK)) = dim (Mp,1(IK)) X dim (Mn,1(IK) ) = p X n.


e
Finalement est une application linéaire injective dont les espaces de départ et d 'arrivée
e
ont même dimen sion finie, ainsi : réalise un isomorphisme d'espaces vectoriels entre
M n,p(IK) et .C(Mp,1(IK), M n,1(IK)) .
186 Chapitre 6 Applications linéaires et matrices

Cet isomorphisme () justifie le titre volontairement provocateur :


« Matrice= Application Linéaire »
Par le biais de () , toute matrice A a son interprétation fonctionnelle A.
Le fait que () soit bijectif, nous assure que l'on peut passer du point
de vue matriciel au point de vue fonctionnel de façon biunivoque, le
caractère linéaire de () nous assure que cette représentation est fidèle
avec l'action de somme (de matrices ou de fonctions) et avec le produit
par un scalaire.
Enfin, pour A et B de tailles compatibles, on a
___....__...
A x B = À. o È.
Ainsi le produit de matrice représente fidèlement la composition des
applications associées.

À l'instar de l'isomorphisme canonique reliant tout endomorphisme a E .C(IK?, IKn) à


sa matrice canoniquement associée A , l'isomorphisme () est une forme plus naturelle
encore de relier la notion de matrice à celle d'application linéaire, au point que cer-
tains énoncés noterons indistinctement A pour désigner la matrice A et pour désigner
l'application A.
Ainsi il est courant d 'utiliser les notions de surjectivité, injectivité, image ou noyau
en parlant de la matrice A (alors qu'en réalité on fait référence à l'application li-
néaire À.) l'exercice qui suit illustre comment on manipule ces notions (ou confusions
volontaires).

Soit A E Mn , p(~) une matrice composée de n lignes et p colonnes. On note


(C1 , . . . , Cp) les colonnes de A et (L 1 , ... , Ln) les lignes de A.
1. Montrer que lm A = Vect(C1 , ... , Cp) · En déduire que rg(A) = rg(C1 , ... , Cp),
puis que
"'O
0 A est surjective{:::::::::} rg(A) = n {:::::::::} (C1 , .. . , Cp) est génératrice de Mn ,l (~).
c
:J
0 2 . Montrer que
,....
1..()

A est injective {:::::::::} rg(A) = p {:::::::::} (C1 , . .. , Cp) est libre dans Mn , 1 (~).
0
N

© 3. a. Montrer que, pour tout Y E Mn ,l (X), on a l'équivalence


.......
..c
Ol
ï:::
tyy = 0 {:::::::::} y = o.
>-
a.
0
b. Montrer que Ker(tAA) = Ker A et en déduire que rg(tAA) = rg(A).
u
c. Montrer que Im(tAA) C Im(t A) et en déduire que rg(tAA) ~ rg(tA).
d. En déduire que rg(tA) = rg(A).
Exercice 6.5 rg (A) = rg(t A ) 187

4. Montrer que rg(A) = rg(Li, ... , Ln) et montrer que A est injective (resp.
surjective) ssi tA est surjective (resp. injective).

Tout au long de cet exercice, on identifie, par convention, la matrice A


et l'application a ssociée A introduite dans l'exercice 6.4.

1. L 'espace vectoriel image d 'une application linéaire est engendrée par l'image d 'une
base de l'espace de départ.
Posons, comme en 6.4, B = (E1 , ... , Ep) la base canonique de Mp ,l (IK) .
On invoquera l'identité déjà démontrée à de multiples reprises (cf. 3.8.1.b, 3.5.1.a et
6.4.3.a) : Ci = AEi·

A, vue comme une application linéaire, admet un espaces vectoriel image noté lm A.
Avec B = (E 1, ... , Ep) la base ca nonique de l'espace de départ M p,1(IR), on a
ImA = Vect(A(E1) , ... , A(Ep)) = Vect(AE1 , ... , AEp) = Vect(C1 , ... , Cp) .
En passant aux dimensions on en déduit (par définition du rang)

rg A= dim(Im A) = dim ( Vect(C1, .. . , Cp)) = rg(C1, ... , Cp)·


Ainsi, le rang d'une matrice est égal au rang de ses colonnes.
La surjectivité d 'une application résulte du calcul de son espace vectoriel image.
Quant a u caractère générateur d 'une famille il résulte de l'étude de l'espace vectoriel
engendré.

~1
On déduit de lm A = Vect(C1, ... , Cp) la succession d'équivalences:
A est surjective {==:} lm A = M n,1(IR) {==:} Vect(C1, ... ,Cp) = M n,1(IR)
{==:} ( C1 , ... , Cp) est génératrice de M n,1(IR).
-0
0
c Par a illeurs, dire qu'un sous-espace vectoriel F , de l'espace vectoriel E , coïncide avec
:J
0 E équivaut à d ire que E et Font même dimension .
,....
1..()

0
N
De même, on déduit de rg(A ) = rg(C1 , ... , Cp) la succession d 'équivalences
©
.......
rg(A) = n {==:} rg(C1 , ... , Cp) = n {==:} dim Vect(C1, ... , Cp) = dimMn,1 (IR) .
..c
Ol Et don c, puisq ue Vect(C1 , ... ,Cp) est un sous-espace vectoriel d e M n,1(IR),
ï:::
>-
a. rg(A) = n {==:} Vect(C1 , ... , Cp) = M n,1(IR).
0
u Autrement dit rg(A) = n {==:} (C1 , ... , Cp) est génératrice de M n,1 (IR).

L'égalité des dimensions n 'est pas en général un argument suffisant


pour montrer une égalité entre sous-espaces vectoriels.
188 Chapitre 6 Applications linéaires et matrices

Il convient, en général, d'agrémenter d'une inclusion l'argument des


dimensions.
Ainsi l'égalité des dimensions ne peut suffire que dans les cas où une
inclusion est évidente :
(1) lorsque l'on veut montrer qu'un sous-espace vectoriel Fest en fait l'espace
total E (ici F c E est évident) ;
(2) lorsque l'on veut montrer qu'un sous-espace vectoriel F est réduit à {O}
(ici {O} c Fest évident).

2. On sait que la surjectivité équivaut à ce que l'espace vectoriel image soit maximal
et l'injectivité équivaut à ce que le noyau soit minimal.
Or un sous-espace vectoriel est maximal (resp. minimal) ssi sa dimension l'est.
Il s'agit d'obtenir une information sur dim (Ker A) à partir de la connaissance de
rg(A) , la formule du rang est donc la plus propice pour ce genre de déduction.

Puisque A peut être vue comme une application linéaire dont l'espace de départ est
M p,1(IR) on en déduit, par la formule du rang,
dimMp,1(.IR) = rg(A) + dimKer (A).
~
p

Ainsi rg(A) =p -Ç:=} dim Ker A = 0 -Ç:=} Ker A = {O} -Ç:=} A est injective.
Le caractère libre se traduit par le fait qu'il n 'existe qu'une seule famille de scalaires
rendant nulle la combinaison linéaire correspondante : la famille nulle.
l'injectivité se traduit par un noyau réduit à {O} ce qui veut dire que seul le vecteur
nul (i.e. dont la famille de coordonnées est nulle) annule A.
Il s'agit donc de connecter les équations linéaires associées à l'injectivité d'une part
p

et a u caractère libre d 'aut re part : AX = 0 resp. L Xi Ci = O.


i= l

A est injective ssi Ker A = {O} ce qui équivaut encore à Ker A c {O} (l 'a utre
inclusion étant évidente).
-0
0 Or Ker Ac {O} ssi (V X E M p,1(.IR), [AX = 0 ====?X= O])
c
:J
0 (* )
,....
I..{) Or, en passant à l'écriture coordonn ée par coordonnée (dans la base 13),
0 (*)équivaut à

t,
N

~ 0 = (x,, ... , x,) ~ (0, ... , 0)]


©
...... \f (x ,, ... , x,) E Il", [A ( x;E; )
..c
Ol
ï:::
>-
a.
0
Ainsi, puisque pour tout (x 1 , ... , xp) E JRP, on a
u

On en déduit :

A est injective ssi V (x1 , ... 'Xp ) E JRP' [t


i= l
XiC = 0 ====} (x1 , ... 'Xp ) = (0, . .. 'o)]
Exercice 6.5 rg (A) = rg(t A) 189

ce qui, par définition du caractère libre, prouve que


A est injective {:::::=:? (CI, ... , Cp) est libre dans M n, I(IR ).
1

Puisque rg(A) = rg(C1 , ... , Cp) , une partie des équivalences démon-
trées ici résulte du résultat classique (cf exercice 5.11) valable pour
toute famille .C = (u 1 , ... , up) de vecteurs d 'un espace vectoriel E ,
.C est génératrice de E {====:?- rg(.C) = dim E,
et .C est libre dans E {====:?- rg(.C) = Card .C.

3.a. Soit Y E M n,1(X).


La nullité d'une colonne équivaut à la nullité d e chacun de ses coefficients. Nous a llons
donc traduire l'égalité tyy = 0 en fonction des coefficients de Y.

Notons YI, ... , Yn les coefficients de Y. Puisque

~n~
Y
n

tyy = (YI Y2 · · · Yn)


(
) = YI · YI + Y2 · Y2 + · · · + Yn · Yn = L Y~·
k= l

et puisqu'une somme de réels positifs est nulle ssi chaque terme de cette somme est
nul, on en déduit la succession d'équivalences
n
tyy = 0 {:::::=:? L y~ = 0 {:::::=:? (V k E [1,n], y~= 0 ) {:::::=:? (Vk E [1, n], Yk = 0).
"-.,.-'
k= I ~o

Ainsi, on a l'équiva lence t yy = 0 {:::::=:? Y = O.

Jusqu'ici nous pouvions indistinctement considérer des matrices réelles


ou complexes.
"'O
0
On s'aperçoit ici que cette généralisation n 'est plus possible puisque
c
:J nous avons utilisé (tacitement) le fait qu'un carré est un réel positif et
0
1..()
ceci n 'est plus le cas si l'on considère le carré d 'un nombre complexe :
T"-l

~
0
N
Y = ( ) vérifie tyy = 0 et pourtant Y /::- O.
©
.......
..c
Ol
ï:::
>-
a.
0 3. b. Pour montrer une égalité entre deux ensembles, on procède par double inclusion.
u Commençons par l'inclusion la p lus évidente.

Soit X E Ker A.
Par définition, on a AX = 0, d'où, en multipliant à gauche par tA,
tAAX = tAO = 0 i. e. X E K erCAA).
Ainsi , on a prouvé l' inclu sion Ker A C Ker(tAA).
190 Chapitre 6 Applications linéaires et matrices

Pou r l'inclusion réciproque, il s'agit de trouver un a rgument pour passer de t AAX = 0


à AX = O. Or l' « élimination » du t A ne va pas de soi puisque rien n 'indique que t A
soit inversible.
On peut , néanmoins, se ramen er à une équation d u type tyy = 0 en posant ici
Y = AX.

Soit X E KerC AA). Posons alors Y = AX.


Par définition du noyau on sait que t AAX = 0, i.e. tAY = O.
D 'où , en multipliant à gauche par tx (ce qui est licite puisque le nombre de colonnes
de t X vaut le nombre de lig nes de tAY ), t XtAY = O.
Or, par transposition du produit, on sait que t x tA = t(AX ) = t y
Ainsi on trou ve que
tyy = 0 et donc d'après la question précédente Y= 0 i. e. AX = O.
Ainsi X E Ker A , et ce quel que soit X E KerC AA), ce qui finit par prouver l' inclusion
KerCAA) C K er A . On a donc, par double inclusion , KerCAA) =Ker A .
La formule du rang permet d'ét ablir un lien entre le ran g et la d imension du noyau
pour un e même a pplication linéaire.
La formule du rang, appliquée respectivement à A et tAA, et le lien établi ent re les
n oyaux de ces deux a pplications d evraient donc nous permettre de relier le rang de
l'un au rang de l'autre.

Puisq ue A E M n,p(IR) , A peut être vue comme un e application linéa ire dont l'espace
de départ est Mp,1(IR) . La form ule du ra ng appliquée à A nous do nne
dim M p, 1(IR) = rg(A) + d im K er(A).
~
p

De même, puisque tAA E M p,p(IR) , tA A peut être vue comm e une applica tio n linéaire
do nt l'espace de départ est M p,1 (IR) , la formul e du ran g appliquée à tAA nous donne

dimMp,1 (IR) = rgCAA) + d im K erCAA) .


~
p

Ain si rg(A) + d im Ker (A) = rg(tAA) + dim Ker(tAA).


"'O
D 'où , puisque dim Ker( A)= d im Ker(tAA), on en déduit rgC AA) = rg(A).
0
c
:J 3.c. L'inclusion et l'inégalité entre dimensions sont directement liées.
0
1..()
T"-l
0 Soit Y E ImCAA). Par définition o n sa it donc que Y admet un antécédent par tAA ,
N
not ons X un tel antécédent , o n a X E M p,l (IR) et tAAX = Y.
© O n en déduit que Y admet un antécédent par l' application tA do nt l'espace de départ
.......
..c
Ol est M n, 1(IR), à savoir X' = AX puisqu 'en effet
ï:::
>-
a. X' E M n,1(:IR) et tAX' = Y.
0
u Ainsi Y E lm tA, et ce quel qu e soit Y E lm tAA.
O n a do nc ét abli l'inclusio n lm(tAA) c lm t A.
On en déduit par passage aux dimensions : rgC AA) :::;; rgC A) .

3 .d. L'in égalité rg(A) ::::;; rg(tA) résu lt ant des deux derniers résu lt a ts, il nous faut
a boutir à l'inégalité inverse.
Aussi surprena nt que cela puisse paraître, cette autre inégalité est contenue dans la
Exercice 6.5 rg (A) = rg(t A ) 191

première qui , étant valable pour n'importe quelle matrice A, peut être appliquée à
une toute autre matrice afin d 'inverser les places occupées par A et tA.

D'après ce qui précède on sait que rg(A) :::;; rg(tA) et ce quelle que soit la matrice A
et quelle que soit la taille de cette matrice.
Ainsi , en appliquant cette inégalité à tA en lieu et place de A , on trouve
rgCA) :::;; rg(tCA)) = rg (A).
Finalement on a bien rg(tA) = rg(A).

4. Il a été établi que le rang d 'une matrice est égal au rang de ses colonnes, or la
transposition a pour effet de changer les colonnes en lignes.
Il nous suffit donc d'appliquer la conservation du rang par transposition.

On utilisera ici la propriété suivante d 'invariance du rang par compo-


sition avec un isomorphisme :
si f: E ~ Fun isomorphisme et [, = (u1, ... , un) une famille de vec-
teurs de E alors
rg(J:,) =rg(J(J:,)) i.e. rg (u1, ... , un) = rg(J(u1) , ... , f(un )) .
En effet, f induit un isomorphisme ent re Vect (J:,) et Vect(J(J:,)).

Remarquons que ceci s'applique en particulier à rg(u 1, ... , un) = rg(C1, ... , Cn) où
chaque colonne Ci représente le vecteur U i dans une base donnée (cette représentation
est effectivement issue d'un isomorphisme entre l'espace vectoriel considéré et l'espace
vectoriel des colonnes associées). Puisque le rang d'une matrice est égal au rang de
ses colonnes on trouve le résultat classique

rg(u1 , ... , Un)= rg( M) ,

où les colonnes de la matrice M représentent les vecteurs u 1, ... , up dans une base
donnée.
-0
0 Ainsi, le calcul du rang d'une famille de vecteurs se ramène systéma tiquement a u
c
:J calcul du rang d'une ma trice.
0
I..{)
,.....
0 Puisque les colonnes de tA sont
N
tL 1, t L 2 , .. t Ln ·
© · ,
......
..c On en déduit, grâce à 1 appliqué à tA en lieu et place de A,
Ol
ï:::
>-
a.
rgCA) = r gC L1 , t L2 , ... 't L n) ·
0
u Or la transposition T: Z f---t t Z réalise un isomorphisme entre Mp,1 (JR) et M 1,p(IR),
donc (t L1 , t L 2, ... , tLn ) et son image par T,
(T(tL1),TC L 2), . .. , TCLn)) = (L1 , L2 , ... , Ln),
ont même rang i.e.
rgCA) =rg (L1 , . .. ' L n ),
et donc, puisque rg(tA) = rg (A), rg (A) = rg(L1 , ... , L n )·
192 Chapitre 6 Applications linéaires et matrices

Ainsi, le rang d'une matrice est égal au rang de ses lignes.


Voici une synthèse des résultats faisant le lien entre le rang d'une matrice et le carac-
tère injectif ou surjectif.

D'après 2 et du fait que le rang d'une matrice soit égal au rang de sa transposée, on
a la succession d'équivalences
A est injective <===? rg(A) = p <===? rgCA) =p.
D'où, puisque tA E Mp ,n(IR ), en appliquant 1 à tA en lieu et place de A, on trouve
A est injective <===? tA est surjective .
Cette équivalence étant vraie quelle que soit la matrice A et sa taille, on l'applique
alors à tA en lieu et place de A et on trouve tA est injective <===? A est surjective.

Soit E un lK-espace vectoriel de dimension n.


Soit f un endomorphisme de E. on dira que f est une homothétie lorsque l'on
peut trouver un scalaire À tel que f = .XIdE .
1. Montrer que f est une homothétie ssi, quelle que soit la base B de E, MatB(f)
est une matrice diagonale.
2. Montrer que f est une homothétie ssi, quel que soit x E E, la famille (x, f(x))
est liée.

1. On commence par l'implication la plus simple.

Supposons que l'on puisse écrire f sous la forme f = .Xld E, avec À un scalaire.
Quelle que soit la base B = (e 1 , .. . , en) de E, on a alors
Vi E {1 , ... , n}, f (ei) = .XldE(ei) = Àei .
Ainsi, par construction, Mats(!) = >.In. On a bien obtenu une matrice diagonale, et
ce relativement à n'importe quelle base.
-0
0
c
:J
0
1..()
T"-l
0
Si f est l'homothétie .XldE alors sa représentation matricielle dans toute
N
base s'écrit Àln.
©
.......
..c
Ol
·~ Réciproquement on va montrer que la matrice diagonale obtenue dans une base fixée
a.
8 quelconque B est en réalité une matrice de la forme Àln .
Il s'agit donc de montrer que tous les coefficients diagonaux sont identiques au premier
et c'est le fait que toute autre base donne encore une matrice diagonale qui nous
permettra d'effectuer les comparaisons nécessaires entre les coefficients diagonaux.

~I Soit B = (e1, ... , en) une base qu elconque de E.


On suppose qu e la représentation m atricielle de f d ans toute base est di agonale. En
Exercice 6.6 Diagonale en toute base 193

particulier Mata(!) s'écrit sous la forme


>.1
(0)

Mat a (!) =
(0)
.Àn
A utrement dit , pour tout i E {l , .. . ,n}, on a f (ei ) = >.iei.
Soit j E {2, . .. , n}, puisqu e le fa it d 'aj outer à un vect eur une combinaiso n linéaire
des autres vecteu rs ne ch ange ni le caractère libre, ni le caractère générateur, not o ns
alors 13' = (e~ , ... , e~) une nouvelle base de E o btenue en posa nt
e~ =e 1 +ej, et V k E {2, .. . , n}, e~ = ek .
Puisque Mata, (!) est diagon ale, on peut écrire
µ1
(0)

Mat a, (!)=
(0)
µn
A insi, pour t out i E {l , ... ,n }, on a f (eD = µi e~ . En parti culier,
f (e1) = >.1e1, f (ej ) = .Àjej et f( e1 + ej ) = f ( e~) = µ1 e~ = µ 1(e1 + ej ).
D 'où , par linéarité de f , >.1 e1 + .Àjej = f( e1) + f (ej) = f( e1 + ej ) = µ 1e1 + µ 1ej .
Or, (e1, ej ) ét ant libre, la décomposition selon ces deux vect eurs est uniqu e, o n en
déduit do nc
>.1 = µ 1 et .Àj = µ 1.
Ainsi .Àj = >. 1 , et ce quel que soit j E {2 , .. . , n }, ce qui nous donn e
Mat a (!) = >.iin = Mat a(>. iide).

2. On commence pa r l'implicat ion la plus simple.


"O

~1
0
c Supposons qu e l' on puisse écrire f sous la forme f = >.Ide, avec >. un sca laire.
:J
0 Quel que soit x E E , on a alors f( x ) = >.x . Ainsi, f( x) ét ant colinéa ire à x , on en
1..()
r-l déduit que (x , f (x) ) est une fa mille liée.
0
N

© P our la réciproque, il s'agit de montrer que, pour tout x, on peut écrire f (x ) = .\x
.......
..c avec .\ un scalaire in d é p e ndant du ch o ix de x .
Ol
ï:::
>-
a.
0
u
Il ne faut surt out pas confondre (V x E E , :3 .\ E OC, f (x) = .\x)
avec (:3 .\ E JK, V x E E , f(x) = .\x) .

Cet te indépenda nce n'est pas immédiat e. On va donc s'appuyer sur le résulta t précé-
dent et montrer que la matrice de f dans tout e base est d iagonale (puisqu 'ici rien ne
194 Chapitre 6 Applications linéaires et matrices

demande à ce que les coefficients diagonaux ne dépendent pas du choix du vecteur de


base) .

Supposons qu e, quel que so it x E E, la fa mille (x , f(x ) ) est liée.


Soit B = (e1, . . . , en) une base q uelco nq ue de E.
Puisque, po ur t out i E { 1, ... , n}, on a, par hy pothèse, (ei , f (ei )) est liée et que ei
est un vect eur no n nul ( puisque faisant partie d ' une famill e li bre), o n en déduit q ue
f( ei) est colinéa ire à ei, c' est-à-di re que
f( ei ) = Ài ei avec Ài E K
A insi Mata(!) est une m atrice d iagonale (dont les coefficients d iagonaux sont :
À1, ... , Àn).
Puisque la représentation m atri cielle de f est di agonale d ans n' importe quelle base
de E, on en déduit, grâce à la questio n précédente, que f est une homothétie.

Soit A E Mn,p(~). On pose f : ~p+ q ---+ ~n l'application linéaire associée à la


matrice
B = ( A 1 On,q )
relativement à une base C = ( e 1, . . . , ep+q) de ~p+q et une base F de ~n.

1. a. Montrer que rg(J) = rg(A) .


b . Montrer que
lm f = Vect(J(e1) , ... , f(ep)) et Ker f ~ Vect(ep+1, .. . , ep+q) ·
2 . On suppose à présent que rg A = p.
Montrer que (J (e1 ), ... , f (ep)) est une base de lm f et que
Ker f = Vect(ep+1, ... , ep+q)·
En déduire une base de Ker f .
-0
0
c 3. Soit M une matrice et g un endomorphisme tous deux associés relativement
:J
0 aux bases B = (w1, ... ,wN) et F:
1..()
r-l
0 M = Mat.r,B(g).
N

© a. Soit M' la matrice obtenue à partir de M par l'opération Cj +------+ Ci .


.......
..c Montrer que M' = Mat.:r,B' (g) où B' est une base que l'on précisera.
Ol
ï::: b. Soit M" la matrice obtenue à partir de M par l'opération
>-
a.
+L
0
u Cj +----- ajCj akck ,
kij
où a 1 , ... , aN sont des scalaires et aj #O.
Montrer que M" = Mat.:r,B" (g) où B" est une base que l'on précisera.
Exercice 6. 7 Image et noyau par pivot de Gauss 195

4. Calculer l'image et le noyau de l'endomorphisme canoniquement associé à


1 2 1 0 0
1 2 2 0 0
M= 1 2 1 0 0
0 0 0 0 0
0 0 0 0 0

1.a. Le rang d'une application linéaire est égal au rang de n'importe quelle matrice
associée dans d es bases. De plus, le rang d'une matrice n'est pas altéré lorsque l'on
élimine toute ligne ou toute colonne nulle.

~1
Le rang d'une matrice est éga l au rang de ses colonnes, on a donc (en notant indis-
tinctement C1 , ... , CP les p premières colonnes de A et B)
rg(f) = rg(B) = rg( C1 , ... , Cp, Ün,1, ... , Ün,1) = rg( C1 , ... , Cp) = rg(A).

1.b. Étant donné que les q dernières colonnes de B (i.e. les colonnes associées à
f (ep+1 ) , ... , f( ep+q)) sont nulles, on en déduit aisément une partie de la base C consti-
t uée de vecteurs de Ker f.

~1
Par lecture des q dernières colonnes de la matrice B représentant f dans la base C,
on a f (ep+1) = · · · = f (ev+q) = O. Ainsi { ep+1, ... , ep+q } C Ker f.
D'où, puisque Ker f est un espace vectoriel, Vect(ep+i, ... , ep+q) C Ker f.
L'espace vectoriel image est engendré par l'image d 'une base.

~1
Étant donné que les q dernières colonnes de B sont nulles,
lm f = Vect(f(e1), ... , f( ep) , f( ev+1 ), · · · , f (ep+ q)) = Vect(f(e1) , ... , f( ev) ).
'-v-" '-v-"
0 0
-0
0
c 2. On suppose à présent que rg(A) = p.
:J
0
Une des caractérisations pour une base est donnée par le fait que c'est une famille
,....
1..()

génératrice dont le cardinal est égal à la dimension de l'espace.


0
N

~1
© D'après l.b, on sa it que (f(e1), ... , f( ep )) est génératrice de lm f.
.......
..c
Ol Or, d'après l.a , o n a rg(f) = p, c'est-à-dire que le cardinal de cette famille vaut la
ï:::
>- dimension de lm f. On en déduit que (f(e 1), ... , J(ep) ) est un e base de lm f.
a.
0
u Pour montrer une égalité entre deux sous-espaces vectoriels, il nous suffit d 'avoir une
égalité de dimensions (la formule du rang nous permet de l'obtenir) et une inclusion
(cf 1.b).

~I
D'après la formu le du ran g, appliquée à f, on a
dim (Ker J) = dim(!Rp+q) - rg(f) = q = dim (Vect(ep+1, .. . , ep+q) ) .
196 Chapitre 6 Applications linéaires et matrices

Ainsi, l'inclusion prouvée en 1.b devient l'éga lité Ker f = Vect(ep+1, ... , ep+q).
La famille (ep+1 , ... , ep+q) est donc génératrice de K er f mais, en tant que sous-
famille d'une base, elle est également libre. Ainsi (ep+1, ... , ep+q) est une base de
1 Kerf.

3.a. Les colonnes de la matrice NI représentent (relativement à la base F ) les vecteurs


g(w 1 ) , ... , g(wN ). Tout échange de colonnes se traduit par un échange entre images
de g.

Par construction , on a, pour tout indice de colonne k, C/:' = MatF(g(wk)). Puisque


M = MatF(g(w1) , ... , g(wi) , ... , g(wj) , ... , g(wN)) = (C{w · · · C1(1 · · · CJ'1 · · · C1;/),
l'opération Cj f-----7 Ci transforme M en
M' = (Ct1 · · · CJ'1 · · · C{'1 · · · Ct/ ) = MatF(g(w1), ... , g(wJ), ... , g(wi ), ... , g(w N)).
Ainsi M' = MatF,t:F(g) où 13' = (w1 , ... , wJ , .. . ,wi, ... , wN) .

Ainsi, permuter les colonnes d'indice i et j de NI donne une nouvelle re-


présentation matricielle M' de g, où la base de départ a été modifiée par
permutation des deux vecteurs d'indices i et j (et la base d'arrivée n'a pas
été modifiée).

3. b . De même, on répercute la transformation opérée sur les colonnes de M en termes


de manipulations sur les vecteurs images g(w 1 ), ... ,g(wN) ·

En reprenant les notatio ns précédentes on obtient, par la transformation


c j +- ajc j + L akCk , la matrice
k-cf-j

M" = MatF ( g(w1) , ... , aj g(wj ) + L akg(wk), ... , g(wN)) .


k -cf- j

Or, le fait de multiplier un vect eur d ' une base par un e constante non nulle (ici aj ),
tout comme le fait d'ajouter à un vecteur d'une base une combin aison linéaire des
autres vecteurs de la base, ne cha nge pas le caractère libre et générateur de celui- ci.
-0 Ainsi 13" = (w1, ... , ajWJ + L k#- j akwk , ... , WN) est une base de l'espace de départ
0
c de g et, par lin éarité de g,
:J
0
I..{)
,.....
0
N
M" ~ MatF ( g(w1) , ... , g ( a;w; + f; a, w, ) , . .. , g(wN) ) ~ MatF,B" (g)
©
.......
..c Ainsi, agir sur une colonne d e M, par dilatation non nulle ou par ajout
Ol
ï::: d'une combinaison linéaire des autres colonnes de M, donne une nouvelle
>-
a.
0 représentation matricielle M" de g, où la base de départ a é té modifiée par
u
les opérations analogues sur les vecteurs d e base (et la base d 'arrivée n'a
pas été modifiée).

4. Da ns un premier t emps on va appliquer les procédures détaillées en 3 et ainsi


a boutir à une représentation matricielle de l'endomorphisme ca noniquem ent associé
f conforme à celle décrite en 2.
Exercice 6.8 M atrrice de Vandermonde et polynômes de Lag range 197

Not ons f l'endomorphisme ca no niquement associé à M et B = (w1, w2, w3, w4, w5)
la base canon iq ue de IR 5 . En agissant exclusivement par opérations élémenta ires sur
les colonnes de
Matc(f(w1) , f(w2), f(w3) , f(w4), f(w5)) =M
on réa lise, d'après 3, les transform atio ns suivantes.
Par la t ra nsvection C2 +----- C2 - 2C1, o n obt ient
1 0 1 0 0
1 0 2 0 0
Matc(f(w1), J(w2 - 2w1), J(w3), f(w4) , f (w5)) = 1 0 1 0 0
0 0 0 0 0
0 0 0 0 0
Par la perm utation C2 +------+ C3, on obtient
1 1 0 0 0
1 2 0 0 0
Matc(f(w1), f(w3), f(w2 - 2w1), f(w4) , f (w5)) = 1 1 0 0 0
0 0 0 0 0
0 0 0 0 0
Finalement, en posant C = ~' W3 ,w2 - 2w1 , W4 , W5 ), o n obtient
~'--v-"~~
e1 e2 e3 e4 e5

1 1 0 0 0
1 2 0 0 0
B = Mata ,c(f) = 1 1 0 0 0
0 0 0 0 0

nn 0 n
0 0 0 0 0

Et, puisque ; g = ;g ~ ) = 2,

on en dédu it , grâce à 2,
lm f = Vect(f(e1), f (e2)) et Ker f = Vect(e3, e4, e5) .
...__,.__.., ~

base base

"'O
Ceci, par lecture directe des deux première colonnes de B, nous donne
0
c
:J
lm f = Vect ( ( 1, 1, 1, 0, 0), ( 1, 2, 1, 0, 0)) ( base)
0
1..() et , par définitio n de e3, e4, e5 ,
T"-l
0
N Ker f = Vect((-2, 1, 0, 0, 0) , (0, 0, 0, 1, 0), (0, 0, 0, 0, 1)) ( base).
©
.......
..c
Ol
ï:::
>-
a.
0 Ainsi, en partant d' u ne matrice NI représent ant une applicat ion linéaire f on
u
peut, par opérations élémentaires agissant exclusivement sur des colonnes,
t rou ver u ne nou velle représent a t ion mat ricielle de la forme B =(A 0) avec 1

A de rang égal au nombre de ses colonnes.


Ceci permet d'obtenir une base de lm f par lecture directe des colonne s
de A et une base de Ker f par lecture des vecteurs de base correspondant
au b loc n ul dans la matrice B.
198 Chapitre 6 Applications linéaires et matrices

Exercice 6.8 : Matrrice de Vandermonde et polynômes de Lagrange

Soient xo, ... , Xn n + 1 réels deux à deux distincts, on pose x = (xo , ... , Xn)·
On étudie la matrice de Vandermonde
1 1 1
Xo X1 Xn
x6 x21 x2n
V=

xn0 xï xnn
Par la suite, on posera A= tv.
1. Montrer que l'application f: PH (P(xo) , ... , P(xn)) réalise un isomorphisme
d'espaces vectoriels entre IRn[X] et JRn+ 1 .
2 . En déduire que la matrice V est inversible.
3 . Montrer, à l'aide de l'inversibilité de V, que
a . F = ((x~)o~j'-(n, ... , (xl)o~j~n) est libre dans l'espace vectoriel JRn+l ;
b. F ' = ( (xL)jEN )o~k~n est libre dans l'espace vectoriel des suites réelles;

c . F" = (fk : t H exkt)o~k'-(n est libre dans l'espace vectoriel des fonctions
réelles d 'une variable réelle.
4. On définit la famille des polynômes d'interpolation de Lagrange * comme étant
l'unique famille (Lo , . . . , Ln) de polynômes de IRn [X] vérifiant

'ViE[O,n], 'VjE[O,n] , Li(xj)= { Ol si j#-i t


S'l 'l = J
a . Justifier l'existence et l'unicité d'une telle famille.
b. Exprimer les coefficients de Li, pour i E [O, n], à l'aide de ceux de A- 1 .
c . Calculer Lo, Li, L 2 dans le cas où x = (0, 1, 2) .
En déduire v- 1 dans cc cas.

"'O
0
c
0
:J 1. Le fait que IRn[X] et JRn+l soient des espaces vectoriels ne fait aucun doute. Il s'agit
1..() donc de prouver deux choses
T"-l
0
N ( 1)f est linéaire ;
©
....... (2) f est bijective .
..c
Ol
ï::: Le point (2) lui-même se décompose en deux étapes. Habituellement on montre que
>-
a.
0
l'application est injective et surj ective, mais puisqu'ici les espaces vectoriels sont de
u dimension finie , on va se contenter de l'injectivité et d 'une égalité de dimensions :
• Ker f = {O} ;
• dim !Rn [X] = dim JRn+l.

*· On généralise ici la famille d e polynôm es introduite dans l 'exercice 2 .9 .


t. voir symb ole d e Kronecker introduit dans l 'exercice 4.7 en p age 108.
Exercice 6.8 Matrrice de Vandermonde et polynômes de Lagrange 199

Soient Pet Q deux polynômes et À un scalaire réel (on travaille ici avec des IR-espaces
vectoriels).
Par calcul , on trouve

f(.\P+Q) = ( (.\P+Q)(xo) , .. , (.\P+Q)( xn) ) = ( .\P(xo)+Q(xo), .. , .\P(xn)+Q(xn))


= .\(P(xo) , ... , P(xn)) + (Q(xo), ... , Q(xn)) = Àf(P) + J (Q).
Ceci finit par prouver que f est linéai re.

Il n 'est nullement nécessaire de vérifier f (0) = 0 pour prouver que f


est linéaire.
En réalité f (0) = 0 est une conséquence de la linéarité elle-même
(prendre À = 1, Pet Q tous deux égaux au polynôme nul).

Montrons, à présent, que f est injective.


Soit P E Ker f, on a par définition du noyau de f
P E 1Rn[X ] et (P(xo) , ... , P(xn)) = (0, ... , 0).
Ainsi P admet au moins n + 1 racines (on nous dit dans l' énoncé que les x o, . .. , Xn
sont deux à deux distincts) et son degré est au plus égal à n.
Ceci nous prouve que P est le polynôme nul et donc finit par ét ab lir l'inclusio n
Ker f C {0}.
Puisque l'inclusion réciproque est évidente, on a donc prouvé Ker f = {O} de sorte
que f est injective.

Lorsqu 'il s'est agi de montrer que le polynôme P était nul en exhiba nt
un « trop grand nombre » de racines, il n'a pas été commis l'erreur
d 'annoncer que xo, ... , Xn ét aient LES racines de P (dire que P admet
"'O
exactement n + 1 racines est en contradiction avec la conclusion atten-
0
c due) et encore moins l'erreur d'affirmer que P est de degré ÉGAL à n
:J
0 (rappelons que le degré du polynôme nul est -oo) .
1..()
T"-l
0
N

~I
©
....... Puisque, par ailleurs, on sa it que dim !Rn[X] = n + 1 = dim JRn+l, on en déduit que
..c
Ol l'application linéa ire f est bijective, c'est donc un isomorphisme.
ï:::
>-
a.
0
u 2. Faire le lien entre l'inversibilité d 'une matrice et la bij ect ivité d'une application
linéaire est chose aisée lorsque l'on sait que l'une représente l'aut re relativement à
une certaine base B de IR.n [X] et C de JR.n+ 1 .
Puisqu 'aucune indication n 'est donnée dans l'énoncé nous allons proposer des bases
raisonnables et naturelles et tenter d 'aboutir.
200 Chapitre 6 Applications linéaires et matrices

Soit B = (1, X , ... , X n) la base canonique de !Rn[X ] et not ons C = (e 0 , ... , en) la
base canon iq ue de !Rn+ 1 . Pour tout k E [O, n], on a, par ca lcul ,
n

f(Xk) = (x~, ... , x~) = L: x7ei .


i= O

Autrement dit les coordo nnées de f (X k) d ans la base C sont (x~ , ... , x~) .
O n en déd uit la m atrice associée à f relativement aux bases B et C
J (l ) J(X) J(X) J(X n)
+ + + +
1 Xo X~ xg
Matc,B(J) = 1 X1 xî X~ =A.
1 X2 X~ X~

1 Xn x?i X~ ;--{ en
A insi, puisq u' il a ét é ét abli q ue f est bijecti ve, on en d éd uit que A est inversible et
do nc V = tA aussi.
3 .a. On va invoquer le rang maximal de V.

~1
L' interprétation matricielle ca no niq ue des n + 1 vecteurs de F correspond t rès préci-
sément aux colo nnes de V , ainsi rg(F) = rg(V).
Puisq ue V E GLn+i (IR), on en déduit rg(F) = n + 1 = Card F.
A insi (cf 5. 11 .3.b) Fest li bre.

3.b. On va invoquer , cette fois, l'inversibilité de V pour résoudre le syst èm e associé


à l'équation préliminaire à l'étude du caractère libre.
Soient ao, ... , an + 1 sca laires t els que
n

ao(xb)i EN + · · · + an (xti )iEN = 0 i.e. V j EN, aox6 + · · · + anxti =O.


Le système issu des éq uations obtenu es en prenant j = 0, ... , n , est
n
L ak =0 (L o)
k=O
"O
0
c n
:J
0
1..()
(E) L x{ ak =0 (Li )
r-l
0
k=O
N

© n
.......
..c
Ol
ï:::
L x~ ak = 0 (Ln)
>-
a. k=O
0 Il s'agit du syst ème homogène associé à la matrice V. Et , puisq ue V est inversible, on
u
en déduit que (E) est de Cra mer, c'est donc que la solution évident e ao = · · · = an = 0
est l' uniq ue solut ion. On co ncl ut q ue la fam ille de suites F' est libre.
Exercice 6.8 Matrrice de Vandermonde et polynômes de Lagrange 201

La famille F est une famille de suites finies extraites de celles consti-


tutives de F'. Il n'y a néanmoins aucun lien systématique qui pourrait
laisser à penser que le caractère libre de F soit conséquence du carac-
tère libre de F' (alors que l'implication réciproque est manifestement
vraie).
Par exemple, on sait que ((xb)jEN, · · · , (x~)jE N) forment une famille
libre, mais on sait également que la famille (x6 , ... , x~) est liée. En
effet n + 1 scalaires (avec n ~ 1) forment nécessairement une famille
liée dans IR qui est de dimension 1.

3.c. On commence par poser l'équation préliminaire à l'étude du caractère libre.

Soient ao , ... , an n + 1 scalaires tels que


n n
(0) i.e. \:/ t E IR, L akexkt =O.
k=O

Puisque l'indication précise que l'on souha ite faire intervenir la matrice V et donc les
puissances consécutives des Xi, une idée est de faire apparaître ces puissances des Xi
en facteur de chaque coefficient a 1 , ... , an. Pour ce faire nous a llons dériver à plusieurs
reprises.

Puisque l'éga lité (0) porte sur des fonctions de classe c=, on peut dériver celle-ci une
fois, ce qui nous donne
n n
(1) i. e. Vt E IR, L akXkexkt = O.
k=O k=O
De même, en dérivant j fois, on trouve
n n
(j) L akfkj ) = o i. e. \:/t E IR, L akx{exkt = O.
k=O k=O
"'O
0 Ainsi, si l'on évalue chacune des égalités (0) , (1), ... , (n) en 0, on trouve le système
c de Cramer (~) introduit dans la question précédente. L'unique solution de ce système
:J
0
est la solution triviale ao = · · · = an = O. Finalement on a prouvé que F" est libre.
,....
1..()

0
N 4.a. Si l'on traduit la caractérisation des poly nômes L i en utilisant la fonction f
© introduite dans l'én oncé, on trouve
.......
..c
Ol
ï:::
>- ViE[O, n] , f (Li) = (0, .. , 1, ..0) = ei.
a. ~
0
u le « 1 » est e n case n uméro i

C'est donc la bijectivité de f qui va nous garantir l'existence et l'unicité demandées.


Commençons par l'existence.

~I
Puisque f est surjective, les vecteurs eo, ... , en ad mettent chacun un antécédent que
l'on note respectivement Lo , ... , L n.
202 Chapitre 6 Applications linéaires et matrices

Il s'agit de polynômes de IRn[X] qui vérifient, pour tout i E [O, n], f (Li ) = ei, c'est-
à- dire
si j -# i
\:/ j E [O, n],
si i =j
ce qui prouve bien l'existence.

On termine par l'unicité qui , comme souvent , se prouve soit pa r l'absurde (en sup-
posan t pa r l'absurde avoir deux familles distinctes vérifia nt (*)) soit, comme on va
le faire ici, en partant de deux familles de polynômes non nécessairement distinctes
vérifiant (*) pour en déduire qu'elles sont égales.

Supposons avoir deux familles (.Co , ... , Ln) et (Lo, ... , Ln ) de polynômes de IRn[X]
vérifiant, l' une et l'autre, la même propriété(*)
On en déduit alors, au moyen de la fonction f, \:/i E [O, n], f(L i ) = ei = f (.Ci).
Et donc, par injectivité de f, Li = L i , et ce quel que soit i E [O, n]. Ceci prouve
l'unicité de la famille.

Il ne faut pas croire que l'unicité soit une propriété détachée de tout
référentiel. Être unique ne veut rien dire. En mathématiques l'unicité
exprime le fait d 'être « unique dans son genre ».
Dire que« la famille « (Lo, . .. , L n) est unique » est un abus de langage
pour signifier qu'il y a unicité de la famille (Lo , ... , Ln) constituée de
polynômes de IR.n[X] et vérifiant la relation(*).

Voici une deuxième preuve qui exploite la bijectivité de f pour nous assurer l'exist ence
et l'unicité de cha que polynôme.

~1
Pour tout i E [O, n], par bijectivité de f, puisque ei appartient à l' espace d'arrivée
de f, on a : il existe un uniqu e polynôme Li de IRn[X] vérifiant f(Li ) = ei
~
(*)
On en déduit, finalement, l'existence et l'unicité de la famille demandée.
-0
0
c
4.b. Partant de f (Li) = ei, il s'agit d 'obtenir une relation avec la matrice A de f.
0
:J Nous a llons donc faire une interprétation matricielle de cett e égalité.
1..()
T"-l
Pour plus de commodité on convient de numéroter les lignes et les colonnes de matrices
0
N
à partir de l'indice O.
©
....... Par interprétation matricielle du vecteur ei, au moyen de la base canonique B,
..c
Ol
ï::: 0
>-
a.
0
u
Mat c(ei) = 1 +---< ligne numéro i .

0
Or, par interprét ation matricielle (relativement au x bases C et B) de ei = f(Li ), on
trouve Matc(ei ) = Matc,s(f) x Mats(Li ) = A x Mat5(Li ).
Exercice 6.8 Matrrice de Vandermonde et polynômes de Lagrange 203

Donc, A étant inversible,


0

1
1 = ie colonne de A - .

0
Ainsi les coefficients de L i (relativement à la base canonique C) se lisent sur la ie
colonne de A- 1 .
Voici une d euxième preuve qui inverse d 'abord la relation f (Li) = ei pour ensuite
donner une interprétation matricielle.

Puisque lest bijective et que l(Li) = ei , on en déd uit Li= l - 1


(ei) .
Or, par interprétation matricielle de l' inversion,
A - 1 = [Matc ,B(f)]- 1 = MatB ,c(f- 1),
et donc, par construction, les colonnes de A- 1 reproduisent les coordonnées (dans la
1 1
base B) des vecteurs l - (eo) = Lo, ... , l- (en) = Ln.

4.c. Un polynôme peut être déterminé par la donnée de ses coefficients, mais ici c'est
un résultat que l'on se réserve pour l'obtention de v - 1 .
Heureusement, un polynôme se caractérise aussi par son degré, son coefficient domi-
n ant et ses racines complexes (comptées avec multiplicité), ce qui donne sa décom-
position sous forme d 'un produit. C'est précisément ce que nous permet de faire la
caractérisation (*).

Lo rsqu e x = (0, 1, 2) (ici n = 2), on a d' après la relation fondamenta le(*)


Lo( l) = Lo (2) = 0 et deg Lo ::;;; 2.
On en déduit la factorisation de Lo sous la forme
Lo = a(X - l)(X - 2) avec a ER
Or, toujours d'après la relation fondamentale (*) , on a L 0 (0) = 1. Ainsi
1
a(O - 1)(0 - 2) =1 i.e. a= 2·
-0
0
c (X - l )(X - 2)
:J Finalement Lo = et, de manière tout à fait analogue, on obtient
0 2
,....
1..() X(X - 1)
L1 = - X(X - 2) et L2 = .
0
N
2
Lorsque l'on écrit ces polynômes sous forme développée, on trouve
©
....... 3 12 2 1 1 2
..c
Ol
Lo = 1 - 2" X + °2 X L1 = 2X - X et L2 = - °2 X + °2 X
ï:::
>-
a. Ainsi, grâce aux coefficients de ces trois polynômes, on trouve
0
u 1 0 1
Mats(Lo) = ( )
-2
1
2
3
Mats(L1) = ( )
2
- 1
et MatB(L2) = ( ) 1
- 2
1
2
D'où, en juxtaposant ces trois colonnes,

A-' ~ ( ~
0
1
2
0
1
4 f (
1
-2
1
2
3
0
2
- 1
0
-2
1
2
1
),
204 Chapitre 6 Applications linéaires et matrices

et donc, par transposition de l' inverse,


3
2
2
_ .!.
1 2

On pourra vérifier que cc résultat concorde avec celui effectué en 4.5.2.

Soit l : JR.3 --+ JR. 3 l'application définie par :


l: (x , y, z) f--7 (x - 2y + 2z, - 2x +y+ 2z, - 2x - 2y + 5z).
1. a . Montrer que l est un a utomorphisme de JR.3 .
b. Déterminer la matrice de l puis de 31dJR3 - 41+1 2 dans la base canonique
de JR.3 . Qu'en déduit-on ?
c . Déterminer la bijection réciproque 1- 1 .
2. On va chercher l'ensemble des vecteurs x de JR.3 pour lesquels il existe un réel
>.tel que l( x) = >.x.
a. Soit x E JR.3 \ {O} tel qu'il existe >. E lR. vérifia nt l(x) = >.x. À l'aide du
résultat de la question 1.b, établir : >. E {1, 3}.
b. Soit À E JR.. Montrer : { x E JR. 3 1 l (x) = >.x} = Ker(! - >.IdJR3).

c. Exhiber une base de JR.3 dans laquelle la matrice de l est (~ ~ ~) .


0 0 3

1.a. Pour montrer qu'une application est un automorphisme, il y a trois points à


vérifier :

-0
• la linéarité;
0
c
:J
0 Soit u = (x,y,z), v = (x',y',z') deux vect eurs de IR3 et À, µ deux réels. O n a, en
1..()
T"-l posa nt X = Àx + µx', Y = Ày +µy' et Z = Àz + µ z',
0
N
f(À u + µv) J( (Àx + µ x', Ày + µ y' , Àz + µ z')) = J((X , Y , Z))
©
....... (X - 2Y + 2Z, - 2X +Y+ 2Z, - 2X - 2Y + 5Z)
..c
Ol
ï::: (,\( x - 2y + 2z) + µ(x' - 2y' + 2z') ,
>-
a.
0
,\( - 2x +y+ 2z ) + µ( - 2x' +y' + 2z'),
u
,\ (-2x - 2y + 5z) + µ (-2x' - 2y' + 5z'))
À(x - 2y + 2z, - 2x +y+ 2z, - 2x - 2y + 5z )
+µ ( X I - 2y I + 2 Z I , - 2X / +y I + 2 Z / , - 2X I - 2 y / + 5z/)
Àf((x , y, z )) + µf( (x' , y' , z')) = Àf(u ) + µf( v) .
f est donc une application li néaire de IR3 dans IR3 .
Exercice 6. 9 Polynôme annulateur et réduction 205

On retiendra la démarche derrière la quatrième égalité (mise en facteur


de À et µ dans les composantes) et celle derrière la cinquième égalité
(séparation, sous forme de somme, des termes en À et de ceux en µ ).

• le fait que l'espace d 'arrivée est le même que celui de départ (ici, c'est immédiat);

• la bijectivité; pour cela, on se rappellera qu'un endomorphisme g de ocn est bijectif


ssi il est injectif ou surjectif donc ssi Ker f = { 0} ou lm f = ocn (i.e. rg f = n ).

Ainsi , f est un endomorphisme de JR 3 et c'est un automorphisme de JR3 si et seulement


si rgf = 3 = dim lR3 . Or

(~2 ~
2 -2
rgf rg -3
- 2 - 2 -6
- 2
-3 = 3,
0
f est donc bien un automorphisme de JR3 .

1.b. On utilise les règles d 'opérations sur les matrices d'endomorph ismes, ce qui ra-
mène la question à du calcul matriciel.

La matrice de f dans la base canonique d e JR3 (i.e. canoniquement associée) est

Mat(!)= (~2 ~
-2 -2
2

D donc

Mat(3IdIR3 - 4f + f + (Mat(f)) 2
2
) 3Mat(IdJR3) - 4Mat(f)

~ ~) - 4 (~2 ~) + (~8
-2 -8
1 1
0 1 - 2 -2 5 -8 -8
"'O
0
c

D
:J
0
,....
1..()

0
N
On en d éduit que 3IdJR3 - 4f + f 2
est l'endomorphisme nul d e JR3 .
©
.......
..c 1.c. Nous avons vu dans l'exercice 3.1 en page 60 comment trouver l'inverse d 'une
Ol
ï::: matrice à partir d 'un polyn ôme annulateur de coefficient constant non nul. On entre-
>-
a.
u
0 prend ici la même démarche, ma is en raisonnant en termes d 'endomorphismes.

3IdJR3 - 4f + f 2 = 0 {=::::::? 3IdJR3 = 4f - f 2


{=::::::? 3IdJR3 = f o (4IdJR3 - f)
{=::::::? IdIR3 = f o [ ~ (4IdIR3 - f)] .
206 Chapitre 6 Applications linéaires et matrices

Ainsi, l - 1 = ~ (4IdJR3 - f). Autrement dit, pour tout (x , y, z) E JR3 ,


1
l - 1 ((x , y , z)) (4(x , y , z) - (x - 2y + 2z, - 2x +y + 2z, - 2x - 2y + 5z))
3
31 (3x + 2y - 2z, 2x + 3y - 2z , 2x + 2y - z ).

2.a. Comme on sait comment f «agit» sur x, il est naturel d 'appliquer 3IdKn -4/ + / 2
à x pour exploiter l'hypothèse 3IdKn - 4f + / 2 = O.

2
On a 3IdJR3 - 41 + 1 = 0 donc en particulier : (3IdR3 - 41+1 2 ) (x) = O. Mais :
2 2
(3IdJR3 - 41+1 ) (x) 3x - 4l(x) + l (x)
3x - 4,\x + l(f(x))
3x - 4,\x + l(Àx )
3x - 4Àx + Àl (x) (par linéarité de l )
3x - 4Àx + À x 2
= (3 - 4,\ + ,\2 )x.
Ainsi, on a (3 - 4,\ + À 2 )x = 0 avec x -f= 0 et donc 3 - 4,\ + ,\ 2 = O. En calculant le
discriminant ~ de 3 - 4X + X 2 , on trou ve ~ = 16 - 12 = 22 > 0 donc ce polynôme
4 2 4 2
ad met d eux racines
. ' Il es : - - - = 1 et - +- = 3 . 0 n vient
ree . d e voir que/\' est une
2 2
de ces racin es donc À E {1 , 3}.

Le polynôme P = 3 - 4X + X 2 est un polynôme annulateur de f et


on vient de voir que À en est une racine. Le raisonnement précédent se
généralise aisément.
Soit µ E IK et f un endomorphisme d 'un OC-espace vectoriel tel qu'il
existe un vecteur n on nul x vérifiant f( x) = µ x. Pour tout polyn ôme
annulateur P de f (avec P E IK[X]) on a P(µ) = O.

2.b. Pour montrer l'égalit é de deux ensembles A et B, on peut raisonner par double
-0
0 inclusion (comme cela a déjà ét é fait à l'exercice 6.3) ou , p lus direct ement , montrer
c
:J qu 'ils ont les mêmes éléments, via un raisonnement du type :
0
1..()
r-l X E A {=}- . . . {=}- X E B.
0
N

© Ici, il suffit de connaître la définition du noyau d'une application linéaire.


.......
..c
Ol 3
ï::: Soit À E IR et x E JR .
>-
a.
0 l(x) = Àx ~ l(x) - Àx = 0 ~ (f - ,\IdJR3 )(x ) = 0
u
~ x E Ker(! - ÀidJR3 ).
3
{ x E JR 1 l(x) = Àx } est donc le sous-espace vectoriel Ker(! - ,\ldJR3 ).

2.c. Si u ne telle base existe, il faut commencer par a na lyser quelles informations la
matrice apport e sur ses vecteurs. Cela donnera l'inspiration pour construire une de
ces bases.
Exercice 6.10 Commutant d'une matrice carrée 207

Si (u , v, w) est une base de JR 3 dans laquelle la matrice de f est G~ ~). alors


u-=/- 0, f (u) = u, la famille (v,w) est libre et f (v) = 3v, f (w) = 3w. Autrement dit ,
d 'a près le résultat de la question précédente , u est un vecteur non nul de Ker(! - IdJR.3)
et (v , w) est une fami lle libre de Ker(!- 3Id JR3) . Réciproquement, si u, v, w vérifient
ces dernières conditions, il suffit de vérifier que (u, v , w) est une base de IR3 pour que
cette famille réponde à la question posée. Dans un premier temps, nous allons donc
chercher à décrire K er (! - IdJR3) et K er(! - 3IdJR3) .

Puisqu'on veut des familles libres de vecteurs de chacun de ces deu x sous-espaces
vectoriels , nous a llons décrire ces d erniers via une base.

3
Soit u , v E IR .

- 2y + 2z = 0
u E Ker (f -IdJR3) {:=:} J (u) - u = O {:=:} - 2x + 2z = O
{
- 2x - 2y + 4z = 0
y= z
x = z {:=:} x = y= z
{
0= 0
donc K er (! - IdJR3) = { (x , x, x ) ; x E IR} = {x (l , 1, 1) ; x E IR} = Vect(( l , 1, 1)) .
- 2x - 2y + 2z = 0
v E K er(! - 3IdJR3) {:=:} f(v) - 3v = 0 {:=:} - 2x - 2y + 2z = 0
{
- 2x - 2y + 2z = 0
{:=:} - X - y + Z = 0 {:=:} Z = X + y

donc
Ker(! - 3IdJR3 ) { (x , y , x+y) ; x, y EIR} = {x( l , O, l )+ y(0, 1, 1) ; x , y E IR}
Vect(( l , O, 1) , (0 , 1, 1)).
-0
0
c
:J
0 On regarde si la famille obtenue en « recollant » ces deux bases convient pour la
,....
1..()
quest ion p osée.
0
N

©
.......
..c
Ol
ï::: Vérifion s qu e la famill e F = ((1, 1, 1), (1 , 0 , 1), (0, 1, 1)) est une base de IR3 .
>-
a.

rgF~ rg G ~ D ~ rg G ~l Dz: : z:=Z: ~ 3 .


0
u

d im IR3 = 3 et Fest une famille de trois vect eurs de ran g 3 donc Fest bien un e base

de IR3 et, d ans cette base, la matrice de f est (~ ~ ~) .


0 0 3
208 Chapitre 6 Applications linéaires et matrices

Soit A= ( !1 ~) E M2(JK). f : M2(JK) ---+ M2(JK) l'application définie par :


f :M f-t Al\!! - MA.
1. a. Montrer que f est un endomorphisme de M 2 (JK) et donnner sa matrice
relativement à la base canonique

b. Déterminer une base de Ker f puis calculer rg f .


c. Déterminer une base de lm f.
2 . On note C(A) l'ensemble des matrices carrées de taille 2 qui commutent avec
A. Autrement dit,
C(A) ={ME M2(JK) 1 AM= MA}.
a. Établir un lien entre C(A) et Ker f.
b. En déduire qu'il existe une matrice B E M2(JK) que l'on explicitera telle
que : C (A) = {ad+ f3B ; a , f3 E JK} où I = (~ ~) est la matrice unité
de M2(JK).

1.a. Avant de se la ncer dans la vérification du caract ère linéaire de f , il est utile
d 'isoler certains termes pour rendre l'écriture plus commode.

Si l'on pose fd : M H AM, on définit ainsi une fonction dont l'ensemble de départ
et d 'a rrivée est M 2(K) (par définition du produit matriciel) et dont la linéarité est
garantie par la distributivité du produit matriciel su r la somme matricielle,
V( M , N) E M 2(JK.) 2, 'i À E K, f (ÀM +N) = A x (ÀM +N) = ÀA x M + A x N
"'O Àf(M) + f(N ) .
=
0
c
:J
Ainsi, f est un e ndomorphisme de M 2(K ) et, par un raisonneme nt analogue, on
0 montre que f 9 : M H MA est éga lement un endomorphisme de M 2(K ).
1..()
r-l
0
N
Pour conclure il nous suffit d 'invoquer la structure d 'espace vectoriel de L:(M 2 (JK)) qui
© nous assure que toute combinaison linéaire d 'endomorphismes est un endomorphisme.
.......

~I
..c
Ol Puisque f = f d - f 9 , f, en tant que combinaison linéa ire d'endomorphismes, est un
ï:::
>-
a. endomorphisme de M 2(K).
0
u Il s'agit avant toute chose de calculer l'image par f de chacun des vecteurs et de
l'exprimer comme combina ison linéaire de vecteurs de B.

~1
Par d éfinition, o n a, en nota nt (E 1 , E 2 , E 3 , E 4 ) les vecteurs de la base cano nique B,

f(E1) = AE1 - E 1A = (~l ~) X (~ ~) - (~ ~) x (~l ~) ·


Exercice 6.10 Commutant d'une matrice carrée 209

Ainsi, par ca lcul , on trouve

f(E1) = ( ~l ~) - (~ ~) = ( ~l 2
-; ) = -2E2 - E3 .

Ceci signifie que le coordonnées de f (E 1 ) relativement à la base B sont (0, - 2, - 1, 0).


De même
f(E2) = (~ ~l) = E1 - E4,

f(E3) = (~ ~2) = 2E1 - 2E4 ,

f(E4) = (~ ~) = 2E2 + E3.

Il s'agit, à présent , de rassembler, colonne par colonne , les coordonnées (relativement


à la base B) de chacun des vecteurs f (E1), f (E2), f (E3) , f (E4).

~
On e n déduit la matrice de f re lativement à la base B
0 1 2 0

Mats(!) = ( -;l
-2
0
0
- 1
0
0
- 2
2
1
0
)
1.b. On procède comme dans les exercices 6.2 et 5.8 pour trouver une base du noyau
de f : on résout un système homogène, on exhibe une famille génératrice naturelle du
sous-espace de ses solutions et on vérifie que c'est une base.
Ici l'interprét a tion ma tricielle de f et des vecteurs de M 2 (IK) joue un rôle clef.

Soit M = ( ~ ;) un vect eu r de M 2(IK) , ses coordonnées relativement à la base B

sont (x, y , z, t).


"'O
0 M E Ker f ~ f(M) = 0 ~ Mats(!) x Mats (M) = 0
c
:J
0 1 2 y + 2z = 0

(
0
1..()
T"-l
0
N

©
.......
~
-2
- 1
0
0
0
0
0
- 1 - 2 nm =Ü {
~
2t - 2x
-x + t
-y- 2z
=
=
=
0
0
0
..c y+ 2z = 0

{
Ol
L2 +-- L2 - 2L3
~ { X= t
ï::: Ü= Ü
>-
a. ~
0
- x +t = 0 y= - 2z
u 0= 0 L4 +-- L4 + Li
Finalement, e n fa isant jouer à t et z le rô le de paramètres, o n trou ve
210 Chapitre 6 Applications linéaires et matrices

où U et V sont les matrices dont les coordonnées relativement à la base B sont


respectivement (1 , 0, 0, 1) et (0, - 2 , 1, 0), i.e.

Ainsi, Ker f = Vect(U, V). (U, V) est donc une famille génératrice de Ker f et c'est
aussi une famille libre car formée de de ux vecteurs non colinéaires.
Finalement, une base de Ker f est (U, V ).

L'utilisation de l'interprétation matricielle pour résoudre un problème


vectoriel peut se révéler extrêmement efficace.
Nous aurions pu, par un travail de version puis un travail de thème (à
la manière de ce qui se pratique en « Langues vivantes »), organiser la
recherche du noyau d 'un endomorphisme rp de E en trois étapes (on
suppose qu'une base B de E est donnée).
(1) Version : On traduit matriciellement la recherche du noyau Ker rp.
Pour x un vecteur de E dont l'écriture matricielle relativement à B est X ,
on a l'équivalence
x E Kercp -{=;} cp(x) = 0 -{=;} MX= 0 -{=;} X E Ker M ,
où M est la matrice associée à cp relativement à la base B.
(2) Calcul matriciel : On étudie le noyau de la matrice M, en reprenant le
travail effectué dans l'exercice 5.8
XE Ker M -{=;} X E Vect(U1, ... , Ur ),
où U1, ... , Ur sont des colonnes formant une base de Ker l\ll.
(3) Thème : Par interprétation vectorielle du résulta t matriciel obtenu ci-
dessus , on en déduit que, si l'on note u 1, .. . , Ur les vecteurs de E dont
les représentations matricielles sont données pa r U1, .. . , Ur, on obtient
une base (u 1, ... , U r) de Ker cp . En effet l'isomorphisme entre vecteurs et
"'O
représenta tions matricielles conserve le caractère libre, générateur et base.
0
c
:J
0
1..()
T"-l
Une fois la base obtenue, on connaît dim Ker f et rg f s'en déduit par la formule du
0
N rang (inutile donc de calculer matriciellement rg f comme ce fut le cas à la question
© 1.a de l'exercice 6.9).
.......
..c

~1
Ol
ï::: D'après la formule du rang,
>-
a.
0
rgf = dim lK4 - dimKer f =4- 2 = 2.
u
1.c. On adopte ici la démarche « version-thème » décrite dans l'encadré ci-dessus pour
l'étude du noyau.
Exercice 6.10 Commutant d'une matrice carrée 211

1. Interprétation matricielle de l'image lm f

Puisque l3 est une base de M2(IK), on sait que


lm f = Vect(f(E1), f(E2) , f(E3), f(E4)).
D ' où, par interprétation matricielle,
lm[Mat13(f)] = Vect(C1, C2 , C3, C4)
où C 1, C2 , C3 , C4 sont les colonnes de Mat13(!).

2. Calcul dans l'espace des matrices colonnes


On va à présent extraire une base de cette famille génératrice de Im[MatB(f)].

Puisque C 1 ~ ~Î)
( et C2 ~ ( JJ , on remarque que C1 et C2 sont deux vecteurs

non colinéaires donc (C1, C2) est une famille libre de vecteurs de lm[Mat13(!)] et
puisque dimlm[Mat13(f)] = rgf = 2 (d'après 1.b), cette famille est une base de
lm[MatB(J)].
3. Interprétation vectorielle de la base de Im[MatB(f)].
Par interprétation matricielle, on retrouve une base lm f.

Par interprétation matricielle, on sait que les colonnes de lm[Mat13(!)] sont celles
représentant les vecteurs de lm f au travers de la base 13.
Notons F 1, F2 les vecteurs de M 2(IK) dont la représentation matricielle est donnée
par C1 et C2 respectivement, i.e.

( ~1 (~ ~1)
2
F1 = -; ) et F2 = ·

Puisque l'image d ' une base par un isomorphisme est une base, on en d éduit, grâce
à l' isomorphisme donné par la représentation matricielle (relativement à la base 13)
entre les colonnes de M 4,1(IK) et les vecteurs de M 2(IK) , que (Fi , F2) est un e base
de lm f.

"'O
0
c
:J
Sans faire appel à tout cc travail d 'interprétation, nous aurions pu
0
1..()
T"-l
0
N
,
egalement constater que f(E1) =
1 0
( 0 -2)
et f(E2) =
_
0
_
1
(1 0)
© étant deux vecteurs non colinéaires de lm f , on a, grâce à la dimension
.......
..c de lm f, trouvé une base de lm f.
Ol
ï:::
>-
a.
0
u 2.a. On va traduire, pour une matrice M ce que signifie être dans C(A) et relier par
équiva len ces ceci à l'appartenance à Ker f.

~1
Soit M une matrice de M2(IK) , par une succession d'équivalences on trouve
M E C(A) ~ AM = MA ~ AM- MA = O ~ f(M) = O ~ M E Kerf.
Ainsi, on a prouvé que C(A) = Ker f.
212 Chapitre 6 Applications linéaires et matrices

2.b. On veut une description de C(A) comme un ensemble de combinaisons linéaires


de deux matrices (I et B). Cela fait penser à une famille génératrice, voire à une
base et donc d'après ce qui précède nous ramène à l'étude d 'une famille génératrice
ou d'une base de Ker f.

D'après ce qui précède et la quest ion 1, on a


C(A) = Ker f = Vect(U, V )
Ainsi, par construction, C(A) est l'ensemble des combinaisons linéaires de (U, V).
Soit, puisque I =U et en posant B = V = (~ ~2 ),
C(A) ={ad+ /3B ; a,/3 E JK}.

Du fait qu'il n'y a pas unicité d'une base de Ker f comportant le vecteur I , plusieurs
choix étaient possibles pour trouver une matrice B satisfaisant à la question posée.

Exercice 6.11 : Commutant d'un endomorphisme cyclique

Soit A E M3(IK) et f l'endomorphisme de IK3 ayant pour matrice A dans la


base canonique de IK3 . On note encore C(A) l'ensemble des matrices carrées de
taille 3 telles que AM = MA (appelé commutant de A). On suppose que f est
cyclique, c'est-à-dire qu'il existe un vecteur non nul x tel que (x, f(x), f 2 (x)) soit
une base de IK3. Nous noterons dans la suite B cette base de IK3.
1. Soit g un endomorphisme de IK3 représenté par une matrice M dans la base
canonique de IK3. On note a, (3, 'Y les coordonnées de g(x) dans la base B de IK3
et on suppose que ME C(A).
a. Justifier que f o g =go f.
b. En déduire que, pour chacun des trois vecteurs u de la base B de IK3 , on a
g(u) = (aldK3 + (3f + 'Yf 2 )(u) puis que g = aldK3 + (3 f + 'Y f 2 .
c. En déduire :
"'O NE C(A) ==::::} 3 (..\, µ , v) E IK3 , N = ,\fJ +µA+ vA 2 .
0
c
0
:J d. Conclure que C(A) = { ,\fJ + µA + vA2 ; (..\, µ , v) E IK3 }.
1..()
T"-l Pour chacun des deux exemples qui suivent, on note, sans le répéter, f l'endo-
0
N morphisme de IK3 qui est représenté par la matrice A dans la base canonique de
© JK3.
.......

~~ J ~i).
..c
Ol
ï:::
>-
a. 2. Soit A= ( On pose x = (1, 0, 1) .
u
0 2
a. Calculer f(x) et f 2 (x).
b. Établir que (x , f(x), f 2 (x)) est une base de IK3 (donc que f est cyclique).
c. Donner l'expression générale des matrices du commutant C(A) de A.
Exercice 6.11 Commutant d'un endomorphisme cyclique 213

3. Soit A E M 3 (0C) telle que A 2 =!= 0 mais A3 = O. On a donc 12 =!= 0 et 13 = O.


Puisque 12 n 'est pas l'endomorphisme nul, il existe x E OC3 tel que 12 (x) =!= O.
a. Établir que (x , l(x), 12 (x )) est une base de OC 3 donc que 1 est cyclique.

b. :::l:~:,i:nE K tels que a # 0,b # O. On suppose


3 ici : A = (~ ~ ~) .
0 0 0
Vérifier que A =!= 0 et A = O. Trouver x E OC \ {O} t el que (x, l(x) , 1 (x))
2 3 3 2

est une base de OC3 puis décrire le commutant C(A) de la matrice A .

1.a. Cette question ne présente pas de difficulté, à condition de savoir faire le tri dans
les informations de l'én on cé. Ici, la donnée importante est : M E C (A).

~I
C'est évident : on a AM= MA , or AM est la matrice associée à f o g dans la base
canonique de OC3 et MA celle associée à g o f donc f o g = go f.

1. b. Les trois vecteurs u à tester sont x, 1 (x ) et 12 ( x). Ici, le point de départ est
essentiel : les coordonnées de g(x) dans la base B étant a , (3, "'(, on a bien l'égalité
g(x) = ax + f31(x) + 'Y l 2 (x ) = (aidJK3 + (31 + 'Y l 2 )(x) . Pouru E {l( x), l 2 (x )} , c'est
a priori plus compliqué car on ne sait pas comment g « agit » sur l (x) et 1 2 (x) .
On s 'en sort en utilisant le résultat de la question précédente qui permet d 'écrire
g(J(x)) = l(g(x) ) et g(J 2 (x)) = 1 2 (g(x) ). La décomposition connue de g(x) da ns la
base B, puis la linéarité de 1 et 12 permettent alors de conclure.

On a déjà : g( x ) = o:x + /3J (x ) + rf 2 (x ) par définition de o:, /3 et r · Ensuite, d'après


le résultat de la question précédente ,
g(f(x )) f (g (X)) = f ( O:X + /3 f (X) + 'Y f 2(X))
-0
o:f(x ) + /3J 2 (x ) + r f 3 (x ) (par linéarit é de J)
0 2
c (o:Idoc3 + /3 f + r f )(f(x))
:J
0
et enfin,
,....
I..{)

0
N
((g o J) o J)( x) = ((! o g) o J )(x ) = (f o (g o J))(x)
© (f o (f o g))(x) = ((! o J) o g)(x)
.......
..c J2 (g( X)) = J2 ( O:X + /3 f (X) + 'Y J2 (X))
Ol
ï:::
>-
a. o:t2(x ) + /3 J 3 (x) + r f 4 (x ) (par linéarité de J2)
0 2 2
u (o:Idoc3 + /3!+ 1 f )(f (x)) .
On a donc bie n :
g(u) = (o:IdJK3 +/3!+ 1 J2 )(u) pour tout vecteur u de la base B.

On se rappelle ensuite qu'un endomorphisme d e OC3 est complèt ement déterminé par
son action sur une base.
214 Chapitre 6 Applications linéaires et matrices

~1
Puisque les endomorphismes g et a ldoc3 + /31 + 'Y1 2 3
de IK coïncident sur les vecteurs
d ' une base de IK3 , ils sont égaux. Ainsi,

g = aldoc3 + /31 + 'Y J2.


1.c. Il suffit de traduire matriciellement le résultat obtenu à la question précédente.

Soit NE C (A) . Soit h l'endomorphisme représenté par N dans la base canonique de


JK3 . D 'après la question précédente, il existe (,X,µ, v) E JK3 t el que
h = >.Idoc3 + µ1+v1 2 , ce qui, matriciellement, se traduit par :
:J >. , µ,v EIK, N = >.h + µA + vA 2 .
On a donc bien :
2
N E C(A ) :J >. , µ , v E IK, N = >.h +µA + vA .

1.d. Il vient d'être ét a bli que les matrices commutant avec A pour la multiplication
s'écrivent connne polynôme de degré au plus 2 de A. Réciproquement, il est bien
connu que tout polynôme de A commute avec A.

Nous venons de voir que C(A) C {>.h +µ A + vA 2 ;(À , µ , v) E IK3 }. Montrons que
2
l'on a aussi { Àh + µA + vA ; (>. , µ, v) E IK3 } 3
C C (A) . Soit (>. , µ , v) E IK . On a :

(Àh +µA + vA
2
) x A >.A+ µA + vA 2 x A
2

>.A + µA 2 + v A x A 2 (par associativité de x)


2
Ax(>.h+µA+vA )

2 3 2
donc ,\h + µA + vA E C(A ). Ain si :\/(,\, µ , v) E JK , >.h + µA + vA E C(A).
2
On a donc { Àh + µA + vA ; (>., µ , v) E JK3 } C C (A ) et, fin alement, par double
inclusion :

Tout polynôme d 'une matrice carrée A commute avec A pour le produit


matriciel (la loi x ). De même, tout polynôme d 'un endomorphisme f
-0
0 commute avec f pour la composition (la loi o).
c
:J
0
,....
1..()

0
N
2.a. Au vu de l'information dont on dispose sur f, on détermine les images f (x) et
© j 2 (x) via le calcul matriciel.
.......
..c
Ol D'après la traduction matricielle d'une application linéaire, si l(x) = (a, b, c), alors
ï:::
>-
a. 3
0
u 1
-2
2
donc l(x) = (-8, - 3, 7). De même, si 1 (x) = (>. , µ , v), alors
-6
-3
4
Exercice 6.11 Commutant d'un endomorphisme cyclique 215

1 donc f 2 (x) = (10, 6, -5).

2.b. Le p lus rapide est d 'u tiliser le critère du rang : la famille (x, f(x), f 2(x)) est une
base de JK 3 ssi elle est de rang maxima l, ici de rang 3.

(x, f (x), f 2 (x)) est un e base de ][{3 si et seulement si le rang de cette famille va ut 3
(car cette famille est de cardinal 3 et dimOC3 = 3 ). Or
2
rg(x, f( x) , f (x)) rg G~~ ~) = rg G~: I) L, ~ ~ L, L,

rg ( ool =~ 160) = 3
O 15 L3 +-- L3 + 5L2
donc on conclut bien : (x, J(x) , f 2 (x)) est une base de ][{3 et ainsi f est cyclique.
2.c. f ét ant cyclique, le résultat principa l de la question 1 peut s'a ppliquer.

D'après le résultat du l.d,


C(A)
{,\fs + µA+ llA 2 ; (,\ , µ , li) E OC3 }

{ÀG~ D c~
+µ 32 =~) 3
+li ( :
- 4
=~4 -1~ ) ; (,\ , µ , li) E ][{
3
}

,\ - 5µ+ 7ll 3µ - 6ll - 3µ + 3ll ) }


{ (
-2µ + 4ll ,\ + µ - 3ll - µ + 2ll (,\ , µ , li) E ][{
3
.
4µ - 4ll - 2µ + 4ll ,\ + 3µ - li
3.a. On travaille ici avec des vecteurs que l'on ne connaît pas explicitement. En
part iculier , on n e sait pas calculer matriciellement le rang de la famille. En rema rqua nt
qu 'on a a ffaire à une famille de trois vecteu rs de IK 3 , il suffit de montrer que celle-ci
est libre ou génératrice. La deux ième option est à écarter car elle reviendrait à avoir
accès a u rang, ce que l'on a exclu.
-0
0 2
c Puisque la famill e (x, f(x), f (x )) est formée de trois vecte urs de OC3 qui est de di-
:J
0 mension 3, il suffit d e montrer que cette fam ille est libre pour conclure qu'il s'agit
d'une base de ][{ . Soit (R) une relation du type Àx + µf( x) + li f (x) = 0 avec
1..() 3 2
r-l
0
N (,\, µ , v ) E ][{3.
©
.......
..c
Il s'agit de montrer que, nécessairement, À = µ = li = 0 en utilisant les seules
Ol
ï::: informations dont on dispose : linéarité de f , f 2 (x) -=!= 0 et f 3 = O. En appliquant f à
>-
a. chaque membre de l'égalité Àx + µf( x) + llf 2 (x) = 0, on fait apparaître f 3 don c un
0
u t erme disparaît : 0 = .\f(x) + µf 2 (x) +li f 3 (x) = .\f(x ) + µf 2 (x). En appliquant f
une nouvelle fois, un n ouveau terme disparaît : 0 = Àf 2 (x) + µf 3 (x ) = Àf 2 (x). Au
final, on obtient une sorte de « système échelonn é »

+ µf( x) + Àx 0
µf 2 (x) + Àf (x) 0
+ Àf2(x) 0
216 Chapitre 6 Applications linéaires et matrices

dont l'unique solution est (>.,µ,v) = (0,0, 0) (on utilise ici f 2 (x) =/:- 0).

En appliquant 12 , on obtient 1 2 (>..x + µl(x ) + vl 2 (x)) = 12 (0) donc , par linéarité


2 2 4
de 1 • Àl (x) + µl 3 (x) + vl (x) = O.
3 4 3 2 2
Puisque l (x) = 0 et l (x) = l(f (x)) = l(O) = 0, on a Àl (x) = 0 or l (x) -=/= 0
donc À = O. Il rest e: µl(x) + vl 2 (x) = O. On a pplique a lors l . ce qui donne (par
linéarité de f) µl 2 (x) + v l 3 (x) = l (0) = 0 or l 3 (x) = 0 donc µ1 2 (x) = 0 et comme
l 2 (x)-=/= 0, on conclut queµ = O.
Au final , il reste vl 2 (x) = 0 et comme l 2 (x)-=/= 0, cela entraîne v =O. Pour conclure,
(R)::::} À = µ = v = 0 ce qui signifie préciséme nt que (x , l(x) , l 2 (x)) est libre. Ainsi,
(x, l(x) , l 2 (x)) est une base de JK.3 donc lest cycl ique.

3.b. On remarque que A est strictement triangulaire (supérieure), c'est-à-dire trian-


gulaire dont tous les coefficients diagonaux sont nuls. De manière générale, on peut
montrer que si B est une matrice carrée strictement triangulaire de taille n , alors
E n = 0.

~1 ~ G~ !) ~ G~ D
3
A' et A donc f vérifie • J' ol 0 (car ab ol O) et

13 = o.

Un bon candidat pour x est indiqué dans l'énoncé de la question 3 , compte t enu
du résultat de 3.a. Pour décrire le commutant, on utilisera le résultat général de la
question 1.d, compte tenu du caractère cyclique de f.

O n est do nc dans le cadre du 3.a; a ins i, s i x est un vecteur de JK. 3 tel que l 2 (x)-=/= 0,
a lo rs (x , l(x), l 2 (x)) est une base de OC3 .
-0 D'après le calcu l de A 2 , on a 12 ((0 , 0 , 1)) = (ab, 0 , 0) -=/= 0 donc, en posa nt x =
0
c (0, 0 , 1), la famille (x, l(x) , l 2 (x)) est une base de JK.3 .
:J
0 D'après le résultat de la question l.d,
,....
1..()
C(A) {Àh +µA+ vA
2
; (À , µ , v) E JK.
3
}
0
N

©
......
..c
Ol
{AG ~ D+ G ~ D+ G ~ µ v !) (A , µ , v) E OC
3
}
ï:::

u
>-
a.
0
{G~a µc:rb) ; (À,µ, oc'} v) E

Lorsq ue v décrit JK, µ c + vab décrit OC donc :

C(A) ~ { (~ µi ~) (À, p., v) E OC


3
} .
Exercice 6 .12 Matrices à paramètre et de Vandermonde 217

Exercice 6.12 : Matrices à paramètre et de Vandermonde

1. Soit m E Ill. et A = G m
m+l
1
m~2)
lüm
a. Déterminer le rang de A suivant la valeur de m.
b. Pour quelles valeurs de m la matrice A est-elle inversible ?
c. Lorsque c'est le cas, calculer son inverse.

2. Soit a, b, c trois nombres complexes et N =


a
b b2 .
c c2
G a2)
a. Discuter le rang de N en fonction des valeurs de a , b et c.
b. À quelle condition nécessaire et suffisante N est-elle inversible?

1.a. On effectue des transformations sur les lignes pour se ramener à une matrice
triangulaire supérieure (en a ppliquant l'a lgorithme du pivot de Gauss).

~ m
rg(A ) 1

La discussion du rang de cette matrice t ria ngula ire supérieure doit être menée suivant
les valeurs de m qui annulent l'un de ses coefficients diagonaux. Ici, il n 'y a qu'un seul
coefficient d iagonal dépendant de m.

"'O
Le polynôme 2m
2
+ 5m + 2 a pour discriminant 25 - 4 x 2 x 2 = 9 = 3 2 > 0 et admet
d d . , Il - 5- 3
= - 2 et - 5 + 3 = - 2'1 ainsi
. .
0
c one eux racines ree es :
:J 4 4
0
m E { - 2, -~ } . 2m 2
+ 5m + 2 = 0 et
1..()
T"-l • si A est de rang 2 ;
0
N

© • sinon , 2m2 + 5m + 2 /- 0 et A est de ran g 3.


.......
..c
Ol 1.b. Il s'agit des valeurs de m pour lesquelles le rang de A est maximal, c'est-à-dire
ï:::
>-
a. égal à 3.
0
u
~I A est inversible ssi rg(A) = 3 donc A est inversible ssi m E 111 \ { -2, -~ } ·
1.c. Pour m E IR\ { -2, -~ } , on résout un système général de matrice associée A
en appliquant les mêmes manipulations élémentaires que celles utilisées pour obtenir
rg(A).
218 Chapitre 6 Applications linéaires et matrices

Sim E lR. \ {-2, -~ }. on considère un système linéaire de matrice associée A avec


un second membre générique
x+my a
(S) {
x + (m + l)y + (m - 2) z b
2x + y+ lOmz c
que l'on résout par la méthode du pivot de Gauss
x+my a
(S)
{ y+(m - 2)z
(1 - 2m)y + lOmz
b- a
c- 2a
x + my
{
a
y + (m - 2) z b -a
(2m 2 + 5m + 2)z - (1+2m)a - (1 - 2m)b+ c
x+my a
{ y+ (m - 2) z
(m + 2)(2m + l) z
b- a
-(1 + 2m)a - (1 - 2m)b + c

{:
a-my
b - a + (2 - m )z
- (2m + l)a + (2m - l)b + c
(m + 2)(2m + 1)
(5m + 2)(2m + l)a - 10m2 b + m(m - 2)c
X
(m + 2)(2m + 1)
-4(2m + l )a + lOmb + (2 - m) c
y
(m + 2)(2m + 1)
-( 2m + l )a + (2m - l )b + c
z
(m + 2)(2m + 1)

Les coefficients d e A - 1 sont , da ns le m êm e ordre de lecture, les coefficients devant a ,


b et c dans le système ci-dessus.

Conclusion : Sim ElR. \ {-2,- ~ }.


-0
0 ( (5m + 2)(2m + 1) - 10m2 m(m - 2) )
c 1 1
:J A- = -4(2m+l) lüm 2- m .
0 (m + 2)(2m + 1) - (2m + l)
I..{) 2m - 1 1
,.....
0
N

© 2.a. La démarche est la même que dans l'exemple précédent: se ramener à une matrice
....... tria ngula ire par transformations sur les lignes .
..c
Ol
ï:::
>-
a.

G a a
0
u az )
rg(N) = rg b- a b- a (b - a)(b+a).
c-a c -a (c - a)(c+ a)

La transformation suivante qu 'on est t enté de réaliser est L 3 +-- (b - a)L 3 - (c - a) L 2


mais celle-ci n 'est a utorisée que si b - a =/=- O. Il convient donc dès à présent d 'engager
une discu ssion suivant les valeurs de a, b et c.
Exercice 6 .12 Matrices à paramètre et de Vandermonde 219

Supposons b = a . On a alors :

rg(N) = rg G c-a
a
0
2

a0
(c-a)(c+a)
)
= rg (1
0
0
a
c-a
0
a2
(c - a)(c +a)
Ü
)
L
2 B
L
3

donc:
• si c -=j=. a, r g(N) = 2;
• si c = a (auquel cas a = b = c), seule la première lign e de la derniè re matrice
n'est pas nulle donc rg(N) = 1.

Si b =/= a, alors b - a=/= 0 et la transformation L 3 +--- (b - a)L3 - (c - a)L2 peut être


réalisée.

Supposons à présent b -=j=. a. On a alors :


a
a2 )
rg(N) b- a (b - a)(b +a)
0 P(a, b, c)

P(a , b, c) (b - a)(c - a)(c +a) - (c - a)(b - a)(b +a)
(c - a)(b - a)(c +a - (b +a))
(c - a)(b - a)(c - b) .
Ainsi,

G a)~ ~
a
si c -=j=. a et c -=j=. b,
rg(N) = rg b- a (b - b + a) ) ={ si c = a ou c = b.
0 (c - a)(b - a)(c - b)

Nous avons envisagé les cinq cas possibles :


• a = b et a =/= c,
• a= b = c,
• a =/= b, b =/= c et a =/= c,

-0
• a =/= b et c = a,
0
c
:J
• a =/= b et c = b.
0
Nous pouvons donc conclure.
,....
I..{)

~1
0
N Pour résumer, N est de rang 3 si et seulement si a , b et c sont deux à deux distincts.
© Si seu lement deu x des trois nombres a, b et c sont égaux, N est de rang 2. Enfin, N
.......
..c
Ol
est de rang 1 si a = b = c. t
ï:::
>-
a. 2.b. N est inversible si et seulement si son rang est maximal, c'est-à-dire égal à 3.
0
u Nous savons à présent traduire cette dernière condition sur les trois paramètres a, b
etc.

~I
N est inversible si et seu lement si son rang vaut 3. D'après le résultat de la question
précéde nte , N est donc inversible si et seu leme nt si a, b et c sont de ux à deux distincts.

t. On p ourrait tout résumer en disan t que le rang d e N est égal a u cardinal d e l'ensemble {a, b, c}.
220 Chapitre 6 Applications linéaires et matrices

Si a, b etc sont deux à deux distincts et a , /3, r sont des complexes don-

nés, l'équation matricielle N X = Y d'inconnue X = ( ~:) et de second


membre Y = (~) admet une unique solution (car N est inversible).

On peut donner une interprétation polynomiale de cc résultat : dire


2
x 1 + x2a + X3a a
que le système linéaire x 1 + x2b + x3b2 = /3 admet une unique
{
X1 + X2C + X3C2 = /
solution revient à dire qu'il existe un unique polynôme P de degré au
plus 2 tel que P(a) =a, P(b) = /3 et P(c) = r·

1. a. Soient f : E ---+ F et g : F ---+ G deux applications linéaires.


Comparer Im(g of) et Im g. Puis comparer Ker(g of) et Ker f.
b. En déduire que, pour tout couple de matrices (NI, N) de tailles compa-
tibles pour le produit MN, on a
rg(M N) :s; rg(NI) et rg(M N) :s; rg(N).
2 . Soient A E M3,2(lK) et B E M2,3(1K) telles que

AB = ( ~1 ~l ~~ )
a. Calculer (AB) 2 , puis BA(BA - h)BA.
b. Calculer rg(AB). En déduire que rg(BA) = 2. Que peut-on dire de BA?
"'O
0
c c. Calculer BA.
:J
0
1..()
T"-l
0
N

© 1.a. C 'est un résultat classique. Le méthode pour le prouver est tout aussi classique .
.......
..c
Ol
ï:::
>-
a. Soit y E Im(g o !). Par défi nition, y admet do nc un antécédent par g o f, notons x
u
0 un t el antécédent, o n a x E E et y = (g o J)(x) = g(f(x)) .
Si l'on pose x' = f(x), on a x' E E et y = g(x ' ).
Ainsi y admet un antécédent par g, ce qui signifie que y E l mg.
Ceci étant réa lisé quel que soit y E lm (g o !), on a donc prouvé que Im(g o !) C lmg .

On prouve de même l'inclusion suivante (tout a ussi classique que la précédente).


Exercice 6.13 AB donne BA 221

~1
Soit x E Ker f, on alors f(x) = ÜF et donc, en composant par g (ce qui est licite car
Op et f(x ) sont des éléments de F), on trouve
g(f(x)) =0 i.e. (go f)(x) =0
Ainsi x E Ker(g o !), et ce quel que soit x E Ker f. On a donc Ker f C Ker(g o !).
1.b. Pour faire le lien avec la question précédente, nous allons introduire des applica-
tions linéaires associées a ux matrices M et N. Puis, profitant d es inclusions entre les
espaces vectoriels images, en déduire une inégalité entre leurs dimensions (i. e. entre
les rangs) .

Notons f (resp. g) l'endomorphisme canoniquement associé à N (resp. M ).


On a alors MN est canoniquement associé à g o f.
Puisque Im(g o f) C lmg, on en déduit, par passage aux dimensions, que
rg(g o f) ::::; rg(g).
Et donc, puisque le rang d ' une application vaut le rang de sa matrice associée dans
toute base, rg(MN) ::::; rg(M).

Pour la deuxième inégalité, nous a llons travailler sur les inclusions entre les noyaux
et récupérer une inégalité entre rangs grâce à la formule du rang.

L' inclusion Ker f C Ker(g o f) nous donne, par passage aux dimensions,
dim Ker f ::::; dim Ker(g o f).
Or, d'après la formule du rang appliquée à f et à go f,
dim Ker f = dim E - rg(f) et dim Ker(g o f) = dim E - rg(g o !).
On en déduit
dim E - rg(f) ::::; dim E - rg(g o f ) i. e. rg(g o f) ::::; rg(f) .

Ainsi pour f :E -+ F et g : F -+ G d e ux applications linéaires on a


rg (g o f ) : : .; rg(f) et rg (g o f ) : : .; rg(g).
On montre également que ces inégalités deviennent des égalités lorsque l'application
par laquelle on compose est un isomorphisme. Autrement dit, le rang est invariant
-0 par composition avec un isomorphisme.
0
c 2.a. Il suffit de développer les expressions.
:J
0
(AB) 2 = AB. D'où, en développant l'expression deman-
1..()
r-l Un calcul direct nous donne
0
N dée,
© BA(BA - h )BA = B ~ A - BABA = B(AB)A - BABA = O.
.......
..c
Ol = ( AB)2 = AB
ï:::
>-
a.
u
0 2.b. Le calcul du rang passe par des opérations élémentaires sur les lignes et /ou les
colonnes.
Ces opérations ont pour but de rendre nulles le plus grand nombre possible de lignes
et de colonnes. On peut ainsi commencer par remarquer que
C3 = C 1 + C2,
ce qui nous incite à opérer d'abord par la transvection (licite) C3 f-- C3 - C 1 - C2
222 Chapitre 6 Applications linéaires et matrices

~1 ~ ) c, <---- c, - c, - c, .
- 1
rg(AB) = rg ( 0
1
Puisque le ran g d ' un e matrice est égal au rang de ses colonnes, on peut éliminer la
colonne nulle. On remarque, par ailleurs, qu e L 1 + L 2 + L 3 = O. Ainsi

rg(AB) = rg ( ~1 ~11 ) = rg ( ~01 ~01 )


L 3 +----- L 3 + Li + L2
Le rang d'une matrice éta nt éga l au rang de ses lignes, la ligne nulle peut-être élimin ée.
On trouve finalement, par permutati on des deux colonnes rest antes,

rg(AB ) = rg ( ~l - 1 )
0 = rg ( - 1
0
0 )
- 1 = 2·

Puisque BA est une matrice carrée d'ordre 2, son rang ne peut excéder 2. Il nous
suffit donc de prouver l'inégalité rg(BA) ~ 2 et pour cela nous a llons invoquer 1.b.

Grâce à 2.a et 2.b , on a rg(ABAB) = rg((AB)2) = rg(AB) = 2.


D 'où, en appliquant l.b deux fois (une première fois avec M = A et N =BAB puis,
une deuxième fois, avec M = BA et N = B) , l'obtention de
2 ~ rg(BAB) ~ rg(BA)
Or BA E M 2(~) . on en déduit alors que rg(BA) = 2 et, mieux encore, son rang
étant éga l au nombre de lignes et de colonnes, on a BA E GL2(~) .

2.c. Simplifier par la matrice P (resp. Q) dans l'égalité PQ = 0 afin d 'obtenir Q = 0


(resp . P = 0), n 'est pas autorisé en règle générale, même dans le cas P (resp. Q) non
nulle (penser au cas où P = Q = ( ~ ~) ). En revanche cette simplification devient
licite lorsque P (resp. Q) admet un inverse.

-0

~1
0
c Puisque BA est inversible et que d 'a près 2 .a : BA(BA - h)BA = 0, on en déduit
:J
0 en multipliant à ga uche puis à droite par (BA) - 1
1..()
r-l
0 BA - h = 0 i.e. BA = 12.
N

©
.......
..c
Ol
ï:::
>-
a. l'égalité BA = ! 2 n'est pas suffisante pour affirmer que A et B sont
0
u inversibles et inverses l'une de l'autre.
Rappelons que ni A ni B ne sont des matrices carrées, donc parler
d'inverse pour ces matrices n'a pas de sens. Par a illeurs, on sait que,
pour les matrices, un inverse à gauch e est a ussi un inverse à droite , on
aurait dû a lors conclure que AB = h ce qui n 'est manifestement pas
le cas.
Exercice 6 .14 Inversion de Pascal 223

Soit A= (aiJ)O"(i,j"(n E Mn+1(lR) définie par

si i ~ j
Ir/ (i, j) E [O, n] 2 ,
sinon
1. a. Interpréter A à l'aide d'un endomorphisme f de l'espace IRn [X] rapporté
à la base C = (XJ)o~J~n·
b. En déduire la matrice inverse de A.
2. Soient (xn)n EN et (Yn)nEN deux suites de réels qui vérifient :

'V n EN, Xn = t (~ )
k=O
Yk·

Montrer alors que l'on a: 'l n EN, Yn = tc-ir-• ( ~ ) x •.


k= O

La. Notons f l'endomorphisme de lRn[X] dont la matrice relativement à la base


canonique C s'écrit A.
En explicitant les premières, la (j + 1)e et la dernière colonnes de A , on trouve
f (1)
+
1 1 1 +--- 1

0 1 2 +--- X

0 1 +--- x2
-0
0
c
0

(~ ) ( 7)
:J
0
I..{)
,.....
0
N

©
.......
..c
Ol
ï:::
>-
(; )
a.
0 0
u

0 0 0 0 (~ )
On peut donc connaître les images f(l ), ... , f (Xn) et , par linéarité de f , en déduire
l'image f (P) de tout polynôme P de IRn[X ].
224 Chapitre 6 Applications linéaires et matrices

Par lecture des colonnes de la matrice A = Mate(!), on trouve


f(l) = 1 = (X + 1) 0 , f(X ) = l+X = (X + 1) 1 et f(X 2 ) = 1+2X +X 2 = (X + 1) 2 ,
et de façon plus générale, pour tout j E [O, n] ,

J(X; ) = t, (~ ) X ' = (X+ 1);

Ainsi V P E C, J(P) = P(X 1). +


Or, d'une part, P H P(X + 1) est un manifestement un endomorphisme de lRn[X] et,
d'autre part, tout endomorphisme est entièrement déterminé par l'image d'une base.