Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
V. ROU5S ~ PÉAl~AOL
Conception et création de couverture : Atelier 3+
@)
représente pour l'avenir de l'écrit, - - - - - les auteurs de créer des œuvres
particulièrement dans le domaine DANGER nouvelles et de les faire éditer cor-
de l'édition technique et universi- rectement est aujourd'hui menacée.
taire, le développement massif du Nous rappelons donc que toute
photocopilla9e. reproduction, portielle ou totale,
Le Code de la propriété intellec- de la présente publication est
tuelle du l er juillet 1992 interdit LE POOTOCOPILl.AŒ interdite sans autorisation de
en effet expressément la photoco- TUE LE LIVRE l'auteur, de son éditeur ou du
"'O pie à usage collectif sans autori- Centre français d'exploitation du
0
c sation des ayants droit. Or, cette pratique droit de copie (CFC, 20, rue des
:J
s'est généralisée dans les établissements Grands-Augustins, 75006 Paris).
0
lil
.-t
0
N
© Dunod, 2015
@
....... 5 rue Laromiguière, 75005 Paris
..c
CJl
·;::::
www.dunod.com
>
a. ISBN 978-2-10-072967-8
0
u Le Code de Io propriété intellectuelle n'autorisant, aux termes de l'article
L. 122-5, 2° et 3° a), d'une part, que les «copies ou reproductions strictement
réservées à l'usage privé du copiste et non destinées à une utili sation collective »
et, d 'autre part, que les analyses et les courtes citations dons un but d'exemple et
d' illustratio n, « toute représentation ou reproduction intégrale ou partielle faite
sans le consentement de l'auteur ou de ses ayants droit o u aya nts cause est
illicite » (art. L. 122-4).
Cette représentation ou reproduction, par quelque procédé que ce soit, constitue-
rait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du
Code de la propriété intellectuelle.
Table des matières
Algèbre
1 Calcul algébrique 9
2 Nombres complexes et polynômes 29
3 Calcul matriciel 59
4 Systèmes linéaires et matrices 93
5 Espaces vectoriels et sous-espaces vectoriels 113
6 Applications linéaires et matrices 169
Analyse
7 Nombres réels et suites réelles 245
8 Étude locale et globale des fonctions 265
9 Séries 305
10 Intégration des fonctions d'une variable réelle 337
"'O
0
c 11 Formules de Taylor et développements limités 379
:J
0
lil
.-t
0
Probabilités
N
@
.......
..c
12 Dénombrement 407
O'l
·;::::
>-
13 Espaces probabilisés 423
a.
u
0
14 Variables aléatoires discrètes 449
15 Variables aléatoires à densité 485
16 Convergence en probabilité et en loi 503
1:J
0
c
:J
0
lJ)
r-1
0
N
@
.µ
L
01
ï::::
>-
Q.
0
u
Avant-propos
Cet ouvrage s'adresse aux étudiants de première année E. C.S. de classes préparatoires
économiques. Il leur propose de me tt re en pratique les not ions abordées en cours de
mathématiques et d'algorithmique pa r le biais d 'exercices. Chacun est suivi d 'une
correction dét aillée et commentée da ns laquelle l'accent est mis sur la méthode qui
mène à la solut ion.
Le livre est divisé en trois parties et seize chapitres, consacrés chacun à une partie
du programme avec respect de la sépa rat ion en deux semestres. Au sein d 'un même
chapitre, les exercices ont été choisis de façon à passer en revue t outes les capacités
a ttendues autour des notions à connaît re. Ces capacit és sont list ées à la fin de chaque
chapitre avec un renvoi explicite a ux questions et exercices da ns lesquels elles sont
utilisées. Les principales formules sont également rappelées au sein de chaque capacité.
E n ce qui concerne les corrections, nous avons choisi de séparer clairement :
• la réflexion préliminaire, comprenant analyse du problème et tâtonnements a u
brouillon (nous nous somn1es autorisés une plus grande liberté da ns la façon de
formuler les idées et le sens profond de certaines notions parfois au mépris d 'une
certaine rigueur mathématique mais t ouj ours dans un souci pédagogique) ,
• de la rédaction finale, rigoureuse et précise.
Cette dernière ét ape est signalée dans le t ext e pa r la présence d 'un liseré gris sur la
© .
courante est signa l ee If\
' par un L.!J.
.......
..c L'index présent en fin d'ouvrage fournit des renvois a ux principales notions aussi bien
Ol
ï::: vers la list e de capacités du chapitre dont elles dépendent que vers leurs utilisations
>-
a.
0 explicites dans d'aut res cha pit res.
u
E nfin, comme l'usage le veut, l'expression « si et seulement si » sera parfois a brégée
en « ssi » et on écrira « resp. » comme abréviation de « respectivement ».
Chaque exercice est référencé selon le codage CHAP.EXO où CHAP est le numéro
d u chapitre et EXO le numéro de l'exercice. De même chaque question d'un exercice
est référencée selon le codage CHAP.EXO.Q.SQ, voire Q.SQ, où Q est le numéro de
question et SQ la sous-quest ion.
1:J
0
c
:J
0
lJ)
r-1
0
N
@
.µ
L
01
ï::::
>-
Q.
0
u
Partie 1
Algèbre
"'Cl
0
c
:::J
0
li)
.--1
0
N
@
......
~
OI
ï:::::
>-
Q.
0
u
1:J
0
c
:J
0
lJ)
r-1
0
N
@
.µ
L
01
ï::::
>-
Q.
0
u
Algèbre
1 Calcul algébrique 9
Semestre 1
1.1 : Techniques de sommation de base 9
1.2 : Séparation pairs/ impairs 15
1.3 : Sommes télescopiques 16
1.4 : Formule du binôme et moments de la loi binomiale 18
1.5 : La somme des premiers cubes 1 21
1.6 : La formule de Vandermonde 24
Liste des capacités attendues 27
"'O
0
c
:J
0
lil
.-t
0
N
@
......
..c
O'l
·;::::
>
a.
0
u
1:J
0
c
:J
0
lJ)
r-1
0
N
@
.µ
L
01
ï::::
>-
Q.
0
u
CHAPITRE
Calcul algébrique
"'O
Calculer L Uk.
0 k=m
c
0
:J 2. Soit (un) une suite géométrique de raison q (q =f. 1) et de premier terme uo.
n n
1..()
T"-l
0
N
Calculer L Uk et II Uk.
k =m k=m
©
....... 2
..c
Ol
3. Montrer que, pour tout n EN*, II
n (2k - 1) = ( n) ! .
ï::: 2nn.1
>- k= l
a.
0 Écrire une fonction Scilab d'entête function p=produi t_impairs (n) qui
u
calcule le produit des n premiers entiers naturels impairs.
4. Calculer
10 Chapitre 1 Calcul algébrique
~ n n n n
k= rn k = rn k =rn k = rn
n n n
L [u rn + (k - m)r]
k=rn k =rn k =rn
n - rn
U rn ( n - m + 1) + r L k'
k 1= 0
(avec le cha n gement d 'indice k' =k - m)
(n - m + l )U rn + r (n - m)(n - m + 1)
2
(n - m)(n - m+ l )
(n - m + l )(uo + mr) + r - - - - - - -
2
l) (n + m)(n - m + 1) .
"'O (n - m + uo + r
0 2
c
:J
0
1..() • on peut encore u tiliser la démarche du jeune Gauss* en ajou tant la somme in con-
T"-l
0
N
nue à elle-même mais en ordonnant les termes dans l'aut re sens
©
.......
1 + 2 + + k + + n- l + n
..c
Ol
n + n- l + + n+ l -k + + 2 + 1
ï::: + 1) (n + 1) (n + 1) (n + 1) + 1)
>-
a.
(n + + + + + + (n
0
u 100
ce qui lui a permis d 'obtenir rapidement que 2 Lk = 100 x (100 + 1).
k= l
*· Carl Friedrich Gauss (1 777- 186 5) , le P rince des m athématicien s, a ouvert la voie à d e nombreux
domaines d es mathém a tiques. Il raconta it lui-mêm e cette a n ecdote pour construire sa légende.
Exercice 1.1 Techniques de sommation de base 11
k=m k=m
k'=O k"=O k=O
On remarque alors que Um+k +un -k = Um +kr+un -kr = Um +un est indépendant
de k, d'où
n
(n - m + 1)
Um + Un = (
n - m +
l) uo + mr + uo + nr
2 2
(n - m + l )(m + n)
( n -m+ 1) uo + r .
2
2. Pour la somme des termes consécutifs d'une suite géométrique, il y a encore plu-
sieurs façons naturelles de procéder :
• la suite est géométrique donc son t erme général s'écrit Uk = u 0 qk et on est a insi
n l _ qn+ l
ramené à la somme connue L qk = ----
k= O l - q
n n n
~ k- m ~ k- m
L Umq = Um L q
k=m k=m
n- m
~ k'
Um L q (avec le ch a ngement d 'indice k' = k - m)
k' =O
1 _ qn-m+l m l _ qn-m+l
Um
l - q
= uoq
l-q
n n n+l n
"'O
0
c
:J
q L 'Uk = L Uk+ l = L Uk' = L Uk + u n+l - Um,
0 k=m k=m k' = m + l k=m
1..()
T"-l d'où
0 n
N
Um - Un+l Um - qun
©
.......
..c
L Uk = - -l -- -q -
k=m
l - q
Ol
ï:::
>-
a. Quant au produit des termes consécutifs de la même suite géométrique , le problème
0
u se déplace dans l'exposant et se ramèn e à la somme des t ermes consécutifs d 'une suit e
arithmétique.
~1 k=m k=m
= u~ - m
+l
q
(n + rn )(n - m + l )
2
12 Chapitre 1 Calcul algébrique
3 . Le produit fait penser à la définition d'une factorielle mais seuls les termes impairs
sont présents :
1 X 2 X 3 X ... X (2k - 1) X (2k) X . .. X (2n - 1) X (2n) (2n)!
n
1X 3 X ·· · X (2k - 1) X ··· X (2n - 1) Il (2k - 1).
k= l
Les termes pairs manquants donnent eux :
2 X 4 X . . . X (2n - 2) X (2n) = ~[1 X 2 X .. . X (n - 1) X n].
n fois
~ n
rr (2k - 1) = n
(2n)! (2n) ! (2n)!
2nn! ·
k= l
Il(2k)
k= l
(1]2) (]]k)
L 'implémentation en Scilab du calcul du produit se fait naturellement à l'aide d 'une
boucle f or , il y a p lusieurs possibilités selon que l'on calcule le terme général du
produit à part ou non.
©
.......
..c
L
l ~ i ,j ~ n
li - JJ 2 _n l
o
1·--n l Ji -
( 2= JI)
Ol
ï:::
>-
a.
0
u
Toute somme double s 'écrit comme une somme de sommes, cette trans-
formation porte le nom de relation de Fubini.
~1 I:
l :Çi,j:Çn
li - jJ
en les écrivant en exten sion, on constate que les deux sommes sont connues
i- 1
L: (i - j) (i - 1) + (i - 2) + ... + 2 + 1,
j= l
n
I: u- i) 1 + 2 + · · · + (n - i - 1) + (n - i).
j =i+ l
t [t,j' j~/'] +
(avec les changements d'indice j' = i - j et j" = j - i)
t, [ ~
(i l )i + (n - i)(~ - i + 1) l
On peut poursuivre de deux manières différentes :
n
• soit on remarque que tout ceci vaut L (i - l )i, puisque, par linéarité,
i= l
n n
et que, par le changement d'indice k = n - i+ l , L (n-i)(n-i+ l ) = L (k- l )k;
·i = l k= l
t
1..()
r-l
0
N
©
......
..c
[i' - (n + l )i + n(n2+ 1) l
Ol
ï:::
>- n(n + 1)(2n + 1) ( l) n(n + 1) 1 2( l)
a.
0
6 - n+ 2 + 2n n+
u
n(nt l) [2n + l - 3(n + 1) + 3n] = (n - l)~(n + l) _
fois j fixé, on somme sur i qui varie donc selon 1 ~ i ~ j~ (la contrainte concernant
j
n
L (2 1 - 1) (d'après la formule du binôme de Newton)
j= l
n n
2 L 21 -
1
- L 1 (par linéarité d e la sommation)
j=l j= l
2 1 - 2n - n = 2n+1 - n - 2.
1- 2
Fort de cette compréhension des sommations sur un triangle, on peut alors proposer
une a utre méthode pour la première somme en utilisant les propriétés de symétrie du
t erme général : on va, à l'inverse de ce qui a été fait en prenlière méthode, reporter la
relation de Fubini en toute fin de calcul et commencer par simplifier la somme double
initiale a u moyen des opérations habituelles (cha ngement d 'indice ou regroupement
des termes) .
En l'occurrence, en regroupa nt les t ermes d'indice (i,j) selon que i < j, i = j ou
i > j , on trouve
L: li-jl = L: li - j l+ L: li-jl + L: li - j l .
l ~i,j~ n l '5'.:i<j'5'.: n ~ 1 :o:;i,j:o:;n '-v--' l ~j<i~ n ~
" "" J- t i= j = Ü t- J
F inalement, en prena nt (j, i) en lieu et place de (i,j) comme couple d'indices indexant
la dernière somme, on trouve
-0
0
c
:J n- 1 n n - 1 n -i
0
,....
1..()
L: li - j l 2 2= (j - i) Fubini 2 2= 2= (j - i) k= j - i 2 2= 2= k
0
N l ~i,j ~ n l ~ i<j~n i = l j =i+ l i = l k= l
©
....... ~ (n - i)(n - i + 1) j =n - i ~ '(. )
..c
Ol
2L_,, 2 = L_,, ) J + l
ï::: i= l j= l
>-
a. n- l n- 1
u
0
~ .2 ~ . _ (n - l )n(2n - 1) (n - l) n
L_,, ) + L_,, ) - 6 + 2
j= l j= l
(n - l )n(n + 1)
(n ~ l )n [(2n - 1) + 3]
3
Exercice 1.3 Sommes télescopiques 15
1. Pour n E N* , on pose
2
et In = n ( k2n
Pn =
2 1
L
_ ) ·n (2n)
k L
k=O k= l
En considérant Pn +In et Pn - In, calculer les deux sommes Pn et In.
2n
2. Calculer, pour n EN*, L(-l)kk 2 .
k =O
f= (2;) 1) 2
p= O
= (l+
2
" =
2
" ,
f=(-1)'(2;) = (1-1) = o.
p=O
2
"
D ' OU' n
F n
_
-
Jn -_ ~ 2 2n _
- 2 2n- l ·
2
2. Là encore, écrivons la somme en extension :
-0
0 2n
c
0
:J
L (-l)kk2 = 02 - 12 + 22 - ·· · - (2p- 1) 2 + (2p) 2 - ··· - (2n- 1)2 + (2n) 2
1..()
T"-l k=O
0
N pour constater qu'il y a d es simplifications entre d eux termes consécut ifs puisque
©
.......
(2p) 2 - (2p - 1)2 = [2p + 2p - 1][2p - (2p - 1)] = 4p - 1.
..c
Ol
ï::: Pour n EN* , en sépara nt les t ermes d 'indices pairs et impairs,
>-
a. 2n n n
0
u
p= l p= l
n n n
p= l p=l p= l
n 1
b . En déduire une expression simple de la somme L k(k 2 _
4
) pour n ~ 7.
k=3
On a, pour i ~ 2,
1Il -i2-
. - 2-
1 -1
- Il
(i+l)(i-1)
·2
-- 1Il ('z + 1) - 21Il z. + 1Il ('z - 1)
z i
[ ln (i + 1) - ln i J - [ ln i - ln ( i - 1) J .
L ln ( 1 - i~ ) = [ ln(n + 1) - ln n] - [ ln 2 - ln(2 - 1) J = ln n :
2
1
.
i=2
-0
a(k 2 + 2k) + b(k 2 - 4) + c(k 2 - 2k) (a+ b + c)k 2 + 2(a - c)k - 4b
0
c k(k 2 - 4) k(k 2 - 4)
:J
0
I..{)
La comparaison des termes de même degré (en k) du numérateur fait dire qu'il suffit
r-l 1
0 d 'avoir a + b + c = 0, a - c = 0 et - 4b = 1 qu'on résout très simplement : b = - et
N
4
©
.......
..c
Ol
ï:::
>-
a.
0
u On ne peut pas affirmer qu'à partir de la simple égalité entre, d 'un côté,
a· k 2 + f3 · k +'Y et, de l'autre, 0 · k 2 + 0·k+1 on obtient nécessairement
a = /3 = 0 et 'Y = 1.
Il sera établi (lors de l'étude des systèmes ou des polynômes) que ceci
résulte d'une multitude d'égalités faisant intervenir p lusieurs valeurs de
Exercice 1.4 Formule du binôme et moments de la loi binomiale 17
Ces nombres obtenus au brouillon sont alors injectés dans le second membre et la
réduction au même dénominateur montre l'égalité avec le membre de gauche.
Pour k ?:: 2, o n a
1 1 1 k(k + 2) - 2(k - 2)(k + 2) + (k - 2)k
8(k - 2) - 4k + 8(k + 2) 8(k - 2)k(k + 2)
k 2 + 2k - 2(k 2 - 4) + k 2 - 2k 1
8k(k2 - 4) k(k 2 - 4)
1 1
do nc a = c = S et b = - 4 convienn ent.
Pour n ?:: 7,
~ t, [ ~ (k 2) - ~ + (k: 2) l
~ [t, ~ 2- 2 ~ +
k t, t, k: 2]
Les termes généraux des trois sommes sont en fait les mêmes mais décalés de deux
crans vers la gauche ou vers la droite, on va donc faire des changements d'indice pour
le mettre en évidence.
~
-0
0
c
q~ ~, -2t, ~ +.~J,]
:J
0
I..{)
,.....
0
N
! [~ _ 2
8 12
2
2n + 2n - 1
n(n2 - l )(n + 2)
l ·
18 Chapitre 1 Calcul algébrique
"'O
0
c
~ k n! = n!
:J k!(n - k)! (k - l )!(n - k)!
0
1..()
T"-l
0
(n - 1)!
n (k - l )!((n - 1) - (k - 1)) ! =n
(n- 1)1 ·
k -
N
©
....... 1.b. La définition de En(P) ressemble beaucoup au développement du binôme a u
..c
Ol
ï::: facteur surnuméraire k près (que l'on n e peut n1ettre en facteur vu que c'est l'indice
>-
a.
0
de sommation). Il suffirait d 'éliminer ce facteur, l'égalité précédente va permettre de
u transférer la dépendance en k en dépendance en n que l'on pourra a lors mettre en
facteur. La somme obtenue ressemble alors clairement au développement du binôme
mais pour la puissance (n - l )e.
§. On trouvera un d éveloppement t héor ique plus systémat ique d e la seconde façon dans l 'ex e r-
cice 14.4 e n page 4 56 .
Exercice 1.4 Formule du binôme et moments de la loi binomiale 19
D'où ,
np ~
L ( nk -- 11) p k-1 (l - p )(n- 1)-(k-1 ) = np (p + l - p )n-1 = np.
k=l
1.c. On reprend donc la stratégie en utilisant d'abord la formule du pion pour convertir
1
la dépendance en k( k - 1) ou -k-- en dépendance en n puis on reconnaît alors une
+1
formule du binôme.
D'où,
In(P)
(n
1~
+ L
1)
(nk ++ 1) 1 P
k+ l (l _ )(n+ l )-( k+l)
P
p k=O
~1
,....
1..()
0
N
©
D'après la formule du binôme de Newton , t
k= O
(~)xk(l - Pt- k = (x + 1 - pt.
.......
..c
Ol
ï::: 2.b. Les deux membres sont sous forme polynomia le donc la dérivation ne pose pas
>-
a. de problème.
0
u
En dériva nt par rapport à x, on obtient, par linéarité de la dérivation ,
D' , I ( ) - 1 - (1 - p r +1
ou , n p - (n + l )p
-0
~
0
c Avec le changement d 'indice j = n - k ,
:J
0
,....
1..()
0
En(P) ~ k ( : ) pk( l - p)"- k = E(n- j) ( n: .i)p"-'(1- p)'
N
©
.......
..c
Ol
ï:::
Î)n- j) (~) (1 - p)jpn- j
j =O J
>-
u
a.
0
nt (~)
. 0
J=
J
(1 - p) j p n -j - t j(~)
. 0
J=
J
(1 - p) j p n- j
n
On se propose de calculer Sn L k 3 , pour n E N*, par quatre * méthodes
k=l
différentes et indépendantes.
1. Donner l'expression de Sn pour n EN* et démontrer la par récurrence.
2. Calculer (k + 1) 4 - k 4 , en déduire que
n n
(n + 1) 4
- 1 = 4Sn +6 L k
2
+4 L k +n
k=l k= l
et retrouver l'expression de Sn.
3. a. Justifier que (n + 1 - k) 3 = (n + 1) 3 - 3(n + 1) 2 k + 3(n + l)k 2 - k3 .
b . En déduire que
n n
k= l k=l
et retrouver l'expression de Sn .
4. a. En calculant de deux façons L j 2
, montrer que
i :::;i:::;j:::;n
S = n (n + 1)(2n + 1) _ ~S + ~ ~ i2 _ ~ ~ i.
2
n 6 3 n 2 L...,, 5 L...,,
i=l i= l
b. Retrouver alors l'expression de Sn.
~ 1,
2 2
~
Pour n notons P n la proposit ion «Sn = n (n + l) ».
-0 4
0 1 2 2
c
:J P our 1,.in ..
1t1a 11sat1
· .on, ~ k 3 = 13 = 1 d ' une part et
s i = L...,, 1 (l + l) = -22 = 1 d'autre
0 4 4
I..{) k= l
,.....
0
part donc P1 est vraie.
N
Pour l' héréd ité, supposons P n vraie pour un certain n ~ 1, alors
© 2 2 2
n (n + 1)
+ (n + 1) 3 = (n +4 1) [n 2 + 4(n + 1)]
.......
..c
Ol
Sn+ (n + 1) 3 = 4
ï:::
>-
a. (n + 1) 2
( 2 )
2
( n + 1) [ ( n + 1) + 1]2
u
0 4 n + 4n+ 4 = 4
donc Pn+I est vraie.
F 1
ina ement, par principe
. . d ,
e recurrence, pour tout n ~
1 S
, n = n 2(n + 1)2
4
2. On commence par développer pour visualiser la simplification.
~1
D'après la formule du binô me de Newton,
(k + 1) 4 -
4
k = (k
4
+ 4k 3 + 6k 2 + 4k + 1) - 4
k = 4k
3
+ 6k 2 + 4k + 1.
Le terme général de Sn apparaît dans le membre de droite, on va donc sommer cette
égalité pour 1 :::;; k :::;; n pour faire a pparaître Sn.
2= [(k + 1) 4
- k
4
] = I: (4k 3
+ 6k 2 + 4k + 1).
k= l k= l
D'où, par t élescopage dans le membre de gauche et par linéarité d e la sommation dans
le membre de droite ,
n n
k=l k=l
En isolant Sn . on conclut que
-n+l[3
- n + 3n2 + 3n + 1 - 1 - 2n - 2n 2 - n J
4
n + 1( 3 2) _ n (n
2
+ 1) 2
4 n + n - 4
~1
D'après la formule du binôme de Newton,
(n + 1 - k) 3 = [(n + 1) - k]3 = (n + 1) 3 3(n + 1) k + 3(n + l )k 2 -
"O 2 3
0 - k .
c
:J
0
1..()
T"-l
3.b. Là encore, on reconnaît à droite le terme général de Sn et on somme donc l'égalité.
0
N
n 2 (n + 1) 2
i.e. Sn = -'-------'-
4
4 .a. Il s'agit év id emment d 'écrire la somme double comme deux sommes imbriquées
avec les deux ordres possibles de sommat ion.
D'une part ,
S = n (n + 1)(2n + 1) _ ~ S + ~ ~ i2 _ ~ ~ i.
2
n 6 3 n 2 ~ 6 ~
i= l i= l
-o 4 .b. Il n e reste plus qu'à extraire Sn de l'égalit é précédente et utiliser là encore les
0
§ sommes connues d es premiers entiers et premiers carrés.
0
1..()
,..... En regroupant t o utes les occurrences d e S n dans le membre d e ga uche,
0
N 2 n n
© S = n (n + 1)(2n + 1) _ ~ S + ~ " -"i2 _ ~ ~ i
....... n 6 3 n 2 ~ 6 ~
..c ·i = l i= l
Ol
ï::: 2
>- ~S _ n (n + 1)(2n + 1) ~ n (n + 1)(2n + 1) _ ~ n(n + 1)
a. i.e. 3 n - 6 + 2 6 6 2
0
u
i.e. S = ~ n(n + 1) [n (2n + l ) + 2n + 1 _ ~ ]
n 4 6 2 2
S _ n (n+ 1) n(2n + 1) +n
i.e. n - 4 2
Sn = n 2(n + 1)2
i.e.
4
24 Chapitre 1 Calcul algébrique
\1 n E N, ( \1 (m, p) E N
2
, t. (;) ~ :k) ('"; ") )
2. En utilisant l'égalité précédente, déterminer la valeur de ~ k(mk) (p _n k).
~
k= O
On t ient aussi compte du fait que le coefficient binomial (:) est, pa r convention, nul
lorsque la condition 0 ~ k ~ n n 'est pas vérifiée.
~ Commençons par l'initialisation , pour n = 0, (p: k) n 'est non nul que pour k= p
C 'est ici que l'on utilise l'hypothèse de récurrence pour le triplet (n, m ,p) ma is aussi
pour le triplet (n , m,p - 1).
Exercice 1.6 La formule de Vandermonde 25
Soit (n , m ,p) E N 3 .
• Si m ;?: 1 et si p ;?: 1, alors
~ m (m- 1
2i k - l ) ( n )
p- k
(par la formule du pion)
m(m-1 p -l
+n)
Il ne faut pas oublier de trait er enfin les cas particuliers n on encore p ris en compte
du fait que la formule de Vandermonde n 'a été montrée que pour un triplet d 'entiers
positifs ou nuls.
~ • si p = 0, alors
-0
0
c
:J
0
1..()
r-l • si m = 0, alors
0
N
©
.......
..c
Ol
ï::: Finalement, d ans tous les cas,
>-
a.
0
u
26 Chapitre 1 Calcul algébrique
3. Le terme gén éra l de la somme est bien le produit d e deux coefficients binomia ux
comme dans la question précédente, il suffit d'en transformer un peu l'écriture pour
rentrer précisément da ns le cadre de la première question.
"'O
0
c
:J
0
1..()
T"-l
0
N
©
.......
..c
Ol
ï:::
>-
a.
0
u
Liste des capacités attendues 27
k=ni k=n i
() la somme des premiers entiers, des premiers carrés et des premiers cubes
~ k = n(n + 1) t k2 =n(n+1~(2n+ 1)
L 2 '
k= l k= l
"'O
0
() la linéarité d e la sommation L( Àaj + µbj) = ).. L aj +µ L bj '
c
:J
0
1..()
() la « relation de Chasles » (pour a < c < b entiers) +
T"-l
0 b c b c- 1 b
N
©
.......
..c
L
k=a
Uk = L
k=a
Uk + L
k=c+ l
Uk = L
k= a
Uk + L
k =c
Uk '
Ol
ï:::
>-
a. b
u
0
II Uk =
k=a
et 1.4.1 ),
n n
() pa r symétrie k = n - i, "L::bi = "L::bn-k (cf questions 1. 5.3.b et 1.4.3).
i= O k= O
L (a j + l - aj) = an 1 + 1 - ani et
j=n i
2=
i=l
(fa,,) f (ta;,;)
J= l
=
J= l i= l
2= (t a;,;) t (ta,,; )·
n
() la sommation sur un triangle 2=
1 !'( i !'(j !'( n
ai ,j =
i= l J= i
=
J= l i= l
• Savoir utiliser les propriétés des coefficients binomiaux (cf exercices 1.6)
et 1.4
-0
0
c
() leur expression à l'a ide de factorielles (nk) - k!(nn-! k)!
,. '
:J
0
1..()
r-l
0
N
() la relation de Pascal ( n+k 1) (nk) + (k n_ 1)
©
(~)
.......
..c
Ol
ï:::
>-
0 la symétrie 1 ( n: k) I·
a.
0
u
() la formule « du pion » § (nk) = _nk (nk _- 11)
.111 - 112
( ei 2 + e _ i.111 -2112) = ei
.111+112
2 2 cos ((Ji -fh)
2
0
N donc
© cos(W) = cos (i)
....... 1
..c cos(W) = ± Ç=::} ou
Ol
ï::: 2 { cos(W) = cos ( 2;)
>-
a.
u
0
8 = ±% [7r]
Ç=::} ou .
{
8 = ±i [7r]
Finalement, l' ensemble des nombres complexes de module 1 solutions de l' éq uation
est
Exercice 2.2 Équations sur <C 31
1.a. Ostensiblement, l'équation ne fait intervenir que des produits (ici une puissance)
donc on va privilégier la forme exponentielle.
Soit z = a + i b E C.
2
z = 3 - 2i ~ a
2
+ i2ab - 2
b = 3 - 2i
a2 - b2 3 (par identification des parties
{ 2ab - 2 réelle et imaginaire)
z
2
= .
3 - 2i ~
{ a
2
a2
+ b
2
- b2
VI3 et 2ab = -2
3
Par demi-somme, puis demi-différence, des lignes figurant dans le système ci-dessus,
on trouve
v'13+3
-2-
v'13- 3 et 2ab = - 2
- 2-
b= ±J4 -3.
On utilise a lors le signe du produit ab pour identifier, pa rmi les candidat s obtenus,
les couples qui sont effect ivement solution de z 2 = 3 - 2i .
~1
Seul deux de ces couples sont compatibles avec la troisième équation 2ab = - 2, à
savoir ceux pour les quels a et b sont de signes opposés. Finalement, les solutions sont
z1 = J~+ iJ~ - 3
-
3
et z2 = -z1.
R emarquons que l'ajout d e l'égalité d es modules nous a facilité le travail. San s cela
nous aurions pu poursuivre les calculs en résolvant le syst ème initia l pa r substitu t ion
(puisque a =/= 0 et b =/= 0 les calculs ci-dessous sont licites) :
2 1 (a2)2 _ 3a2 - 1
z 2 = 3 - 2i {::::::::}
{
a - a: 3
1 {::::::::} { b
0
1
a a
z2 = 3- 2i {::::::::} a 2 = 3 ± y'I3 et
1
b= - - .
2 a
Puisque des deux solutions pour a 2 , une seule est valable (l'au tre étant strict ement
. .
n egat1ve) , on retrouve les solutions z1 = . J3+../f3 - ·~
r-ï<> et z2 = - z 1.
3 + y1 3 2
i
-0
0
c 1.c. On remarque que l'inconnue z interv ient t oujours sous la forme z 3 . On p ou rrait
0
:J
donc p oser Z = z 3 et se ramener à l'équation Z 2 + 6Z + 12 = O.
,....
1..()
Or -3 + iv 0
r.; r.; ( J3 1 ) r.; 5irr
= 2v3 -
2 + 2i = 2v3e<l donc
z
6
+ 6z 3 + 12 = 0
ou z3 = (
v3~
2v3e- 18 5irr ) 3
ou z = 1.
( \,12J3e- 1i8 ) 5
z
\,12J3e 1i85
'
2
E { 1 e 1,.. e 1,.. }
'
4
ou vci 3
2v'3e- 1i8
5
E { 1, e 1,.. , e
2 4
; ,.. } .
2. A priori z n'est pas connu explicitement, mais l'équation qu'il vérifie se ramène à
une équation du second degré qu'on sait résoudre*.
va leurs possibles de z sont donc e -if et ei-îf . Que z soit éga l à l'un ou à l' autre, nous
avons dans tous les cas :
zn + -z1n = ei =
6 + e - i =6 = 2 cos (n7r)
-
6
.
-0
0
0
c
:J
1..()
T"-l
i Selon la forme des termes des équations faisant intervenir des nombres
complexes, on utilisera
0
N
• la forme algébrique s'il y a surtout des additions ,
© • la forme pola ire si les multiplications/puissances dominent.
.......
..c
Ol
ï:::
>-
a.
0
u
. 2i 7r
S01t w = e-s- .
4
1. Calculer w 5
. E n déduire : 1 + w +w +w +w
2 3 4
= L wk = O.
k=O
2. Mont rer que w = et w = w . En déduire des expressions de w 2 + w 3 et de
3
w2 4
1. Il s'agit d'un calcul simple avec des complexes sous forme exponentielle.
2
~7r )
5
w5 = ( e = e2 in = 1. On a donc, en reconnaissant la somme des premiers t ermes
d . une suite
. geometnque
, , . d e raison
. w -'-
r 1, 2:: w
4
k
= 1- w
1- w
5
= o.
k=O
2. Même chose ici mais en ut ilisant w 5 = 1 plutôt qu'un recours syst émat ique à la
forme exponentielle.
4
On a clairement lwl = 1 donc w = -1 =
w
5w = w
4
(compte t enu de w
5
1). De
w
même, lw
2
I= 2
lwl = 1 do nc w2 = ~=
w
w:
w
= w Ainsi ,
3
.
w2 + w3 w 2 + w 2 = 2Re(w 2 ) = 2Re(e
4
~" ) = 2 cos (4;)
~") =
4 2 2
w+ w w+ w = 2 Re(w) = 2 Re( e 2 cos ( ; ) .
-0
0
c
3 . Ces deux complexes sont racines d u trinôme
:J
0
I..{)
,.....
0
N et il suffit de simplifier les coefficients.
©
.......
..c Posons u = w 2 + w 3 et v = w + w 4 . D'après les relations entre coeffici ents et racines
Ol
ï::: pour un trinô me du second degré, u et v sont racines du polynôme X 2 - ( u +v ) X + u v .
>-
a. 2 4
0 Or u + v = w + w + w 3 + w = - 1d 'après 1 et
u 2 3 4 3 6 4 7 3 5 4 5 2
uv (w + w ) (w + w ) = w + w + w + w = w + w w + w + w w
3 4 2
w + w+ w + w = - 1 (toujours d 'après 1)
do nc w
2
+ w3 et w + w4 sont racines du polynôme X
2
+ X - 1.
Les racines d'un trinôme du second degré se détermine facilement sous forme algé-
brique.
Exercice 2.4 Linéarisation et primitivation 35
~1
Trouvons de la manière habituelle l'expression des racines de ce polynôme. Soit~ le
discriminant de X 2 +X - 1. On a ~ = 1 + 4 = 5 donc X 2 +X - 1 admet deux
. , Il
racin es ree es
d..
1stmctes xi = - l +v/5 et x2 = - 1 - v/5
.
2 2
Il ne reste plus qu'à comparer les d eux écritures de ces racines.
Or x2 <
4
0, 2cos ( ; ) < 0 et xi > 0, 2cos ( ; )
2
> 0 donc 2cos (4;) = x2 et
2
2cos ( ; ) =xi. Ainsi,
cos (527r) = X1
2 =
- 1 + vl5
4
COS ( 47r)
5
= X2
2
= _ 1+ vf5
4
et
1 + vl5
cos (i) = cos ( 7r - 4; ) =- cos (~7r ) 4
3
1. Soit x E IR. Linéariser cos(2x) [sin(x)] .
~1
D'après les formules d'Euler,
~
0
N
..c 2 - 8i
Ol
ï:::
>-
e2ix + e-2ix ( e3ix - e-3ix ) - 3(eix - e-ix)
a. ~~~~- X ~~~~~~~~~~~~
0 2 - 8i
u
(e5ix _ e-5ix) + (eix _ e-ix) _ 3 [(e3ix _ e-3ix ) _ (eix _ e-ix)]
-8 X 2i
• on apparie les termes qui sont conjugués l'un de l'autre (au signe près) pour
appliquer à nouveau les formules d 'Euler mais dans l'autre sens afin de récupérer
u ne combinaison linéaire de sinus et cosinus.
36 Chapitre 2 Nombres complexes et polynômes
~ + ~) - ~ - ~)
1 1
(- 40 - ( 40 +
4
5
t . Dans l'exercice 2.10 en page 48, on p eut voir une autre façon de gérer un système analogue.
Exercice 2.6 La somme des premiers cubes 11 37
2
( la dernière égalité provenant de l'équation (1)) puis p = ab = x; = \ = 1 et ainsi,
z z
1 a et b sont bien racines du polynôme T 2 + T + 1.
1.b. On connaît explicitement les racines du trinôme du second degré (en l'occurrence
j et j 2) donc les valeurs des quotients ~ et '#._.
z z
possibilités :
• -X = J. et Y
- = J.2 1.e.
. · ·2 1
x = ZJ et y = ZJ , auque cas,
z z
X .2 Y . . ·2 · 1
• - = J et - = J 1.e. x = ZJ et y = ZJ, auque cas,
z z
2. On procède par analyse et synthèse: les candidats solutions viennent d 'être obtenus,
il ne reste plus qu'à vérifier s'ils sont effectivement solutions.
do nc (>., Àj, >.j2) est solution de (S) . De manière analogue, on montrerait que
"O
(>., Àj 2 , >.j) est solution de (S). Fina lement, l'ensemb le des solutions de (S) est :
0
c {(>. , >.j, >./ ); À EC* } u { (>., >./ , >.j); À EC* }.
:J
0
1..()
T"-l
0
N
©
.......
..c
Ol
ï:::
>-
a.
L'objectif de cet exercice est de fournir une méthode de calcul des sommes de
u
0 puissances d 'entiers qui utilise les polynômes.
1. Soit P E JR[X ]. Déterminer le degré de P(X + 1) - P(X).
2. Déterminer tous les polynômes P à coefficients réels tels que :
(E) P(X + 1) - P(X) = X 3 .
38 Chapitre 2 Nombres complexes et polynômes
n
3. En déduire un calcul de Lk 3
pour tout entier naturel non nul n.
k=l
n
4. Avec la même stratégie, déterminer brièvement la valeur de la somme Lk 4
.
k=l
1. On commence par traiter à pa rt le cas où P(X +l)-P(X) est le polynôme nul (qui
survient lorsque P est const ant), puisque le polynôme nul a la particularité d 'avoir
un degré égal à - oo.
"'O P(X + 1) - P(X) étant somme de deu x polynômes de degré au plus p - 1, on conclut
0
c
:J
que deg (P(X + 1) - P (X)) ~ p - 1.
0
1..()
T"-l
P our déterminer précisément le degré de P(X + 1) - P(X) , une a nalyse plus fine
0 p- l
L a (~) X k
N
2. Une des premières choses à laquelle on peut s'intéresser est le degré de P. Dans
n otre cas, cette information est fournie grâce au résultat de la question 1.
~1
Soit P une solution de (E). Puisque P(X + 1) - P(X) est de degré 3, le polynôme
Pest de degré 4 d 'a près la question 1 : il existe donc des réels ao, ai, a2, a3 et a4
tels que
Une méthode naturelle est d 'inj ect er cette expression de P dans l'équation (E) pour
en déduire les coefficients de P par ident ification.
L ak [(X+ l) k - xk ] = X 3
k=O
2 2
ai + a2(2X + 1) + a3(3X + 3X + 1) + a4(4X 3 + 6X + 4X + 1) = X3
ai + a2 + a3 + a4 0
2a2 + 3a3 + 4a4 0
(par identification)
{ 3a3 + 6a4 0
4a4 1
ai = -a2 - a3 - a4 = 0
a2 = - i!2 a3 - 2a4 = .!.4
donc { et finalement :
a3 = - 2a4 = -~
a4 -- .!.4
2 2
2(1 1 1 2) X (X - 1)
P = ao+X
4 - 2x+ 4x = a o + - -- -
4
-0
0
c 3. On doit rapprocher k 3 et X 3 pour faire le lien avec les questions précédentes. Ainsi
:J
0
k 3 = P (k+ l)-P(k) où Pest solution de (E) (choisi le plus simplement possible) et
,....
1..()
n
0
N la somme L k 3 se calcule a lors pa r télescopage.
© k=l
.......
..c
Ol
ï::: X 2 (X - 1)2
>-
a. Si P = , alors on a P(k + 1) - P(k) = k 3 pour tout entier naturel k
0 4
u d 'a près les résultats de la question 2. Ainsi, par télescopage, pour n E N* ,
L k =L
n
k=i
3
n
k=i
[P(k + 1) - P(k) ] = P(n + 1) - P(l) =
(
n +: )2 2
n
~1
On cherche P t el que P(X + 1)-P(X) = X 4. D'après la question 1, un t el polynôme
5
6
est nécessairement de degré 5. Soit (ao,a1 , a2,a3 , a4,a5 ) E JR. et P = L akXk.
k=O
5
Pour éviter d 'avoir à développer (X+ 1) , on va proposer une méthode alternative
reposant sur l'ordre de multiplicité 4 de la racine 0 dans le polynôme X 4 .
Un calcul montre que le polynôme P4 ainsi défini vé rifie bien P4(X + l) - P4(X) = X 4 .
Ainsi
n n
"O
0
c
:J k= l k= l
0
1 1 2 1 3 1 4)
+ '3 (n + 1) - '2 (n + 1) + '5 (n + 1)
1.()
r-l (n + 1) ( -
0 30
N
t. C 'est l' étape d e synthèse dans le raisonnem ent par analyse-synth èse.
Exercice 2. 7 Autour des polynômes de Tchebychev 41
1.a. Les calculs s'effectuent de proche en proche, en s'a ppuyant sur la relation de
"'O récurrence qui définit la suite.
0
c
:J
0 On a, successivement ,
XP1 - Po= X 2 - 2,
1..()
T"-l
0
P2
XP2- Pi = X(X 2 - 2)- X = X 3 - 3X,
N
P3
© 2 2
X P3 - P2 = X (X 3 - 3X) - (X - 2) = X - 4X + 2,
....... 4
..c P4
XP4 - P3 = X(X 4 - 4X 2 + 2) - (X 3 - 3X ) = X 5 - 5X 3
Ol
ï:::
>-
P5 + 5X.
a.
0
u 1.b. Pour P 3 , 0 est racine évidente d 'où une factorisation par X . Le facteur restant est
de degré 2 et se factorise à l'aide de l'identité remarquable A2 -B 2 = (A - B )(A + B).
* · Les p oly nôm es de Tchebychev (Tn) son t reliés au x (Pn ) par 2Tn(X) = Pn(2X) . Ils vérifient
To = 1, T1 = X et la relation d e récu rrence, \:/ n E N, Tn+2 = 2XTn+ 1- Tn . Ils son t aussi caract érisés
pa r V(n,8) E N X IR, Tn(cos 8) = cos(n8) .
42 Chapitre 2 Nombres complexes et polynômes
~I
Ona
P3 = X(X 2 - 3) = X(X - VJ)(X + VJ).
On remarque ici que P4 est un trinôme bica rré i.e. de la forme R = X 4 + pX2 + q.
Pour factoriser de tels polyn ômes dans C[X], on peut :
• poser y = X 2 ,
• factoriser Y 2 + pY + q en
(Y - r1)(Y - r2),
• conclure en factorisant X - r 1 et X 2 - r 2 dans R = ( X 2 - r 1) ( X 2 - r 2).
2
De même,
P4 X
4 2
- 4X + 2 = (X
2
- 2)
2
- 2 = (X
2
- 2)
2
- ( -J2) 2
~I
2 3
Les monômes dominants de P1 , P 2, P3, P4 et P5 sont respectivement X, X , X ,
X 4 et X 5 . Ainsi, pour n E [1 , 5] , Pn est unitaire et de degré n.
Il semble ici raisonnable de formuler une conjecture généralisant à tout rang n ): 1
les résulta t s observés précédemment. Pour être complet , il restera à démontrer cett e
conjecture. Ici, on s'appuiera sur une récurrence à deux termes puisque la relation de
récurrence Pn+2 = X Pn+l - Pn permet de « propager » au rang n + 2 l'information
obtenue aux rangs net n + 1.
~I
On conjecture que, pour tout ent ier naturel n non nul , le polynôme Pn est unitaire
et de degré n. D émontrons cette conjecture par une récurrence à deux termes.
-0
0 On raisonnera sur les monômes domina nts pour regrouper les informations sur les
c
:J degrés et coefficients domina n ts. Ici, dire que Pn est u nitaire et d e degré n revient à
0
,....
1..() dire que xn est son monôme dominant.
~
0
N
• Conclusion : Pour tout entie r naturel n non nul, Pn est unitaire de degré n (et Po
1 est bien de degré 0 mais pas unitaire car son coefficient dominant est égal à 2).
4. Ici, la démarche est analogue à celle de la question 2 : à partir des résultats observés
pour n appartenant à [O, 4] , on formule une conjecture pour tout entier naturel que
l'on démontre par récurrence.
Pi(z+;) z+-1z
(z+-1) 1
2
-0
0 P2 ( z +;) z
- 2 = z2 + -z 2
c
:J 3
+ ~)
0 1) - 3 ( z + -1) = z 3 + 3z 2 x -1 + 3z x -1 + -1 - 3z - -3
I..{)
,.....
P3 ( z ( z + -z z z z2 z3 z
0
N
©
z+ -1
3
z3
(z+ ~r - 4 (z+ ~)
....... 2
..c
Ol
ï:::
+2
>-
z 4+ 4z2+ 6 + -4 + -1 - 4 (z 2+ 2 + -z1) + 2 = z 4+ -z4
a. 1 .
0
u z2 z4 2
0
Enfin, en rem arqu ant aussi que Po ( z + .; ) = 2 = z + :0 , on conjecture que, pour
5. Pour exploiter les résultats précédents, il faut pouvoir écrire 2 cos sous la forme e
z + z - 1 . Ici, la bonne idée est de se souvenir de l'une des deux formules d 'Euler :
2 cosw = e i w + e - iw (que l'on applique deux fois : avec w = e et avec w =ne).
~1
Soit n EN. En utilisant deux fois la première formule d'Euler,
Pn (2 cos 8) = Pn ( eie + e-ie) = (eier + (ew) - n = eine + e-ine = 2 cos( n8).
6. Pour x E IR\ [- 2, 2], la relation de récurrence s'écrit Pn+2(x) = x Pn+1 (x) - Pn(x)
i.e. une relation de récurrence linéaire d 'ordre 2.
Soit x E IR\ [- 2, 2] . La suite (Pn(x)) est linéairement récurrente d 'ordre 2 d 'éq uation
2
caractéristique associée r = xr - 1. Le discriminant de cette dernière équation est
1..()
T"-l ~ µ = v = l.
0
N Finalement,
©
.......
..c
Ol
ï:::
>-
a.
0
u Une autre méthode basée sur la même idée qu'à la question précédente a urait été de
1
trouver z tel que x = z + - en résolvant une équation du second degré de solutions
z
x + Jx - 4
2
x - J x2 - 4
z+ = et z_ = (vérifiant z+z- = 1) qui a urait conduit un
2 2
peu plus rapidement au résultat Pn (x) = z+ + ~ = z+ + z~ .
Z+
Exercice 2.8 Division euclidienne et restes 45
( 3) - 14
2
-0
0
c B2 = X 2 - 3X +2 = X - "2 = (X - l )(X - 2) .
:J
0
~
,....
1..()
Soit n E N . D'après le théorème de la division euclidienne, comme deg B2 = 2, il
0
N existe des uniques polynômes Q et R tels que An = B 2 Q + R et deg R < 2. En outre,
© puisque R est de degré au plus 1, il s'écrit R = aX + b avec a et b réels. En éva lu ant
.......
..c les polynômes en 1 puis en 2 qui sont les racines de B2, on obtient le système
Ol
ï:::
u
>-
a.
0 { 2: !~ ~: L2J·f;-L1{ a+~ ~n - 1 i.e. { ~ ~n--2~
Finalement, le reste demandé est (2n - l)X + 2 - 2n = 2n (X - 1) - (X - 2).
3.a. On procède comme à la question précédente à ceci près que B 1 = (X-1) 2 n 'admet
qu'une seule racine qui est double. Pour utiliser cette multiplicité de la racine, on va
dériver l'égalité An = B 1 Q + R en A~ = B 1 Q' + B ~ Q + R' et tirer alors parti du fait
que 1 est racine de B 1 et B~ .
46 Chapitre 2 Nombres complexes et polynômes
©
.......
..c
Ol
ï::: 1. Commençons par faire le tri sur les conditions, elles se séparent en trois parties
>-
a.
0 indépendantes
u
1 0 0
0 1 0
0 0 1
Px = ,\(X - y)(X - z). Enfin de Px(x) = 1, nous tirons À(x - y)(x - z) = 1 donc
1 X-yX-z
À= ( )( ) et finalement : Px =
x- y x- z x- y x- z
~1
Si on note Px le polynôme X - y X - z de degré 2, on a bien Px(Y) = Px(z) = 0
x-y x-z
(car y et z sont clairement racines de Px) et Px(x) = x - y x - z = 1.
x-yx-z
On adapte l'expression obtenue pour P.-c à Py et Pz .
~1
X - xX - z
De manière analogue, les polynômes Py et Pz, définis par Py ----et
y-x y-z
X --
Pz = - X X - y '
- - , repon dent b"1en aux con d.1t1ons
. . '
1mposees.
z - x z - y
2 . Vérifier que le polynôme proposé satisfait aux trois équations est immédiat. Le
travail se situera surtout dans la preuve de l'unicité.
Étant donné un objet satisfaisant une propriété P, si l'on veut montrer qu'il est
unique pour cette propriété, la méthode générale consiste à se donner un autre objet
satisfaisant aussi P et de montrer que les deux objets sont en fait identiques. Ici les
objets sont des polynômes. Pour montrer que deux polynômes sont égaux, une façon
de faire est de montrer que leur différence est le polynôme nul, car nous disposons de
résultats permettant de caractériser le polynôme nul (un polynôme de degré inférieur
ou égal à n est nul s'il admet au moins n + 1 racines distinctes).
Réciproquement, si Q est un polynôme de degré inférieur ou égal à 2 tel que : Q(x) =a,
Q(y) = b et Q(z) = c alors Q(x) = P(x), Q(y) = P(y) et Q(z) = P(z) donc le
polynôme Q - P admet (au moins) trois racines distinctes : x, y et z. Éta nt de plus
de degré inférieur ou égal à 2, Q - P est donc le polynôme nul. Ainsi Q = P ce qu i
montre l' un icité de P.
3 . Il faut repérer ici le lien évident avec la question qui précède. Pour tout réel z
"O distinct de - 1 et 1, et tout polynôme P de degré inférieur ou égal à 2,
0
r::::
0
:::J
{
P(-l)
P(l)
-
2
3
~ P = 2P-1+3P1 + P(z)Pz,
lfl
,.-1
0
N
le choix de z étant arbitraire. Le plus simple est de prendre ici z = O.
@
....., Soit P un polynôme de degré infé rieur ou égal à 2. D'après le résultat de la question
r:
Ol
·;::
précédente et avec les notations de la question 1 pour (x,y,z) = (- 1,1,0),
>
Cl.
0 P(- l) 2 {::::::::} P=2P- 1+3Pi+P(O)Po.
u { P(l) 3
À l'aide des formu les de la question 1 :
2 2
p = (X - l)X = X - X p
1
= (X+ l)X = X +X
- l -2 X (-1) 2 ' 2 X 1 2
et Po = (X + l) (X - l) = 1 - X 2 .
1 X (- 1)
48 Chapitre 2 Nombres complexes et polynômes
"O
1. Il faut exploiter ici l'hypothèse essentielle (la seule!) que les trois nombres sont de
0
r:::: module 1.
:::J
0
~1
lfl
,--1
0
Puisque a, b, c sont de module 1,
N
@
....,
r:
a1 + b1 + c1 = laa bc _ -b - b -
l2 + lbl2 + lcl2 = a+ + c = a+ + c = 1 = 1.
Ol
ï:::
>
0
Cl. 2. Le principe d 'une factorisat ion consiste essent iellement à trouver les racines à par-
u tir des coefficients d'un polynôme. Ici, nous adoptons une démarche opposée : nous
allons exprimer les coefficient s de P à l'aide de ses racines. Il faut tout naturellement
développer l'expression factorisée de P et simplifier convenablement ses coefficients à
l'aide des connaissances sur les racines a, b et c (cf énoncé et résulta t de la question
précédente).
Exercice 2.11 Autour des racines n -ièmes de l'unité 49
3 . Il faut bien identifier ce que l'on cherche à montrer ici : on veut établir que l'une
des racines a, b ou c de P est égale à l . Cela revient à montrer que X - 1 divise P,
ce qui est immédiat d'après le résultat de la question précédente.
~1
On a:
(zk) n = ( 2ik,.. )
e -,-, n
= e 2ik7r = 1.
50 Chapitre 2 Nombres complexes et polynômes
2.a. Même si le terme général de la somme est purement réel, il va être très utile de
passer par les nombres complexes, soit à l'aide d 'une des formules d 'Euler
eikO _ e-ik()
sin(kO) =
2
soit en utilisant la partie imaginaire. Dans les deux cas, on est ramené à des sommes
de termes consécutifs de suites géométriques de raison complexe que l'on sait alors
calculer.
Im ~
(L.....-
k =l
[ ifJJ
e
k) -- Im ( eie - _ei(N+1)e
eie
1
) (car· eie -t.
r
1)
La dernière étape consiste alors à repasser dans les réels à l'aide de méthode de l'angle
moyen et des formules d 'Euler.
~ N
. ( ei(N+2)e;2 e-iNfJ/2 _ eiNfJ/2 )
I : sin (kO) = lm eie 12 e- ifJ ;2 - eifJ /2
k=l
lm ( ei(N+i)e/ 2 -
2i sin(NO / 2) ) (d'après les formules d'Euler)
- 2isin(0/2)
. (N+ 1 ) sin ( ~ 0)
sm - 2-e . ((})
sm
2
2.b. Il suffit d'appliquer la formule tout juste obtenue avec les paramètres adéquats.
~I
>
0
Cl. D 'a près la question 1, x n - 1 admet Zk pour racine pour tout k E [O, n - 1~.
u (zk)kE[O ,n - l ] est donc une famille de n racines du polynôme xn - 1 de degré n .
Si on trouve n racines distinctes d'un polynôme de degré n, alors celles-ci sont simples
et le polynôme n'admet pas d'autres racines : c'est une conséquence du théorème de
d 'Alembert-Gauss. Ainsi, notre tâche va consister à démontrer que les complexes Zk
sont deux à deux distincts (pour k E [O, n - l il ).
Exercice 2.11 Autour des racines n -ièmes de l'unité 51
Ces racines sont deux à deux disti nctes par un icité d e l'argument d ' un nombre complexe
si on se restreint à [O, 2n[. Enfin , xn -
1 éta nt un itaire, le t héorème de d'A lembert-
n-1
Gauss permet de conclure : xn - 1= II (X - Zk)·
k=O
On a, par télescopage,
n -1 n-1
(X - l)P =(X - 1) L xk = L (Xk+l - Xk) = xn - 1.
k=O k=O
n- 1
Comme x n- 1 = II (X - Zk) et zo = 1, on en dédu it par simplification par le
k=O
n- 1
polynôme non nul X - 1 que P = II (X - zk). qui est donc l'écritu re fact orisée de
k=l
P d ans <C[X].
4 . L'idée va consister à exploiter les deux écritures de P pour calculer de deux façons
différentes P(l) et P(- 1).
• La forme factorisée de P donne une expression de P( 1) et de P( -1) faisant inter-
venir les produits cherchés si on pense à invoquer les formules d'Euler.
• La définition de P par ses coefficients permet de calculer très simplement P(l) et
P(- 1).
Il suffit ensuite d 'isoler les produits à calculer dans les identités obtenues.
II sin n et Cn = II cos n·
"O n- 1 n- 1
0 kn k1r
r:::: On pose Sn=
:::J
0 k=l k=l
lfl n-1
D ' une part, P(l) = L lk = n. D'a utre part , en utilisant le résultat de la qu estion
,--1
0
N
@ k=O
....., précédente,
r:
u
Ol
·;::
>
Cl.
0
P(l) fi =Il (
k=l
(1 - zk)
k=l
1- e
2
i~1f ) =Il [i~1f
k=I
e ( e -~k" - e i~ ) ]
= fi [-2iei~
k=l
sin ( ' : ) J (d,après les formules d,Euler)
n-I
II (-2ieik; ) X Sn
k=l
52 Chapitre 2 Nombres complexes et polynômes
donc, au final,
k=l k= l
1
.
k=I
De même, P(-1) =~ k
~( - 1) =
(- 1r - 1
_2 ={ o
1
sin est pair
sinon
et
n- 1 n -1
P( - 1) II (- 1 - zk ) II [- (1+ e J =
2
'.: " )
k= l k=l
= ( - l) n- 1
nI-I1[e .k1'n ( e .kn:n +e .ko;r)]
i -
n - i -
= i -'- (
- l)n-
1nI-I1[2e .k'nlf cos -k~ ]
i - "
n
k= I k =l
n -1
ainsi, si n est pair, II cos ~ = 0 et, si n est impair, il existe un entier m tel que
k=I
n- I
(- l)m II cos nk1f = (- l) :Z 1 - (- 1r·
n- 1
II cos n =
k1f n - 1
n = 2m + 1 et 22m . En résumé, 2
n
k= l k=l
Il est bon de garder un œil critique sur ses résultats et de vérifier leur
cohérence. Le fait que l'on trouve 0 lorsque n est pair n 'est pas sur-
prenant. En effet, si n est pair, il peut s'écrire sous la forme 2p où
n- 1 k
p E rr 1, n - 1] et ' dans le produit cos - ' figure donc nécessaire-
n
II ~1f
k= l
p7r p7r 1f
ment cos - = cos - = cos - = O.
"O
0 n 2p 2
r::::
:::J
0
lfl
,.-1
0
N
@
.....,
r:
Ol
·;::
>
Cl.
Exercice 2 .12 : Divisibilité et ordre de multiplicité des racines
0
u
Dans cet exercice, a est un nombre complexe et P est le polynôme :
P = X 5 - (3a+2)X 4 + (1 +3a+3a2 )X 3 - (a 3 + l)X 2 + (2- a3 +3a)X - (a+ 1) 3 •
2
1. Soit j le nombre complexe e ;" • Simplifier j 3 et 1 + j + j 2 .
Exercice 2 .12 Divisibilité et ordre de multiplicité des racines 53
~1
·3
j 3 = (e--:r-) · = 1 et 1 + J.
:ii " 3 = e2t7r + J.2 = 1 - J = 1 - 1 = 0 donc : .i3 = 1 et
1-j 1 - .i
1+ j + j 2 =o.
2. Injectons froidement j à la place de a dans l'expression de P et procédons aux
simplifications d'usage à l'aide de j 3 = 1 et j2 = -1 - j.
Tout d'abord, on a
P = X5 (3j + 2)X4 + (1 + 3.i + 3j 2 )X 3
-
~I
@
.....,
r: (X 5 - 2X4 - 2X3 - 2X 2 +X+1) + j(- 3X4 + 3X).
Ol
·;::
>
Cl.
0 Il reste à comprendre pourquoi si r est racine réelle de P, chacun des deux termes
u
s'annule en r. Pour cela, il suffit de séparer parties réelle et imaginaire.
En particulier, si r est une raci ne réelle de P,
r 5 - 2r4 - 2r 3 - 2r2 + r + 1 = - (- 3r4 + 3r) j.
En prenant la partie imaginaire des deux membres, on a - 3r4 + 3r = 0 puisque
Irnj =j:. 0, puis en réinjectant cette égalité, r 5 - 2r4 - 2r3 - 2r2 + r + 1 =O.
54 Chapitre 2 Nombres complexes et polynômes
~I
P est de degré impa ir et unitaire donc lim P = -oo et lim P = + oo. En particu lier,
- OO +oo
il existe M > 0 tel que P(M) > 0 et P( - M) < O. D'après le théorème des va leurs
Exercice 2 .12 Divisibilité et ordre de multiplicité des racines 55
Calculons :
P(j) j5 - (3a + 2)/ + (1 + 3a + 3a 2 )j3
- (a3 + 1))2 + (2 - a3 + 3a)j - (a+ 1) 3
j2 - (3a + 2)j + (1 + 3a + 3a 2 ) - (a 3 + 1))2 + (2 - a3 + 3a)j - (a + 1) 3
- a3 (}2 + j + 1) = 0
donc .i est bien racine de P .
On rappelle que pour qu'un polynôme R à racines simples dans C divise le polynôme
P , il faut et il suffit que les racines de R soient aussi racines de P . C'est ce que nous
utiliserons ici avec R = 1 + X + X 2 .
~1 [X 2 +X + ll[X - (a + 1)] 3
et a+ 1 est raci ne triple de P . O n conclut que la factorisation de P da ns <C[X ] est
P = (X - j)(X - ))(X - a - 1) 3 .
56 Chapitre 2 Nombres complexes e t polynômes
4. d . C'est évidemment une forme factorisée qu'il faut privilégier pour la discussion
du signe. Toutefois, comme le signe n'a pas de sens pour un complexe non réel, la
factorisation de X 2 + X + 1 n 'apporte rien donc on le garde t el quel.
Soit x E IR.
P( x) =(x 2 + x + l)(x - a - 1) 3 est d u signe de (x - a - 1) 3 donc de x - a - 1 (en
effet, x2 + x + 1 est toujours strictement positif puisq ue X 2 + X + 1 est un itaire et
de discriminant strictement négatif) . Ai nsi,
• si x > a + 1, P ( x) > 0,
• si x <a+ 1, P (x) < 0 et
• si x =a + 1, P (x) = 0 (a+ 1 est la seule raci ne réelle de P).
"O
0
r::::
:::J
0
lfl
,.-1
0
N
@
.....,
r:
Ol
·;::
>
Cl.
0
u
Liste des capacités attendues 57
• Savoir utiliser les formules d'Euler (cf questions 2.1.2 , 2.2.2 et 2.3.2)
eie + e- ie eiB _ e- i8
cose = - - - - et sine = i
2 2
o 1cos2 e + sin2 e = 1 I,
(j les formules d 'addit ion
1 sin(a + b) = sin a cos b + cos a sin b 1 et 1 cos(a + b) = cos a cos b - sin a sin b I·
et en particulier les formules de duplication
• Savoir linéariser une expression d e la forme cosP(fJ) sin<1(fJ) (cf question 2.4.1)
"O
0
r::::
:::J
0
lfl
,..-1
0
N
@
.....,
r:
Ol
·;::
>
Cl.
0
u
58 Chapitre 2 Nombres complexes et polynômes
• Savoir déterminer (ou majorer) le d egré d'un polynôme (cf questions 2.6.1
et 2.7.2) à l'aide de son comportement pour
0 les opérations algébriques
• Savoir déterminer des racines d'un polynôme (avec leurs ordres de mul-
tiplicité ) (cf questions 2.9.1, 2.10.3 et exercice 2. 12)
• Savoir étudier une s uite de polynômes d éfinie par une relation de ré-
currence (cf exercice 2.7)
"O
0
r::::
:::J
0
lfl
,.-1
0
N
@
.....,
r:
Ol
·;::
>
Cl.
0
u
t. Il ne s'agit d'une égalité que si les degrés sont différents ou si les degrés sont égaux mais la
somme des coefficients dominants n'est pas nul.
+.
L'inégalité n'est stricte que pour les polynômes constants.
CHAPITRE
Calcul matriciel
Dans tout ce chapitre OC désigne le corps des réels IR ou celui des complexes C On
rappelle aussi le vocabulaire élémentaire et les notations habituelles associés aux ma-
trices :
• l'ensemble des matrices à coefficients dans OC à n lignes et p colonnes est noté
Mn,p(IK) et une telle matrice est dite d'ordre (ou de taille) n x pou (n,p);
• lorsque p = n, cet ensemble se note plus simplement Mn(IK) et une matrice de
cet ensemble est dite d'ordre n;
• la matrice identité (ou unité) de M n(IR) est souvent notée In ou Id voire I tout
court;
• la matrice nulle de Mn,p(IK) est notée On,p (celle de Mn(IR) est parfois notée On),
voire 0;
• une matrice carrée est dite diagonale si seuls ses coefficients diagonaux sont éven-
tuellement non nuls ;
• une matrice est dite triangulaire su,périeu,re (respect ivement inférieure) si tous les
coefficients situés « strictement en dessous de la diagonale » (respectivement au
dessus) sont nuls ;
• la transposée d'une matrice M est notée t M;
• une matrice carrée A à coefficients réels est dite symétrique (respectivement anti-
symétrique) si t A = A (respectivement t A = - A) .
"O
0 Par ailleurs , on adoptera, dans cet ouvrage, les notations suivantes :
r::::
:::J
0 • on notera A ['i, j ] le coefficient de la matrice A situé en ligne 't (i.e. la i e ligne),
lfl
,.-1 colonne j (i.e. la je colonne) ;
0
N • on notera Cf (resp. Lt) la j e colonne (resp. ie ligne) de la matrice A.
@
....., Enfin, à l'instar du codage utilisé par la méthode du pivot de Gauss (voir chapitre
r:
Ol n
ï:::
>
Cl.
0
suivant), on utilisera les notations Li +---- L aiLi (resp. Li f------t Lj) pour coder la
u i=l
n
transformation qui modifie la ligne i d 'une matrice A en lui substituant L aiLf, où
i= l
a 1 , ... , an sont n scalaires donnés (resp. en permutant les lignes 't et j de la matrice A
considérée). On adopte le codage analogue pour les transformations agissant sur les
colonnes.
60 Chapitre 3 Calcul matriciel
(T~l 1 ~
0
lfl
,.-1
0 1<2 = ) = - I. Ainsi, - K
2
= I i.e. J( x (- K) = I donc I<
N 1
@ 0 0 0 -1
.....,
r: est inversible et K- 1 = - I<.
Ol
·;::
>
Cl.
1.b. On commence par utiliser les règles d'opérations usuelles sur les matrices.
0
u
~1
On a
M2 = (al+bK)x(al+bI<)=a 2 l+ablK+baKI+b2 K 2
2 2 2
= a 1 + 2abK + b K
~1 a 2 I + 2abI< - b2 I = a 2 I
- (a 2 + b2 )I + 2aM.
+ 2a(M - al) - b2 I
1.c. Nous allons nous aider de l'équation précédente du second degré en M pour faire
apparaître la matrice inverse de M . Pour cela, on isole les termes en M dans le premier
membre et la matrice unité dans le second. Il ne reste alors plus qu 'à factoriser par
M dans le premier membre pour faire apparaître une identité du type Mx? = I .
M
2
- 2aM = -(a2 + b2 )I ~ M(M - 2af) = -(a2 + b2 )I
~ M x [- a2 : b2 (M - 2a!)] = I.
1
Ainsi M est inversible et M -
1
= - b M +2 a b I.
a+ 2 a2 + 2 2
2.a. S(M) doit faire penser à la somme des premiers termes d 'une suite géométrique
p-1
~1
ï:::
> Or S(M) - Mx S(M) =(In - M) x S(M) donc (In - M) x S(M) = In.
Cl. p- 1
0
u In - M est alors inversible, de matrice inverse S(M) = L Mk.
k=O
~1 -1) ( 2
-1 -3 3
Posons M = h - 2 4 1 = -2 -3
(
-3 -4 0 3 4
c0 0)
0
0
1
0
0
1
+ c
- 2
3
3
- 3
4
~1) + ( ~l
1
- 1
1 n
~3 ~}
4
-3
(
5
2.c. Il s'agit ici d 'avoir le « bon coup d 'œil » pour reconnaître le lien de transposition
entre B et A pour pouvoir utiliser son comportement pour l'inversion.
"O
0
r::::
:::J
0
lfl
,..-1
0
N 1. Soit n E Net a, b, c, d E !K. On considère la matrice de M3(1K) définie par
@
(~0 !0 a~) .
.....,
r:
Ol
·;:: A=
>-
Cl.
0
u
a. On pose B = (~ ~ ~) . Calculer B 2
et B 3 .
0 0 0
b. En déduire A n pour tout entier naturel n .
Exercice 3.2 Puissances de matrice I 63
1 1
1 1 1
1 1 ~
1) §
où a E lK..
1 1
a. Exprimer Ma en fonction de J et de la matrice unité 14 de M 4 (IK.).
b. Déterminer J 2 et en déduire que, pour tout n E N*, Jn est proportionnel
à J en explicitant le coefficient de proportionnalité en fonction de n.
c. Calculer (Ma)n pour n E N*.
1.a. Pas de problème ici au niveau des calculs. Ce dont on est sûr, c'est que B 2
et B 3 seront triangulaires supérieures (l'ensemble des matrices carrées triangulaires
supérieures de même ordre est en effet stable par multiplication).
~1 G bd) (0~
0 0
Pa< prndu;t mat<;c;el , 8 2
=B x B = 0 ~ et B
3 2
= B x B = 0
0 0
~1 G 0a 0)0
b
On cema<que que A= 0 = B +ah.
0 0 a
Le calcul de An, c'est-à-dire de (B + ahr, doit alors immédiatement faire penser à la
formule du binôme de Newton. Encore faut-il signaler que l'hypothèse d'application
de cette formule est vérifiée : les matrices, dont on veut calculer la puissance ne de la
somme, commutent pour la multiplication matricielle.
§. Les matrices carrées dont tous les coefficients sont égaux à 1 sont parfois appelées matrices de
Jordan.
64 Chapitre 3 Calcul matriciel
2.a. Si on n'a aucune idée du résultat attendu, on peut au moins suspecter une relation
linéaire entre Ma, Jet / 4 du type : Ma= aJ + f3J4. Au brouillon et par identification
des coefficients des matrices des deux membres, il est alors immédiat que a = 1 puis
f3=a - l.
~
( ~l l~ a~ l~) (~1 1~ 1~ 1~)+ (a~0
JJ
0 0
1 a-1 0
0 a-1
llla 1111 0 0 0
donc M~. = J +(a - l)f4.
~
J2 = = 4J.
"O
0
r::::
Quand on demande de trouver une formule valable pour tout entier naturel (ici non
0
:::J nul), on regarde ce qui se passe pour de petites valeurs den afin de conjecturer ensuite
lfl
,..-1
un résultat général que l'on démontre finalement par récurrence. Ici
0
N J3 J2 X J = 4J X J = 4J2 = 4(4J) = 42 J,
@
....., J4 J 3 X J = ( 42 J) X J = 4 2 J2 = 4 3 J
r:
Ol
·;:: ce qui semble suffisant pour formuler une conjecture et avoir une idée du fonctionne-
>
Cl.
0
ment du raisonnement par récurrence.
u
Montrons par récurrence sur n que: Vn EN*, Jn = 4n- 1 J.
Initialisation : J 1 = 1 x J = 4° J donc l'égalité est vraie au rang 1.
Hérédité : Supposons Jn = 4n- l J pour un entier naturel n ~ 1. On a alors
Jn+I = Jn X J = 4n-l J X J = 4n- l J2 = 4n-l X 4 J = 4 n J = 4 (n+l)- l J
L 'égalité est vraie au rang n + 1.
Exercice 3.2 Puissances de matrice I 65
1 D'a près le principe de récurrence, nous avons bien : 'r;/ n E N*, pi = 4n- l J.
2.c. L'écriture de Ma établie à la première question suggère encore ici l'usage de la
formule du binôme de Newton pour le calcul de (Mar·
Ici, contrairement à la situation précédente, il n'y a aucune raison a priori que des
termes de cette somme soient nuls. On peut cependant utiliser pour Jk la formule
établie précédemment. Attention, il faut bien prendre en compte que Jk = 4k-l J
n'est valable que si k est supérieur ou égal à 1.
Que faire ensuite? Pour la somme, l'idée est de faire le tri dans son terme général
quant à la dépendance en k. Concrètement on va mettre 4 - 1 J en facteur pour faire
apparaître le terme général ( ~) (a - 1r- k4 k qui est celui de la formule du binôme
et faire attention au terme d'indice k = 0 qui est manquant.
D'après la formule du binôme de Newton,
"O
0
(a - 1)"!1 + ~ [t, (;}a - 1)"-'4'] ./
(a - 1+4r -(~)(a - 1r-040
r::::
:::J
0 n
lfl
,.-1
0
(a - 1) /4+ 4
J
(a_ ir 14 + (a+ 3r - (a - lr 1 .
N
@
,...., 4
r:
Ol
·;:: Au final, en posant u = a+ 3 et v = a - 1,
>
Cl. un - vn un - vn
0
u un+ 3vn un -vn
·un -vn un+ 3vn
·un -vn ·un -vn
66 Chapitre 3 Calcul matriciel
On considère un portefeuille boursier dont les actifs sont répartis en trois types,
i.e. répartis dans trois marchés.
• Marché obligataire :
Ce marché est stable. On vendra systématiquement en fin de journée 303 des
actions détenues en début de journée et le reste sera converti en actions du
marché des devises à parité égale (1 action obligataire=l action devise).
• Marché des devises :
Ce marché est soumis à un risque mesuré. En fin de journée on vendra les 4/7
des actions détenues en début de journée et le reste sera converti en actions
du marché des matières premières à parité égale. Par ailleurs, on procédera
en fin de journée à l'achat de 10 actions du marché obligataire pour chaque
action en devises détenue en début de journée.
• Marché des matière premières :
Ce marché est extrêmement volatil. En fin de journée, on décide donc de
convertir en obligations chaque action détenue en début de journée. On fixe
la parité à hauteur de 20 actions du marché obligataire par action du marché
des matières premières.
On note Xn, Yn et Zn le nombre d'actions détenues au début de la ne journée
respectivement dans le marché obligataire, le marché de devises et le marché des
2. On pose P= ( 1° :~ !~4) et Q = (~
1
2~
r::::
:::J
0
lfl
,.-1
0 1 3 3 50 -5- 35
N
@ a. Vérifier que P est inversible d'inverse Q et calculer la matrice D définie
.....,
r: par D = QAP .
Ol
·;::
> b. Exprimer A en fonction de P , D et p- 1 . En déduire, pour tout entier
Cl.
0 naturel n, l'expression de An en fonction de P, Dn et p - 1 .
u
t. On dit que A est la matrice de Leslie associée a u modèle, en hommage à Pat rick Leslie,
premier écologiste mathématicien, qui a introduit et développé cette théorie dans son a rt icle fondateur
T he use of matrices in certain population mathematics, 1945.
Exercice 3.3 Modèle de Leslie I 67
3. Soit n EN.
a. Proposer une fonction Scilab qui calcule le nombre total d'actifs au début
de la ne journée à l'aide de la relation de récurrence X n+ l = AXn .
b. Exprimer en fonction de n le nombre total d'actifs au début de la ne
journée.
1.a. Il s'agit ici d 'établir le système linéaire reliant les actifs par type de marché Xn,
Yn et Zn du jour n à ceux du jour n + 1, à savoir Xn+1, Yn+I et Zn+I· On traduit
ensuite le système linéaire en une équation matricielle.
Soit n E N. Les obligations du jour n + 1 sont issues des devises du jour n , au nombre de
Yn · et des matières premières du jour n , au nombre de Zn , avec des parités respectives
de 10 et 20. Ainsi, Xn+l = lOyn + 20zn .
Compte tenu des ventes effectuées en fin de journée, seuls 703 des Xn obligations du
jour n sont maintenus le jour su ivant et constituent le portefeuille des devises le jour
. . 7
n + 1. AlnSI , Yn+I = 10 Xn .
Les matières premières du jour n + 1 sont les trois septièmes des devises du jour
précédent, c 'est- à-dire ceux qui n'ont pas été vendus (les matières premières du jour n
, , ven d ues ) . A"ms1,
ont toutes ete . Zn+I = 7Yn
3 ·
Xn +l = lOyn + 20zn
En résumé, Yn+ 1 = 170 xn ce qui s'écrit matriciellement : Xn+1 = AXn .
{
Zn+l = t Yn
1.b. La relation de récurrence reliant X n+ l à X n fait penser ici à celle d'une suit e
géométrique. Par a bus de langage, (X n) serait une suite «géométrique» de « raison »
A , de premier t erme X 0 , ce qui permet de conjecturer la formule explicitant son terme
général X n .
( ~~ ',~ ( ~1 ~~3
3
QxP
50 35
'f)
- i-
X -;4
40 )
~ 10
0
20)
0
(307 X
10
-7
- 10
7
-80)
28
3
7 0 1 3 -3 -6
puis
u:ic lfO
9
~)
- 10
-80)
c"
Q x (AP) X 21 7 28
140 282 21
50 35 - 5 3 -3 -6
3 9 3 6 9 3
20 + 20 + ïO - 20 + 20 - 10 5
= _!!+ :2 + ~
94
3
64 32
!.+!.-~
41 42 23
-18
: 1 --3' )
8 6
5-5-5 - 5- 5+ 5 - 5 - 5+ 5
~)
0
G -1
0 -2
~I
p - 1 AP = D donc (P- 1 A)(PP- 1 ) = DP- 1
puis p - 1 A = DP- 1
et, fi nalement,
"O
0
P(P- 1 A) = PDP- 1 i.e. A= PDP- 1 .
r::::
0
:::J On regarde ce qui se passe pour de petites valeurs de n :
lfl
,.-1 A2 - (P DP- 1 )(PDP- 1 ) = P D(P- 1 P)DP- 1 = P D 2 p - 1 ,
0
N
A3 - A 2 X A = PD 2 p - l X PDP- 1 = PD 2 (P - 1 P)DP- 1 = PD 3 P - 1 .
@
.....,
r: On peut alors formuler une conjecture pour An que l'on démontre par récurrence .
Ol
·;::
>
Cl. On montre par récurrence sur n qu e : '</n EN, A n = PDnp- 1 .
0
u Initialisation : On a A 0 = Is = pp- 1 = PlsP- 1 = PD 0 p- 1 donc l'égalité est vraie
au ra ng O.
Hérédité : Supposons An = P Dn p- 1 pour un certain entier naturel n. O n a alors
An+i A x A n = (PDP- 1) x (PDnP - 1 ) = PD(P- 1 P)DnP- 1
PDDnp- l = PDn+l p - 1 _
A insi, l'égalité est vraie au rang n + l.
Exercice 3.3 Modèle de Leslie I 69
function Xn=Population(n)
x=100;y=O;z=O; //initialisation de x, y et z (k=O)
for k=1:n //boucle sur k
yy = y;; //yy stocke y_(k-1)
zz = z; //zz stocke z_(k-1)
z = 3/7*y; //on actualise la valeur de z_k
y = 7/1Ü*X; //on actualise la valeur de y_k
x = 10*yy+20*zz; //on actualise la valeur de x_k
end;
Xn=x+y+z; //valeur de sortie: x_n+y_n+z_n
endfunct i on
Fort des spécificités du langage Scilab, on pouvait éviter le recours aux variables
auxiliaires yy et zz en utilisant une multiaffectation aussi bien dans la boucle « for »,
[x, y, z] = (10*y+20*z, 7 /10*x, 3/7*y); , que dans l'initialisation de x, y et z,
[x, y, z] = (1OO,0, 0) ; .
3. b. Le nombre total d'actifs au jour n est la somme Xn +(yl~)zn des trois composantes
multiplication matricielle n'est autre que 100 fois la première colonne de An. Il suffit
donc de ne calculer que cette première colonne. Nous utiliserons pour cela le résultat
"O précédent An = P n np- 1 : les matrices diagonales (comme D) ont en effet l'avantage
0
r::::
:::J
d'avoir des puissances qui se calculent très simplement.
0
lfl
,.-1
0
N 3n (- 0l r 0)
@
.....,
r:
Ol
Pour tout entier naturel n, nous savons que Dn =
(o o0 0
(- 2r
donc,
ï::: après calculs et sans préciser les coefficients des deux dernières colonnes de An,
>
Cl.
0
An pvnp- 1
u
40 ) (3n
J~)
30 10 0
7 -7 - 14 0 (- 1r
(
1 3 3 0 0
•
= •
• :)
70 Chapitre 3 Calcul matriciel
45 x 3n - 25(-1r + so(-2r)
puis Xn = An Xo =
(
2
J 3n + 31i (- 1r - 28(-2r . Le nombre total d'actifs au
~3n - :f(-1r +6(-2r
1 jour n est donc égal à 57 x 3n - 15(- lr + 58(- 2r.
(~ ~) .
0
lfl
,..-1
0
N
@
....., 2 . La difficulté ici est de reformuler ce qui nous est demandé comme une propriété
r:
Ol
·;::
P(n) dépendant den : «il existe deux réels an et bn tels que An = anA + bnfz ».
>
Cl.
On doit démontrer que P(n) est vraie pour tout entier naturel n . Comme il nous est
0
u demandé de plus de relier (an+ 1 , bn+ 1 ) à (an, bn), le raisonnement par récurrence est
tout indiqué ici.
~1
Montrons par récurrence sur n que, pour tout entier naturel n, il existe deux réels an
et bn tels que An= anA + bnh·
Initialisation : A 0 = h = 0 x A+ 1 x h donc la propriété est vra ie au ra ng 0 avec
=
ao 0 et bo 1. =
Exercice 3.4 Th. de Cayley-Hamilton pour les matrices 2 x 2 71
Hérédité : Supposons que, pour un entier naturel n, il existe deux réels an et bn tels
que An= anA + bnh· On a alors:
An+l = An X A = (anA + bnh) X A = anA 2 + bnA
an[tr(A)A - det(A)I2] + bnA (d'après 1)
[an tr(A) + bn]A - an det(A)h
En posant O,n+l = O,n tr(A) + bn et bn+l = - an det(A), on a bien
An+i = an+1A + bn+1h
donc la propriété est vraie au rang n + 1.
On aura noté quelques points importants dans l'étape d'hérédité :
• l'écriture de An+I sous la forme An x A pour exploiter l'hypothèse de récurrence;
• l'utilisation de l'écriture de A 2 en fonction de A et 12 qui a permis d'écrire An+I
comme combinaison linéaire de A et h uniquement ;
• la définition constructive de an+I et bn+I en fonction de an et bn .
Ainsi , d 'après le principe de récurrence, pour tout entier naturel n, il existe deux réels
an et bn tels que An= anA + bnh·
De plus on a montré que les deux suites (an) et (bn) peuvent être définies par
~1
Soit n E N. D 'après les deux relations de récurrence établies en 2,
an+2 = an+l tr(A) + bn+l = an+l tr(A) - an det(A).
On reconnaît ici une relation de récurrence linéaire d'ordre 2 qui permet donc le calcul
du terme général de la suite (an) ·
"O 4.a. On utilise les résultats généraux des deux questions précédentes. La tâche se
0
r:::: ramène donc ici essentiellement à calculer tr(A), det(A) et, surtout, le terme général
:::J
0 d'une suite linéairement récurrente d'ordre 2 +.
lfl
,-1
0
N tr(A) = - 1 et det(A) = - 6 donc, par 2 et 3, pour tout n E N, An = anA + bnh où
@
.....,
r: ao = 0, bo = 1 et Vn E N,
Ol
·;::
>
Cl. La suite (an) est donc récurrente linéaire d'ordre 2. Son équation caractéristique est
0
u q2 + q - 6 = O. Le discriminant de q2 + q - 6 valant 12 - 4( - 6) = 25 = 52 , cette
' . ad met deux so1utrons
equatron . ' Il es - l - 5 = - 3 et - l + 5 = 2. A"rnsr,. 1·1 existe
ree .
2 2
deux réels À etµ tels que: Vn EN, an= >..(-3r + µ2n.
+.Pour plus de détails sur la méthode dans ce cas, on se reportera aux exercices 7.1, 7.2 et 7.3
en pages 245, 247 et 250.
72 Chapitre 3 Calcul matriciel
~
Nous savons que ao = 0 et a1 = -ao + bo = 1. Or,
{ ao
ai
=
=
0
1
{::::::::}
{ >.+µ
-3.X + 2µ
=
=
0
1
{::::::::}
L2rL2+3L1 { >.+µ
5µ
0
1
{::::::::}
{ À
µ
2n - (-3r
ainsi, pour tout entier naturel n, O.n = et
5
2n+1 + 2n - [(-3r+1 + (-3rJ
bn = an+ 1 + an = 5
donc
An = anA + bnh = ~ [(2n - (-3f1') A+ (3 X 2n +2 X (-3t) h ]
~
5
(6-x2n2n+- ( -(-3r
3)n
6x [2n - (-3rl)
- 2n + 6 x (- 3r ·
4. b. Première méthode :
Comme on travaille avec des matrices d'ordre 2, on dispose d'un critère d'inversibilité
par le déterminant (cf exercice 4.5 en page 100) et d'une expression de l'inverse : si
det(A) -:/= 0,
A- 1 =(ac db)-l- ad 1 ( d
- be - c
"O
0 A
-1 1
= -4 X 3 - ( -6) X 1
(-4 -6) 61(4
1 3 = - 1
r::::
:::J
0 La matrice obtenue en remplaçant n par -1 dans l'expression de An établie à la
lfl
,.-1
question précédente est
0
6x(~+.!.))
10
N
1(3+.!.
- 1 31 1- 3 = -1( 35
@ 5 - 2 - 3 - 2 - 2 5 - 6
.....,
r:
Ol
·;::
donc la formule établie à la question précédente reste vraie pour n = - 1.
> Plus généralement, pour n E N*, An est inversible comme puissance d'une matrice
Cl.
u
0 inversible et, comme elle est carrée de taille 2, on peut directement calculer sa matrice
inverse. On a déjà, en posant Un = 2n et Vn = (- 3r.
A insi,
2~ [(A ~) ~ ( - ~) n )
0 2 2 2
lfl
= + 6A + 9h) + ( ( - (6h - A - A ) + (4h - 4A +A )]
,-1
0
N
= 1 ( 2A2 + 2A + 13h ) = 25
25 1 (2 X 6h + 13h) = h .
@
.....,
r: Ainsi , l'inverse de A-n à savoir An est donné par la formule de la question précédente
Ol
·;::
>
i.e. la formule est aussi valable pour n E z:.
Cl.
0
u
74 Chapitre 3 Calcul matriciel
Soit n E N*. Dans cet exercice, pour tout j E ITl, nil on notera Ej E Mn,1 (JR)
la matrice colonne dont tous les coefficients sont nuls sauf le f qui vaut 1. Soit
A E Mn(lR).
1. E rr1, nl Que représente A X Ei par rapport à A?
a . Soit i
b. Soit (i,j) E rr1, nil 2 . Calculer t Ei X A X Ej .
c. On suppose que pour tout (X, Y) E Mn, 1 (1R) 2 , on a tXAY = ty AX.
Montrer que la matrice A est symétrique. Étudier la réciproque.
2. On admet qu'une matrice B E M n(lR) est inversible ssi Il
'ï/ X E Mn,1 (JR), (BX = 0 ~ X = 0).
On suppose dans la suite que A est à coefficients réels et antisymétrique.
a. Établir : 'ï/ X E M n,1 (JR),
t X A X =O.
b. En déduire que, pour tout réel non nul À, la matrice A - Àl n est inversible.
1.a. Par considération des tailles des matrices, on s'aperçoit que le produit AEi est
une matrice colonne de taille (n, 1). Pour calculer ses coefficients, il faut revenir à la
définition générale du produit matriciel.
Soit k E [l , n]. Par défi nition d u prod uit m atriciel, et compte tenu d u fait que les
. . E , { Ei[j, l] = 0 si j =/; i
coe ff rcrents de i sont don nes par E ·[. l] _ .. _ · ·
i J, - 1 Sl J - '/,
n
(A X Ei)[k, l] = L A[k,j] Ei[j , l ] = A[k,i] Ei[i, l] = A[k ,i].
j=l ~ ~
Ai nsi AEi correspo nd à la ie colonne de la matrice A.
1.b. Vérifions que la matrice produit est bien définie et déterminons sa taille.
~I
"O
0
r:::: Soit (i, j) E [l , n ] 2 . tEi E Mi ,n(IR), A E M n(IR) et Ej E Mn,1(IR) donc le prod uit
:::J
0 t Ei x A x Ej est de taille 1 x 1 aut rement d it c'est un scalaire de IR.
lfl
,-1
0 On procède alors au calcul de l'unique coefficient de t Ei x A x Ej vu sous la forme
N
t Ei x (A x Ej) pour exploiter le résultat de la question précédente.
@
....,
r: O n a:
Ol
·;::
n n
>
Cl.
0
u
k=l k=l
n
L Ei[k , l ] A[k, j]
k=l '--v-"
= Ei[i, l] A[i, j ].
.....___...
=O ~k ~i = 1
La réciproque doit mener à une égalité faisant intervenir des matrices transposées,
il paraît donc ici plus naturel d'utiliser la caractérisation de la symétrie basée sur la
transposition : A est symétrique si et seulement si t A = A.
2
Réciproquement, si A est symétrique et (X, Y) E J\ltn ,1 (IR) , alors
t XAY = t X t AY = t (AX)Y = t (AX) t (tY) = t(tY x AX) = t(tY AX) = t y AX
(la dernière égalité vient du fait que t y AX est une matrice à un seul coefficient donc
elle est symétrique).
2.a. Le point de départ consiste à exploiter que t X AX n'a qu'un seul coefficient donc
est égale à sa transposée. Cela a le mérite de faire apparaître t A qui n'est autre que
-A par antisymétrie de A.
2.b. Posons d 'abord bien les choses en identifiant précisément ce que l'on doit montrer.
Compte tenu du critère d'inversibilité admis, il suffit de montrer que X = 0 est
l'unique solution de (A - Àln)X =O.
~I Soit À E IR*. Soit X E J\lt n,I (IR) tel que (A - Àln)X = O. Il s'agit de montrer que
X=O.
"O
Pour parvenir à l'objectif ainsi fixé, on peut faire apparaître t X AX pour exploiter le
0
r:::: résultat de la question précédente.
:::J
0
~I
lfl
,.-1
Comme (A - Àln)X = 0 ~ AX =À.X, on a, d'après la question précédente,
0
N
o = txAx = tx(>..X) = >.. x i xx donc txx = o (car>.. i= 0).
@
.....,
r: n
Ol
·;::
>
Cl.
Si X = Xn) X = L ~
x~ . Cette somme de
0 k= l ~o
u Xn Xn
nombres positifs est nulle si et seulement si chacun de ses t ermes est nul.
~1
n
Si t X= (x1 , x2 , ... , x n ). nous avons t XX= Lx% où x%;;;:: 0 pour tout k E [l, n] .
k= l
Ainsi, t xx = 0 entraîne: Vk E [1,n], x~ = 0 i.e. X= O.
76 Chapitre 3 Calcul matriciel
En concl usion, d'après le critère d'i nversibilité admis en préamb ule, po ur tout À E IR* ,
1 A - Àln est inversible.
u:u ~ ~2
>---+ 2 2 3
>---+ 4 6 7
et A= (
>---+ 3 10 ) ,
11
>---+ 1 13 14 15 16
calculer P; 1 APu.
"O
0 1.a. Il s'agit, a près calcul des coefficients (PuPT )[i, j ), d'exhiber une permutation cp
r::::
:::J telle que
0
lfl
,.-1 ( p u p T ) [i , J.1= { 01 si cp.(j)
smon
=i .
0
N
@ n
.....,
r:
Ol
·;::
>
Cl.
=0 si T(j)#k = 1
0
u Finalement, par définition de Pa- .
1 si a (r( j) ) = i
(Pa- PT) [i , j] = { O sinon
= Pa-or[i , j].
1.b. L'inversibilité et l'inverse de la matrice Pu seront obtenus lorsque l'on aura t rouvé
une matrice carrée B telle que PuB = In .
Exercice 3.6 Matrices de permutation 77
Or In est une matrice de permutation (Prdp,nD = In), ainsi puisque l'on cherche à
établir que l'inverse est elle aussi une matrice de permutation, il s'agit donc d'exhiber
une permutation T telle que Pu Pr = Prd[l ,n J.
Grâce à ce qui précède, on sait que T convient dès lors que fJ o T = Id[i,n] .
Par suite, tpa et Pa - 1 ont les mêmes coefficients, c'est donc qu e Pa - 1 = tpa·
On en déduit, grâce à l.b, P;; 1 = Pa - 1 = t Pa.
Réciproquement, nous allons, pour une matrice M vérifiant les bonnes conditions,
construire une permutation <J.
~1
Soit j E [1, n] , notons a(j) la position qu'occupe le seul coefficient non nul de la
colonne cf.
On a ainsi défin i une application a: [ 1, n] ---+ [1, n]. De plus, sous réserve que a soit
effectivement bijective, on peut écrire M =Pa.
~
1 3
( 9 11
5 7
Soit n un entier supérieur ou égal à deux. Pour i et j deux entiers de [1, n],
on note Ei,j et r/~> les deux matrices carrées d'ordre n définies par : tous les
coefficients de Ei,j sont nuls à l'exception de celui en position (i,j) qui vaut 1 et
rLY = In+ >..Ei,j· Dans toute la suite A désigne une matrice carrée d'ordre n.
1. a. Calculer les colonnes de AEi,j et les lignes de Ei,j A.
b. Montrer que seules les matrices d'homothétie commutent avec toutes les
"O
0 matrices de même ordre, i.e.
r::::
:::J
0 [V B E Mn(IK) , AB =BA] ~ [3 >.. E IK, A= >..In]·
lfl
,.-1
0
N
2. a. Calculer les colonnes de ATD) et les lignes de rD) A.
@
....., b. Montrer que, pour i i- j' rD)' est inversible et donner son inverse.
r:
Ol
·;:: 3. a. Proposer une matrice D>..,i qui, par multiplication à gauche avec A, donne
>
Cl. une copie de A où la ie ligne a été multipliée par le facteur >...
0
u
b. Que donne la multiplication à droite? D>..,i est-elle inversible?
4. Proposer une matrice Pi,j qui par multiplication à gauche avec A donne une
copie de A où les lignes i et j ont été permutées et par multiplication à droite
agit de même sur les colonnes. Est-elle inversible?
80 Chapitre 3 Calcul matriciel
5. a. Montrer qu'un produit de matrices carrées est inversible ssi chaque facteur
est inversible.
b. Soit A une matrice carrée d 'ordre net A' la matrice obtenue à partir de
A après avoir effectué une ou plusieurs opérations suivantes :
C·i >. C·J
f - '-v-"
#0
Li f- >. Lj.
'-v-"
#0
Montrer que A est inversible ssi A' est inversible.
6. Soit >. un réel. On on note T le polynôme 1 +X + · · · + xn et on considère les
matrices
0 0 - 1 0 0 - T(>.)
1 1 ->. -1
A= 0 B= 0
0 -1 ->. -1
0 0 1 - 1 0 0 1 -1- >.
a. Montrer que A - >.In est inversible ssi B l'est.
b. Montrer que A - >.In est non inversible ssi >.est une racine de T.
1.a. Il nous suffit de calculer les coefficients de AEi,j puis de rassembler les coefficients
par colonnes.
"O
(AEi,j)[k,f..] = tA[k,r] ~ = A[k,i] ~ = { A[~,i] si R = j
sinon
0
r:::: r= l =O si r#-i = 1 si €= j
:::J = 0 sinon
0
lfl Ainsi seuls les coefficients situés en colonne j sont éventuellement non nuls et
,.-1
0
N
@
.....,
c:Ei,j = ( A [1, il ) = et .
r:
Ol
·;:: A[n, i]
>
Cl.
0
Par suite l'écriture par blocs colonnes, donne
u CA
AEi,j = (On,1 On,1 i Ûn,l
t
colonne j
On opère de même avec Ei,jA, puis on rassemble les coefficients ligne par ligne.
Exercice 3. 7 Opérations élém entaires e t produit matriciel 81
Ainsi seuls les coefficients situés en ligne i sont évent uellement non nu ls et
L~i,jA = ( A [j, 1] A [j , n] ) = L; .
Par suite l'écrit ure par blocs lignes donne
~l igne i .
1.b. Nous allons commencer par l'implication réciproque, c'est l'implication la plus
simple.
~1
Supposons que A puisse s'écrire sous la forme A = >.In, on en déduit, quelle que soit
la matrice B carrée d 'ordre n,
A B= (>.In) B = >.(InB) = >.B = >.(B ln) = B (>.In) =BA.
Pour la réciproque nous allons tirer profit des matrices élémentaires E i,j qui per-
mettent par produit d 'isoler une ligne ou une colonne et la placer là où on le souhaite.
A commutant avec ce type de matrices on aboutit alors à des égalités du type
0 0 • 0 0 0 0 0 0 0 0 0
0 0 • 0 0 0 0 0 0 0 0 0
0 0 • 0 0 0 0 0 0 0 0 0
0 0 • 0 0 0 0 0 0 0 0 0
"O
0
r::::
:::J
0
0
0
0 •• 0
0 0 0
0 0
* *
0 0 •
0
* * *
0 0 0
0 On obtient par identification la nullité des coefficients • (provenant d 'une colonne de
lfl
,..-1 A), la nullité des coefficients * (provenant d 'une ligne de A) et l'égalité entre deux
0
N coefficients diagonaux de A (• = • ).
@
.....,
On aura ainsi prouvé, qu'en dehors de la diagonale, les coefficients de A sont nuls, et
r: sur la diagonale, les coefficients de A sont identiques .
Ol
ï:::
>
Cl. Supposons que A commute avec toute mat rice carrée de même ordre.
0
u Soient i et j deux ind ices quelconques dans [1,n] , puisque A commute avec Ei,j. on
a d'après la quest ion 1. a
(0 0 A[i - 1, i] 0 0) = 01,n
(0 0 A[i ,i] 0 0) =Lf
0 0 A[i + 1, i] 0 O) = 01,n
(0 0 A[n,i] 0 0) = 01,n
Pl us particulièrement, on a, pour tout indice i et .i.
A [l, i] = · · · = A [i - 1, i] = A[i + 1, i] = · · · = A [n, i] = 0 et A [i, i] = A[j,j].
A ut rement dit les coefficients en dehors de la diagonale de A sont nuls et ceux sur la
diagonale sont identiques { not ons À cette valeur commune). Ainsi A= Àin .
2.a. Puisque l'on sait calculer le produit d'une matrice par une matrice élémentaire
Ei,j, tirons profit de l'expression rD)
= In+ )...Ei,j pour calculer le produit avec rD).
Grâce à 1.a, on a
ATD) = A X + ÀEi,j ] = A + ÀAEi,j
[In
(c: .. · Cf- 1 Cf Cf+1 .. · C~) + .X{On,1 .. · On,1 Cf On,1 .. · On,1)
t t
colonne j colonne j
t
colonne j
Grâce à 1.a, on a
r },;> A = [In + ÀEi,j ] x A= A+ ÀEi,j A
"O
0
r::::
:::J
Lt 01,n Lt
0
lfl
,.-1
0 Lt-1 01,n LAi- 1
N
= LA i + .x LA
J
+--ligne i LA+ ).LA
i J +-- ligne i
@ LAi+l LAi+l
,...., 01,n
r:
Ol
·;::
> LA LA
Cl.
0 n 01,n n
u
M ultiplie r A à droite par T[~) r e vie nt à pro céd e r à la transvection sur les
colonnes : Cj +---- Cj +)...Ci.
Multiplie r A à ga uche p a r T~~) r e vient à pro céd e r à la tra n svection s ur les
lig n es : Li +---- Li + )...L j .
On convient donc de dire que rD)
est une matrice de transvection.
Exercice 3.7 Opérations élémentaires et produit matriciel 83
2. b . Supposons i =/=- j.
P uisque les matrices TD)
agissent par transvection sur les lignes lorsqu'on les multiplie
à gauche, multiplier à gauche par deux matrices de ce type revient donc à opérer deux
fois consécutives par transvections.
Si l'on considère une première transvection (Li f-- Li+ >.Lj), il nous suffit alors
de procéder par la transvection inverse (Li f - - Li - ÀLj) pour revenir à la matrice
initiale.
Il semblerait donc que la multiplication à gauche par TD)
suivi de la multiplication
à gauche par Tt;>-)
donne la matrice initiale.
Si l'on prend comme matrice initiale, la matrice In, on aura donc trouvé un produit
entre TD) et une autre matrice carrée du même ordre qui donne In .
Grâce aux interprétations obtenues pour la mu ltiplication à gauche par les matrices
de t ransvection, on sait qu e la matrice A = T(>-. i ,3
) In s'obt ient, à partir de In. avec
l'opération Li +---- Li + ÀLj. Autrement dit t outes les lignes de A sont identiques à
celles de In. sa uf évent uellement la ie ligne qu i vaut Lf = L{n + >-.L;n.
De même, puisqu 'à partir de A avec l'opération Li +---- Li - ÀLj on obtient la matrice
B = r L;>-.) A. ses lignes sont toutes id ent iques à celles de A (et donc à celles de In).
sauf évent uellement la ie ligne qui vaut
L!/1
•
=LA_
i
ÀLJA =(Lin
i
+ )..Lin)_
J
)..Lin
J
=Lin
i·
(À - 1) .
Posons D >-. ,i = Ti,i , 1.e.
"O
0 1
r::::
:::J
0 (0)
lfl
,-1 1
0
N D>-.,i =In+ (À - l)Ei,i = +---- ligne i.
@ 1
.....,
r:
Ol
·;:: (0)
>
Cl. 1
0
u Puisque D>-.,i = T},;-l), on sait, d 'après 2.a , que la mu ltiplication à gauche avec A
correspond à la tra nsform ation suivant e
Li +---- Li + (>. - I)Li = >.Li .
3.b. De même 2.a nous permet d'interpréter l'action de cette transvection un peu
particulière par multiplication à droite.
84 Chapitre 3 Calcul matriciel
~1
La multiplication à droite de DÀ,i avec A correspond à la tra nsform ations suivante
Ci +--- Ci + (.X - l)Ci =.:>..Ci .
Grâce à l'interprétation que l'on vient de donner au produit par la matrice de dilata-
tion D>.. ,i, on convient de dire qu'il s'agit d 'une .
P our déterminer son inverse évent uelle, il s'agit, comme pour les transvections (cf 2. b),
d'enchaîner une transformation et sa transformation inverse. L'action de dilatation
par un facteur À est irréversible, lorsque À = 0 mais peut être inversée (par dilatation
d'un facteur 1/ À) lorsque À -:/=- O.
Si À =f. 0, la multiplication par D>..,i puis par D 1 ; >.. ,i agit sur les lignes de In selon les
transformations successives Li+--- À.Li puis Li +--- ±Li .
Ainsi, on obtient la matrice D 1 ; À,i DÀ,i i n dont toutes les lignes (y compris la ie)
coïncident avec celles de In.
Di;>.. ,iDÀ ,i = Di; >.. ,iDÀ,iin =In .
Finalement, lorsque À =f. 0, on en dédu it que D>.. ,i est inversible et que D~,~ = D 1 ; >..,i ·
Pour montrer qu'une matrice est non inversible, il suffit d'exhiber une
matrice carrée non nulle qui par multiplication donne la matrice nulle
(on verra plus tard qu'il suffit de trouver une matrice colonne non nulle,
cf 3.b) et de raisonner par l'absurde.
Grâce à l'i nterprétation qu e l'on peut donn er au produit par une matrice de dilatation
B = Do,i Ei,i est une matrice dont laie ligne vérifie Lf = 0 X L~i,i = 01,n, et toutes
les autres lignes sont identiques à celles de Ei,i . i.e. nulles. Ainsi Do,i E i,i =O.
Supposer Do,i inversible donnerait alors, par multiplication à gauche par DO,i, Ei,i = 0
ce qui est absurde . Finalement, Do,i est non inversible.
0 1
Exercice 3.7 Opérations élémentaires et produit matriciel 85
Ainsi Pi,j = L Ek,k + B i,j + Ej,i. d'où grâce à 1.a (ici on ill ustre le cas i < j).
k~{i,j}
~I Pu isque Pi,j x Pi,j =In. on en dédu it que Pi,j est inversible et que Pi~/ = Pi,j·
5.a . Le libellé de la question ne précise pas combien de facteurs l'on considère. Nous
allons nous contenter de traiter le cas de deux facteurs A et B (matrices carrées d 'ordre
n) , une récurrence immédiate permettrait de généraliser le résultat à un nombre quel-
conque de facteurs.
L'implication directe étant un résultat du cours, c'est donc la plus simple.
Si l'on suppose que A et B sont inversibles, on sait que AB est inversible d 'inverse
B - 1 A- 1, pu isqu 'en effet un calcu l direct donne
(AB)(B- 1 A- 1 ) = ABB- 1 A- 1 = AA- 1 =In .
"-v--"
ln
"O
0
r::::
:::J
Si l'on note C l'inverse que l'on vient d 'exhiber ci-dessus, on remarque que
0
lfl
,..-1 CA = B- 1 et BC = A- 1 .
0
N
@ Ainsi, pour la réciproque, nous allons construire un inverse pour A et un inverse pour
.:C B à partir d'un inverse du produit AB.
Ol
·;::
>
Cl. Supposons AB inversible et notons C son inverse.
0
u Puisque C est un inverse à droite d e AB, on a In= (AB)C = A(BC).
Ainsi BC est un inverse à droite de A (et toutes deux sont des matrices carrées de
même ord re) ce qu i prouve que A est inversible (et que son inverse est BC).
De même, pu isque C est un inverse à ga uche de AB, on a In = C(AB) = (CA)B.
Ainsi CA est un inverse à ga uche d e B (et toutes deux sont des mat rices ca rrées de
même ord re) ce qu i prouve que Best inversible (et que son inverse est CA).
86 Chapitre 3 Calcul matriciel
5.b. Les opérations proposées, sont d'après ce qui précède équivalentes à la multi-
plication de la matrice initiale A par B qui est l'une (ou un produit) des matrices
introduites jusqu'ici (matrices de permutation, de transvection, ou de dilatation). Ces
matrices sont toutes inversibles.
Comparer l'inversibilité de A à celle du produit AB est donc conséquence de laques-
tion précédente.
Opérer par échange de ligne (resp. colonne), transvection de ligne (resp. colonne) ou
dilatation de ligne (resp. colonne), revient à passer de la matrice A à la matrice A'
obtenue par multiplication à gauche (resp. droite) par l'une des matrices B du type
P i,j, TD) ou D>. ,i (avec À-=/= 0).
On sait d 'après la question précédente que A' est inversible ssi les facteurs A et B
sont inversibles.
Or, comme cela a été prouvé, quel que soit son type, la matrice B est inversible. Ainsi
A' est inversible ssi A est inversible.
On sait que les transvections sur les lignes préservent l'inversibilité éventuelle.
Puisque
-À 0 0 -1
1 -À
A - >.In = 0
"O
0
r:::: -À -1
:::J
0 0 0 1 - 1- À
lfl
,..-1
on remarq ue qu'une transvection entre les lignes 1 et 2, permet d'annuler le coefficient
0
N d 'i ndice (1, 1), ainsi
@ 2
....., 0 -À 0 -1-À
r:
Ol
·;::
> 1 - À
Cl.
0 est inversible.
u 0
- À - 1
0 0 1 -1-À
Il s'agit à présent d'annuler le coefficient d'indice (1, 2), ce que l'on obtient par la
transvection
Exercice 3.8 Polynôme annulateur de matrice 87
->. -1
0 0 1 -1-)..
0
B est inversible {::::::::} est inversible.
- >. - 1
0 0 1 - 1 - )..
0 0 -T( >.)
Or, cette dernière éta nt triangulaire, on en dédu it
Best inversible {::::::::} -T(>.) -::f. O.
Ainsi , grâce à la quest ion précédente on en déd uit que A - >.In est inversible ssi
T (>.) -::f. 0, ce qu i, par contraposition , nous donne A - >.In est non inversible ssi ).. est
racine de T.
"O
0
r::::
:::J
0
lfl
,.-1
On note T le polynôme 1 + X+··· + x n et A la matrice de M n(IR)
0
N 0 0 - 1
@
....., 1
r:
Ol
·;::
> 0
Cl.
0
u 0 - 1
0 0 1 - 1
On veut établir que In + A + A 2 + ··· + An = 0 (on dit alors que T est un
polynôme annulateur de A ).
88 Chapitre 3 Calcul matriciel
1. Rappelons que c: 1
désigne la ke colonne d'une matrice M.
a. Comparer, pour toute matrice B E Mn(lR) et tout indice de colonne k,
les colonnes C~A et BCt.
b. En notant E i la colonne de M n, 1 (1R) dont tous les coefficients sont nuls à
l'exception de celui se trouvant à la ligne i qui vaut 1, que représente la
colonne BEi, pour toute matrice BE Mn(lR)?
c. En déduire que pour tout k E {1, ... , n - 1} on a C~A = C~+i ·
n+l
2. a. On pose En+l = AEn. Que vaut L Ei?
i=l
Exprimer C:f A en fonction des Cf , . .. , C{!.
b. Donner la décomposition en colonnes des matrices
2 3 1
In, A, A , A ... , An- An en fonction des E 1, ... , En+l
, ,
c. Conclure.
1.a. On compare ici les colonnes du produit BA avec les colonnes BCt, ... , Be,: .
Puisque le calcul du produ it BA passe par le calcul du produ it de B par les colonnes
de A. on a l'écriture matricielle par blocs-colonne
BA= (Bct Be: BC~) .
Ainsi , par identification , les colonnes de BA sont données par
V k E [ l , n], Cf A = BC{
"O
0
r::::
(BEi )[k, Il = L B[k,jJ Ei[j, Il = B[k, il Ei[i, Il = cf [k, IJ.
.= 1 "'-v--' ""-.,.--'
:::J J =O sij-:;éi =l
0
lfl
,.-1
Ainsi BEi =Cf.
0
N 1.c. Puisque les n - 1 premières colonnes de A sont les colonnes E2, ... , En, on peut
@
.....,
r:
remplacer dans 1.a, et
par Ek+i, puis appliquer 1.b.
~I
Ol
·;:: D 'après 1.a,
> BA
u
Cl.
0 V k E { 1, ... , n - 1} , Ck = BCkA = BEk+1 l.b B
= Ck+i ·
2.a. D'après ce qui précède AEn est la ne colonne de A, celle-ci s'exprime en fonction
des Ei, ... , En.
n+ l
On peut donc réduire l'expression de la somme L Ei en l'écrivant exclusivement en
i=l
fonction de E1, ... , En.
Exercice 3.8 Polynôme annulateur de matrice 89
2.b . On connaît les colonnes de In et de A et, grâce à la question 1.a et ce qui précède,
on connaît les colonnes de BA.
Ainsi l'expression de chacune des colonnes de In, A, ... , An se fera très simplement
en fonction des colonnes E1, ... , En+i .
Seule une récurrence constituerait une preuve rigoureuse du résultat mais puisque la
dynamique permettant de passer de l'écriture en colonnes de A à celles de BA est
90 Chapitre 3 Calcul matriciel
BA = ( C,"
// Cf
3
A <j (ct 2
... c: t et )
2
-
k=l
= ( E4 ... En+I E1 - L: Ek ).
k~2
~
( ~)E2
• S avoir tra duire un problème linéaire sous forme m atricielle (cf ques-
tion 3.3.1.a).
• Savoir u t ilis er les propriétés de la t rans position (cf exercice 3.5 et ques-
tions 3.1.2.c, 3.5. 1.c, 3.6. 1.c).
• Savoir déterminer si une matrice carrée est inversible (cf exercices 3.1 ,
3.7 et questions 3.3.2.a , 3.4.4.b , 3.5.2) .
"O
• Savoir calculer la puissance ne d ' une matrice carrée
0
r::::
:::J
<:; en se ramenant à une mat rice diagonale (cf question 3.3.2.b) ;
0
lfl
0 en utilisant la formule du binôme de Newton (cf exercice 3.2) : si AB = BA,
,..-1
0 alors
N
@
.....,
r:
Ol
ï:::
>
Cl.
0
u
La formule du binôme de Newton mat ricielle n 'est introduite
qu'au deuxième semestre.
2x - y+ 3z 3
(82)
{ 3x +y - 5z
4x - y + z
X + 3y - l3z -
0
3
-6
X + 2y + 3z + 4t 10
(83)
{ 2x - y+ z - t
3x +y+ 4z + 3t
- 2x + 6y + 4z + lOt -
1
11
18
~ ITJx
(S1) Ç:::::::;>
{ +2y
-4y
3y
+8z
-12z
+9z
- 7t
+16t
-12t
- 2
12
-12
L2
L3
~
~
L2 - 3L1
L3 +Li
Ç:::::::;>
r 0
+2y +8z
-12z
~ [TI-v -y +3z 3
"O
0
0
r::::
:::J
(82) Ç:::::::;>
{ 5y
y
7y
-l9z
-5z
-29z
=
=
=
-9
-3
-15
L2 ~ 2L2 - 3L1
L3 ~ L3 - 2L1
L4 ~ 2L4 - L1
lfl 2x -y +3z 3
{
,.-1
0 y -5z -3
N Ç:::::::;> L2 H L3
@ 5y -l9z -9
....., 7y - 29z - 15
r:
Ol
ï::: 2x -y +3z 3
>-
u
Cl.
0 Ç:::::::;>
{ ITJy - 5z
6z
6z
- 3
6
6
L3 ~ L3 - 5L2
L4 ~ L4 - 7L2
2x -y +3z = 3
Ç:::::::;>
{ y -5z
œz
0
= -3
6
0 L4 ~ L4 - L3
Exercice 4.2 Inversion matricielle et systèmes 95
~
- (3 + y - 3z) 1
2
(S,) = { - 3 + 5z
,..______.._ {
.,,_,... yX
z
2
1
1
Ainsi, (S2) admet le triplet (1, 2, 1) pour unique solution.
Le système (53 ) est carré (autant d 'équations que d'inconnues) : s'il admet une unique
solution, ce sera un système de Cramer.
{ -5y
-5y
lüy
-5z
-5z
+lüz
-9t
-9t
+18t
-19
-19
38
L2
Ls
L4
~
~
~
L2 - 2L1
Ls - 3L1
L4 + 2L1
+2y +3z +4t 10
r{ -5y
X
8} - 5z - 9t
0
0
10 - 2y - 3z - 4t
-19+5z +9t
0
0
- 19
{=?
Ls ~ L3 - L2
L4 ~ L4 + 2L2
{: =
=
-12 - z - -2 t
~
p95 - z - 5t
(S3 ) est donc compatible et son ensemble de solutions est :
12 2 19 9 )
{ ( -5 - z - -5 t ' -5 - z - -5 t ' z ' t ·' (z ' t) E lR
2}.
~!
2
Soit P =( -1 ! 1) .Montrer que P est inversible et calculer p- 1
.
"O
-2 -2
0
r::::
:::J
0
lfl
,.-1
0
N On introduit un système linéaire (5) aux seconds membres génériques et dont la
@
....., matrice associée est P. P uisque
r:
Ol
·;::
>
Cl. X+ 2y + Z a
0
u (5) - x -y- z b
{
- 2y - 2z c
x + 2y + z a { x + 2y + z a
-x- y- z b {=? y a+b L2 r L2 + Li
{ - 2y - 2z c - 2y - 2z c
{=? { X +2y+ ~ a
a+b
- 2z 2a + 2b + c L3 r L3 + 2L2
X a - 2y - z
{=? y a+b
{ z - a - b - .!c
2
-b
{=} { ~ a
-a
+b
-b
Il existe bien une unique solution au système linéaire, ce qui prouve l'inversibilité
de P. P uisque
- b
a +b
- a - b
~1 ~
-1
1
Ainsi, P est inversible et p- = ( 1
- 1 - 1
*· Ce type de système homogène sera abondamment discuté en seconde année lors de la recherche
des éléments propres d 'une matrice carrée.
Exercice 4.3 Systèmes à paramètres I 97
Le système équivalent obtenu est échelonné (la matrice associée est triangulaire), il
est donc de Cramer ssi les coefficients « diagonaux »
- 4, - (3 +À), À2 + 2À - 3
'-v-'
= (>.+3)(>.- 1)
sont tous non nuls.
~1
-(3+>-)#0
(S>-) est de Cramer ssi { (À+ 3)(À _ l) #0 i.e. À tf. {-3, l}. On conclut que (S>-)
"O n'est pas de Cramer ssi À E {- 3, l} qu i sont donc les deux valeurs demandées.
0
r::::
0
:::J 1.b. Le système échelonné précédent, équivalent à (S>.), a été obtenu indépendamment
lfl
,.-1
de la valeur de À : il peut donc être utilisé.
0
N
D'après ce qui précède ,
@
....., -4x - 4y - 8z = 0
r:
Ol
·;:: (S-3) ~ O = O ~ x +y + 2z = 0 ~ x = -y - 2z
> {
Cl. 0 = 0
0
u donc l'ensemble des solutions de (S-3) est {(-y - 2z, y, z) ; (y, z) E IR
2
}.
Par ailleurs,
- 4x - 4y - 12z = 0
= -y- 3z = -2z
(S1 ) ~ -4y - 4z = 0
{ -z
0 = 0
donc les solutions de (S1 ) sont les triplets (-2z, -z, z) avec z E IR.
98 Chapitre 4 Systèmes linéaires et matrices
~I
D'après l'étude faite au 1.a, (SÀ) est de Cramer lorsque À rJ. {-3, l}. pu isque le
système est homogène, il admet une unique solution : le triplet (0, 0, 0) .
~ ITJx + ay z 1
(Sa) ~
{ 2(a - l)y
2(1 - a)y + az
0
- 1
L2 +--- L2 +Li
L3 +--- L3 - 2L1
r + ay z = 1
~ 12 (a -l)~ 0
az = -1 L3 +--- L3 + L2
Ainsi, le système est de Cramer ssi 2( a -1) =I= 0 et a =I= 0, autrement dit, ssi a rJ. {O, 1}.
X + ay - Z 1 1- ay + z
(Sa) ~ 2(a - l)y 0 0
{ 1
az -1
a
a-
Finalement le système admet pour un ique solution ( --,0,-- . 1 1)
a a
• Si a, = 0, le système est incompatible (la dern ière équation est 0 = -1 et il y a
deux pivots) , en particul ier (So) ne possède aucune solution.
• Enfin , pour a= 1,
1
1 - y+z X= - y
0 ~ {
= -1 z= - 1 .
-1
"O
0
r::: Ainsi, (S1) est compatible et l'ensemble de ses solutions est {( - y, y, - 1); y E ~}.
::J
0
lfl
,.-1
0
N
@
.....,
r:
Ol
·;::
>-
Cl.
x-y-z - a
0
u 2
1. Soit (a, b, c, d) E IR.4 . On considère le système (S) : x +Y- z b
y- 3z { C X+
2x -y - z d
Déterminer à quelle condition sur (a, b, c, d) le système (S) est compatible et
le résoudre dans ce cas.
Exercice 4.4 Systèmes à paramètres Il 99
x+y-z+w 1
2. Soit a, b deux réels et le système (Sa,b) ax+y+z+w b
{ 3x + 2y + aw l+ a
d'inconnue (x, y, z, w).
a. Déterminer les valeurs de a et b pour lesquelles le système (Sa,b) est
compatible.
b. Déterminer l'ensemble des solutions lorsque a = b = 2.
1. Le système est rectangulaire avec plus d'équations que d'inconnues donc il y aura
nécessairement une équation de compatibilité.
ITJx-y-z = a
(S) ~
{ 3y + z
2y- 2z
y+z
b - 2a
c-a
d- 2a
L2 t- L2 - 2L1
L3 t- L3 - L1
L1 t- L1 - 2L1
x-y-z = a
{ Œ:Jy+z
- 8z
2z
b- 2a
3c - 2b +a
3d - b - 4a
L3 t- 3L3 - 2L2
L1 t- 3L4 - L2
x-y-z = a
{ 3y+z
1-s lz
0
=
=
b- 2a
3c - 2b +a
12d + 3c - 6b - 15a L1 t- 4L4 + L3
donc, par division par 3, (S) est compatible ssi - 5a - 2b + c + 4d =O.
,. .
D ans ce cas, 1unique solution de (S) est
(a + 2b - c - 5a + 2b + c - a + 2b - 3c)
, , ·
4 8 8
"O
2.a. Le système est encore rectangulaire mais avec plus d'inconnues que d'équations :
0
r:::: il y aura donc ou bien aucune solution ou bien une infinité.
:::J
0
lfl
,.-1
0
N
@
.....,
r:
Ol
{ (1 - a)y + (1
ITJx+y-z+w
+ a)z + (1 -
a)w
-y+3z+(a-3)w
1
b- a
a-2
·;:: x+y- z+w 1
u
>
Cl.
0 { - y+ 3z + (a - 3)w
(1 - a)y + (1 + a)z + (1 - a)w =
a- 2
b-a
x+y-z+w = 1
{ c=IJy+3z+(a-3)w
2(2 - a)z + (1 - a)(a - 2)w =
a-2
b + 2a - 2 - a2
On a déjà obtenu deux pivots et le troisième candidat à être un pivot est 2(2 - a).
100 Chapitre 4 Systèmes linéaires et matrices
x+y l-z-w
{ - y - 3z+w
donc (82,2) admet une infinité de solutions paramétrées par deux réels (ici z et w) .
"O
0
r::::
:::J
~ ~
0
lfl
,.-1
Soit A = ( ) une matrice carrée d'ordre 2. On définit son déterminant,
0
N
noté det(A), par
@
....., detA =ad - be
r:
Ol
·;:: et on pose aussi
>
Cl.
u
0 ae db 1 = ad- be.
1. a. On pose B = ( d
-e
-b)
a . Calculer AB.
soit de Cramer et montrer que dans ce cas l'unique solution est donnée par
x=
1 ~ ~ 1
et y= - - -
1 ~det(A)~ . 1
det(A)
3. Soient À et µ deux réels. En exploitant les résultats ci-dessus, donner une
condition nécessaire pour que
1
À
À2
~I AB = ( ad - be
cd-de
- ab + ba ) = det(A) . h
-cb +da
1.b. L'implication réciproque est la plus simple. Il s'agit en effet d'exhiber un inverse
(à droite par exemple) de A ce qui ne saurait être trop difficile à trouver d'après la
question précédente.
A x (<let~ A) B) = h
"O On a obtenu un inverse à droite de la matrice carrée A par l'intermédiaire de det(A) B.
0
r:::: Ceci prouve que A est inversible et que son inverse coïncide avec son inverse à droite
:::J
0
lfl
,..-1
A-1 = 1 B = 1 ( d -ab .) t.
0 det(A) ad - be -c
N
@
....., Pour l'implication directe nous allons raisonner par contraposition et montrer que
r:
Ol
·;:: l'égalité AB = 0 ne peut aboutir à l'inversibilité de A (comme souvent, pour montrer
>
Cl. une négation on procède par l'absurde).
0
u
Supposons cette fois que det(A) = 0, le calcul précédent nous donne alors AB =O.
Si , par l'absurde, A était inversible, en multipliant l'égalité ci-dessus à ga uche par A - 1 ,
on obtiendrait B = 0 et donc tous ses coefficients seraient nu ls, à savoir
d = - b = - c = a= 0 i.e. a= b = c = d = O.
1.c. Tout système linéaire est associé à une matrice. Le caractère cramérien est, quant
à lui, lié à l'inversibilité de la matrice associée.
On va donc traduire matriciellement la problématique initialement posée du point de
vue des systèmes linéaires.
D'où , grâce à la formule donnant l'i nverse d ' une matrice carrée d 'ordre 2,
X =
1 ~ ~ 1
et
1 ~ ~
y = "'"-----'-
1
(S) ~ [ x =a - y - z et (S') = b ] .
=c
(S') est un système linéaire de deux équations, à deux inconnues, dont le déterm inant
de la m atrice associée vaut
Àµ2 - À2µ = .>..µ(µ - .>..).
Puisque x est entièrement déterminé par la donnée de y et z, on obtient que (S) est
de Cramer ssi (S') est de Cramer.
Ainsi, grâce à 1.c, on en déduit (S) est de Cramer ssi le déterminant de la m atrice
associée à (S') est non nu l, ce qui équivaut à
À =P 0 et µ =P 0 et µ =P .>..,
i.e. À et /J, sont deux réels non nu ls disti ncts.
Dans ce cas, grâce aux formules de Cram er établies en 1.c, on sait que l' unique solution
de (S') est donnée par
1 b /J, bµ - c b c - bÀ
z = Àµ(µ1 _ >.)
1 1 1
y = >.µ(µ - .>..) c µ2 = .>..(µ - >.) et
1
ÀÀ2 c - µ(µ - >.)"
Finalement, en injectant les expressions de y et z dans le sous-système x = a - y - z,
on aura réussi à inverser le système (S)
.X -- a - µ+ À b +....!....c
˵
--1!:...._b >-t
(S)=> { y= À(µ-À) - >-(µ->-)c
z= _ _À_b + µ(µ1- À) c'
µ(µ - À)
~
0
r:::: l ˵
0
:::J
v - 1= 1
- >-</-À)
)
.
lfl (
,-1
µ(µ - À)
0
N
@
.....,
r:
Ol
·;::
>
Cl.
0
On considère le système suivant
u
X+ 2y + 3z + t -2
(S) x + 2y + 6z + 3t 6
{ 2x + 2y + z -10
X+ 2y + 3z + 2t 0
104 Chapitre 4 Systèmes linéaires et matrices
• • • • • 0 0 0 0 0
Attention, les coefficients représentés ici par le symbole o et le symbole • ne sont pas
nécessairement les mêmes.
Exercice 4.6 Résolution de systèmes par Scilab 105
Convenons de noter, pour toute matrice M. L1{1, ... , L:;/ ses lignes et, avec des lett res
minuscules mk ,l . ses coefficients (en l'occurrence celui situé en ligne k et colonne f ).
La traduction de la « ligne mystère » donne alors ceci
L~ =pivot· Lt - ak,k · Lt.
On remarque en particulier que bk,i = ai,iak,i - ak,iai,i =O.
Ainsi, au final de la boucle for, seules les lignes de A situées sous le pivot sont
modifiées pour donner B et ces lignes ont toutes un coefficient nul lorsque l'on regarde
sous la colonne du pivot ... C'est l'opération type que l'on effectue avec un pivot de
Gauss .
1.b. Si l'on exécute disp(M) on obtient:
1. 2. 3. 1. -2.
1. 2. 6. 3. 6.
2. 2. 1. o. -10.
1. 2. 3. 2. O.
Ainsi les coefficients en première colonne sont ceux qui multiplient l'inconnue x dans
le système (S), on retrouve ceux multipliant les autres inconnues y, z et t en 2e, 3e et
4e colonne, enfin en 5e colonne (par souci pédagogique, une barre verticale apparaît
ici pour séparer celle-ci des autres) les coefficients sont ceux correspondant au second
membre du système. On dira que M code le système ( S) .
M code le système (S) et, après application de la fonction ElimineBas à partir du pivot
situé en ligne 1, colonne 1 ( ici pivot= 1), on obtient la matrice N qu i code le système,
obtenu à partir de (S), après application des opérations élémentaires suivantes :
L2 +--- L2 - L1
L3 +--- L3 - 2L1
L4 +--- L4 - L1
1.c. Rappelons que les opérations élémentaires, permettant de passer d 'un système à
un système équivalent, sont les opérations de type suivant
• [Dilatation) pour a un scalaire non nul : Li +----- aLi ;
"O
0
r::::
• [Échange] pour i et j deux indices de ligne distincts : Li f-+ Lj ;
:::J
0 • [Transvection] pour a un scalaire et i et j deux indices distincts: Li+----- Li - aLj .
lfl
,..-1
0
N
Ces opérations, à elles seules, permettent de mener à bon terme la méthode du pivot
@ de Gauss, et obtenir ainsi un système plus simple et équivalent au premier (notez que
.....,
r: la non nullité du scalaire a est essentielle pour la dilatation) .
Ol
ï::: Ces opérations élémentaires peuvent se combiner pour donner des combinaisons li-
>
Cl.
0
néaires qui assurent l'équivalence entre systèmes
u
• [CL2] pour a, b (scalaires et a non nul) , i,j (indices distincts) : Li+----- aLi -bLj;
• [CLn ] Pour (a1, . .. , an) n scalaires avec ai non nul Li+----- aiLi - L akLk.
k#i
Ici encore la non nullité de ai et de a joue un rôle essentiel.
106 Chapitre 4 Systèmes linéaires et matrices
Puisque la variable pivot utilisée dans N=ElimineBas(M,1) est non nulle (ici
pivot= 1), les opérations élémentaires effectuées par la fonction (voir l.b) mènent
à un système (S') (codé par N) équivalent à (S), plus précisément, pu isq ue disp(N)
nous donne
1. 2. 3. 1. - 2.
o. o. 3. 2. 8.
o. - 2. - 5. - 2. - 6. '
o. o. o. 1. 2.
on a
X +2y + 3z +t -2
3z +2t 8 L2 +---- L2 - L 1
(S) <= (S') { -2y -5z -2t -6 L3 +---- L3 - 2L1
t 2 L4 +---- L4 - L 1
1.d. Passant de (S) à (S') la fonction ElimineBas nous a permis d'éliminer la pré-
sence de l'inconnue x sur les 3 dernières lignes, on souhaite poursuivre le même type
d'opération et éliminer une (voire plusieurs) nouvelle inconnue ligne après ligne. Néan-
moins, il est indispensable que les systèmes obtenus soient équivalents entre eux pour
"O
0
r::::
que la recherche des solutions du premier système soit équivalente à la recherche des
0
:::J solutions du dernier système.
lfl
,--1
Pour montrer que deux systèmes ne sont pas équivalents, il suffit d'exhiber une solu-
0
N
tion d'un des deux systèmes qui n'est pas solution de l'autre.
@
.....,
r: Puisque l'instruction P=ElimineBas (N, 2) affecte la valeur 0 à la variable pivot , le
Ol
·;:: système codé par P n'est pas nécessairement équivalent à (S'). Plus précisément, on
>
Cl. obtient
0
u +2y +3z +t = -2
3z +2t = 8
(S') ==*' (S')
6z +4.t 16
0 = 0
Or la réciproque est fausse, puisque (x, y, z, t) = (0, -3, 0, 4) est solution de (S') sans
être solution de (S').
Exercice 4.7 Méthode de Gauss-Jordan 107
function B=Echange(A,i,j)//
B=A; //copie conforme de A
B(i,:)=A(j,:); //nouvelle ligne ide B
B(j,:)=A(i,:); //nouvelle ligne j de B
endfunction //
2.b. Nous allons exécuter les instructions proposées sur Scilab et interpréter les
systèmes codés par les matrices Scilab obtenues à l'écran.
Cet exercice fait suite à l'exercice 4.6 et reprend les mêmes objets et notations.
1. On considère la fonction Scilab ElimineHaut obtenue à partir de ElimineBas
en remplaçant la boucle « for » par for k=i -1 : -1 : 1.
Proposer une suite d'instructions Scilab, permettant d'obtenir un système
trivial équivalent à (S) et codé sous la forme
1 0 0 0 ?
0 1 0 0 ?
0 0 1 0 ?
0 0 0 1 ?
Quelle est donc l'unique solution de (S)?
2. On se propose d 'inverser la matrice A associée au système (S), pour cela on
introduit quatre nouveaux systèmes (81 ), (S2), (S3) et (S4 ) définis par
X+ 2y + 3z + t Ô1,i
(Si) x+2y + 6z +3t ô2 ,i
{ 2x + 2y + z Ô3 ,i '
X + 2y + 3z + 2t Ô4 ,i
a. Quel lien y a-t-il entre ces colonnes C 1 , C2 , C3, C4 et les solutions des
systèmes (81), (S2), (S3) et (84)?
b. Montrer que C 1 , C2, C3, C 4 sont les colonnes (de la première à la dernière)
de la matrice A - 1 .
c. Proposer une suite d'instructions Scilab, à partir des fonctions
"O
0
ElimineHaut, ElimineBas, Echange, qui partant de la matrice Scilab
r:::: 1 2 3 1 1 0 0 0
:::J
0 1 2 6 3
lfl
0 1 0 0
,-1
0
2 2 1 0 0 0 1 0
N
1 2 3 2 0 0 0 1
@
....., 1 0 0 0 ? ? ? ?
r:
Ol
·;:: 0 1 0 0 ? ? ? ?
>- aboutit à la matrice Scilab ?
Cl. 0 0 1 0 ? ? ?
0
u 0 0 0 1 ? ? ? ?
d. En déduire l'expression des coefficients de A - 1 .
"O
1. o. o. o. - 3.3333333
0
r:::: o. 1. o. o. - 2.3333333
:::J
0 O. O. 1. O. 1.3333333
lfl
,..-1
o. o. o. 1. 2.
0 Ceci nous permet de conclure à l'équivalence suivante entre systèmes (on en profite
N
@ pour exprimer sous forme de fraction les valeurs approchées fournies par Scilab)
.....,
~ ~=
r: - 10/3
Ol
·;:: - 7/3
>
Cl. (S) { 4/3
0
u t= 2
2.a. Nous allons interpréter le système (Si) par une équation matricielle faisant in-
tervenir la matrice A et une colonne X qui jouera le rôle d'inconnue.
L'existence et l'unicité des colonnes C1 , ... , C4 sont garanties par le fait que, (S) étant
de Cramer, A est inversible.
110 Chapitre 4 Systèmes linéaires et matrices
X
Posons X= y ) , avec x, y, z, t quat'e 'éels. On obbent pa' calcul •
z
(
t
0
0
Ainsi Ci est la colonne dont les coefficients forment l'unique solution du système (Si)·
2.b. Connaissant le produit de la matrice A avec les colonnes C 1 , ... , C 4 , nous allons
interpréter le produit matriciel entre deux matrices par le biais du produit de la
première matrice avec les colonnes de la deuxième matrice.
Notons B la matrice dont les colonnes sont (dans l'ordre) C1 , ... , C4.
Par produit matriciel AB est la matrice dont les colonnes sont (dans l'ordre)
ACi, . .. ,AC4 , ;e ( ~ ) , ( ~ ) , ( ~ ) , ( ~ )
Ainsi AB = f 4 et donc B est l'inverse à droite (i.e. l'i nverse tout court) de A, soit
B = A- 1 .
1
Ceci prouve bien que C1, ... , C4 sont les colonnes de A - .
2.c. Si l'on fait abstraction des quatre dernières colonnes de la matrice initiale, on
retrouve les mêmes quatre premières colonnes étudiées en question 1 (lors du codage
"O du système (5)).
0
r:::: Nous avions obtenu en 1 (et à l'aide des fonctions Scilab proposées dans cette ques-
:::J
0 tion et dans l'exercice 4.6) une mise sous forme réduite telle que souhaitée ici.
lfl
,..-1 Il nous suffit donc de reproduire le même schéma.
0
N
@
.....,
r: Notons R la matrice, de taille 4 x 8, initia le .
Ol
·;::
> R=ElimineBas(R,1); R=Echange(R,2,3); R=ElimineBas(R,2);
Cl.
0 R=ElimineHaut(R,4); R=ElimineHaut(R,3); R=ElimineHaut(R,2);
u for i=1:4 R(i,:)=R(i,:)./R(i,i); end
Ainsi disp (R); affiche le résultat suivant.
1. o. o. o. - 1.3333333 0.6666667 1. - 0.3333333
o. 1. o. o. 1.1666667 - 0.8333333 - 0.5 0.6666667
o. o. 1. o. 0.3333333 0.3333333 o. - 0.6666667
o. o. o. 1. - 1. o. o. 1.
Exercice 4.7 Méthode de Gauss-Jordan 111
2.d. Si l'on fait abstraction des trois dernières colonnes, puisque les opérations élé-
mentaires utilisées n'agissent que sur les lignes (et à aucun moment sur les colonnes),
cela revient à considérer comme matrice de départ
1 2 3 1 1
1 2 6 3 0
2 2 1 0 0
1 2 3 2 0
on aura alors codé une succession de systèmes équivalents partant de (S1 ) et aboutis-
1. o. o. o. - 1.3333333
santà
o. 1. o. o. 1.1666667
o. o. 1. o. 0.3333333
O. O. O. 1. - 1.
Grâce à la question 1, on sait que cette dernière colonne représente l'unique solution
de (S1 ), et grâce à la question 2.a on sait qu'il s'agit de C 1 .
1. o. o. o. - 1.3333333 0.6666667 1. - 0.3333333
o. 1. o. o. 1.1666667 - 0.8333333 - 0.5 0.6666667
o. o. 1. o. 0.3333333 0.3333333 o. - 0.6666667
o. o. o. 1. - 1. o. o. 1.
Î
C1
De même si l'on fait abstraction des colonnes 5, 7 et 8, c'est la colonne C2 qui aura
été codée en lieu et place de la 6e colonne affichée. Les colonne C3 et C4 sont donc
codées, par le même raisonnement, en lieu et place des colonnes 7 et 8.
)
:::J
0
lfl A- 1= 7/6 - 5/6 - 1/2 2/3
,..-1
0
N ( 1/3 1/3 0 - 2/3
- 1 0 0 1
@
.....,
r:
Ol
ï:::
>-
Cl.
u
0
• Savoir décrire les solutions d'un système linéaire (cf exercices 4. 1, 4.3, 4.4).
• Savoir obtenir l' inverse d ' une matrice carrée invers ible
() en résolvant un système linéaire (cf exercice 4.2 et question 4.5.2);
"O
0
r::::
:::J
0
lfl
,.-1
0
N
@
.....,
r:
Ol
·;::
>
Cl.
0
u
CHAPITRE
Dans tout ce chapitre lK désigne le corps des réels IR ou celui des complexes C
Sauf mention du contraire on désignera par 0 l'élément neutre de l'espace vecto-
riel manipulé (souvent plusieurs espaces vectoriels seront manipulés et on ut ilisera
le même symbole 0 pour désigner les vecteurs nuls de chacun de ces espaces). Pour
plus de concision, on emploiera parfois le terme sous-espace pour signifier en réalité
sous-espace vectoriel de l'espace ambiant.
Étant données deux familles finies !.:, et F = U1 )jE J , on dira que !.:, est une sous-famille
de F (ou de façon équivalente que F est une sur-famille de !.:,) lorsque !.:, est ext raite
de F , autrement dit, lorsque!.:, = (fi)iEI avec I C J. On notera, par ailleurs, Card F
le cardinal de la famille F . Il s'agit du cardinal Card J de l'ensemble J indexant les
éléments de F .
"O
0
r::::
:::J
0
lfl
,.-1
0
N
@
.....,
r:
Ol
·;::
>
Cl.
0
u
114 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels
1. On considère l'ensemble
A = {(x, y, z, t, u) E IR.5 x + 2y + 3z + 4t + 5u = 0 et x - y+ z - t + u
1 = O}.
a. Montrer que A est un sous-espace vectoriel de JR5 .
b. Montrer qu'il existe a, b, c trois vecteurs de JR5 tels que
A= {-\a+ µb + vc; (-\,µ, v) E JR 3 }.
1.a. On commence par les vérifications préliminaires simples, on montre que A est
bien une partie de JR5 non vide. Pour montrer qu'un ensemble est non vide il suffit
d 'exhiber un « habitant » de l'ensemble, en l'occurrence, puisque A est censé être un
sous-espace vectoriel, il se doit de contenir le vecteur nul.
~I A est, par construction , une partie de JR5 . Elle est, de plus, non vide, puisque le
vecteur nu l vérifie les deux équations caractérisant les vecteurs de A.
u
0
(x + >.x') + 2(y +>.y') + 3(z + Àz1 ) + 4(t + >.t') + 5('u + Àu1 ) = 0
{ (x + Àx1 ) - (y + Ày 1 ) + (z + Àz1 ) - (t + Àt 1 ) + (u + Àu1 ) = 0
Ceci prouve que
a+>.o,' = (x+>.x',y + >.y',z+>.z',t +>.t',u +>.u') E A.
Et donc A est stable par combinaison linéaire, ce qui permet de concl ure que A est
un sous-espace vectoriel de JR 5 .
Exercice 5.1 Sous-espaces de ~ 5 115
Cet exemple illustre le résultat général suivant: les solutions d'un système
linéaire homogène forment un sous-espace vectoriel de JKN, où N est le
nombre d'inconnues du système.
1.b. P uisque A n'est autre que l'ensemble des solutions d'un système linéaire homo-
gène, il s'agit ici de donner l'ensemble des solutions et d'écrire cet ensemble sous forme
paramétrée.
- y+ z - t +u =0
aEA
+2y + 3z + 4t + 5u =0
- y+ z - t +u =0
3y + 2z + 5t + 4u =0
S'agissant d'un système à 2 équations et 5 inconnues (et puisqu'il est écrit sous forme
réduite par le biais du pivot de Gauss), 3 de ces inconnues peuvent jouer le rôle de
paramètre. On choisit de faire jouer ce rôle à z, t et u (i.e. les trois dernières dans
le système réduit obtenu par pivot de Gauss car ce choix nous assure que le système
obtenu, d 'inconnues x et y soit de Cramer).
Ainsi
x- y =-z+t-u
ŒE A {::::::::} { 3y = - 2z - 5t - 4'U
{~
Pour exhiber les vecteurs a, b, c on passe par une écriture en colonnes. On va ainsi
mettre en évidence une combinaison linéaire donnant la colonne associée à o:. Trois
colonnes vont s'imposer naturellement sachant que les paramètres z, t et u jouent le
rôle de coefficients dans cette combinaison linéaire.
X ? ? ?
y ? ? ?
"O
0
r:::: z =z 1 +t 0 +u 0
:::J
0 t 0 1 0
lfl
,..-1
u 0 0 1
0
N
@ Finalement
.....,
r: X -5/3 -2/3 -7/3
Ol
·;::
> y -2/3 -5/3 -4/3
Cl.
0 aEA {::::::::} z =z 1 +t 0 +u 0
u t 0 1 0
u 0 0 1
ce qui nous incite à poser, par exemple,
Il s'agit à présent de montrer que A= Vect(a, b, c). L'étape qui suit est très souvent
négligée dans la plupart des corrigés car il est entendu que la méthode du pivot de
Gauss fournit bel et bien une famille génératrice. Nous allons exceptionnellement igno-
rer cette habitude et montrer concrètement que l'on a bien ici une famille génératrice.
Le résultat n'étant pas spécifique à cet énoncé, nous pourrons par la suite affirmer le
caractère générateur sans donner le détail de la preuve.
D'après ce qu i précède on sait que a E A:::} a E Vect(a, b, c), ainsi AC Vect(a, b, c).
Or, par un calcul immédiat, on remarque que les coordonnées de a, b, c ci-dessus
vérifient bel et bien les équations caractérisant A. Ainsi on a {a, b, c} C A et donc
(A étant un espace vectoriel) Vect(a, b, c) c A.
Finalement on a, par double inclusion ,
A= Vect(a, b, c) = p.a + µb + vc; (>.., µ, v) E JR3 }.
"O Dans cette preuve on a pris soin de vérifier que a, b, c sont bel et bien des éléments
0
r::::
:::J
de A. Cette vérification est un moyen précieux pour conforter l'idée que nous n'avons
0 pas commis d'erreurs dans nos calculs (il y a présomption de non erreur).
lfl
,.-1
0
N
@
....., Il va de soi que la solution proposée n'est pas unique (il n'y a pas
r:
Ol
·;::
d'unicité lorsqu'il s'agit de trouver une famille génératrice d'un espace
>
Cl. vectoriel).
0
u On peut proposer, afin de rendre les calculs à venir plus commodes, de
changer une famille génératrice ('v 1 , . . . , vp) en une autre obtenue par
multiplication des vecteurs par des scalaires tous non nuls ..\ 1 , ... , Àp :
(À 1 · V1, ... , Àp · Vp)
Exercice 5.1 Sous-espaces de ~ 5 117
~1
Puisq ue changer (a,b,c) en (- 3a,-3b, - 3c) n'altère en rien le caract ère générateur,
on considère, à parti r de maintenant,
a= (5, 2, -3, 0, 0), b = (2, 5, 0, -3, 0) et c = (7, 4, 0, 0, -3) .
1.c . On sait que, par construction, (a, b, c) est une famille génératrice de A. Il nous
suffit donc de montrer que cette famille est libre.
~1
Par const ruct ion A' est une part ie de ffi. 5 et, pu isque 0 est de façon évident e un
élément de A', il est non vide.
Soient À un réel ( ici on t ravail le sur des ffi.-espaces vectoriels) et deux vecteurs de A'
ai= (x1, y1 ,z1, t 1,u1) et a2 = (x2,y2,z2,t2,'u2).
118 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels
Par construction, on a
V(x,y , z,t, u) E A,
XXI + YYI + ZZ1 + tt1 + UU1 =0
{ XX2 + YY2 + ZZ2 + tt2 + 'U'U2 =0
On en déduit, par l'opération L1 + ÀL2,
V (x, y,z, t , u) E A, x(x1 +Àx2) + y(y1 +Ày2)+z(z1 +Àz2)+t(t1 +Àt2)+u(u1 +Àu2) =O.
Ceci prouve que
a1 + Àa2 = (x1 + ÀX2, Y1 + Ày2 , z1 + Àz2, t1 + Àt2 , u1 + Àu2) E A'.
Et donc A' est stable par combinaison linéaire, ce qu i permet de conclure que A' est
un sous-espace vectoriel de ~5 .
2.b. Une inclusion est évidente et repose sur le principe du «qui peut le plus peut le
moins».
~1
Pu isque a, b et c sont t rois éléments particuliers de A, on a de façon évidente
E ~5
1 1 1 1 1
A' C {(x ,y ,z ,t ,u ) 1 V(x, y ,z,t,u) E {a,b,c}, xx'+yy'+zz'+ tt'+uu' = O}.
. ( x 1 , y 1 , z 1 , t' , u 1) E 1!l>5
Soit Jl'li.. te 1que
V (x, y , z, t , u) E {a, b, c}, xx' + yy' + zz' + tt' + uu' = 0, on a alors
aix' + a2y' + a3z' + a4t' + a5t' = 0
(E) b1x' + b2y' + b3z' + b4t' + bst' = 0
{
C1X1 + C2y' + C3Z + C4t +est' = 0
1 1
En gardant les expressions littérales pour les coordonnées de a, b et c (au lieu des
valeurs explicites calculées précédemment), on obtient un double avantage : le premier
est que nous évitons que des erreurs de calculs éventuelles, commises précédemment,
viennent compromettre notre tâche actuelle; le deuxième est la mise en évidence du
u
0
fait que le choix particulier fait pour (a, b, c), dans notre corrigé, n'influence en rien
§ la validité du résultat.
0
lfl
,..-1
0 Soit (x, y, z, t, u) un vecteur quelconque de A, on sait d'après l.b que
N
@ (x , y , z, t , u) = Àa + µb + vc = (Àa1 + µb 1 + vc1 , ... , Àa5 + µbs + vc5).
.....,
r:
Ol
Or, si l'on agit sur les lignes du système (E) selon l'opération ÀL1 + µL2 + vL3, on
ï::: obtient
>
Cl.
0 (Àa1 +µhi + vc1)x1 + · · · + (Àa5 + µb s + vc5)u1 = 0,
u
i.e. xx' + yy' + zz' + tt' + uu' = 0 et ce quel que soit (x, y, z, t, u) E A. C'est donc
que (x', y', z', t', 'u') E A' et donc l'inclusion réciproque
{(x',y',z',t',u') E ~5 1 V(x,y,z,t,u) E {a,b,c}, xx'+yy' + zz' +tt'+uu' = O} CA'
est établie, ce qu i, finalement, prouve l'égalité par double inclusion :
E ~5
1 1 1 1 1
A'= {(x ,y ,z ,t ,u ) 1 V(x, y ,z,t,u) E {a,b,c}, xx'+yy'+zz'+ tt'+uu' = O}.
Exercice 5.1 Sous-espaces de ~ 5 119
2.c. Puisque, grâce à ce qui précède, A' s'écrit comme l'ensemble des solutions d'un
système homogène (à savoir (E)), on va reproduire ici les méthodes utilisées en 1.b
et 1.c.
Grâce au petit script Scilab ci-dessous, on vérifie que d et e sont bel et bien deux
vecteurs de A', ainsi il y a présomption de non erreur.
a=[5,2,-3,0,0] ;b=[2,5,0,-3,0] ;c=[7,4,0,0,-3];
d=[-4,7,-2,9,0] ;e=[5,-2,7,0,9];
disp(sum(a.*d));disp(sum(b.*d));disp(sum(c.*d));
disp(sum(a.*e));disp(sum(b.*e));disp(sum(c.*e));
o,
Pour (a, {3, f', ê) de IR5 fixé, il s'agit d'étudier les sol utions de l'éq uation (où les
scalaires x, y, z, t, u sont les inconnues)
xo. + yb + zc + td + ue =(a, {3,/, O,ê).
Ainsi, en identifia nt les coordonnées du membre de gauche à celles du membre de
d roite, on trouve
5x +2y +7z -4t +5u =a
2x +5y +4z +7t -2u =!3
(S) - 3x - 2t +7u =f'
- 3y 9t =o
-3z +9u =ê
Étant donné l'all ure des trois dernières lignes, nous pouvons exprimer aisément, à partir
de ces t rois lignes, les inconnues x, y et z en fonction de t et u,
(*) 3x = - !' - 2t + 7u, 3y = -o+ 9t, 3z = - ê + 9u.
"O En injectant ces relations dans les deux premières éq uations de (S) (q ue l'on aura au
0
r:::: préa lable multipliées par 3) on trouve
:::J
0
lfl 5(--y - 2t + 7u) +2(-8 + 9t) +7(-ê + 9u) -12t +15u = 3a
,..-1 (S') { 2(--y - 2t + 7u)
0 +5(-8 + 9t) +4(-ê + 9u) +21t -6u = 3/3
N
@ Ainsi
.....,
r: , { - 4t +113u =3a+5!'+28+7ê
Ol
·;:: (S ) ~ 62t + 44u = 3{3 + 2/ + 58 + 4ê
>
Cl. Or ce système est de Cramer (puisque - 4 x 44 - 113 x 62 # 0) ainsi t et u sont
0
u un iquement déterminés à partir de (a, /3, /', 8, ê) et, par suite, il en va de même pou r
x,y et z grâce à(*). Ceci prouve l'existence et l' unicité de la décomposition et montre
donc que (a, b, c, d, e) est une base de JR5 .
On pouvait procéder par la méthode du pivot de Gauss et ainsi montrer que, (S)
étant de Cramer, (a, b, c, d, e) est une base de JR5 .
E n effet, la méthode du pivot est ici grandement facilitée par l'allure du système qui
Exercice 5.1 Sous-espaces de ~ 5 121
on en déduit un moyen très simple pour calculer les coordonnées dans la nouvelle base
122 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels
1
2
(a,b,c, d,e) du vecteur (1,2, 3,4,5). Il suffit de calculer p- 1 3
4
5
P=[[5,2,7,-4,5];[2,5,4,7,-2];[-3,0,0,-2,7];[0,-3,0,9,0]; [0,0,-3,0,9]];
C=P-{-1}*[1;2;3;4;5]
Bien sûr les coordonnées calculées ici sont celles spécifiques à la base choisie dans ce
corrigé. Si l'on avait fait un tout autre choix de base, nous aurions sans doute trouvé
un résultat différent. Par ailleurs, l'instruction :
disp(C(l, 1)*a+C(2, 1)*b+C(3, 1)*c+C(4, 1)*d+C(5 , 1)*e); renvoie le vecteur
xa+ yb + zc+ td+ eu, où x, y, z, t, u sont les coordonnées obtenues par les instructions
Scilab précédentes.
À l'exécution du script on trouve 1. 2. 3. 4. 5. ce qui nous fait
comprendre que le premier script proposé fonctionne convenablement.
Tout sou s-es pace F de ocn peut s'écrire comme solution d ' un système (S)
linéaire homogène à n inconnues, les équations de (S) sont dites les équa-
tions cartésiennes de F. On vient d'illustrer comment passer des équations
cartésiennes à la détermination d'une base. Dans l'exercice qui suit nous
allons illustrer la démarche inverse.
~· Ce système peut même être choisi de façon à contenir n - r équations avec r = dim F
Exercice 5.2 Équations cartésiennes et paramétrisation 123
2. Montrer que (E) équivaut à un système à 3 équations, dont les inconnues sont
exclusivement (x, y, z , t), et un système à deux équations donnant les valeurs
de a et ben fonction de (x, y, z, t).
3. Conclure.
1. Puisque Best une base de F, on peut écrire F = Vect (f,g) . Ainsi les éléments de
F sont les combinaisons linéaires de f et g. Ceci va nous permettre de paramétrer
l'ensemble F .
~ a +b =x
0 =x+y L2 +-- L2 + L1
- 2b = - 3x + z L3 +-- L3 - 3L1
-5b = -4x + t L4 +-- L4 - 4L1
"O
-4b = -5x +u L5 +-- L5 - 5L1
0
r:::: a +b =X
:::J
0 - 2b = -3x + z L2 f------7 L3
lfl
,.-1 0 = x+y
0
N - 5b = - 4x + t
@
....., - 4b = - 5x + u
r:
Ol a +b =x
·;::
> -2b = -3x + z
Cl.
u
0 0 =x+y
0 = 7x - 5z + 2t L4 +-- 2L4 - 5L2
0 = x - 2z + u Ls +-- Ls - 2L2
Fi nalement
+b
+b
=X
=z
et (5~) { ~:
5a
-b
-b
+b
=y
=t
=u
l .
(5D est de Cramer {puisque 1 x 1- 1 x 3 # 0). D 'ailleurs l'un ique solution de (SD
est donnée par
Z - X 3x - Z
a= - - et b= .
2 2
Finalement, en injecta nt ces valeurs de a et b dans (S~) on trouve
z - x
3x - z
2
2
et (52)
{
7x +
X -
x+y
- 5z + 2t
2z
:~ l·
+ U =0
l
D 'après ce qu i précède, (x, y, z, t, u) E F équivaut à
z-x x+y
3x~z 7x + - 5z + 2t 0
"O =
0 et (S2) = 0 .
r:::: {
:::J
2 x - 2z + u =0
0
lfl
,..-1 Or, a et b n'intervenant pas dans le système (S2). ce qu i précède équ ivaut encore à
0
Fz ) -5;-c:2~ ~
N
@ 2
....., 3 (a, b) E K ; (S1 ) { ab = :. et (52) { 7x + :
r: ( X - 2z + U = 0
Ol
ï:::
>
Cl.
~
z-x
x;z
u
0 Finalement, puisque 3 (a, b) E K
2
, (51) { : 3 est vraie, et ce quelles
~I B est , par construction, une partie de S(IR) et , puisque la suit e nulle est bornée, B
est non vide.
Il s'agit de montrer à présent qu'une combinaison linéaire de suites bornées est une
suite bornée.
Soient À un scalaire et u , v deux suites de B, pu isq u'elles sont bornées, on peut donc
"O
0
r::::
t rouver deux réels Mu et M v tels que 'in EN, lun l ~ Mu et lvnl ~ M v.
:::J Posons w = À U + v , on a alors par inégalité tria ngulaire
0
lfl
,.-1 'in EN, l.X.un + Vn l ~ l.X.I · lunl + lvn l ~ l.X.I · Mu+ Mv .
0
N Ainsi V n E N, lwnl ~ l.X.I · Mu + M.u et donc w est bornée, ce qu i prouve bien
@
....., que .X.·u + v E B. Finalement, grâce à cette stabilité par com binaison li néaire, on peut
r: concl ure q ue Best un sous-espace vectoriel de S(IR) .
Ol
ï:::
>
Cl.
0
1 . b . Constatations préliminaires ....
u
~I
D ' après le cours t o ute suite convergent e est bornée, on a donc So (IR) C B . Par
ailleurs, puisque la suit e nu lle t end vers 0, So(IR) est no n vide.
Il s 'agit de montrer à présent que toute combinaison linéaire de suites tendant vers 0
tend elle aussi vers O.
126 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels
Si l'on pose w = >.u + v, on obt ient alors, par linéarité de la limite, que w converge
et que sa limite vaut
lim Wn = À lirn 'Un+ lirn Vn =O.
n~ + = n~+= n~ + =
Finalement >.u + v E So(IR) et donc, grâce à cette stabilité par combinaison linéaire,
on peut conclure que So(IR) est un sous-espace vectoriel de B.
~1
La suite nulle étant bien géométrique de ra ison r (et de prem ier terme nu l), on en
dédu it que 9r est non vide pu isque contenant la suite nu lle. Par ailleurs, on a, par
construction , 9r C S(IR).
"O
0
r::::
:::J
0 Étant donné que
lfl
,.-1
0
N
UE Yr {::::::::} Vn E N, Un = uorn {::::::::} u = Uo (rn )nEN,
@
....., Yr = Vect((rn)nEN ).
r:
Ol On prouve ainsi que Yr est sous-espace vectoriel de S(JR). C'est même,
·;::
>
Cl.
lorsque r -=/= 0, une droite vectorielle.
0
u
2.b. Cherchons d 'abord une condition nécessaire pour que Yr soit inclus dans S 0 (1R)
(resp. dans B). P our cela on commencera par étudier les limites éventuelles d 'une
suite géométrique de raison r . On discutera en fonction de la position de la raison r
relat ivement à l'intervalle d'extrémités -1 et 1.
Exercice 5.3 Espace de suites 127
2.c. Les constatations préliminaires ne posent aucun problème. En effet Ç} est une
partie non vide (elle contient même la suite nulle) de S(JR).
"O
0 En revanche, lorsqu'il s'agit de vérifier qu'une combinaison linéaire de suites géomé-
r::::
0
:::J triques est encore une suite géométrique, le fait qu'ici les raisons peuvent différer va
lfl empêcher la stabilité souhaitée.
,--1
0
N
Notons u et v les deux suites définies par 'c:/ n E N, Un = 1 et Vn = 2n,
@
....., u et v sont donc deux suites géométriques {de raisons respectives 1 et 2) .
r:
Ol Si, par l'absurde, ç; est un sous-espace vectoriel, on peut affirmer que u + v est
·;::
> également une suite géométrique, notons r sa raison. Ceci nous donne
Cl.
0
u 'c:/n EN, (u + v)n = (u + v)orn i.e. 'c:/n EN, Un + Vn = (uo + vo)rn .
Ainsi 'c:/n EN, 1 + 2n = 2rn. En particulier pour n = 1 puis pour n = 2, on trouve
1 1 2 2 3 2 5
1+2 = 2r et 1+2 = 2r i.e. r = 2 et r = 2·
La contradiction 32 ) 2 --
(- ~
~ nous assure que Ç n'est pas un sous-espace vectoriel
de S(~) .
128 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels
3.a. Dès les constatations préliminaires on trouve des valeurs de r qui interdisent la
structure d'espace vectoriel de Ar.
Ar est manifestement une partie de S(~) de plus non vide, puisqu 'elle contient la
suite de terme général r · n. En revanche la suite nulle appartient à Ar ssi
'c:/nE N, 0
'-v-"
0
'-v-"
+ r
'
terme d 'ind ice n + 1 terme d'indice n
Si r = 0 alors A r n 'est autre que l'ensemble des suites constantes, que l'on peut
identifier à ~-
On savait déjà qu'il s'agit d'une partie non vide de S(~) et grâce à cette identification
(et dû au fait que les opérations d'addition entre vecteurs (resp. de produit par un
scalaire) coïncident dans cette identification), on en dédu it que Ar est bien un sous-
espace vectoriel de S(~) . Fina lement la condition nécessa ire et suffisante est r =O.
Cont rairement au cas des suites géométriques, c'est le fait que la raison n'ait pas été
fixée à l'avance qui a permis d'aboutir à la structure d 'espace vectoriel.
Exercice 5.4 Famille de polynômes 129
L'ensemble Best l'ensemble des polynômes de JR 4 [X] dont le coefficient constant est
nul , c'est donc l'ensemble des polynômes P qui s'écrivent sous la forme
P = aX 4+ bX3 + cX2 + dX avec (a, b, c, d) E lR4 .
Ainsi B = {aX4 + bX 3 + cX 2 + dX; (a, b, c, d) E JR4 } = Vect(X, X 2 , X 3 , X 4 ). Ceci
2 3 , X4)
prouve que B est un sous-espace vectoriel de JR4 [X] et que B = (X, X , X est
une famille génératrice de B.
Afin de déterminer que B est une base, il suffit de montrer que cette famille est libre.
Pour cela il suffit de constater que la base canonique (1, X , X 2,X 3 ,X4) est libre.
"O
~I
0
r:::: Puisque la base canonique de JR4[X] est libre, on en déduit que la famille extraite B
:::J
0 est libre. Finalement Best bien une base de B extraite de la base canonique de ~ [X] .
lfl
,..-1
0 2. Constatations préliminaires ...
N
~I
@
....., A est, par construction, un sous-ensemble de 1R1[X] et, puisque le polynôme nul
r:
Ol
·;::
s'annule en 4, A contient le polynôme nul et est donc non vide.
>
Cl.
0 Montrons à présent que A est stable par combinaison linéaire.
u
Soient À un scalaire et P, Q deux polynômes de A. Par construction
P(4)=0 et Q(4)=0.
Donc (.X.P + Q)(4) = .X.P(4) + Q(4) =O. i.e . .X.P + Q E A.
Ainsi A étant stable par combinaison linéaire, on peut conclure que A est un sous-
espace vectoriel de JR 4 [X].
130 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels
(en effet toute puissance strictement supérieure à 4 n'est plus un élément de JR 4 [X]
ni, à plus forte raison, un élément de A).
Par ailleurs, il faut également éliminer le polynôme 1 puisque celui-ci n'appartient pas
à A. Finalement, c'est à partir de la famille A = (X - 4, (X - 4) 2 , (X - 4) 3 , (X - 4) 4 )
que l'on cherche à extraire une base. On va montrer que A tout entier est une base.
Montrons que la famille est libre (on verra lors de l'exercice 5.5 qu'elle l'est en tant
que famille de polynômes échelonnée en degré).
4
Soient ai, ... , a4 quatre scalaires tels que L ak(X - 4)k =O.
k=l
p
On en déduit, par composition à droite avec le polynôme X+ 4, P(X + 4) = 0, i.e.
4
~1
En t ant qu 'i ntersection de sous-espaces vectoriels de IR1 [X ] (à savoir A et B), C est
un sous-espace vectoriel de IR1 [X ] .
De plus, pu isque C C A et que A, tout comme C, est un sous-espace vectoriel de
Exercice 5.4 Famille de polynômes 131
Pour l'inclusion réciproque nous allons utiliser l'indication qui nous recommande de
procéder par division euclidienne.
Soit P un élément de C.
Par division euclidienne de P par W on sait qu ' il existe un couple (unique) de poly-
nômes (T, R) t el que P = T x vV + R avec deg R < deg vV .
~
=2
Puisque deg R < 2, on peut écrire R sous la forme R = aX + b, avec (a, b) E IR2 .
On souhaite à présent, montrer que Rest le polynôme nul. Il s'agit donc de montrer
que ses coefficients a et b sont nuls.
Afin d'obtenir la valeur de a et b il nous faut deux équations (au moins), nous allons
obtenir ces deux équations en évaluant l'égalité P = T x W + R en deux points
distincts , ces points devront être choisis afin d'éliminer toute référence au polynôme
inconnu T.
~
"O
0 En éva luant l'égal ité issue de la division euclidienne en 0 et en 4., on obtient
r::::
0
:::J
P(O) = W(O) xT(O)
'-y-/ ....__..,
+ '-y-/
R(O) et P(4) = W(4) xT(4)
'-y-/ ....__..,
+ '-y-/
R(4).
lfl
,-1 =0 =0 b =0 =0 4a+ b
0
N
Ainsi b = 0 et 4a +b = 0, i.e. a = b = O. Ceci prouve que R = 0 et donc permet
@
....., d 'écrire
r: P=WxT.
Ol
·;::
>- Par déterm ination du degré on trouve 4 ~ degP = degW +degT, ainsi degT ~ 2.
Cl.
0 ~
u =2
Finalement on a prouvé l' inclusion réciproque
CC {W x T; TE IR2 [X ]} .
D'où l'égalité, par double inclusion.
3.c. Du fait que C est paramétré à l'aide de l'ensemble IR2 [X], on va utiliser la base
canonique de IR2 [X] pour déterminer une base de C.
132 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels
2
Puisque 1R2 [X] = { aX +bX + c; (a , b, c) E JR 3 }, on déduit de la question précédente
C= {Wx(aX 2 + bX + c); (a , b, c) E JR3 } = {aX 2 W+bXW + cW; (a ,b,c) E JR3 } ,
i.e. C = Vect(X 2 W, XW, W), ce qui prouve que C = (X 2 W, XvV, W) est une famille
génératrice de C.
Une base de C peut alors être obtenue par extraction dans la famille C.
Nous allons montrer que la famille C tout entière est libre.
"O
0
r::::
Exercice 5.5 : Famille échelonnée et famille de puissances
:::J
0
lfl
,.-1
0 1. Soit .C = (Po, ... , Pn) une famille de polynômes de K[X] vérifiant
N
@ Vk E {0, ... ,n}, degPk = k.
.....,
r:
Ol
·;::
On dit alors que L, est une famille de polynômes échelonnée en degré
>
Cl.
dans Kn[X].
0
u a. Montrer que L, est une famille libre.
b. Montrer que L, est une base de Kn[X] .
2. Montrer que toute famille finie de polynômes non nuls, dont les degrés sont
deux à deux distincts, forme une famille libre de K[X].
Exercice 5.5 Famille échelonnée et famille de puissances 133
3. Montrer que les familles F = (Jo, ... , fn) (définies ci-dessous) forment une
famille libre du K-espace vectoriel F(IR, K).
a. V' k E {O, ... , n}, V' x E IR, fk(x) = exp(kx) avec K =IR.
b. V'kE{O, ... ,n}, V'xEIR, fk(x)=eikx avecK=<C.
c. V'kE{O, ... ,n}, V'xEIR, fk(x)=cosk(x) avecK=IR.
4. Soit E un espace vectoriel. On considère deux familles de vecteurs de E
Bn = (e1, ... , en) et Cn = (u1, ... , un)· On admet que Cn et Bn vérifient :
u1=e1 et V'kE{2, ... ,n}, Uk-ekEVect(e1, ... ,ek-1).
On dit alors que Cn est u-échelonnée relativement à Bn.
a. Que dire de Cn lorsque E = IR[X] et Bn = (1, X, ... , xn- I)?
b. Montrer que Vect(Cn) C Vect(Bn)·
c. Montrer que Bn est u-échelonnée relativement à Cn.
d. En déduire que Vect(Bn) = Vect(Cn)·
e. Montrer que Bn est libre ssi Cn est libre.
f. En déduire que Bn est une base de E ssi Cn est une base de E.
1.a. Puisque la famille est ordonnée selon un critère particulier (ici le degré) une
récurrence se prête bien à la démonstration du caractère libre.
Une deuxième méthode s'appuie sur l'ordre imposé par le degré qui crée une forme
de « domination » croissante, deg Po < · · · < deg Pn.
134 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels
On va donc faire usage d 'un argument de maximalité. Il s'agit de raisonner par l'ab-
surde et d 'isoler dans la famille un vecteur particulier maximal (ici maximal au sens
du degré).
~1
Si, par l'absurde, L est liée, on peut trouver n + 1 scalaires ao, ... , an non tous nu ls
n
(à ne pas confondre avec « t ous non nuls») tels que L akPk =O.
k=O
On va donc isoler le polynôme de plus haut degré, parmi aoPo, ... , anPn, car c'est lui
n
qui détermine le degré de L akPk.
k=O
L ak Pk = 0 i.e.
k=O
E IRp _ i[XJ
1. b. On va, ici encore, exploiter la caractère ordonné par degré. On raisonne par
récurrence sur n : on va montrer que toute famille échelonnée en degré dans Kn[X]
est génératrice de Kn[X] .
Lors de la preuve de l'hérédité, on va montrer que tout polynôme P de IKn[X] admet
une décomposit ion relativement à une famille échelonnée en degré (Po, ... , Pn, Pn+1 ).
Pour se ramener à l'hypothèse de récurrence, on va chercher un scalaire ..\ de sorte
que P - ..\Pn+l E Kn[X].
~
"O
0
r::::
:::J • Initialisation : Pu isqu ' un polynôme de degré 0 est une consta nte non nulle, il
0
lfl
constitue à lui tout seul une fam ille générat rice de OC 0 [X] que l'on identifie à K
A insi P(O) est vraie.
,..-1
0
N
@ • Hérédité : Supposons que pour un certain entier n, toute fa mi lle échelonnée en
....., degré dans OCn[X] est génératrice de OCn[X] .
r:
Ol
·;:: Soit L = (Po, .. . , Pn, Pn+i) une fa mille échelonnée en degré d ans OCn+dXJ,
>
Cl. mont rons qu 'elle est génératrice de OCn+i[X].
0
u Tout d 'a bord, puisque (Po, ... , Pn) est échelonnée en degré d ans OCn[X], on en
déduit, grâce à l' hypot hèse de récurrence, que
OCn[X] = Vect(Po , .. . , Pn)·
Soit P un polynôme de OCn+i[X] et notons an+1 son coefficient de degré n + 1.
Pu isque 0Cn+1[X] est stable par com binaison linéaire on a, pour t out scalaire.\
p - ÀPn+l E OCn+dX J.
Exercice 5.5 Famille échelonnée et famille de puissances 135
Pour conclure on rappelle qu 'une base est la donnée d'une famille à la fois libre et
génératrice de l'espace étudié.
~I Pu isq ue .C est échelonnée en degré dans OCn[X], on en dédu it qu'elle est à la fois libre
et génératrice de OCn[X], c'est donc une base de OCn[X].
2 . Les familles échelonnées en degré sont des familles maximales selon le critère qui
'O
0
r::::
demande à ce que les degrés soient deux à deux distincts .
0
:::J
Pour une famille C de polynômes non nuls de degrés deux à deux distincts, il suffit
lfl
,..-1
alors d 'exhiber une famille f: de polynômes échelonnée en degré qui contient C.
0
N
@ Soit C une famille fin ie de polynômes non nuls, dont les degrés sont deux à deux
....., dist incts .
r:
Ol
·;:: Soit ~ l'ensemble des degrés des polynômes de C, notons n le plus grand élément de
>
Cl. ~.On adjoint aux polynômes de C les polynômes {X\ k E {O, ... , n} \ ~}. notons
0
u .C cette famille.
Puisque [, est formée de n + 1 polynômes de degrés 2 à 2 dist incts dans { 0, ... , n},
c'est donc que tous les degrés entre 0 et n sont représentés par un et un seul vecteu r
de .C. En réarrangeant l'ordre des vecteurs de .C, on obtient une fam ille échelonnée en
degré dans OCn [X], donc libre.
Puisque .C est libre et que C est une sous-famille de .C, on en déduit que C est libre
dans OCn[X], donc également libre dans OC[X].
136 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels
3 . Toutes les familles de fonctions considérées ici s'écrivent sous la forme f k = r.pk,
où r.p est une fonction dont l'ensemble image I (à ne pas confondre avec l'ensemble
d'arrivée) est infini, i.e. r.p prend une infinité de valeurs.
:t\lfontrons que, dans ce cas, F = (fo, ... , fn) est une famille libre.
Soient ao, ... , O,n n + 1 scalaires tels que aofo + aif1 + · · · + anfn =O.
i.e. Vx E IR, ao + a1ip(x) + · · · + o,ncp(xt = 0,
n
Si l'on pose P = L °'kXk, on en déduit, avec I = ip(IR),
k=O
Vx E IR, P(ip(x))
0 i.e. Vy E J , P(y) = 0.
=
Ainsi, puisque I est infin i, le polynôme P admet une infinité de racines, c'est donc le
polynôme nul ce qui implique que tous ses coefficients sont nuls :
ao = ai = ... = an = o.
Finalement, F est une famille libre.
Il existe d'autres preuves axées sur la spécificité des fonctions utilisées. Ici encore le
caractère ordonné nous incite à raisonner par récurrence ou par critère de maximalité.
Par exemple dans l'exemple a. (on pourra aussi se référer à la question 6.8.3) on a
u
0 Plus généralement, pour tout k E {2, ... , n }, Pk - X k E Vect(l, ... , xk-l ). Ainsi , on
peut écrire
k- 1 k-1
Pk - x k = 2:aixi i.e. Pk = xk + l:: aixi,
i=O i =O
et donc Pk est unitaire et de degré k.
Exercice 5.5 Famille échelonnée et famille de puissances 137
~I
Cn est une famille de polynômes unitaires échelonnée en degré dans OCn[X].
Réciproquement, toute famille de polynômes unitaires échelonnée en degré dans OCn [X]
est manifestement u-échelonnée relativement à Bn
~1
V k E {l, ... ,n}, U k E Vect(e1, ... ,ek) et Vect(e1, . .. ,ek ) C Vect(e1, .. . ,en),
on en déduit V k E {l , ... , n}, U k E Vect (Bn) . Ainsi Cn C Vect (Bn) . Et donc,
puisque Vect(Bn) est un espace vectoriel, Vect (Cn) C Vect(Bn)
4.d. On sait déjà que Vect (Cn) c Vect(Bn ), il s'agit donc de prouver l'inclusion
réciproque. Cela découle de la symétrie de la relation « être u-échelonné ».
138 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels
Si, par l'absurde, Cn est liée, on peut trouver n scalaires ai, ... , an non tous nuls tels
n
que L a ku k = O.
k=O
En notant av le coefficient non nul de plus grand indice, on a alors
p p- 1
L a k 'Uk = 0 i.e. Up = L-
k=O
: k 'Uk .
P
k=O
"--v--"
E Vect(Cp-1 )
~1
Supposons Cn libre. Puisque Bn est u-échelonnée relativement à Cn . l'implication
précédente s'applique au couple (Cn , Bn) en lieu et place de (Bn, Cn) · On trouve alors
"O que Bn est libre. Ainsi, par double implication, Bn est libre ssi Cn est libre.
0
r::::
:::J
0 4.f. L'équivalence du caractère libre ayant déjà été prouvé, il nous reste à prouver
lfl
,..-1
0
l'équivalence du caractère générateur.
N
@
.....,
r: Puisque Vect(Bn) = Vect(Cn). on a l'équivalence :
Ol
·;::
>
Vect(Bn) = E {::::::::} Vect(Cn) = E,
Cl.
u
0 i.e. Bn est génératrice de E {::::::::} Cn est génératrice de E.
Comme, par ailleurs, l'équivalence a été prouvée pour le caractère libre, on en déduit:
Bn est génératrice de E
Bn est une base de E {::::::::} {
Bn est libre
{::::::::} { Cn est génératrice de E
Cn est libre
{::::::::} Cn est une base de E.
Exercice 5 .6 Manifestement libre 139
1. P uisque les coordonnées nulles sont quasi-systématiques sur autant de lignes qu'il
y a de vecteurs, c'est donc que le système associé à une combinaison linéaire annulant
la famille (X 1 , ... , Xp) , a 1 X 1 + ... +apXp = 0, est lacunaire (i.e. certaines lignes font
apparaît re une et une seule inconnue ai ) donc particulièrement simple à résoudre.
remarque qu 'ils forment une famille liée pu isque X 3 = X 1 + X 2 (ainsi, tout comme
X1 et X2, X 3 est dans Vect(X1, X 2); et, puisque les vecteurs X 1, X 2, X3 sont dans
un même plan vectoriel, on dit qu 'ils sont coplanaires). En revanche, pris deux par
deux, X i et X j sont non colinéaires.
140 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels
3. Dans le cas proposé ici les colonnes associées aux vecteurs (i.e. les colonnes dont
les coefficients reproduisent les coordonnées des vecteurs considérés) sont
1 0 0 0
0 2 0 0
X1 = 0 'X2 = 0 'X3 = 3 'X4 = 0
5 5 5 5
0 0 0 4
0 0 0
0 0 0
0
5
rn
5
0
5
0 0 QJ
avec f 1 = 1, f2 = 2, f3 = 3 et f4 = 5.
Pour chaque numéro de ligne f k on a encadré l'unique coordonnée non nulle de la
ligne numéro ek· Les flèches partent de ces coefficients non nuls et pointent, dans
cette même ligne, sur tous les autres coefficients (tous nuls).
"O
0
r::::
~1
:::J
0 Soit C = ((1, 0, 0, 5, 0), (0, 2, 0, 5, 0), (0, 0, 3, 5, 0) , (0, 0, 0, 5, 4)) .
lfl
,..-1 Puisque les colonnes associées aux vecteurs de [, forment une famille manifestement
0
N libre et que le système permettant de prouver qu ' une famille est libre est le même, que
@ l'on parle de vecteurs de Kn ou de colonnes de M n,1 (K), on en déduit que[, est libre .
.....,
r:
Ol
·;::
>
Cl.
0
u
On rencontre des colonnes « manifestement libres », comme celles que
l'on vient d'introduire ici, de manière extrêmement courante. Les co-
lonnes donnant paramétrage de l'ensemble des solutions d 'un système
linéaire homogène seront systématiquement de cette forme si l'on ap-
plique la méthode du pivot de Gauss.
Exercice 5. 7 Familles extrémales 141
Soit[,= (u 1 , ... ,up) une famille finie de vecteurs d'un espace vectoriel E.
1. Dans cette question uniquement, on suppose que [, est libre.
a. Montrer que, pour tout vecteur 'V de E, on a l'équivalence (u 1 , ... , up, v)
est libre ssi v f/. Vect(u 1 , ... ,up)·
b. Supposons que toute famille contenant tous les vecteurs de[, et d'autres
vecteurs est liée (on dit alors que [, est libre maximale). Montrer que [,
est une base de E.
2 . Dans cette question uniquement, on suppose que[, est génératrice de E.
a . Montrer que :
(u1, ... , Up -1 ) est génératrice de E ssi up E Vcct(u1, . .. , Up-d ·
b. Supposons que toute famille constituée de certains vecteurs (et non de
tous) de[, n'est plus génératrice de E (on dit alors que[, est génératrice
minimale de E). Montrer que[, est une base de E.
3. Soit ME Mn(lR) vérifiant M 2 = -In, par la suite on note E = Mn,1 (1R).
a. Soit p le plus grand entier non nul tel que l'on peut construire une famille
(e1, ... , ep) telle que (e 1, . . . , ep, Me 1 , ... , Mep- 1 ) soit libre.
Justifier l'existence de cc p.
b. Montrer que pour un tel p et une telle famille (e 1 , ... , ep) on a que
(e 1 , ... , ep, Me 1 , ... , Mep) est une base de E.
c. En déduire qu'il n'existe aucune matrice M dans M20 1s(lR) vérifiant
2
M = -ho1s-
Supposons (u1 , . . . , up, v) liée, il existe donc des scalaires non tous nuls: a 1 , ... , ap, b
tels que
p
Si, par l'absurde, b = 0, alors les scalaires a 1, ... , ap sont non tous nuls et vérifient
p
L akuk =O. Ceci contredit le caractère libre de .C , on a donc prouvé, par l'absurde,
k=l
p
k=l
"-..,.-"'
EVect(u.1, ... ,-up)
~1
Soit v un vecteur de E. Si, par l'absurde, v fi. Vect(u 1, ... ,·up). on sait, d 'après ce
qui précède, que (u 1, ... , ·up, v) est libre, ce qui contredit la maxima lité de .C.
Ainsi, v E Vect(u1, ... , up). et ce quel que soit v dans E. C'est donc que .C est
génératrice de E. Comme, par ailleurs, .C est libre, .C est donc une base de E.
2.a. Commençons par l'implication la plus simple.
Supposons par l'absurde .C liée, ainsi l'un de ses vecteurs est combinaison linéaire des
autres. Quitte à réindexer les vecteurs de.Con peut considérer que c'est le vecteur up
qui est combinaison linéaire des autres, i.e. up E Vect(u1, ... , Up- 1).
D'après ce qui précède cela nous donne (u1, ... , Up-1) génératrice de E, ce qui contre-
dit la minimalité de .C.
Exercice 5. 7 Familles extrémales 143
A insi, on a montré par l'absurde que C est libre. Puisque, par ailleurs, elle est supposée
1 être génératrice de E, on a donc prouvé qu e C est une base de E.
3.a. Il s'agit de prouver l'existence d'un plus grand entier soumis aux conditions don-
nées par l'énoncé. Pour cela nous allons montrer que l'ensemble des entiers répondant
aux mêmes critères forme une partie non vide et majorée de .N et donc admet un
maximum.
Posons A l'ensemble des entiers naturels non nu ls k pour lesquels il existe une fami lle
de k vecteurs (e1, ... ,ek) telle que (e1, .. . ,ek,Me1, ... ,Mek- 1) soit libre.
A est par construction une partie de N. Par ailleurs, il est non vide pu isque 1 E A.
En effet tout vecteu r non nu l ei constitue une famille li bre de E, or, pou r k = 1,
(e1, ... ,ek,Me1, ... ,Mek- 1) = (e1).
Enfi n pu isque toute famille libre à un cardi na l inférieu r à la dimension de l' espace E,
A est majoré (d isons par dim E puisqu'en effet, pour un k dans A, le cardinal de
(e1, ... ,ek,Me1, ... , Mek - 1) libre est 2k - 1 et donc k ~ 2k - 1 ~ dimE) .
Ainsi cette partie non vide et majorée de N admet un plus grand élément p, et puisque
p E A, cela signifie, par défi nition , que l'on peut construire une famille (e 1 , .. . , ep)
telle que (e1, ... ,ep,Me1, .. . ,Mep- 1) soit libre, p est par ailleurs maxima l.
3.b. Soit un tel pet une telle famille (e 1 , ... , ep) · Pour montrer que
(e 1 , ... , ep, lvf e 1 , ... , M ep) est une base de E, nous allons commencer par montrer
que cette famille est libre. On va pour cela invoquer le résultat prouvé en 1.a.
Puisque, par construction, (e1, ... , ep, Me1, ... , Mep- 1) est libre, on en dédu it (grâce
"O à 1.a) que :
0
r::::
:::J (e1, ... ,ep,Me1, ... ,Mep) est libre ssi Mep ~ Vect((e 1, .. . ,ep,Me 1, ... ,Mep-1).
0
lfl Ainsi, il suffit que l' on montre Mep ~ Vect(e1, ... ,ep,Me1, ... , Mep- 1).
,..-1
0
N
Pour montrer une non appartenance, il est habituel de raisonner par l'absurde.
@
.....,
r:
Ol
·;::
Supposons, par l'absurde, que
>
Cl. Mep E Vect((e1 , ... , ep, Me1, ... , Mep-1).
0
u On peut alors t rouver 2p - 1 réels À1, ... , Àp, µ1, ... , µp - 1 tels que
(• ) Mep = À1e1 + · · · + Àpep + µ 1Me1 + · · · + µp- 1Mep- l·
Si l'on veut tirer profit de la relation M 2 = -I, il convient de multiplier par M la
relation ( • ), on pourra ainsi trouver deux types de combinaisons linéaires donnant
Mev·
144 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels
On peut, à présent, donner deux combinaisons linéaires donnant t outes deux le même
vecteur ÀpM ep.
On remarque en particulier l'égalité >.; = - 1 qui est absurde compte tenu fait que
Àp E ~ .cette contradiction prouve finalement que (e1, . . . ,ep, M e1, ... , M ep ) est
libre.
Pour montrer qu'il s'agit d 'une base il nous suffit de montrer que .C est libre maximale.
Montrons la maximalit é. Pour cela nous allons procéder par l'absurde (comme souvent
pour ce genre de questions sur la maximalité) .
Supposons par l' absurde que C ne soit pas libre maximale, plus précisément
(C étant libre) supposons que l'on puisse trouver un vecteur ev+i qui joint à C
conserve son caractère libre . Cela nous donne p + 1 vecteurs ei , . .. , ep+I tel que
(e1, ... ,ep,ev+1, M e1, ... , M ep) soit libre, ainsi p + 1 E A ce qui contredit le carac-
tère maximal de p . Finalement C est libre maximal, c'est donc une base de E .
"O
0
r::::
:::J
0 3.c. Puisque la connaissance d 'une base nous donne, par calcul du cardinal, la dimen-
lfl
,..-1 sion. On a avec les notations précédentes
0
N
@
.....,
r:
Ol
ï:::
dim E = Card(e 1 , ... , ep, Me 1 , ... , M ep) = 2p.
>
Cl.
0
u
On déduit de ce qui précède que E est de dimension paire, Puisque par construction
dim E = n, cela impose que n soit paire.
On comprend alors que l'existence d ' une matrice M telle M 2 = -1 impose la parité
de n . Puisque 2015 est impair, on a donc prouvé qu'il n'existe aucune matrice M dans
M 2015 (~) vérifiant M = -ho15.
2
Exercice 5.8 Image et noyau d'une matrice 145
On a ainsi
G = {x1C1 + x2C2 + x3C3 + x4C4 + xsCs; (x1, x2, x3, X4, xs) E IRs},
qu i se traduit par G = Vect(C1,C2,C3,C4,Cs) .
Ceci prouve, d'une part, que Gest un sous-espace vectoriel de M 4,1(IR) et, d'autre
part, que (C1, C2 , C3, C4, C5) en est une famille génératrice.
1.b. D'après le t héorème de la base incomplète, on sait que de toute famille généra-
trice on peut extraire une base.
Comme cela a été prouvé lors de la question 5.7.1.a, il s'agit de trouver une sous-
famille libre maximale et pour cela on procède en cherchant une colonne Ci non nulle
parmi les colonnes (C1,C2,C3,C4,C5), ce qui nous donne une famille libre (Ci)· Puis
on complète, petit à petit, la famille libre obtenue en une nouvelle famille libre par
adjonction d 'une nouvelle colonne Ck qui n 'est pas combinaison linéaire des précé-
dentes (cf question 5.7.2.a). Le procédé s'arrête lorsque toutes les colonnes restantes
sont combinaison linéaire des colonnes sélectionnées.
Cherchons une sous-famille .C, libre maximale, extraite de (C1, C2, C3, C4, Cs).
Puisque C1 est non nulle, on considère que C1 fait partie de la famille .C, et l'on a
G = Vect(C1, C2, C3, C4, Cs).
"O
0 Puisque C2 = 2C1, on exclut de prendre C2 dans .C, et, dû au fait que
r::::
:::J
0 C2 E Vect(C1, C3, C4, Cs), on en déduit (cf 5.7.2.a)
lfl
,-1 G = Vect(C1, C3 , C4, Cs).
0
Puisque, au vu de la troisième coordonnée de C1, C3, C4 , on a C4 rf. Vect( C1, C3) et
N
@
....., que (C1,C3) est libre, on en dédu it (cf 5.7.1.a) (C1,C3,C4) est libre (on prend alors
r:
Ol C1, C3 et C4 dans .C).
ï:::
> Enfin, puisque Cs E Vect(C1,C3,C4) (en effet Cs = 3C1. et donc on exclut de
Cl.
0 prendre Cs dans .C) et que G = Vect(C1,C3, C4 ,Cs ). on en dédu it
u
G = Vect(C1, C3, C4).
Ainsi, en tant que famille libre et génératrice de G, on en déduit que
.C = (C1, C3, C4) est une base de G.
2. K est ce que l'on appelle le noyau de la matrice A.
2.a. On commence par montrer que K est caractérisé par une équation cartésienne.
Exercice 5.8 Image et noyau d'une matrice 147
X
y
Par calcul mat ric iel on t ro uve, quelle que soit la colonne X = z E E,
t
u
2~
+2y +3z +3u = Ü
+4y +z - t +6u = Ü
X E K ~ AX = O ~ (S)
{ -z +2t = Ü
X +2y +3z +3u = Ü
(S) ét ant un système linéa ire homogène, on en déd uit , comme d ans 5.1.1.a, q ue K
est un sous- espace vect oriel de E.
Remarq uons que la première éq uation est égale à la dern ière éq uation
+2y +3z +3u = Ü
X EK ~ {2: +4y +z
-z + 2t
-t +6u =Ü
= Ü
D 'où, par la méthode du pivot de Gauss,
+ 3z + 3u = Ü
X EK ~
{ ITJ x + 2y
- 5z -t = Ü L 2 +- L 2 - 2L1
- z + 2t = Ü
Afi n d 'obt enir un pivot po ur la deuxième ligne en bo nne place, o n procède à une
perm utation sur les 4 derniers t ermes fa isant int ervenir les in connues ( resta ntes après
x ) y ,z, t ,u
+ 3z +3u = Ü
{"
+2y
-5z -t = Ü
-z + 2t = Ü
-0
0
0
c
:J
1..()
r-l
r +3z
[3J ·z -t
7t
+3u +2y = Ü
= Ü
= Ü
Ai nsi , en fa isant j ouer à y et u le rôle de paramètres, on trouve ( un système de Cramer
d'inconn ues x, z , t)
L 3 +- L 3 - 5L 2
0
N +3z = -3u - 2y
© XE K ~ { X - 5z - t = Ü
.......
..c 7t = Ü
Ol
ï::: = - 3u - 2y
{
>- X
a.
0 z = Ü
u
t = 0
X -3 -2
y 0 1
z =u 0 +y 0
t 0 0
u 1 0
148 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels
- 3 -2
0 1
Finalem ent la famille constituée des vect eu rs U1 = 0 et U2 = 0 est
0 0
1 0
génératrice de K et vérifie la propriété demandée.
2.c. Il s'agit ici d'une famille manifestement libre comme évoqué dans l'exercice 5.6.
~I
U1, U2 étant manifeste ment no n colinéa ires, on a donc trouvé une famille libre et
géné ratrice de K, i. e. (U1 , U2) est une base de K.
1. On dira d'une suite u (à valeurs réelles) qu'elle est une suite linéairement ré-
currente lorsqu'il existe un entier non nul d et des coefficients réels ao, ... , ad- I
tels que
d- l
'tin EN, Un+d = L akUn+k ·
k=O
d-l
On dit alors que Xd - L akXk est le polynôme caractéristique associé à u et
k=O
on dit que u vérifie une relation linéaire de récurrence d 'ordre d.
a. Quel est l'ensemble des suites linéairement récurrentes d'ordre 1 ?
b. Montrer qu'une suite linéairement récurrente d 'ordre d et de polynôme
caractéristique P est entièrement déterminée par la donnée de ses d pre-
miers termes.
c. Montrer que l'ensemble des suites u vérifiant la relation de récurrence li-
néaire
't/ n EN, Un+2 = 2un+l - Un
est un sous-espace vectoriel de l'espace des suites à valeurs réelles, et
"'O donner une base de celui-ci.
0
c
:J 2. Soit P un polynôme unitaire de degré d.
0
1..()
T"-l
a. Montrer que l'ensemble ry{(P) des suites linéairement récurrentes de poly-
0
N nôme caractéristique Pest un sous-espace vectoriel de l'espace des suites
© à valeurs réelles.
.......
..c b. Soit wCi) la suite de ry{(P) dont les d premiers termes sont
Ol
ï:::
>-
a. 0, 0, 1, 0, O.
0
u t t t
(i) (i) (i)
Wo wi wd-1
Montrer que la famille (wC 0 ), ... , wCd- l)) est une base de ry{(P). En déduire
que dim ry{(P) = degP.
Exercice 5. 9 Espace de suites linéairement récurrentes 149
3. Soient d réels strictement positifs distincts r 1 < ... < rd classés dans l'ordre
strictement croissant. On pose alors
P = (X - r1) x · · · x (X - rd).
a. Soit >.1 , ... , Àk k réels quelconques. En supposant Àk =f. 0 donner un
équivalent lorsque n tend vers +oo de
À1T~ + ·· · + ÀkTk.
b. Montrer que la famille [, constituée des suites (rï)nEN, ... , (r;J)nEN est
une famille libre de 91(P) .
c. Montrer qu'il s'agit d'une base de 91(P).
1.b. Pour montrer qu 'une telle suite u est entièrement déterminée par la donnée des
d premiers termes, disons (to , ... , td- l ) E m;_d, on peut naïvement penser que cela
revient à démontrer par récurrence l'entière détermination de chaque valeur à partir
de la donnée des d premières. En effet, la relation
d-1
Un+ d = L akUn+k
k=O
permet d'obtenir successivement les valeurs ud , ud+ l, ud+ 2, ... en prenant successive-
ment n = 0, 1, 2, ....
-0
0
Néanmoins cette récurren ce ne peut prétendre prouver la détermination de toute la
c suite u mais uniquement la détermination de toute sous-suite finie de la prétendue
:J
0
suite u dont l'existence nous échappe (cette nuance est subtile, mais c'est une nuance
,....
I..{)
de taille). On va commettre une entorse à la rigueur mathématique et nous contenter
0
N
de montrer que, pour tout N ~ d - 1,
©
.......
..c (uo , ... , Ud - 1) = (to, .. . , td- 1)
Ol
ï::: 1 d-1
3 ! (Uo, +
u
>-
a.
0
... , UN) E IR;. N ,
{ Vn E {O, ... , N - d}, Un + d = L akUn+ k
k=O
Ceci étant montré, on va admettre qu'il existe alors une unique suite u t elle que
(uo, ... , Ud - 1 ) = (to , ... , td- 1)
d- 1
{ Vn E N, Un + d = L akUn+ k
k= O
150 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels
Ce qui est, en partie, rigoureusement prouvé, si l'on admet l'existence d 'une telle suite
u (auquel cas on ne prouve ici que l'unicité) .
(
Posons (u~ ,. . ., u~) = (uo , .. .,uN), o n a alors, grâce à P(N),
u~, ... , u~_ 1) = (ta, ... , td- 1)
d-1
u~+d = Un+d = ~
1 'lin E {O, ... ,N - d} ,
d-1
L ak
k=O I
=un+k
Posons, à présent, u~+I L aku~+I -d+k · u~+ 1 est bien défini puisqu'il est
"'O
0
k=O
c déterminé à partir des va leurs (u~+I - d+k)o,;;;k,;;;d-1 = (u~+I - d' .. . ,u~) qui ont
:J
0 déjà ét é défin ies.
1..()
r-l Fin alement on a prouvé l' existence d'un (u~, ... , u~, u~+I) tel que
0
N
(u~ , .. . , u~_ 1 ) = (to , . .. , td- 1)
© d- 1
.......
..c
Ol { 'lin E {O, ... , N +1- d} , u~+d = Laku~+k
ï::: k=O
>-
a.
0 Il ne nous reste plus qu'à montrer l' unicité. Soit (u 0, ... , u~ , u'/v+ 1 ) une deuxième
u
fam ille vérifiant la caractérisation décrite dans P(N + 1).
. ue (u 0Il , . . . , uN
Pu1sq Il ) , "f.
ven 1e
l'u nicité annoncée dans P (N) nous montre que (u~, ... , u'fv) (uo, ... ,uN) ,
d one, par const ruet .ion , ( u 0Il , . .. , uN
Il )
= ( u 0/ , ... , uN
/ )
.
d-1
Par a1·11 eurs, on a, par construction
. , u IlN+l =~
L ak u N+1-d+k = uN+l ·
Il /
k=O "-,.-"'
=u'.-v+1- d+k
Ainsi (u~ , ... , u'fv, u'fv+ 1 ) = (u~ , .. . , u'rv , u~v+ 1 ), et donc l' unicité est établie.
• Conclusion : Grâce au principe de récurrence, on a prouvé que, quel que soit
N ~ d - 1, P(N) est vraie.
de u
V n E N) Un = ,\ . 1n + µ . n . 1n .
Enfin, puisque de façon évidente toute suite u s'écrivant sous cette forme vérifie la
même relation de récurrence linéaire, on a prouvé que l'ensemble cherché est
Vect((l)nEN, (n)nEN).
C'est en fait l'ensemb le des suites arithmétiques.
Puisque (l )nEN n'est pas la suite nulle, dire que la famill e C, est liée équivaut à dire
que (n)nEN est colinéaire à (l)nEN · Or être colin éa ire à (l)nEN c'est êt re une su ite
constante ce qui n' est manifestement pas le cas de (n)nEN · Ainsi C, est libre.
Comme, par construction, C, est génératrice du sous- espace vectoriel qui nous occupe,
on en déduit qu'il s'agit d'une base.
d- 1
2.a. Convenons d 'écrire P = X d - L akXk . On commen ce par les vérifications de
k= O
routine.
-0
0
c
~1
0
:J 9l(P) est par construction une partie de l'espace vectoriel S(JR) des suites réelles. Il
1..() est de plus non vide, puisque la suite nulle est manifestement une suite linéa irement
T"-l
0 récurrente de polynôme caractéristique P.
N
ce qui prouve que >.u + v E 9t(P) et donc la stabilité par combinaison linéaire est
prouvée.
1 Fin alement 9t(P) est un sous-espace vectori el de l'espace des suites à va leurs réelles.
2.b. Montrons que toute suite u de 9't(P) se décompose d'une manière et d'une seule
comme combinaison linéaire de vecteurs de la famille B = (w(O) , ... , wCd- l)) .
On procède par analyse et synthèse.
Soit u E 9t(P), montrons qu'il existe un uniqu e d- uplet (xo , . .. , Xd - l) dans ]Rd tel
que
u = xow (O) + · · · + Xd - l w (d - l ) .
( 0)
X owd- 1 + X1 Wd( 1)- l + ... + X d - lWd-(d -11) = Ud - 1
Au vu de ce que sont les d premiers term es des suites w (i ) ce syst ème s'écrit
xo = uo
X1 = uo
1 Xd - 1 =
Ainsi, n'aya nt qu ' une seule possibilité pour les va leurs de
Ud- 1
3.a. Comme il n 'est pas question d 'additionner les équivalents nous allons dét erminer
(si possible) quel est le terme dominant dans cette somme.
Puisque pour 0 < s < t, on a sn = o(tn) lorsque n tend vers +oo (en effet , du fait que
Exercice 5. 9 Espace de suites linéairement récurrentes 153
1f 1< 1, on a sn =
tn
(~)
t
n-++oo
n0), on en déduit que le terme dominant dans cette
somme est Àkr'k. Pour montrer qu'il est équivalent à la somme, il suffit de factoriser
par ce terme dominant.
n
Ti Ti
Étant donné que, pour tout i < k, on a 0 < < 1, on en déduit -----+ o.
Tk Tk n--++oo
Ainsi,
-------+o+ .. .+o+ 1
n --+ + oo
3.b. Plusieurs méthodes sont ici possibles (voir par exemple 6.8.3) mais, au vu de la
question précédente introduisant un ordre de domination dans la famille considérée,
nous pouvons procéder (comme cela a été vu en 5.5 .3) par récurrence ou par l'absurde
en usant d 'un argument de maximalité. C'est cette dernière méthode que nous a llons
mettre en œuvre.
Supposons par l'a bsurde que[, est liée, on peut donc trouver des scalaires non tous
d
On en déduit, d'après la question précédente que >-.krk "" 0 , ce qui, étant donné que
+oo
Tk # 0 et Àk # 0, est une contradiction. Final ement la famille .L est libre.
Il ne nous rest e plus qu'à vérifier que (rl)nEN , .. . , (r;J)nEN sont des éléments de 9l(P) .
-0 d-1
L a kXk,
~
0
c
:J
Noton s P = Xd - puisque Tj est une racine de P, on en déduit
0 k=O
1..()
,..... d- 1 d -1
0
N
©
rf - L ak rj = 0 i.e. rf = L akrj .
....... k=O k=O
..c
Ol D'où, en multipliant de part et d'autre de l'éga lité par r j (avec n EN), on trouve
ï:::
>-
a. d- 1
~
r jn+d akrjn+k .
0
u
\.-1
v n En , JM
=6
k=O
Ainsi on a bien (rj)nEN E 91(P) et ce quel que soit j E {1 , ... , d}.
3.c. P lutôt que de montrer le caractère libre et gén érateur, nous a llons ici prouver le
caractère libre et invoquer une égalité de cardinal et dimension.
154 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels
~1
Puisque C, est une famille libre de 91(P) dont le cardinal vérifie , d'après ce qui a été
démontré plus tôt, Card C, = d = deg P = dim 91(P). On en déduit qu'il s'agit d'une
base de 91(? ) .
1. Soient
J~ ( ; K~ ( ~l ~l)
D )
1 1 1 0
( -1
1 0 et L= ~ 0 -1
1 - 1 - 1 1
Montrer que la famille (J, K , L) est une famille libre de M 3 (IR).
2. On appelle carré magique, toute matrice M E M 3 (IR) dont les sommes des
coefficients sur chaque ligne, resp. chaque colonne et resp . cha que diagona le
sont égales à une même quantité (que l'on appelle la somme de !vl).
a. Montrer que l'ensemble 9J1 des carrés magiques est un sous-espace vecto-
riel de M 3(IR) .
b. Soit 9J1o l'ensemble des carrés magiques dont la somme est nulle. Montrer
que 9J1o est un sous-espace vectoriel de 9J1.
c. Montrer que
u+v
"'O 0
0
c -u-v
:J
0
1..() réalise une surjection entre IR 2 et 9J1o . En déduire que (K, L ) est une base
T"-l
0 de 9J1o.
N
© d. Montrer que
.......
..c 9J1 = Vect (J) EB 9J1o .
Ol
ï::: En déduire une base de 9J1.
>-
a.
0
u 3. Donner un carré magique dont les coefficients sont les chiffres 1, 2, .. . , 9, le
coefficient central étant égal à 5.
1 . On applique la définition.
Exercice 5 .10 Carrés magiques 155
~ ~ U W+; +V W: ~ ~ V) =
( W:w+u w - u -v w+v
Ü.
Ainsi, puisqu'une matrice est nulle ssi chacun de ses coefficients est nul, on en déduit
w = 0 (cf coefficient central) ,
et donc 0 + u = 0 et 0 + v = 0 (cf coefficients d'indices (3, 1) et (3, 3)).
Finalement, u = v = w = 0, ce qui prouve que la famille (J, K , L) est une famille
libre de M 3(1R).
2.a. Pour que le travail soit plus aisé, nous a llons décomposer l'ensemble en intersec-
t ion de ce qui se révélera être des sous-espaces vectoriels.
Notons C2 l'ensemble des matrices dont les coefficients situés en ligne 2 ont la même
somme que ceux situés en ligne 1.
C2 ={M E M3(1R) 1 M [2, 1] + M [2, 2] + M[2, 3] = M [l , 1] + M[l, 2] + M[l , 3]}.
Montrons qu'il s'agit d'un sous-espace vectoriel de M 3 (1R) .
On commence par les constatations préliminaires.
~I C2 est , par constructio n, une partie de M 3(1R) . Elle est de plus non vide puisqu'elle
contient manifestement la matrice nulle.
On montre ensuite la stabilité par combinaison linéaire.
• Ense mble des matrices dont les coeffici ents situés sur la diagona le princ ipa le (resp.
non principale) ont la même somme que ceux situés en ligne 1 :
1J = {ME M 3(1R) J M [l , 1] + M[2, 2] + M[3, 3] = M[l , 1] + M [l , 2] + M [l , 3]},
resp. V'= {M E M3(1R) J M [3, l ]+M[2 , 2]+M [l , 3] = M [l , l ]+M[l , 2]+ M[l , 3]}.
Finalement , puisque
9J1 = .C2 n .C3 n C1 n C2 n C3 n v n v',
et puisqu ' une intersection de sous-espaces vect oriels est un sous-espace vect oriel, on e n
déduit que l'ensemble 9n des carrés magiques est un sous-espace vectoriel de M 3(1R) .
2.b. On procède ici de ma nière plus classique. On commence par les observations
p réliminaires d'usage.
~I 9n0 est , par construction , une partie de 9J1. Elle est non vide puisqu 'elle contient
ma nifest e me nt la matrice nulle.
On montre à présent la stabilité par combinaison linéaire.
~1
-0 Soit M E 9J1o .
0
c Mont rons qu'il exist e u, v deux réels t els que M = i.p(u , v).
:J
0
1..()
,..... Une analyse, nous montre que u et v (s 'ils existent) ne peuvent être au tres que M[3 , 1]
0
N
et M[3, 3] respectivement . Ceci prouve par a illeurs qu'en cas d'existence il y a u nicité,
© c'est donc qu'une fois la surjectivité démontrée on pourrait conclure en réalité à la
.......
..c
Ol b iject ivité (cette bij ect iv ité aurait pu servir d'argument pour la détermination que
ï:::
>-
a. l'on fera du caractère base d e ( K , L)).
0
u Nous allons construire tous les a ut res coefficients de M à la manière d 'un Sudoku.
Puisque <p : (u , v) i---+ uK + v L, la surjectivité que l'on vient d 'établir annonce que
tout M E 9J1o peut se décomposer sous la forme
M = uK +vL avec (u , v) E JR2 .
Ainsi la famille (K, L ) est génératrice de 9J1o, et comme par ai lleurs elle est libre (car
extraite de la famille libre (J, K , L )), on en déduit que (K , L) est une base de 9no.
2.d. Commençons pa r rema rquer que, J étant un carré magique, Vect(J) , tout comme
9J10 , est un sous-espace vectoriel de 9J1.
Il s'agit de montrer que tout élément M E 9J1 a dmet une et une seule décomposit ion
sous la forme
M = A
'-v-'
+ '-v-'
N,
-0 EVect( J) E 9J1o
0
c
:J
0 ou plus simplement , qu'il existe un et un seul couple (a, N) avec a E ~et N E 9J1 0
,....
I..{)
tel que NI = aJ + N .
0
N R emarquons qu'il suffit d e trouver a car a lors N est donné par N = M - aJ.
© On va raisonner par ana lyse et synthèse.
.......
..c
Ol
ï::: Analyse : Supposons avoir trouvé a E lR et N E 9J1o tels que
>-
a.
0 M = aJ+N.
u
Notons Œ la somme de M.
Puisque N E 9J1o, on en déduit
N [l , 1] + N[l , 2] + N[l , 3] = O.
D'où
Œ = M [l , 1] + M [l , 2] + M [l , 3] = (a+ N[l , 1]) +(a+ N [l , 2]) + (a + N [l , 3]) = 3a.
158 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels
Ainsi, a = ~. et donc N = M - ~ l.
Ceci prouve l'unicité en cas d'existence de la décomposition.
Synthèse: Posons a=~· et donc N = M - ~ l.
On a de façon immédiate
M = al+ N et al E Vect(l).
Par ailleurs, en tant que combinaison linéaire des carrés magiques l et M, N E 9J1.
Or, par un calcul similaire à celui mené en analyse,
N [l , l ]+N[l , 2]+N[l , 3] = (M[l , l ]- a)+(M[l , 2]- a)+(M[l , 3] - a) = a - 3a = O.
Ceci prouve que NE 9J10 , d 'où l'existence de la décomposition.
Conclusion : Puisque tout vecteur M de 9J1 se décompose d'une façon et d ' une seule
comme somme d ' un vecteur de Vect(l) et d ' un vecteur de 9J10 , on a donc
9J1 = V ect( 1) EB 9J1o.
(1) étant une base de Vect(l), on en déduit, par concaténation avec la base (K, L )
de 9J1o, une base adaptée à la somme directe ci-dessus: (1, K, L) est une base de 9J1.
3. Pour dét erminer un carré magique il nous suffit de déterminer ses trois coordon-
n ées dans la base (J ,K,L). On va donc, à la manière d 'un Sudoku , déterminer les
coefficients du carré magique recherché.
Soit M une carré magique dont les coefficients sont les ch iffres 1, 2 , .. . , 9, le coefficient
central étant égal à 5.
Par décomposition dans la base que l'on vient de mettre en évidence, on sa it que l'on
peut trouver trois sca laires a, b, c tels que
a- c a+b+c a- b
M = al + bK + cL =
(
a - b+ c
a+b
a
a - b- c
a + b- c
a+c
)
Pu isque le coefficient central vaut 5, on en déduit que 1a = 5 I. Ainsi
5- c 5+b+c 5- b )
M = 5 - b+c 5 5+b - c .
(
5+b 5- b -c 5+c
-0
0 Puisque chaque coefficient de M est distinct et parmi {l,... ,9}, les coefficients en
c
:J (1 , 1) et (1, 3) n ous montrent que b et c sont distincts non nuls (voir coefficient (2, 2))
0
1..() et pris dans
T"-l
0
N {-4, -3, -2, - 1, 1, 2, 3, 4} .
©
.......
..c
Ol
Puisque cha nger b et -b revient à ch an ger le carré magique M en t M (carré ma-
ï::: gique avec 5 en élément central et dont les coefficien ts sont les chiffres 1, ... , 9),
>-
a.
0 on peut supposer b positif. Il en va d e même pour c, puisque cha nger cet -c revient
u
à changer NI en son symétrique M' par rapport à la deuxième diagonale (M' est
encore un carré ma gique avec 5 en élément central et dont les coefficients sont les
chiffres 1, . . . , 9). Enfin échanger b etc revient à prendre la matrice M " obtenue par
symétrie par rapport à la deuxième colonne ( M" est en core un carré magique avec
5 en élément central et dont les coefficients sont les chiffres 1, ... , 9). Ainsi, puisque
distincts, on peut choisir de prendre b < c.
Exercice 5 .10 Carrés magiques 159
Une rapid e vérification pour chacune d es sommes sur les lignes, colonnes et diagonales
nous montre qu ' il s'agit là d ' un carré magique (de somme 15) et dont les coefficients
sont les chiffres 1, . . . , 9 (et 5 pour coefficient central).
D 'autres carrés magiques pouvaient convenir , n ous avons choisi ici d'exhiber la solu-
t ion pour les coordonnées (a , b, c) = (5 , 1, 3).
Mais au vu des ch oix a rbitraires que l'on a posé pour faciliter le calcul (grâce à la
conservation des propriétés par cer taines symétries) , on pouvait également obtenir
d'au tres carrés magiques
"'O
M = ( s~ 3~ 4~ )
0
c
:J
0 (a , b, c) = (5 , 1, - 3) soit symétrie/ 2e diagonale,
I..{)
T"-l
0
N
©
.......
..c
Ol
(a , b, c) = (5, 3, 1) soit M = ( 4~ 9~ 627 ) symétrie : C1 ~ C3,
ï:::
>-
a.
M1 = ( 6~ ~1 483 )
0
u
(a, b, c) = (5, - 3, - 1) soit symétrie : L1 ~ L 3,
0n
7
(a,b,c) = (5,3,- 1) soit M = 5 avancer de 15 minutes,
3
Pour les trois derniers carrés magiques, la transformation est imagée et prend comme
référence le cadran d'une montre dont les numéros seraient disposés à la manière d 'un
carré magique (hors coefficient central).
~1
ï::: Lorsq ue A = B, il va de soi que dim A dim B et donc, a fortiori,
>-
a.
0 dim A ?: dim B.
u
P our la rec1proque nous allons exploiter l'inclusion init ialement supposée pour en
déduire deux choses : une inclusion et une inégalité de dimensions.
~I
Pu isque l' on a supposé A C B , on en dédu it par passage aux dimensions
dimA ::::;: dimB.
Exercice 5 .11 Dimensions e t espaces 161
A insi, lorsque l'on suppose dim A )! dim B, on a en réa lit é dim A = dim B. Cet te
éga lité de d imension conjointement avec l' inclusion A C B nous permet de conclu re
à l'éga lité A = B.
1 Fin alement on a bien l'équiva lence A = B ~ dim A )! dim B.
1.b . Ce résultat est en fait connu dans le cas de la somme directe (da ns ce cas
là la concaténation fourni t une base, et c'est d 'ailleurs une condition nécessaire et
suffisante) . On va mon trer le caractère générateur en déterminant l'espace vectoriel
engendré (on s'appuiera sur le fait que l'emploi du Vect t ransforme l'union en somme)
Vect(F U G) = Vect (F) + Vect(G) .
Puisq u' une base est en particulier génératrice
A = Vect(BA) et B = Vect(Bs ).
O n en déd uit Vect(C) = Vect(BA U BB) = Vect (BA) + Vect (Bs) = A + B.
A insi, C est générat rice de A + B.
Avec r vect eurs u 1 , . .. , Ur on peut tou t aussi bien construire (au moins)
une famille ou r -uplct (u 1, ... , U r) et un (unique) ensemble {u 1, ... , Ur}
(d 'au plus r éléments). L'espace vectoriel engendré ét ant le même,
Vect (u 1 , . .. , U r) = Vect ( {u 1 , ... , Ur } ),
nous avons ici utilisé l'abus de notation B AU BB pour désigner l'en-
semble constit ué des éléments provenant de la famille B A et B B, i.e. pro-
vena nt de la famille C obtenue par concaténa tion.
1.c . On va utiliser le fait que la dimension désigne le nombre de vect eurs en dessous
duquel il ne peut y avoir de famille génératrice (et a u dessus duquel il ne peut y avoir
de famille libre) .
~
Puisque C est générat rice de A + B, on en dédu it q ue
"O dim (A + B) ~ Card (C).
0
c O r , pu isque C est la résulta nt e de la concaténation de BA et Bs, on en déd uit
:J
0
1..() Card (C) = Card(BA) + Card (Bs ),
r-l
0 et, s' agissa nt de bases de A et B respectivement, on en déduit
N
3.a. Le caractère générateur étant lié à l'étude de Vect(.C), il nous suffit de montrer
que ce dernier vaut E ssi sa dimension (i.e. le rang de la famille .C ) est celle de E.
Puisqu e l' inclusion Vect(.C) C E est immédiate. l' égalité des espaces équivaut à
l'égalité des dimensions
Vect(.C) =E ~ dim(Vect(.C)) = dim(E).
'-.,..--'
rg(.C) =n
~
© Puisqu e .C est une famille de vecteurs de Vect (.C), on a la caract érisation de la base
....... par son caractère générateur et son cardinal
..c
Ol
ï::: .C est génératrice de Vect(.C)
>-
a.
0
.C est base de Vect (.C) ~ { Card (.C) = dim(Vect(.C))
u
Or .C est, par construction , génératrice de Vect(.C), on en déduit
.C est base de Vect(.C) ~ Card (.C) = dim(Vect(.C)).
"--v-"'
=p rg(.C)
Soit E = F (R, R) l'espace vectoriel des fonctions réelles d 'une varia ble réelle.
1. Exprimer, pour tout couple de réels (a, b), cos( a) cos(b) et sin(a) sin(b) en fonc-
tion de cos( a + b) et cos( a - b).
2. a . Calculer , pour k et j deux ent iers naturels, 1 71' cos(kx) cos(jx) dx.
b. Montrer que C = (ck : x t--+ cos(kx))o::;;k::;;n est une famille libre de E .
c. Montrer que toute fonction de C = Vect(C) est paire et 2n-périodique.
3. a. Calculer , pour k et j deux ent iers naturels, 1 71' sin(kx) sin(jx) dx.
b. Montrer que S = (sk : x t--+ sin(kx) )i ::;; k::;;n est une famille libre de E.
c. Mont rer que toute fonction de S = Vect(S ) est impaire et 2n-périodique.
4 . Montrer que C , Set E = Vect (exp : xi--+ ex) sont en somme directe.
5. Donner une base de C +S +E.
1. Il s'agit des formule de linéarisation, celles-ci s'obt iennent aisém ent à pa rtir des
formules permett ant d'exprimer cos(a + b) et cos(a - b) en fonction des sinus et cosinus
de a et b.
Puisque
(1) cos(a+ b) cos( a) cos(b) - sin (a) sin (b)
(2) cos(a - b) cos (a ) cos (b) + sin (a ) sin (b) ,
on en déduit
(1) + (2) = 2 cos(a) cos(b)
cos(a + b) +cos (a - b)
et (2) - (1) cos(a - b) - cos( a+ b) = 2 sin(a) sin(b).
Finalement,
"'O 1 1
cos(a+ b) +
0
c
cos( a) cos(b) =
2 2 cos(a - b)
0
:J
,....
1..()
et sin(a) sin(b) = l cos( a - b) - ~cos( a - b).
0
N
2.a . On va exploit er les formules de linéarisat ion établies en question 1 et ainsi t rans-
©
....... former ce calcul d 'intégrale d'un produit en celui d 'une intégrale d 'une somme, beau-
..c
Ol
ï::: coup plus simple à obtenir (grâce à la linéarité de l'intégration).
>-
a.
u
0 Grâce à 1 et à la linéarité de l' intégratio n, o n t rouve
1' COS ( ( k - j) X ) d x =
{ l
11'a d x = 7r si k = j
1a [- -
k- J
. sin ((k - j)x)J
a
7r
= 0 sinon
Finalement ,
{1' { 7f /2 si k = j et j -:j:. 0
l a cos (k x) cos (jx) d x = ~ si k = j = 0
si k -:j:. j
2.b. L 'applica tion() : f H 17r f( x )cj(x) dx s'a nnule au vecteur nul et en tout vect eur
ckavec k -f::. j, et est non nul en Cj . Ainsi () et la linéarité de l'intégration donnent un
moyen efficace pour éliminer tous les t ermes faisant référence a ux À k pour k -f::. j et
n
seul subsistera le terme faisant mention à Àj dans l'égalit é L À kCk = O.
k=O
n
Soient Àa, ... , Àn n + 1 scalaires t els que L ÀkCk = O.
k= a
Par distributivité du produit (avec Cj ) et linéarité de l'intégration, on obtient, grâce à
la q uestio n précédent e,
t > -k {1'
Cj (x)ck(x) d x = {1'
Cj (x)· Odx .
k= a l a
=a si kof-j
l a
------ =a
0 2.c. P u isque l'ensemble des fonctions paires et 27r-périodiques est sta b le par combi-
N
n aison linéaire (c'est même un espace vectoriel), il suffit de montrer que tout es les
©
.......
..c
fonct ions d e la fam ille C sont pa ires et 27r-périodiques .
Ol
ï:::
>-
a. Par parité et 27r- péri odicité de la fon ctio n cosinus, on en déduit , pour t out entier
0
u j E {O, .. . ,n} ,
= COS ( - j X) = COS (j X) = Cj ( X)
Vx E ~' = cos(jx + ...__,,
j ·27r) = cos(jx) = Cj(x)
EZ
A insi t out élément de C est une fonctio n paire et 27r- péri od ique. O r une combinai-
son linéaire de fonct ions paires et 27r- périod iq ues est encore une fonct ion paire et
Exercice 5.12 Analyse harmonique 165
si k = j
[ sin(kx) sin(jx) dx = { :
sinon
~1
Supposons avoir trouvé trois vecteurs f ,g , h tels que
f + .._,,,,....,
.._,,,,...., h = o.
g + .._,,,,....,
EC ES EE
166 Chapitre 5 Espaces vectoriels et sous-espaces vectoriels
5. Puisque la somme est directe on sait qu'une concaténation de bases donne une base
(dite adaptée) à C œS œE.
Il ne nous rest e plus qu'à déterminer une base de C, S et E.
Par construction C est une famille génératrice de C = Vect(C), comme par ailleurs il
a été prouvé que C est libre, on a donc une base de C . De même, S est une base de S.
Enfin puisque exp n'est pas le vecteur nul, on en déduit que (exp) constitue une base
de la droite vectorielle E = Vect(exp).
Puisque la somme est directe, C + S + E = C E9 S E9 E , on en déduit une base par
concaténation de bases, à savoir
(co , ... , Cn , s1, .. . , Sn, exp) .
-0
0
c
:J
0
,....
1..()
0
N
©
.......
..c
Ol
ï:::
>-
a.
0
u
Liste des capacités attendues 167
"'O
0
c
:J
0
,....
1..()
0
N
©
.......
..c
Ol
ï:::
>-
a.
0
u
1:J
0
c
:J
0
lJ)
r-1
0
N
@
.µ
L
01
ï::::
>-
Q.
0
u
CHAPITRE
©
.......
..c
Ol
ï:::
>-
a.
0
1.a. On vérifie sans peine que t out élément de l'espace de départ a bien une (et une
u seule) image dans l'espace d'a rrivée. Il s'agit ensuite de vérifier que est linéaire. e;
e; : ocn ---+ IK est bien défini, puisque pour tout X = (x1 , ... ' Xn) dans ocn' on a
e;(x) =Xi E !K. Par ailleurs, qu els que soient,\ dans IK et x , y dans ocn , on a (en
nota nt x = (x1, .. . , Xn ) et y = (y1, ... , Yn) )
Soit u un vecteur de ocn <p 1 : X H ei (x )u définit bien une application de ocn dans
lui-même, puisque, pour tout X E ocn ' on a
EOCn
Par ailleurs, quels que soient>. dans IK et x, y dans ocn, on a, grâce à la linéarité de ei,
<p(x +>.y)= ei(x + >.y)· u = [ei(x) + >.ei(y)] · u.
Donc, grâce aux propriétés du produit d 'u n vecteur par un scalaire,
cp(x +>.y)= ei(x) · u + >.ei(y) · u = cp(x) + >.cp(y),
ce qui finit par prouver la linéarité de <p. Finalement cp est un endomorphisme de ocn .
1.c. Puisque l'indice 1 utilisé dans la question précédente n'a joué aucun rôle, il est
clair que l'on peut affirmer que, pour tout indice i, x H e:(x)ui est linéaire.
~1
Soient U1' ... 'Un n vecteurs de ocn . Par un raisonnement ana logue à la question
précédente o n montre que, pour tout i E {1 , . .. , n},
C{Ji : x H e:(x)ui E .C(!Kn) .
On remarque alors que l'application introduite par l'énoncé est la somme des t.p 1 , ... , i.{Jn·
Il nous suffit d'évoquer la structure d' espace vectoriel de L (IK.n) pour conclure que
cette combina ison linéaire est, elle-même, dans L(IK.n) .
n n n
"O
0 i= l i= l i= l
c n
:J
0
I..{)
Ainsi, cp : (x1 , ... , xn) H L XiUi est un endomorphisme de ocn .
r-l
0 i= l
N
© 1.d. Il s'agit d 'un calcul direct. Puisque les coordonnées de ei sont connues, on a
......
..c
Ol
1 si i = j
ï::: ej(ei) = { 0 sinon *
>-
a.
0
u
~1
Soit i un indice fixé dans {1 , ... , n}. Par définition de cp , on a
n
2.a. Commençons par la réciproque. Supposons avoir trouvé une t elle matrice A et
montrons que l'application construite à part ir de A est b ien u n endomorphisme.
Soit A une matrice t ell e que, pour tout X = (x1 , ... , xn) dans ocn.
n n
"O
0
c
Par ca lcul , o n trouve f (x) = L (a1 ,jXj , . . . , an,jXj ) = L Xj (a1 ,j , ... , an,j ) .
:J j = l j= l
0
Ainsi, en not ant u1, ... , un les vect eurs définis t els que ci-dessus, on tro uve que
,....
1..()
n
0
N
f: (x1 , ... , xn) H L XiUi.
© i =l
.......
..c
Ol Et donc, d 'après la question l.d, on peut affirm er que f est un endo morphi sme de ocn .
ï:::
>-
a.
0
Il s'agit cette fois, à pa rt ir d 'un en domorp hisme f de ocn, de déterminer une matrice A
u qui conv ienn e. Comme souvent dans ce type de quest ion, où il s 'agit de déterminer
l'ex isten ce d 'u n objet réponda nt à certa ins critères, on va exhiber celui-ci en procédant
par an a lyse et syn thèse. L'an a lyse est p récisément ce qui a été fait dans l'implication
réciproque. Celle-ci a abouti à l'introdu ct ion de vecteurs u 1 , . . . , Un dont les coordon-
n
n ées donnent les coefficients de A et tels que f : (X 1 , ... , Xn) H L Xi ui.
i= l
1 72 Chapitre 6 Applications linéaires et matrices
Réci proquement, not ons les coord onnées de f( e1), ... , f (en) de la manière suiva nte:
J(e1) = (au , ... , an1 ), . . . , f( ej) = (a1j , .. . , anj ), ... , f( en) = (a1n, . .. , ann )·
Par linéarité de f, on en dédu it q ue, pour tout vecteur x = (x1, .. . , xn) de ocn , on a
J (x)
n
= 2:)a1,jXj, ... , an ,jXJ ) =
(
L a1 ,j Xj, ... , L an ,jXj
n n )
.
j=l j =l j =l
au
ai n )
Mato(!) = (
a~n = A.
"'O
0
c
:J 1. Soit p l'application de ffi.3 dans lui-même, dont l'expression analytique est
0
1..() donnée par:
r-l
0 1
N
p : (x , y, z ) f----+ (2x - y - z , -x + 2y - z , -x - y+ 2z) .
© 3
.......
..c
Ol
a. Montrer que p est un endomorphisme de ffi.3 .
ï:::
>-
a. b. Déterminer la matrice de p dans la base canonique de ffi. 3 .
0
u c. Déterminer une base de Ker pet une base de Im p. L'application p est-elle
inject ive? surjective? E st -ce un automorphisme de ffi.3 ?
d . Montrer que Ker p EB Im p = ffi.3 .
e . Déterminer la matrice de p op da ns la base canonique de ffi. 3 . Que conclure?
Exercice 6.2 Projecteurs et symétries I 173
1 .a. On peut démontrer la linéarité par application de la définition comme cela est fait
dans l'exercice 6.9. Nous allons plutôt suivre la méthode proposée dans l'exercice 6.1.
~1
Les applicatio ns p1 : (x, y , z) f--7 x · (2, - 1, - 1), p2 : (x , y, z) f--7 y· (- 1, 2, - 1) et
p 3 : (x , y ,z) f--7 z · (- 1, - 1,2) sont ma nifest ement des endomorphis mes de JR 3 .
Ainsi, pa r com bin aison lin éa ire d'endomorphismes, p = ~ (p1 + p2 + p3) est , lui a ussi,
un endo morphis me de JR 3 .
1.b . Cette matrice se lit très simplement sur l'expression analytique de p : pour
i E [ 1, 3], sa ie ligne est formée des coefficients devant x , y et z (dans cet ordre) de
la ie composa nte de p(x , y, z). Pour une rédaction correct e, il faut raisonner sur les
colonnes qui sont les images par p des vecteurs de la base canonique de IR3 .
Les images par p des vect eu rs de la base ca nonique sont p(( l , 0 , 0)) = ~(2, - 1, - 1),
1 1
p((O, 1, 0) ) = (- 1, 2 , -1) et p((O , 0, 1)) = (- 1, - 1, 2) do nc la mat rice de p d a ns
3 3
la base ca no nique de JR 3 (i.e. ca non ique me nt associée) est
- 1
2 -1)
- 1 .
- 1 2
-0
0
c
:J
0 1.c. Pour déterminer Kerp on peut résoudre l'équation vectorielle p((x , y , z)) = 0 que
1..()
r-l l'on écrit sous forme d'un système homogène.
0
N
~
© Avec la notation M int rod ui te e n l.b,
.......
m { ::
..c
u
Ol
ï:::
>-
a.
0
(x,y, z ) E Kerp ~ Mx G) ~
-x
+
y
y
2y
+
z
z
2z
0
0
0
2x y z 0
~
{ 3y
3y +
3z
3z
0
0
L 2 +-- 2L2
L3 +-- 2L3
+ L1
+ L1
~
{ 2x - 2z
y= z
=0 ~ x = y = z.
174 Chapitre 6 Applications linéaires et matrices
D'après l'équivalence
(x, y , z) E K erp ~ (x, y, z) = x · (1, 1, 1),
on en déduit (cf 5.1.1.b)
Kerp = {x · (1, 1, 1) ; x E ~ } = Vect((l, 1, 1))
Ainsi (1 , 1, 1) est un vecteur non nul générateur de Kerp, c'est donc que ((1 , 1, 1))
est une base de K erp.
Les vecteurs images par p des vecteurs de la base canonique de ~ 3 se lisent dans
les colonnes de M: 2 1 -- 1) ( - -1 -2 - -1) et ( - -1 - -1 -2) . On sait
. que ces
( -3 ' - -
3' 3 ' 3' 3 ' 3 3' 3' 3
vecteurs forment une fam ille génératrice de Imp et qu'il en va de même s' ils sont
multipliés par 3.
Im p Vect(p( (1 , 0, 0) ), p( (0, 1, 0) ), p( (0, 0, 1)))
Vect((2, -1, -1), (-1, 2, -1), (-1 , -1, 2)).
On connaît Ker pet sa dimension, on peut donc en déduire dim lm p grâce à la formule
du rang. Cela permettra de savoir combien de vecteurs sont à extraire de la famille
génératrice précédente pour avoir une base de lm p.
~1
Or, par la formule du rang, dim Imp = 3-dim Ker p = 2 donc deux vecteu rs colonnes
de M non colinéaires forment une base de Im p : c'est le cas des deux premiers ce qui
permet de conclure que ((2, - 1, - 1) , (- 1, 2, - 1)) est une base de Imp.
-0 Puisque u est linéaire l'étude du caractère injectif (resp. surjectif) se ramène à l'étude
0
c de son noyau (resp. son image) .
:J
0
~I
1..()
,..... L 'a pplication n'est pas injective ca r Kerp f- {O} et n'est pas surjective car Imp est
0
N de dim ension 2 et ainsi Imp f- ~ 3 . A fortiori, p n'est pas un automorphisme de ~ 3 .
©
.......
..c
Ol
ï:::
>- p étant un endomorphisme en dimension finie , le caractère bijectif
a.
u
0 équiva ut a u caractère injectif qui équivaut encore a u caractère surjectif.
Par contraposition, dès que l'un de ces trois caractères fait défaut, les
autres font également défaut.
Ainsi, l'étude de l'injectivité étant la plus simple (puisqu'elle se résume
à l'étude du noyau Kerp) nous aurions pu tout déduire à partir de
l'étude du noyau.
Exercice 6.2 Projecteurs et symétries I 175
EKerp E lmp
En composant par p dans (*) , on trouve, puisque (a' , b',c') E K erp et que p est
lin éa ire,
p(x , y , z) = p(a, b, c) + p(a' , b', c') .
'-.,...--'
0
Or, puisque (a , b, c) E Imp = Vect((2, - 1, - 1) , (-1, 2, - 1)), on peut écrire
(a, b, c) = À(2 , - 1, - 1) + µ( - 1, 2, - 1) avec (À,µ) E IR
2
.
Du fait que l'an alyse n'aboutisse qu 'à une seule décomposition possible en cas d 'exis-
tence, l' unicité de la décomposition est établie.
Synthèse : Posons
(a , b, c) = 1 (2x - y - z, -x + 2y - z, -x - y+ 2z) et ( a1 , b,
1
c' ) = X + y + Z ( 1, 1, 1 ) .
3 3
Par un calcul immédiat on trouve (a,b,c) + (a',b',c') = (x,y,z).
Par ailleurs, grâce à l.c (et aux calculs intermédiaires menés lors de l'étape d 'a nalyse) ,
(a' , b' ,c') E Vect((l, 1, 1)) = Kerp
et
y -z x -z
(a, b, c) = - -(2, - 1, - 1)+ -- (- 1, 2, - 1) E Vect((2 , - 1, - 1), (- 1, 2, - 1)) = Imp,
3 3
ce qui prouve l'existence de la décomposition .
Soit u E K erp n Im p. On peut écrire u = >.(1, 1, 1), avec À E IR, car u E K erp et
((1, 1, 1)) est une base de Kerp mais aussi : u = o:(2 , - 1, - 1) + (3(- 1, 2, - 1) , avec
o: et f3 deux réels, car u E Imp et ((2 , - 1, - 1), (- 1, 2, - 1)) est une base de Imp. Or
f3 À
,\(1, 1, 1) = o:(2, - 1, - 1) + {3(- 1, 2, - 1) + 2{3 À
f3
==? 0 = 3,\ L 1 + L2 + L3
==} ,\ = 0,
donc u = O. On en déduit que Kerp n lmp C {O} et donc (l'inclusion réciproque éta nt
évidente) Kerp n Imp = {O}.
On finit par une égalité des dimensions et pour cela on invoque la formule du rang.
~1
-0 Puisque, par ailleurs, la formule du rang nous donne
0
c
0
:J
dim nr = dim Ker p + dim lm p.
1..()
T"-l On en déduit que !Rn = Imp EB Ker p.
0
N
Méthode 3 : Par concaténation de bases.
©
.......
..c
Il nous suffit d e montrer qu'une concaténation des bases de lm p et Ker p fournit une
Ol
ï::: base d e IR. 3 .
>-
a.
0
u La concaténation des bases obtenues en l.c pour Ker pet Im p nous donne la famille
C, = ((1, 1, 1), (2, - 1, - 1) , (- 1, 2, - 1)).
On peut ca lculer son rang par le biais de la représentation matricielle canonique
rg(L) = rg G -1) - 1
-1
2
2
-1
.
(~
2
rg(L) = rg -3
-3
et finit par échange des colonnes C2 t t C3 (ce qui n'a ltère pas les rang), on trouve
une matrice triangulaire à coefficients diagonaux tous non nuls (donc inversible).
rg(L) = rg G -1
3
0
~3)
-3
= 3.
Par suite J:, est une famille de rang 3 constituée de vecteurs de IR. 3 donc :
Vect(J:,) = IR.3 , i.e. J:, est génératrice de IR. 3
(en effet V ect(J:,) C IR. 3 et dim V ect(J:,) = dim IR.3 ).
Puisque, par ailleurs, le cardinal de J:, est égal à la dimension de IR.3 , c'est donc une
base de IR.3 . On peut alors conclure que IR.3 = Imp EB Ker p.
Il existe une quatrième méthode bien plus rapide et élégante que celles développées
ici. Elle tient du fait que lm p est un hyperpla n et Ker p une droit e non incluse dans
Imp, la preuve de ceci sera exposée dans l'exercice 6.16.
1.e. Si u : JR.P --+ IR.n et v : IR.n --+ IR.m sont deux applications linéaires d e matrices
-0
0 respectives U et V dans les bases canoniques, on rappelle que la matrice de v ou dans
c
:J les bases canoniques est V x U. Ici, u = v = p.
0
~
le c
1..()
r-l
0
N
©
.......
Mat(p o p) Mat(p) x Mat(p) = M
2
=-
9
- 1
- 1
- 1
2 -1)
- 1 X - 1
- 1
2 -1)
- 1
..c - 1 2 - 1 - 1 2
Ol
ï:::
u
>-
a.
0
~ul
3 - 1
- 1
2 -1)
-;1 = Mat(p).
- 1
p et p o p sont représentés par la même matrice (dans la même base) donc p = p o p.
Cette dernière relation signifie que p est ce qu'on appelle un project eur de IR.3 .
2.a. Même méthode qu'au l.b, les colonnes de la matrice de s seront les images par
s des vect eurs d e la base canonique de IR.3 .
1 78 Chapitre 6 Applications linéaires et matrices
s(( l , 0, 0)) = (- 2,1 , 2), s((0, 1,0)) = (- 3,2,2) et s((0, 0, 1)) = (0, 0, 1) donc la
matrice Mat(s) de s dans la base canonique de IR3 est
- 2 -3
Mat(s) = ( ~ 2
2
~
(x , y ,z) E Ker s ~
Mat(s) G) = m- { - 2x - 3y
x+2y
2x + 2y + z
0
0
0
{ - 2x 3y 0
y 0 L2 +- 2L2 + L i
y + z 0 L 3 +- L 3 + L i
~ x = y =z= O.
Ainsi , Ker s = {O} donc s est inj ective. s éta nt de plus un endomorph isme de IR 3 ,
on conclut que s est un automorphisme de IR3 ; en particulier, s est surjective donc
Im s = !R3 .
2.c. On procède comme au 1.e.
~ -2
-3 0) (-2
Mat( sos) = Mat(s) x Mat(s ) = ~ 2 0 X 1
(
2 1 2
Mat(s o s) = ! 3 = Mat(IdJR3) donc s o s = IdJR3, i.e.: V x E IR3 , s( s (x) ) = x.
Cette dernière relat ion traduit que s est ce qu'on appelle une symétrie de IR. 3 (voir
l'exercice suivant) .
"'O
0 Soit n E N* et u un endomorphisme de E (OC-espace vectoriel de dimension n).
c
:J On dit que u une symétrie* si u ou= Id où Id est l'endomorphisme identité de
0
1..() E. Soit f et g deux endomorphismes de E.
T"-l
0
N 1. On suppose que f est un projecteur, on rappelle que de ce fait
© f o f = f et E =lm(!) œKer(!) .
.......
..c
Ol
ï::: a. Montrer que lm f = {x E E 1 f (x) = x }. Quelle est la matrice de f dans
>-
a.
0
une base C adaptée à la somme directe lm(!) œKer(!) ?
u
b. Démontrer que 2f - Id est une symétrie.
1.a. On procède par double inclusion. On commence par l'inclusion la plus simple.
~1
Soit x E E tel que f(x) = x, puisque par construction f( x) E lmf, on en déduit
x E lm f. Ainsi
{X E E i f (X) = X} C lm j.
Soit y E lm f, par définition de l'ensemble image, on sait alors qu 'il exist e un vect eur
x de E tel que y = f( x ).
Puisque f est un projecteur, on o btient alors
y= f (x) = (f o J)(x) = J(f(x) ) = f(y ) .
.._.,,..,, .._.,,..,,
= f of =y
0
N
©
i Puisque f est un projecteur , on peut préciser qu'il s'agit du projecteur
sur A = lm f parallèlement à B = Ker f.
En notant alors g son projecteur associé, i.e. le projecteur sur B = Ker f
.......
..c
Ol
parallèlement à A = lm f , on a par , définition du projeté,
ï:::
>-
a. (*) V x E E, x = f(x)
..__.,
+ '-.r"
g(x) i. e. f +g = Id.
0
u EA EB
On retrouve ainsi le résultat :
Imf = A = Kerg = Ker(Id - f) = {x E E 1 f (x) = x }.
L'ensemble image d'un projecte ur est l'e nsemble d e ses « points fixes ».
180 Chapitre 6 Applications linéaires et matrices
Notons BI = ( a 1 , ... , ar) une base de l m f (avec r évent uellement nul et donc BI vide),
de même n ot ons BK = (ar+ I, ... , an) une base de Ker f (avec r = n éventuellement et ,
dans ce cas, BK est vide) . Puisqu'il s 'agit d'espaces supplémentaires, on peu t a ffirmer
que la concaténa tion B = (a1 , .. . , ar, ar+ i, .. . , an) d es deux bases est une base de E .
P our calculer la matrice associée il s'agit de calculer l'image de chacun de ces vecteurs
de base.
puisque ar+i , ... , an sont des vecteurs de Ker f. Ainsi Mat a(!) = ( 6I ~ ) .
1.b. On doit montrer que (2f - Id) o (2f - Id) =Id. On utilise pour cela l'hypot hèse
sur f et la formule du binôme de Newt on.
© Image et noyau du projecteur f = ~(9 + Id) sont supplémentaires et, d' après l.a ,
.......
..c lm f = Ker(! - Id) . Ain si
Ol
ï::: E = Ker(! - Id) EB Ker(!) .
>-
a.
0 Et puisque le noyau est le même pour un endomorphisme et tout multiple non nul de
u
ce même endomorphisme, on trouve E = Ker (2(f - Id)) E9 Ker(2J).
Or 2f = 9 + Id et 2(! - Id) = 9 - Id, on conclut donc qu e
E = Ker(9 - Id) E9 Ker(9 + Id).
Notons
base de lm f base de K er f
une base adaptée à E = lm f EB Ker f (c'est en fait la même que celle posée en l.a
avec f = ~ (g +Id)), on trouve alors
g (a 1) = a 1, ... , g ( ar) = ar .
Puisque a 1, ... ,ar sont des vecteurs de Ker(g - Id)= {x E E 1 g(x) = x }. De
même
g(ar+1) = - a r+1 , ... , g(an) = - an ,
puisque ar+i , ... , a n sont des vecteurs de Ker(g + Id) = {x E E 1 g(x) = - x}.
Ainsi
MatB(g) = ( 61 -I~-r )·
3. Un sens a déjà été vu à la question 1.b. Réciproquement, si h est une symétrie,
il suffit de résoudre l'équation h = 2p - Id d 'inconnue p pour constater que p est un
projecteur.
~1
On peut écrire h = 2 rn(h + Id)] - Id. Si h est une symétrie alors ~ (h + Id) est
un projecteur d'après 2.a et h s'écrit bien sous la forme indiqu ée . Réciproquement, si
h = 2p - Id avec p un projecteur, alors h est une symétrie d'après l.b .
Soit A E Mn ,p(K) une matrice composée den lignes et p colonnes. On note par
la suite B = (E1 , ... , Ep) la base canonique de M p,I (K) et C = (F1, ... , Fn) la
base canonique de Mn,1(K).
-0
1. Calculer, pour toute colonne XE Mp,1 (K), la matrice Mata(X) associée à X
0
c relativement à la base B.
:J
0 Qu'en est-il, pour toute colonne Y dans Mn,1 (K), de Matc(Y)?
,....
I..{)
2. On considère l'application  définie par
0
N
1. La question peut paraître étrange, puisqu'il s 'agit ici d 'interpréter une matrice
par une a utre matrice. On va donc scrupuleusement suivre la définition de matrice
associée et considérer qu'une colonne X n 'est rien d 'autre qu'un vecteur d'un espace
vectoriel (celui des matrices colonnes).
Il s'agit d'exprimer les coordonnées du vecteur X dans la base B.
X [n, 1]
Ainsi les coordonnées du vecteur X dans la base B sont
(X[l , 1], ... , X [k, 1], ... , X [n , 1]) et donc, par définition de la matrice associée,
X [l , 1]
-0
0
c Mats(X) = X [k, 1] =X.
:J
0
,....
1..()
X[n, 1]
0
N
~I
L' espace de départ est l'espace vectoriel M p,1(1K) et , puisque le produit d'une matrice
de M n,p(IK) par une matrice de Mp,1(JK) donne un e matrice de M n,1(JK), on peut
Exercice 6.4 Matrice=Application Linéaire 183
Quel que soit i E {1 , ... , n }, on a (voir plus bas) À.(Ei ) = AEi (;]Cf .
Ainsi la ie colonne de Mat c ,B(À.) n'est autre que
- A A
Matc(A(Ei)) = Matc(Ci ) = Ci .
En juxtaposant ces colonnes on trouve Matc,13(À.) = A.
En effet , si l'on note a : JKP -r ocn l' applica tion linéaire canoniquement associée à A
et B= (e1, ... 'ep) (resp . ê = (!1, ... ' fn) ) la base canonique de JKP (resp. ocn ). o n
n
a, par définition, a(ei) = LA[k,i] f k. i. e. et= Matê(a(ei) ).
k= l
Or, par interprét ation matricielle de a(ei) .
Matê(a(ei)) = Matê,.B (a)Mat.B(ei) = AEi .
En s'appuyant sur la relation , pour toute matrice M ,
0
-0
0
c
0
:J cr=M 1
1..()
,.....
0
N Ü
©
.:t: une autre preu ve de Matc ,a(A) = A était possible.
Ol
ï:::
>-
a.
0
Not ons B = Matc,B (À.), on a alors
u
0
C iB-
-
B 1 <---< ie ligne = Matc ,13(À.) x MatB (E i ) = Matc(À.(Ei )) .
0
184 Chapitre 6 Applications linéaires et matrices
Or, grâce à 1,
Matc(À (Ei)) = Mat c(AEi) = Matc (Ct) =et .
1 Et donc, A et B ayant les mêmes colonnes, on a bien B = A.
Pour finir , on applique le résultat du cours annon çant l'égalité des rangs d 'une appli-
cation linéaire et d e sa ma trice da ns des bases.
~1
M n,p(JK.) est l'espace vectoriel de départ et, puisque, pour A E M n,p(JK.) ,
À est une application linéaire de M p,1 (OC.) dans M n,1(OC.), on en déduit que
.C(M p,l (OC.), M n, l (OC.)) convient comme espace vectoriel d'arrivée.
Il s'agit, à présent, de prouver la linéarité de B, c'est -à-dire une égalité ent re deux
a pplications linéaires : d 'un côté B(A + >-.B), de l'aut re B(A) + >-.B(B ).
P our ce faire, nous pouvons employer deux méthodes :
-0
0
c On peut montrer que les deux applications linéaires coïncident puisqu'elles ont même
:J
0 représentation matricielle
,....
1..()
0
N
Soient A et B deux matrices de M n,p(OC.) et À un scalaire, on a d'après la question 3.a .
©
.......
--------
Matc,13 (e(A + >.B)) = Matc ,13(A + >.B) = A + >.B .
..c
Ol
ï::: Or, toujours d 'après 3.a,
>-
a.
0
A+ >.B = Matc ,13 (À) + >.Matc ,13(Ë ) = Mat c,s (À + >.Ë) = Mat c ,s(B(A ) + >.e (B )).
u
Ainsi , puisque leurs représentations matricielles (relativement aux même bases B et C)
coïncident, on en déduit l'égalité entre applications linéaires :
e(A + >.B) = e(A) + >.e(B ).
Mais on peut également montrer que les deux applications coïn cident, en montrant
qu'elles ont les mêmes images (elles ont d éjà même espace d e départ et d'a rrivée) .
Exercice 6.4 Matrice=Application Linéaire 185
4.b. On commence par la plus simple des équivalences : la première. Rappelons que
l'application nulle est caractérisée par : l'image de tout élément de l'espace de départ
vaut O.
~1
Par définition de À,
A = 0 <==> [\7' X E M p,1(IK), À(X) = ü]
<==> [\7' X E M p,1(IK), AX = O].
~1
On a la succession d'équivalences
A est injective {:::::::::} rg(A) = p {:::::::::} (C1 , . .. , Cp) est libre dans Mn , 1 (~).
0
N
4. Montrer que rg(A) = rg(Li, ... , Ln) et montrer que A est injective (resp.
surjective) ssi tA est surjective (resp. injective).
1. L 'espace vectoriel image d 'une application linéaire est engendrée par l'image d 'une
base de l'espace de départ.
Posons, comme en 6.4, B = (E1 , ... , Ep) la base canonique de Mp ,l (IK) .
On invoquera l'identité déjà démontrée à de multiples reprises (cf. 3.8.1.b, 3.5.1.a et
6.4.3.a) : Ci = AEi·
A, vue comme une application linéaire, admet un espaces vectoriel image noté lm A.
Avec B = (E 1, ... , Ep) la base ca nonique de l'espace de départ M p,1(IR), on a
ImA = Vect(A(E1) , ... , A(Ep)) = Vect(AE1 , ... , AEp) = Vect(C1 , ... , Cp) .
En passant aux dimensions on en déduit (par définition du rang)
~1
On déduit de lm A = Vect(C1, ... , Cp) la succession d'équivalences:
A est surjective {==:} lm A = M n,1(IR) {==:} Vect(C1, ... ,Cp) = M n,1(IR)
{==:} ( C1 , ... , Cp) est génératrice de M n,1(IR).
-0
0
c Par a illeurs, dire qu'un sous-espace vectoriel F , de l'espace vectoriel E , coïncide avec
:J
0 E équivaut à d ire que E et Font même dimension .
,....
1..()
0
N
De même, on déduit de rg(A ) = rg(C1 , ... , Cp) la succession d 'équivalences
©
.......
rg(A) = n {==:} rg(C1 , ... , Cp) = n {==:} dim Vect(C1, ... , Cp) = dimMn,1 (IR) .
..c
Ol Et don c, puisq ue Vect(C1 , ... ,Cp) est un sous-espace vectoriel d e M n,1(IR),
ï:::
>-
a. rg(A) = n {==:} Vect(C1 , ... , Cp) = M n,1(IR).
0
u Autrement dit rg(A) = n {==:} (C1 , ... , Cp) est génératrice de M n,1 (IR).
2. On sait que la surjectivité équivaut à ce que l'espace vectoriel image soit maximal
et l'injectivité équivaut à ce que le noyau soit minimal.
Or un sous-espace vectoriel est maximal (resp. minimal) ssi sa dimension l'est.
Il s'agit d'obtenir une information sur dim (Ker A) à partir de la connaissance de
rg(A) , la formule du rang est donc la plus propice pour ce genre de déduction.
Puisque A peut être vue comme une application linéaire dont l'espace de départ est
M p,1(IR) on en déduit, par la formule du rang,
dimMp,1(.IR) = rg(A) + dimKer (A).
~
p
Ainsi rg(A) =p -Ç:=} dim Ker A = 0 -Ç:=} Ker A = {O} -Ç:=} A est injective.
Le caractère libre se traduit par le fait qu'il n 'existe qu'une seule famille de scalaires
rendant nulle la combinaison linéaire correspondante : la famille nulle.
l'injectivité se traduit par un noyau réduit à {O} ce qui veut dire que seul le vecteur
nul (i.e. dont la famille de coordonnées est nulle) annule A.
Il s'agit donc de connecter les équations linéaires associées à l'injectivité d'une part
p
A est injective ssi Ker A = {O} ce qui équivaut encore à Ker A c {O} (l 'a utre
inclusion étant évidente).
-0
0 Or Ker Ac {O} ssi (V X E M p,1(.IR), [AX = 0 ====?X= O])
c
:J
0 (* )
,....
I..{) Or, en passant à l'écriture coordonn ée par coordonnée (dans la base 13),
0 (*)équivaut à
t,
N
On en déduit :
Puisque rg(A) = rg(C1 , ... , Cp) , une partie des équivalences démon-
trées ici résulte du résultat classique (cf exercice 5.11) valable pour
toute famille .C = (u 1 , ... , up) de vecteurs d 'un espace vectoriel E ,
.C est génératrice de E {====:?- rg(.C) = dim E,
et .C est libre dans E {====:?- rg(.C) = Card .C.
~n~
Y
n
et puisqu'une somme de réels positifs est nulle ssi chaque terme de cette somme est
nul, on en déduit la succession d'équivalences
n
tyy = 0 {:::::=:? L y~ = 0 {:::::=:? (V k E [1,n], y~= 0 ) {:::::=:? (Vk E [1, n], Yk = 0).
"-.,.-'
k= I ~o
~
0
N
Y = ( ) vérifie tyy = 0 et pourtant Y /::- O.
©
.......
..c
Ol
ï:::
>-
a.
0 3. b. Pour montrer une égalité entre deux ensembles, on procède par double inclusion.
u Commençons par l'inclusion la p lus évidente.
Soit X E Ker A.
Par définition, on a AX = 0, d'où, en multipliant à gauche par tA,
tAAX = tAO = 0 i. e. X E K erCAA).
Ainsi , on a prouvé l' inclu sion Ker A C Ker(tAA).
190 Chapitre 6 Applications linéaires et matrices
Puisq ue A E M n,p(IR) , A peut être vue comme un e application linéa ire dont l'espace
de départ est Mp,1(IR) . La form ule du ra ng appliquée à A nous do nne
dim M p, 1(IR) = rg(A) + d im K er(A).
~
p
De même, puisque tAA E M p,p(IR) , tA A peut être vue comm e une applica tio n linéaire
do nt l'espace de départ est M p,1 (IR) , la formul e du ran g appliquée à tAA nous donne
3 .d. L'in égalité rg(A) ::::;; rg(tA) résu lt ant des deux derniers résu lt a ts, il nous faut
a boutir à l'inégalité inverse.
Aussi surprena nt que cela puisse paraître, cette autre inégalité est contenue dans la
Exercice 6.5 rg (A) = rg(t A ) 191
première qui , étant valable pour n'importe quelle matrice A, peut être appliquée à
une toute autre matrice afin d 'inverser les places occupées par A et tA.
D'après ce qui précède on sait que rg(A) :::;; rg(tA) et ce quelle que soit la matrice A
et quelle que soit la taille de cette matrice.
Ainsi , en appliquant cette inégalité à tA en lieu et place de A , on trouve
rgCA) :::;; rg(tCA)) = rg (A).
Finalement on a bien rg(tA) = rg(A).
4. Il a été établi que le rang d 'une matrice est égal au rang de ses colonnes, or la
transposition a pour effet de changer les colonnes en lignes.
Il nous suffit donc d'appliquer la conservation du rang par transposition.
Remarquons que ceci s'applique en particulier à rg(u 1, ... , un) = rg(C1, ... , Cn) où
chaque colonne Ci représente le vecteur U i dans une base donnée (cette représentation
est effectivement issue d'un isomorphisme entre l'espace vectoriel considéré et l'espace
vectoriel des colonnes associées). Puisque le rang d'une matrice est égal au rang de
ses colonnes on trouve le résultat classique
où les colonnes de la matrice M représentent les vecteurs u 1, ... , up dans une base
donnée.
-0
0 Ainsi, le calcul du rang d'une famille de vecteurs se ramène systéma tiquement a u
c
:J calcul du rang d'une ma trice.
0
I..{)
,.....
0 Puisque les colonnes de tA sont
N
tL 1, t L 2 , .. t Ln ·
© · ,
......
..c On en déduit, grâce à 1 appliqué à tA en lieu et place de A,
Ol
ï:::
>-
a.
rgCA) = r gC L1 , t L2 , ... 't L n) ·
0
u Or la transposition T: Z f---t t Z réalise un isomorphisme entre Mp,1 (JR) et M 1,p(IR),
donc (t L1 , t L 2, ... , tLn ) et son image par T,
(T(tL1),TC L 2), . .. , TCLn)) = (L1 , L2 , ... , Ln),
ont même rang i.e.
rgCA) =rg (L1 , . .. ' L n ),
et donc, puisque rg(tA) = rg (A), rg (A) = rg(L1 , ... , L n )·
192 Chapitre 6 Applications linéaires et matrices
D'après 2 et du fait que le rang d'une matrice soit égal au rang de sa transposée, on
a la succession d'équivalences
A est injective <===? rg(A) = p <===? rgCA) =p.
D'où, puisque tA E Mp ,n(IR ), en appliquant 1 à tA en lieu et place de A, on trouve
A est injective <===? tA est surjective .
Cette équivalence étant vraie quelle que soit la matrice A et sa taille, on l'applique
alors à tA en lieu et place de A et on trouve tA est injective <===? A est surjective.
Supposons que l'on puisse écrire f sous la forme f = .Xld E, avec À un scalaire.
Quelle que soit la base B = (e 1 , .. . , en) de E, on a alors
Vi E {1 , ... , n}, f (ei) = .XldE(ei) = Àei .
Ainsi, par construction, Mats(!) = >.In. On a bien obtenu une matrice diagonale, et
ce relativement à n'importe quelle base.
-0
0
c
:J
0
1..()
T"-l
0
Si f est l'homothétie .XldE alors sa représentation matricielle dans toute
N
base s'écrit Àln.
©
.......
..c
Ol
·~ Réciproquement on va montrer que la matrice diagonale obtenue dans une base fixée
a.
8 quelconque B est en réalité une matrice de la forme Àln .
Il s'agit donc de montrer que tous les coefficients diagonaux sont identiques au premier
et c'est le fait que toute autre base donne encore une matrice diagonale qui nous
permettra d'effectuer les comparaisons nécessaires entre les coefficients diagonaux.
Mat a (!) =
(0)
.Àn
A utrement dit , pour tout i E {l , .. . ,n}, on a f (ei ) = >.iei.
Soit j E {2, . .. , n}, puisqu e le fa it d 'aj outer à un vect eur une combinaiso n linéaire
des autres vecteu rs ne ch ange ni le caractère libre, ni le caractère générateur, not o ns
alors 13' = (e~ , ... , e~) une nouvelle base de E o btenue en posa nt
e~ =e 1 +ej, et V k E {2, .. . , n}, e~ = ek .
Puisque Mata, (!) est diagon ale, on peut écrire
µ1
(0)
Mat a, (!)=
(0)
µn
A insi, pour t out i E {l , ... ,n }, on a f (eD = µi e~ . En parti culier,
f (e1) = >.1e1, f (ej ) = .Àjej et f( e1 + ej ) = f ( e~) = µ1 e~ = µ 1(e1 + ej ).
D 'où , par linéarité de f , >.1 e1 + .Àjej = f( e1) + f (ej) = f( e1 + ej ) = µ 1e1 + µ 1ej .
Or, (e1, ej ) ét ant libre, la décomposition selon ces deux vect eurs est uniqu e, o n en
déduit do nc
>.1 = µ 1 et .Àj = µ 1.
Ainsi .Àj = >. 1 , et ce quel que soit j E {2 , .. . , n }, ce qui nous donn e
Mat a (!) = >.iin = Mat a(>. iide).
~1
0
c Supposons qu e l' on puisse écrire f sous la forme f = >.Ide, avec >. un sca laire.
:J
0 Quel que soit x E E , on a alors f( x ) = >.x . Ainsi, f( x) ét ant colinéa ire à x , on en
1..()
r-l déduit que (x , f (x) ) est une fa mille liée.
0
N
© P our la réciproque, il s'agit de montrer que, pour tout x, on peut écrire f (x ) = .\x
.......
..c avec .\ un scalaire in d é p e ndant du ch o ix de x .
Ol
ï:::
>-
a.
0
u
Il ne faut surt out pas confondre (V x E E , :3 .\ E OC, f (x) = .\x)
avec (:3 .\ E JK, V x E E , f(x) = .\x) .
Cet te indépenda nce n'est pas immédiat e. On va donc s'appuyer sur le résulta t précé-
dent et montrer que la matrice de f dans tout e base est d iagonale (puisqu 'ici rien ne
194 Chapitre 6 Applications linéaires et matrices
1.a. Le rang d'une application linéaire est égal au rang de n'importe quelle matrice
associée dans d es bases. De plus, le rang d'une matrice n'est pas altéré lorsque l'on
élimine toute ligne ou toute colonne nulle.
~1
Le rang d'une matrice est éga l au rang de ses colonnes, on a donc (en notant indis-
tinctement C1 , ... , CP les p premières colonnes de A et B)
rg(f) = rg(B) = rg( C1 , ... , Cp, Ün,1, ... , Ün,1) = rg( C1 , ... , Cp) = rg(A).
1.b. Étant donné que les q dernières colonnes de B (i.e. les colonnes associées à
f (ep+1 ) , ... , f( ep+q)) sont nulles, on en déduit aisément une partie de la base C consti-
t uée de vecteurs de Ker f.
~1
Par lecture des q dernières colonnes de la matrice B représentant f dans la base C,
on a f (ep+1) = · · · = f (ev+q) = O. Ainsi { ep+1, ... , ep+q } C Ker f.
D'où, puisque Ker f est un espace vectoriel, Vect(ep+i, ... , ep+q) C Ker f.
L'espace vectoriel image est engendré par l'image d 'une base.
~1
Étant donné que les q dernières colonnes de B sont nulles,
lm f = Vect(f(e1), ... , f( ep) , f( ev+1 ), · · · , f (ep+ q)) = Vect(f(e1) , ... , f( ev) ).
'-v-" '-v-"
0 0
-0
0
c 2. On suppose à présent que rg(A) = p.
:J
0
Une des caractérisations pour une base est donnée par le fait que c'est une famille
,....
1..()
~1
© D'après l.b, on sa it que (f(e1), ... , f( ep )) est génératrice de lm f.
.......
..c
Ol Or, d'après l.a , o n a rg(f) = p, c'est-à-dire que le cardinal de cette famille vaut la
ï:::
>- dimension de lm f. On en déduit que (f(e 1), ... , J(ep) ) est un e base de lm f.
a.
0
u Pour montrer une égalité entre deux sous-espaces vectoriels, il nous suffit d 'avoir une
égalité de dimensions (la formule du rang nous permet de l'obtenir) et une inclusion
(cf 1.b).
~I
D'après la formu le du ran g, appliquée à f, on a
dim (Ker J) = dim(!Rp+q) - rg(f) = q = dim (Vect(ep+1, .. . , ep+q) ) .
196 Chapitre 6 Applications linéaires et matrices
Ainsi, l'inclusion prouvée en 1.b devient l'éga lité Ker f = Vect(ep+1, ... , ep+q).
La famille (ep+1 , ... , ep+q) est donc génératrice de K er f mais, en tant que sous-
famille d'une base, elle est également libre. Ainsi (ep+1, ... , ep+q) est une base de
1 Kerf.
Or, le fait de multiplier un vect eur d ' une base par un e constante non nulle (ici aj ),
tout comme le fait d'ajouter à un vecteur d'une base une combin aison linéaire des
autres vecteurs de la base, ne cha nge pas le caractère libre et générateur de celui- ci.
-0 Ainsi 13" = (w1, ... , ajWJ + L k#- j akwk , ... , WN) est une base de l'espace de départ
0
c de g et, par lin éarité de g,
:J
0
I..{)
,.....
0
N
M" ~ MatF ( g(w1) , ... , g ( a;w; + f; a, w, ) , . .. , g(wN) ) ~ MatF,B" (g)
©
.......
..c Ainsi, agir sur une colonne d e M, par dilatation non nulle ou par ajout
Ol
ï::: d'une combinaison linéaire des autres colonnes de M, donne une nouvelle
>-
a.
0 représentation matricielle M" de g, où la base de départ a é té modifiée par
u
les opérations analogues sur les vecteurs d e base (et la base d 'arrivée n'a
pas été modifiée).
Not ons f l'endomorphisme ca no niquement associé à M et B = (w1, w2, w3, w4, w5)
la base canon iq ue de IR 5 . En agissant exclusivement par opérations élémenta ires sur
les colonnes de
Matc(f(w1) , f(w2), f(w3) , f(w4), f(w5)) =M
on réa lise, d'après 3, les transform atio ns suivantes.
Par la t ra nsvection C2 +----- C2 - 2C1, o n obt ient
1 0 1 0 0
1 0 2 0 0
Matc(f(w1), J(w2 - 2w1), J(w3), f(w4) , f (w5)) = 1 0 1 0 0
0 0 0 0 0
0 0 0 0 0
Par la perm utation C2 +------+ C3, on obtient
1 1 0 0 0
1 2 0 0 0
Matc(f(w1), f(w3), f(w2 - 2w1), f(w4) , f (w5)) = 1 1 0 0 0
0 0 0 0 0
0 0 0 0 0
Finalement, en posant C = ~' W3 ,w2 - 2w1 , W4 , W5 ), o n obtient
~'--v-"~~
e1 e2 e3 e4 e5
1 1 0 0 0
1 2 0 0 0
B = Mata ,c(f) = 1 1 0 0 0
0 0 0 0 0
nn 0 n
0 0 0 0 0
Et, puisque ; g = ;g ~ ) = 2,
on en dédu it , grâce à 2,
lm f = Vect(f(e1), f (e2)) et Ker f = Vect(e3, e4, e5) .
...__,.__.., ~
base base
"'O
Ceci, par lecture directe des deux première colonnes de B, nous donne
0
c
:J
lm f = Vect ( ( 1, 1, 1, 0, 0), ( 1, 2, 1, 0, 0)) ( base)
0
1..() et , par définitio n de e3, e4, e5 ,
T"-l
0
N Ker f = Vect((-2, 1, 0, 0, 0) , (0, 0, 0, 1, 0), (0, 0, 0, 0, 1)) ( base).
©
.......
..c
Ol
ï:::
>-
a.
0 Ainsi, en partant d' u ne matrice NI représent ant une applicat ion linéaire f on
u
peut, par opérations élémentaires agissant exclusivement sur des colonnes,
t rou ver u ne nou velle représent a t ion mat ricielle de la forme B =(A 0) avec 1
Soient xo, ... , Xn n + 1 réels deux à deux distincts, on pose x = (xo , ... , Xn)·
On étudie la matrice de Vandermonde
1 1 1
Xo X1 Xn
x6 x21 x2n
V=
xn0 xï xnn
Par la suite, on posera A= tv.
1. Montrer que l'application f: PH (P(xo) , ... , P(xn)) réalise un isomorphisme
d'espaces vectoriels entre IRn[X] et JRn+ 1 .
2 . En déduire que la matrice V est inversible.
3 . Montrer, à l'aide de l'inversibilité de V, que
a . F = ((x~)o~j'-(n, ... , (xl)o~j~n) est libre dans l'espace vectoriel JRn+l ;
b. F ' = ( (xL)jEN )o~k~n est libre dans l'espace vectoriel des suites réelles;
c . F" = (fk : t H exkt)o~k'-(n est libre dans l'espace vectoriel des fonctions
réelles d 'une variable réelle.
4. On définit la famille des polynômes d'interpolation de Lagrange * comme étant
l'unique famille (Lo , . . . , Ln) de polynômes de IRn [X] vérifiant
"'O
0
c
0
:J 1. Le fait que IRn[X] et JRn+l soient des espaces vectoriels ne fait aucun doute. Il s'agit
1..() donc de prouver deux choses
T"-l
0
N ( 1)f est linéaire ;
©
....... (2) f est bijective .
..c
Ol
ï::: Le point (2) lui-même se décompose en deux étapes. Habituellement on montre que
>-
a.
0
l'application est injective et surj ective, mais puisqu'ici les espaces vectoriels sont de
u dimension finie , on va se contenter de l'injectivité et d 'une égalité de dimensions :
• Ker f = {O} ;
• dim !Rn [X] = dim JRn+l.
Soient Pet Q deux polynômes et À un scalaire réel (on travaille ici avec des IR-espaces
vectoriels).
Par calcul , on trouve
Lorsqu 'il s'est agi de montrer que le polynôme P était nul en exhiba nt
un « trop grand nombre » de racines, il n'a pas été commis l'erreur
d 'annoncer que xo, ... , Xn ét aient LES racines de P (dire que P admet
"'O
exactement n + 1 racines est en contradiction avec la conclusion atten-
0
c due) et encore moins l'erreur d'affirmer que P est de degré ÉGAL à n
:J
0 (rappelons que le degré du polynôme nul est -oo) .
1..()
T"-l
0
N
~I
©
....... Puisque, par ailleurs, on sa it que dim !Rn[X] = n + 1 = dim JRn+l, on en déduit que
..c
Ol l'application linéa ire f est bijective, c'est donc un isomorphisme.
ï:::
>-
a.
0
u 2. Faire le lien entre l'inversibilité d 'une matrice et la bij ect ivité d'une application
linéaire est chose aisée lorsque l'on sait que l'une représente l'aut re relativement à
une certaine base B de IR.n [X] et C de JR.n+ 1 .
Puisqu 'aucune indication n 'est donnée dans l'énoncé nous allons proposer des bases
raisonnables et naturelles et tenter d 'aboutir.
200 Chapitre 6 Applications linéaires et matrices
Soit B = (1, X , ... , X n) la base canonique de !Rn[X ] et not ons C = (e 0 , ... , en) la
base canon iq ue de !Rn+ 1 . Pour tout k E [O, n], on a, par ca lcul ,
n
Autrement dit les coordo nnées de f (X k) d ans la base C sont (x~ , ... , x~) .
O n en déd uit la m atrice associée à f relativement aux bases B et C
J (l ) J(X) J(X) J(X n)
+ + + +
1 Xo X~ xg
Matc,B(J) = 1 X1 xî X~ =A.
1 X2 X~ X~
1 Xn x?i X~ ;--{ en
A insi, puisq u' il a ét é ét abli q ue f est bijecti ve, on en d éd uit que A est inversible et
do nc V = tA aussi.
3 .a. On va invoquer le rang maximal de V.
~1
L' interprétation matricielle ca no niq ue des n + 1 vecteurs de F correspond t rès préci-
sément aux colo nnes de V , ainsi rg(F) = rg(V).
Puisq ue V E GLn+i (IR), on en déduit rg(F) = n + 1 = Card F.
A insi (cf 5. 11 .3.b) Fest li bre.
© n
.......
..c
Ol
ï:::
L x~ ak = 0 (Ln)
>-
a. k=O
0 Il s'agit du syst ème homogène associé à la matrice V. Et , puisq ue V est inversible, on
u
en déduit que (E) est de Cra mer, c'est donc que la solution évident e ao = · · · = an = 0
est l' uniq ue solut ion. On co ncl ut q ue la fam ille de suites F' est libre.
Exercice 6.8 Matrrice de Vandermonde et polynômes de Lagrange 201
Puisque l'indication précise que l'on souha ite faire intervenir la matrice V et donc les
puissances consécutives des Xi, une idée est de faire apparaître ces puissances des Xi
en facteur de chaque coefficient a 1 , ... , an. Pour ce faire nous a llons dériver à plusieurs
reprises.
Puisque l'éga lité (0) porte sur des fonctions de classe c=, on peut dériver celle-ci une
fois, ce qui nous donne
n n
(1) i. e. Vt E IR, L akXkexkt = O.
k=O k=O
De même, en dérivant j fois, on trouve
n n
(j) L akfkj ) = o i. e. \:/t E IR, L akx{exkt = O.
k=O k=O
"'O
0 Ainsi, si l'on évalue chacune des égalités (0) , (1), ... , (n) en 0, on trouve le système
c de Cramer (~) introduit dans la question précédente. L'unique solution de ce système
:J
0
est la solution triviale ao = · · · = an = O. Finalement on a prouvé que F" est libre.
,....
1..()
0
N 4.a. Si l'on traduit la caractérisation des poly nômes L i en utilisant la fonction f
© introduite dans l'én oncé, on trouve
.......
..c
Ol
ï:::
>- ViE[O, n] , f (Li) = (0, .. , 1, ..0) = ei.
a. ~
0
u le « 1 » est e n case n uméro i
~I
Puisque f est surjective, les vecteurs eo, ... , en ad mettent chacun un antécédent que
l'on note respectivement Lo , ... , L n.
202 Chapitre 6 Applications linéaires et matrices
Il s'agit de polynômes de IRn[X] qui vérifient, pour tout i E [O, n], f (Li ) = ei, c'est-
à- dire
si j -# i
\:/ j E [O, n],
si i =j
ce qui prouve bien l'existence.
On termine par l'unicité qui , comme souvent , se prouve soit pa r l'absurde (en sup-
posan t pa r l'absurde avoir deux familles distinctes vérifia nt (*)) soit, comme on va
le faire ici, en partant de deux familles de polynômes non nécessairement distinctes
vérifiant (*) pour en déduire qu'elles sont égales.
Supposons avoir deux familles (.Co , ... , Ln) et (Lo, ... , Ln ) de polynômes de IRn[X]
vérifiant, l' une et l'autre, la même propriété(*)
On en déduit alors, au moyen de la fonction f, \:/i E [O, n], f(L i ) = ei = f (.Ci).
Et donc, par injectivité de f, Li = L i , et ce quel que soit i E [O, n]. Ceci prouve
l'unicité de la famille.
Il ne faut pas croire que l'unicité soit une propriété détachée de tout
référentiel. Être unique ne veut rien dire. En mathématiques l'unicité
exprime le fait d 'être « unique dans son genre ».
Dire que« la famille « (Lo, . .. , L n) est unique » est un abus de langage
pour signifier qu'il y a unicité de la famille (Lo , ... , Ln) constituée de
polynômes de IR.n[X] et vérifiant la relation(*).
Voici une deuxième preuve qui exploite la bijectivité de f pour nous assurer l'exist ence
et l'unicité de cha que polynôme.
~1
Pour tout i E [O, n], par bijectivité de f, puisque ei appartient à l' espace d'arrivée
de f, on a : il existe un uniqu e polynôme Li de IRn[X] vérifiant f(Li ) = ei
~
(*)
On en déduit, finalement, l'existence et l'unicité de la famille demandée.
-0
0
c
4.b. Partant de f (Li) = ei, il s'agit d 'obtenir une relation avec la matrice A de f.
0
:J Nous a llons donc faire une interprétation matricielle de cett e égalité.
1..()
T"-l
Pour plus de commodité on convient de numéroter les lignes et les colonnes de matrices
0
N
à partir de l'indice O.
©
....... Par interprétation matricielle du vecteur ei, au moyen de la base canonique B,
..c
Ol
ï::: 0
>-
a.
0
u
Mat c(ei) = 1 +---< ligne numéro i .
0
Or, par interprét ation matricielle (relativement au x bases C et B) de ei = f(Li ), on
trouve Matc(ei ) = Matc,s(f) x Mats(Li ) = A x Mat5(Li ).
Exercice 6.8 Matrrice de Vandermonde et polynômes de Lagrange 203
1
1 = ie colonne de A - .
0
Ainsi les coefficients de L i (relativement à la base canonique C) se lisent sur la ie
colonne de A- 1 .
Voici une d euxième preuve qui inverse d 'abord la relation f (Li) = ei pour ensuite
donner une interprétation matricielle.
4.c. Un polynôme peut être déterminé par la donnée de ses coefficients, mais ici c'est
un résultat que l'on se réserve pour l'obtention de v - 1 .
Heureusement, un polynôme se caractérise aussi par son degré, son coefficient domi-
n ant et ses racines complexes (comptées avec multiplicité), ce qui donne sa décom-
position sous forme d 'un produit. C'est précisément ce que nous permet de faire la
caractérisation (*).
A-' ~ ( ~
0
1
2
0
1
4 f (
1
-2
1
2
3
0
2
- 1
0
-2
1
2
1
),
204 Chapitre 6 Applications linéaires et matrices
-0
• la linéarité;
0
c
:J
0 Soit u = (x,y,z), v = (x',y',z') deux vect eurs de IR3 et À, µ deux réels. O n a, en
1..()
T"-l posa nt X = Àx + µx', Y = Ày +µy' et Z = Àz + µ z',
0
N
f(À u + µv) J( (Àx + µ x', Ày + µ y' , Àz + µ z')) = J((X , Y , Z))
©
....... (X - 2Y + 2Z, - 2X +Y+ 2Z, - 2X - 2Y + 5Z)
..c
Ol
ï::: (,\( x - 2y + 2z) + µ(x' - 2y' + 2z') ,
>-
a.
0
,\( - 2x +y+ 2z ) + µ( - 2x' +y' + 2z'),
u
,\ (-2x - 2y + 5z) + µ (-2x' - 2y' + 5z'))
À(x - 2y + 2z, - 2x +y+ 2z, - 2x - 2y + 5z )
+µ ( X I - 2y I + 2 Z I , - 2X / +y I + 2 Z / , - 2X I - 2 y / + 5z/)
Àf((x , y, z )) + µf( (x' , y' , z')) = Àf(u ) + µf( v) .
f est donc une application li néaire de IR3 dans IR3 .
Exercice 6. 9 Polynôme annulateur et réduction 205
• le fait que l'espace d 'arrivée est le même que celui de départ (ici, c'est immédiat);
(~2 ~
2 -2
rgf rg -3
- 2 - 2 -6
- 2
-3 = 3,
0
f est donc bien un automorphisme de JR3 .
1.b. On utilise les règles d 'opérations sur les matrices d'endomorph ismes, ce qui ra-
mène la question à du calcul matriciel.
Mat(!)= (~2 ~
-2 -2
2
D donc
Mat(3IdIR3 - 4f + f + (Mat(f)) 2
2
) 3Mat(IdJR3) - 4Mat(f)
~ ~) - 4 (~2 ~) + (~8
-2 -8
1 1
0 1 - 2 -2 5 -8 -8
"'O
0
c
D
:J
0
,....
1..()
0
N
On en d éduit que 3IdJR3 - 4f + f 2
est l'endomorphisme nul d e JR3 .
©
.......
..c 1.c. Nous avons vu dans l'exercice 3.1 en page 60 comment trouver l'inverse d 'une
Ol
ï::: matrice à partir d 'un polyn ôme annulateur de coefficient constant non nul. On entre-
>-
a.
u
0 prend ici la même démarche, ma is en raisonnant en termes d 'endomorphismes.
2.a. Comme on sait comment f «agit» sur x, il est naturel d 'appliquer 3IdKn -4/ + / 2
à x pour exploiter l'hypothèse 3IdKn - 4f + / 2 = O.
2
On a 3IdJR3 - 41 + 1 = 0 donc en particulier : (3IdR3 - 41+1 2 ) (x) = O. Mais :
2 2
(3IdJR3 - 41+1 ) (x) 3x - 4l(x) + l (x)
3x - 4,\x + l(f(x))
3x - 4,\x + l(Àx )
3x - 4Àx + Àl (x) (par linéarité de l )
3x - 4Àx + À x 2
= (3 - 4,\ + ,\2 )x.
Ainsi, on a (3 - 4,\ + À 2 )x = 0 avec x -f= 0 et donc 3 - 4,\ + ,\ 2 = O. En calculant le
discriminant ~ de 3 - 4X + X 2 , on trou ve ~ = 16 - 12 = 22 > 0 donc ce polynôme
4 2 4 2
ad met d eux racines
. ' Il es : - - - = 1 et - +- = 3 . 0 n vient
ree . d e voir que/\' est une
2 2
de ces racin es donc À E {1 , 3}.
2.b. Pour montrer l'égalit é de deux ensembles A et B, on peut raisonner par double
-0
0 inclusion (comme cela a déjà ét é fait à l'exercice 6.3) ou , p lus direct ement , montrer
c
:J qu 'ils ont les mêmes éléments, via un raisonnement du type :
0
1..()
r-l X E A {=}- . . . {=}- X E B.
0
N
2.c. Si u ne telle base existe, il faut commencer par a na lyser quelles informations la
matrice apport e sur ses vecteurs. Cela donnera l'inspiration pour construire une de
ces bases.
Exercice 6.10 Commutant d'une matrice carrée 207
Puisqu'on veut des familles libres de vecteurs de chacun de ces deu x sous-espaces
vectoriels , nous a llons décrire ces d erniers via une base.
3
Soit u , v E IR .
- 2y + 2z = 0
u E Ker (f -IdJR3) {:=:} J (u) - u = O {:=:} - 2x + 2z = O
{
- 2x - 2y + 4z = 0
y= z
x = z {:=:} x = y= z
{
0= 0
donc K er (! - IdJR3) = { (x , x, x ) ; x E IR} = {x (l , 1, 1) ; x E IR} = Vect(( l , 1, 1)) .
- 2x - 2y + 2z = 0
v E K er(! - 3IdJR3) {:=:} f(v) - 3v = 0 {:=:} - 2x - 2y + 2z = 0
{
- 2x - 2y + 2z = 0
{:=:} - X - y + Z = 0 {:=:} Z = X + y
donc
Ker(! - 3IdJR3 ) { (x , y , x+y) ; x, y EIR} = {x( l , O, l )+ y(0, 1, 1) ; x , y E IR}
Vect(( l , O, 1) , (0 , 1, 1)).
-0
0
c
:J
0 On regarde si la famille obtenue en « recollant » ces deux bases convient pour la
,....
1..()
quest ion p osée.
0
N
©
.......
..c
Ol
ï::: Vérifion s qu e la famill e F = ((1, 1, 1), (1 , 0 , 1), (0, 1, 1)) est une base de IR3 .
>-
a.
d im IR3 = 3 et Fest une famille de trois vect eurs de ran g 3 donc Fest bien un e base
1.a. Avant de se la ncer dans la vérification du caract ère linéaire de f , il est utile
d 'isoler certains termes pour rendre l'écriture plus commode.
Si l'on pose fd : M H AM, on définit ainsi une fonction dont l'ensemble de départ
et d 'a rrivée est M 2(K) (par définition du produit matriciel) et dont la linéarité est
garantie par la distributivité du produit matriciel su r la somme matricielle,
V( M , N) E M 2(JK.) 2, 'i À E K, f (ÀM +N) = A x (ÀM +N) = ÀA x M + A x N
"'O Àf(M) + f(N ) .
=
0
c
:J
Ainsi, f est un e ndomorphisme de M 2(K ) et, par un raisonneme nt analogue, on
0 montre que f 9 : M H MA est éga lement un endomorphisme de M 2(K ).
1..()
r-l
0
N
Pour conclure il nous suffit d 'invoquer la structure d 'espace vectoriel de L:(M 2 (JK)) qui
© nous assure que toute combinaison linéaire d 'endomorphismes est un endomorphisme.
.......
~I
..c
Ol Puisque f = f d - f 9 , f, en tant que combinaison linéa ire d'endomorphismes, est un
ï:::
>-
a. endomorphisme de M 2(K).
0
u Il s'agit avant toute chose de calculer l'image par f de chacun des vecteurs et de
l'exprimer comme combina ison linéaire de vecteurs de B.
~1
Par d éfinition, o n a, en nota nt (E 1 , E 2 , E 3 , E 4 ) les vecteurs de la base cano nique B,
f(E1) = ( ~l ~) - (~ ~) = ( ~l 2
-; ) = -2E2 - E3 .
~
On e n déduit la matrice de f re lativement à la base B
0 1 2 0
Mats(!) = ( -;l
-2
0
0
- 1
0
0
- 2
2
1
0
)
1.b. On procède comme dans les exercices 6.2 et 5.8 pour trouver une base du noyau
de f : on résout un système homogène, on exhibe une famille génératrice naturelle du
sous-espace de ses solutions et on vérifie que c'est une base.
Ici l'interprét a tion ma tricielle de f et des vecteurs de M 2 (IK) joue un rôle clef.
(
0
1..()
T"-l
0
N
©
.......
~
-2
- 1
0
0
0
0
0
- 1 - 2 nm =Ü {
~
2t - 2x
-x + t
-y- 2z
=
=
=
0
0
0
..c y+ 2z = 0
{
Ol
L2 +-- L2 - 2L3
~ { X= t
ï::: Ü= Ü
>-
a. ~
0
- x +t = 0 y= - 2z
u 0= 0 L4 +-- L4 + Li
Finalement, e n fa isant jouer à t et z le rô le de paramètres, o n trou ve
210 Chapitre 6 Applications linéaires et matrices
Ainsi, Ker f = Vect(U, V). (U, V) est donc une famille génératrice de Ker f et c'est
aussi une famille libre car formée de de ux vecteurs non colinéaires.
Finalement, une base de Ker f est (U, V ).
~1
Ol
ï::: D'après la formule du rang,
>-
a.
0
rgf = dim lK4 - dimKer f =4- 2 = 2.
u
1.c. On adopte ici la démarche « version-thème » décrite dans l'encadré ci-dessus pour
l'étude du noyau.
Exercice 6.10 Commutant d'une matrice carrée 211
Puisque C 1 ~ ~Î)
( et C2 ~ ( JJ , on remarque que C1 et C2 sont deux vecteurs
non colinéaires donc (C1, C2) est une famille libre de vecteurs de lm[Mat13(!)] et
puisque dimlm[Mat13(f)] = rgf = 2 (d'après 1.b), cette famille est une base de
lm[MatB(J)].
3. Interprétation vectorielle de la base de Im[MatB(f)].
Par interprétation matricielle, on retrouve une base lm f.
Par interprétation matricielle, on sait que les colonnes de lm[Mat13(!)] sont celles
représentant les vecteurs de lm f au travers de la base 13.
Notons F 1, F2 les vecteurs de M 2(IK) dont la représentation matricielle est donnée
par C1 et C2 respectivement, i.e.
( ~1 (~ ~1)
2
F1 = -; ) et F2 = ·
Puisque l'image d ' une base par un isomorphisme est une base, on en d éduit, grâce
à l' isomorphisme donné par la représentation matricielle (relativement à la base 13)
entre les colonnes de M 4,1(IK) et les vecteurs de M 2(IK) , que (Fi , F2) est un e base
de lm f.
"'O
0
c
:J
Sans faire appel à tout cc travail d 'interprétation, nous aurions pu
0
1..()
T"-l
0
N
,
egalement constater que f(E1) =
1 0
( 0 -2)
et f(E2) =
_
0
_
1
(1 0)
© étant deux vecteurs non colinéaires de lm f , on a, grâce à la dimension
.......
..c de lm f, trouvé une base de lm f.
Ol
ï:::
>-
a.
0
u 2.a. On va traduire, pour une matrice M ce que signifie être dans C(A) et relier par
équiva len ces ceci à l'appartenance à Ker f.
~1
Soit M une matrice de M2(IK) , par une succession d'équivalences on trouve
M E C(A) ~ AM = MA ~ AM- MA = O ~ f(M) = O ~ M E Kerf.
Ainsi, on a prouvé que C(A) = Ker f.
212 Chapitre 6 Applications linéaires et matrices
Du fait qu'il n'y a pas unicité d'une base de Ker f comportant le vecteur I , plusieurs
choix étaient possibles pour trouver une matrice B satisfaisant à la question posée.
~~ J ~i).
..c
Ol
ï:::
>-
a. 2. Soit A= ( On pose x = (1, 0, 1) .
u
0 2
a. Calculer f(x) et f 2 (x).
b. Établir que (x , f(x), f 2 (x)) est une base de IK3 (donc que f est cyclique).
c. Donner l'expression générale des matrices du commutant C(A) de A.
Exercice 6.11 Commutant d'un endomorphisme cyclique 213
1.a. Cette question ne présente pas de difficulté, à condition de savoir faire le tri dans
les informations de l'én on cé. Ici, la donnée importante est : M E C (A).
~I
C'est évident : on a AM= MA , or AM est la matrice associée à f o g dans la base
canonique de OC3 et MA celle associée à g o f donc f o g = go f.
1. b. Les trois vecteurs u à tester sont x, 1 (x ) et 12 ( x). Ici, le point de départ est
essentiel : les coordonnées de g(x) dans la base B étant a , (3, "'(, on a bien l'égalité
g(x) = ax + f31(x) + 'Y l 2 (x ) = (aidJK3 + (31 + 'Y l 2 )(x) . Pouru E {l( x), l 2 (x )} , c'est
a priori plus compliqué car on ne sait pas comment g « agit » sur l (x) et 1 2 (x) .
On s 'en sort en utilisant le résultat de la question précédente qui permet d 'écrire
g(J(x)) = l(g(x) ) et g(J 2 (x)) = 1 2 (g(x) ). La décomposition connue de g(x) da ns la
base B, puis la linéarité de 1 et 12 permettent alors de conclure.
0
N
((g o J) o J)( x) = ((! o g) o J )(x ) = (f o (g o J))(x)
© (f o (f o g))(x) = ((! o J) o g)(x)
.......
..c J2 (g( X)) = J2 ( O:X + /3 f (X) + 'Y J2 (X))
Ol
ï:::
>-
a. o:t2(x ) + /3 J 3 (x) + r f 4 (x ) (par linéarité de J2)
0 2 2
u (o:Idoc3 + /3!+ 1 f )(f (x)) .
On a donc bie n :
g(u) = (o:IdJK3 +/3!+ 1 J2 )(u) pour tout vecteur u de la base B.
On se rappelle ensuite qu'un endomorphisme d e OC3 est complèt ement déterminé par
son action sur une base.
214 Chapitre 6 Applications linéaires et matrices
~1
Puisque les endomorphismes g et a ldoc3 + /31 + 'Y1 2 3
de IK coïncident sur les vecteurs
d ' une base de IK3 , ils sont égaux. Ainsi,
1.d. Il vient d'être ét a bli que les matrices commutant avec A pour la multiplication
s'écrivent connne polynôme de degré au plus 2 de A. Réciproquement, il est bien
connu que tout polynôme de A commute avec A.
Nous venons de voir que C(A) C {>.h +µ A + vA 2 ;(À , µ , v) E IK3 }. Montrons que
2
l'on a aussi { Àh + µA + vA ; (>. , µ, v) E IK3 } 3
C C (A) . Soit (>. , µ , v) E IK . On a :
(Àh +µA + vA
2
) x A >.A+ µA + vA 2 x A
2
2 3 2
donc ,\h + µA + vA E C(A ). Ain si :\/(,\, µ , v) E JK , >.h + µA + vA E C(A).
2
On a donc { Àh + µA + vA ; (>., µ , v) E JK3 } C C (A ) et, fin alement, par double
inclusion :
0
N
2.a. Au vu de l'information dont on dispose sur f, on détermine les images f (x) et
© j 2 (x) via le calcul matriciel.
.......
..c
Ol D'après la traduction matricielle d'une application linéaire, si l(x) = (a, b, c), alors
ï:::
>-
a. 3
0
u 1
-2
2
donc l(x) = (-8, - 3, 7). De même, si 1 (x) = (>. , µ , v), alors
-6
-3
4
Exercice 6.11 Commutant d'un endomorphisme cyclique 215
2.b. Le p lus rapide est d 'u tiliser le critère du rang : la famille (x, f(x), f 2(x)) est une
base de JK 3 ssi elle est de rang maxima l, ici de rang 3.
(x, f (x), f 2 (x)) est un e base de ][{3 si et seulement si le rang de cette famille va ut 3
(car cette famille est de cardinal 3 et dimOC3 = 3 ). Or
2
rg(x, f( x) , f (x)) rg G~~ ~) = rg G~: I) L, ~ ~ L, L,
rg ( ool =~ 160) = 3
O 15 L3 +-- L3 + 5L2
donc on conclut bien : (x, J(x) , f 2 (x)) est une base de ][{3 et ainsi f est cyclique.
2.c. f ét ant cyclique, le résultat principa l de la question 1 peut s'a ppliquer.
{ÀG~ D c~
+µ 32 =~) 3
+li ( :
- 4
=~4 -1~ ) ; (,\ , µ , li) E ][{
3
}
+ µf( x) + Àx 0
µf 2 (x) + Àf (x) 0
+ Àf2(x) 0
216 Chapitre 6 Applications linéaires et matrices
dont l'unique solution est (>.,µ,v) = (0,0, 0) (on utilise ici f 2 (x) =/:- 0).
~1 ~ G~ !) ~ G~ D
3
A' et A donc f vérifie • J' ol 0 (car ab ol O) et
13 = o.
Un bon candidat pour x est indiqué dans l'énoncé de la question 3 , compte t enu
du résultat de 3.a. Pour décrire le commutant, on utilisera le résultat général de la
question 1.d, compte tenu du caractère cyclique de f.
O n est do nc dans le cadre du 3.a; a ins i, s i x est un vecteur de JK. 3 tel que l 2 (x)-=/= 0,
a lo rs (x , l(x), l 2 (x)) est une base de OC3 .
-0 D'après le calcu l de A 2 , on a 12 ((0 , 0 , 1)) = (ab, 0 , 0) -=/= 0 donc, en posa nt x =
0
c (0, 0 , 1), la famille (x, l(x) , l 2 (x)) est une base de JK.3 .
:J
0 D'après le résultat de la question l.d,
,....
1..()
C(A) {Àh +µA+ vA
2
; (À , µ , v) E JK.
3
}
0
N
©
......
..c
Ol
{AG ~ D+ G ~ D+ G ~ µ v !) (A , µ , v) E OC
3
}
ï:::
u
>-
a.
0
{G~a µc:rb) ; (À,µ, oc'} v) E
1. Soit m E Ill. et A = G m
m+l
1
m~2)
lüm
a. Déterminer le rang de A suivant la valeur de m.
b. Pour quelles valeurs de m la matrice A est-elle inversible ?
c. Lorsque c'est le cas, calculer son inverse.
1.a. On effectue des transformations sur les lignes pour se ramener à une matrice
triangulaire supérieure (en a ppliquant l'a lgorithme du pivot de Gauss).
~ m
rg(A ) 1
La discussion du rang de cette matrice t ria ngula ire supérieure doit être menée suivant
les valeurs de m qui annulent l'un de ses coefficients diagonaux. Ici, il n 'y a qu'un seul
coefficient d iagonal dépendant de m.
"'O
Le polynôme 2m
2
+ 5m + 2 a pour discriminant 25 - 4 x 2 x 2 = 9 = 3 2 > 0 et admet
d d . , Il - 5- 3
= - 2 et - 5 + 3 = - 2'1 ainsi
. .
0
c one eux racines ree es :
:J 4 4
0
m E { - 2, -~ } . 2m 2
+ 5m + 2 = 0 et
1..()
T"-l • si A est de rang 2 ;
0
N
{:
a-my
b - a + (2 - m )z
- (2m + l)a + (2m - l)b + c
(m + 2)(2m + 1)
(5m + 2)(2m + l)a - 10m2 b + m(m - 2)c
X
(m + 2)(2m + 1)
-4(2m + l )a + lOmb + (2 - m) c
y
(m + 2)(2m + 1)
-( 2m + l )a + (2m - l )b + c
z
(m + 2)(2m + 1)
© 2.a. La démarche est la même que dans l'exemple précédent: se ramener à une matrice
....... tria ngula ire par transformations sur les lignes .
..c
Ol
ï:::
>-
a.
G a a
0
u az )
rg(N) = rg b- a b- a (b - a)(b+a).
c-a c -a (c - a)(c+ a)
Supposons b = a . On a alors :
rg(N) = rg G c-a
a
0
2
a0
(c-a)(c+a)
)
= rg (1
0
0
a
c-a
0
a2
(c - a)(c +a)
Ü
)
L
2 B
L
3
donc:
• si c -=j=. a, r g(N) = 2;
• si c = a (auquel cas a = b = c), seule la première lign e de la derniè re matrice
n'est pas nulle donc rg(N) = 1.
G a)~ ~
a
si c -=j=. a et c -=j=. b,
rg(N) = rg b- a (b - b + a) ) ={ si c = a ou c = b.
0 (c - a)(b - a)(c - b)
-0
• a =/= b et c = a,
0
c
:J
• a =/= b et c = b.
0
Nous pouvons donc conclure.
,....
I..{)
~1
0
N Pour résumer, N est de rang 3 si et seulement si a , b et c sont deux à deux distincts.
© Si seu lement deu x des trois nombres a, b et c sont égaux, N est de rang 2. Enfin, N
.......
..c
Ol
est de rang 1 si a = b = c. t
ï:::
>-
a. 2.b. N est inversible si et seulement si son rang est maximal, c'est-à-dire égal à 3.
0
u Nous savons à présent traduire cette dernière condition sur les trois paramètres a, b
etc.
~I
N est inversible si et seu lement si son rang vaut 3. D'après le résultat de la question
précéde nte , N est donc inversible si et seu leme nt si a, b et c sont de ux à deux distincts.
t. On p ourrait tout résumer en disan t que le rang d e N est égal a u cardinal d e l'ensemble {a, b, c}.
220 Chapitre 6 Applications linéaires et matrices
Si a, b etc sont deux à deux distincts et a , /3, r sont des complexes don-
AB = ( ~1 ~l ~~ )
a. Calculer (AB) 2 , puis BA(BA - h)BA.
b. Calculer rg(AB). En déduire que rg(BA) = 2. Que peut-on dire de BA?
"'O
0
c c. Calculer BA.
:J
0
1..()
T"-l
0
N
© 1.a. C 'est un résultat classique. Le méthode pour le prouver est tout aussi classique .
.......
..c
Ol
ï:::
>-
a. Soit y E Im(g o !). Par défi nition, y admet do nc un antécédent par g o f, notons x
u
0 un t el antécédent, o n a x E E et y = (g o J)(x) = g(f(x)) .
Si l'on pose x' = f(x), on a x' E E et y = g(x ' ).
Ainsi y admet un antécédent par g, ce qui signifie que y E l mg.
Ceci étant réa lisé quel que soit y E lm (g o !), on a donc prouvé que Im(g o !) C lmg .
~1
Soit x E Ker f, on alors f(x) = ÜF et donc, en composant par g (ce qui est licite car
Op et f(x ) sont des éléments de F), on trouve
g(f(x)) =0 i.e. (go f)(x) =0
Ainsi x E Ker(g o !), et ce quel que soit x E Ker f. On a donc Ker f C Ker(g o !).
1.b. Pour faire le lien avec la question précédente, nous allons introduire des applica-
tions linéaires associées a ux matrices M et N. Puis, profitant d es inclusions entre les
espaces vectoriels images, en déduire une inégalité entre leurs dimensions (i. e. entre
les rangs) .
Pour la deuxième inégalité, nous a llons travailler sur les inclusions entre les noyaux
et récupérer une inégalité entre rangs grâce à la formule du rang.
L' inclusion Ker f C Ker(g o f) nous donne, par passage aux dimensions,
dim Ker f ::::; dim Ker(g o f).
Or, d'après la formule du rang appliquée à f et à go f,
dim Ker f = dim E - rg(f) et dim Ker(g o f) = dim E - rg(g o !).
On en déduit
dim E - rg(f) ::::; dim E - rg(g o f ) i. e. rg(g o f) ::::; rg(f) .
~1 ~ ) c, <---- c, - c, - c, .
- 1
rg(AB) = rg ( 0
1
Puisque le ran g d ' un e matrice est égal au rang de ses colonnes, on peut éliminer la
colonne nulle. On remarque, par ailleurs, qu e L 1 + L 2 + L 3 = O. Ainsi
rg(AB ) = rg ( ~l - 1 )
0 = rg ( - 1
0
0 )
- 1 = 2·
Puisque BA est une matrice carrée d'ordre 2, son rang ne peut excéder 2. Il nous
suffit donc de prouver l'inégalité rg(BA) ~ 2 et pour cela nous a llons invoquer 1.b.
-0
~1
0
c Puisque BA est inversible et que d 'a près 2 .a : BA(BA - h)BA = 0, on en déduit
:J
0 en multipliant à ga uche puis à droite par (BA) - 1
1..()
r-l
0 BA - h = 0 i.e. BA = 12.
N
©
.......
..c
Ol
ï:::
>-
a. l'égalité BA = ! 2 n'est pas suffisante pour affirmer que A et B sont
0
u inversibles et inverses l'une de l'autre.
Rappelons que ni A ni B ne sont des matrices carrées, donc parler
d'inverse pour ces matrices n'a pas de sens. Par a illeurs, on sait que,
pour les matrices, un inverse à gauch e est a ussi un inverse à droite , on
aurait dû a lors conclure que AB = h ce qui n 'est manifestement pas
le cas.
Exercice 6 .14 Inversion de Pascal 223
si i ~ j
Ir/ (i, j) E [O, n] 2 ,
sinon
1. a. Interpréter A à l'aide d'un endomorphisme f de l'espace IRn [X] rapporté
à la base C = (XJ)o~J~n·
b. En déduire la matrice inverse de A.
2. Soient (xn)n EN et (Yn)nEN deux suites de réels qui vérifient :
'V n EN, Xn = t (~ )
k=O
Yk·
0 1 2 +--- X
0 1 +--- x2
-0
0
c
0
(~ ) ( 7)
:J
0
I..{)
,.....
0
N
©
.......
..c
Ol
ï:::
>-
(; )
a.
0 0
u
0 0 0 0 (~ )
On peut donc connaître les images f(l ), ... , f (Xn) et , par linéarité de f , en déduire
l'image f (P) de tout polynôme P de IRn[X ].
224 Chapitre 6 Applications linéaires et matrices