Académique Documents
Professionnel Documents
Culture Documents
LA
Algèbr e lin éair e
B
SA
CA
M
SA
EN
1
Table des matières
CA
1 Espaces vectoriels 5
N
1.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.2 Exemples fondamentaux de sous-espaces vectoriels . . . . . . . . . . . . . . . . 7
LA
1.2 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1 Famille génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Famille libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.3 Existence de bases (en dimension finie) . . . . . . . . . . . . . . . . . . . . . . 12
B
1.2.4 Les théorèmes fondamentaux sur la dimension . .
1.2.5 Bases en dimension infinie . . . . . . . . . . . . .
1.3 Somme, somme directe, sous-espaces supplémentaires . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
16
17
SA
2 Applications linéaires 24
2.1 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Image et noyau. Image d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . 27
CA
3 Matrices 33
3.1 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.1.1 Matrices carrées particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.1.2 Matrices associées aux applications linéaires . . . . . . . . . . . . . . . . . . . 36
3.2 Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
M
4 Déterminants 51
4.1 Définition des déterminants par récurrence . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.1 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.2 Calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2.1 Déterminant du produit de matrices . . . . . . . . . . . . . . . . . . . . . . . 58
4.3 Calcul de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2
TABLE DES MATIÈRES 3
4.3.1 Caractérisation des bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.3.2 Comment reconnaître si une famille de vecteurs est libre . . . . . . . . . . . . 60
4.4 Systèmes d’équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.4.1 Systèmes compatibles, systèmes équivalents . . . . . . . . . . . . . . . . . . . 62
4.4.2 Méthode de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.4.3 Systèmes échelonnés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
CA
4.5 Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.5.1 Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.5.2 Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
N
B LA
SA
CA
M
SA
EN
B
SA
CA
M
SA
EN
4
Chapitre 1
CA
Espaces vectoriels
N
1.1 Espaces vectoriels
LA
Définition 1.1 Soit K un corps commutatif. On appelle espace vectoriel sur K un ensemble E non
vide sur lequel on ah défini deux lois de composition : i
a) Une loi interne c’est-à-dire une application E × E −→ E dite addition, notée +E , et vérifiant :
B
1. (x +E y ) +E z = x +E (y +E z ), ∀x, y, z ∈ E.
2. x +E y = y +E x, ∀x, y ∈ E.
SA
3. II existe un élément de E noté 0E , ou plus simplement 0, dit élément neutre de l’ensemble
E, tel que ∀x ∈ E : x +E 0E = x.
4. ∀x ∈ E, il existe un élément de E noté (−x), dit opposé de x, tel que : x +E (−x) = 0E .
h i
b) Une loi externe de domaine K c’est-à-dire une application K × E −→ E on note λx (ou λ.x)
CA
5
6 CHAPITRE 1. ESPACES VECTORIELS
2. De même Cn est muni d’une structure d’espace vectoriel sur C.
3. E = Rn n’est un espace vectoriel sur C.
Proposition 1.1 Pour tout λ ∈ K et pour tout x ∈ E, on a
1. λ0E = 0E et 0x = 0E .
2. λx = 0E ⇒ λ = 0 ou x = 0E .
CA
3. (−λ)x = λ(−x) = −(λx).
Démonstration :
1. On a λ0E = λ(0E + 0E ) = λ0E + λ0E , d’où 0E = λ0E . De plus 0x = (0 + 0)x = 0x + 0x,
d’où 0x = 0E . r
3
2. Supposons λx = 0E et λ , 0. En multipliant par λ−1 , on obtient λ−1 (λx) = λ−1 0E = 0E i.e,
N
1x = 0E , donc x = 0E . r
3
3. On a (−λ)x = (λ × −1)x = λ(−1 × x) = λ(−x) = (−1 × λ)x = −(λx). r 3
LA
Exemple 1.2 On munit E = R2 des deux lois suivantes :
(x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 )
λ(x1 , x2 ) = (λx1 , 0), (λ ∈ R)
E est-il un espace vectoriel sur R ?
B
Solution. E n’est pas un d’un R espace vectoriel. En effet, 1(2, 3) = (2, 3) , (2, 0). r
3
SA
Exercice 1.1 On note E = R∗+ , l’ensemble des nombres réels strictement positifs. Montrer que les
lois :
x ? y = xy et λ.x = xλ , (x, y ∈ R∗+ , λ ∈ R)
confèrent à E une structure d’espace vectoriel sur R.
CA
seulement si :
1. F , ∅.
2. ∀x, y ∈ F ⇒ x + y ∈ F .
SA
3. ∀x ∈ F , ∀λ ∈ K ⇒ λx ∈ F .
Remarque 1.2
1. L’élément neutre 0E de E coïncide avec l’élément neutre 0F de chaque sous-espace vectoriel F .
C’est pour cette raison que, dans la suite, on le notera simplement 0 (au lieu de 0E ou 0F ), s’il
EN
N CA
LA
Figure 1.1
B
En effet F , ∅, car v ∈ F . De plus, F est stable pour les lois de E, car si x, y ∈ F (c’est-à-dire :
x = λv, y = µv ), on a :
SA
x + y = λv + µv = (λ + µ)v ∈ F .
De même, si x ∈ F (c’est-à-dire x = λv ), on a : µx = µ(λv ) = (µλ)v ∈ F .
2. Plan vectoriel. Soient x1 , x2 ∈ E et F = {y ∈ E| ∃λ1 , λ2 ∈ K : y = λ1 x1 + λ2 x2 } est un
sous-espace vectoriel de E, dit sous-espace engendré par x1 et x2 . Si x1 et x2 ne sont pas nuls et
CA
x2 n’appartient pas à la droite vectorielle engendrée par x1 , F est dit plan vectoriel engendré
par x1 et x2 .
M
SA
EN
Figure 1.2
Remarque 1.3 {0E } est un sous espace vectoriel d’un espace vectoriel E.
Exemple 1.3
2(λx1 + γx2 ) + λy1 + γy2 + 3(λz1 + γz2 ) = λ (2x1 + y1 + 3z1 ) +γ (2x2 + y2 + 3z2 ) = 0.
| {z } | {z }
=0 =0
CA
Donc λ(x1 , y1 , z1 ) + γ (x2 , y2 , z2 ) ∈ F . D’où F est un sous espace vectoriel de R3 .
2. L’ensemble G = {(x, y, z ) ∈ R3 | 2x − y − z = 1} n’est pas un sous-espace vectoriel de R3 . En
effet, (0, 0, 0) < G.
T
Proposition 1.4 Soient F et G deux sous-espaces vectoriels de E. Alors F G est un sous-espace
N
vectoriel de E.
LA
Démonstration. Comme F et G sont deux sous-espaces vectoriels de E. Alors F G ⊂ E. De plus
T
B
G n’est pas en général un sous-espace vectoriel de E.
2. E\F n’est pas un sous-espace vectoriel de E.
SA
Exercice 1.2 Soit R[a,b] = {f : [a, b] −→ R} muni de +. Lequel de ces sous-ensembles est-il un
sous-espace vectoriel ?
1. C 0 ([a, b], R) = {fonctions continues f : [a, b] −→ R}.
CA
1.2 Bases
M
Définition 1.3 Une famille de vecteurs {v1 , . . . , vp } d’un espace vectoriel E est dite génératrice, si
E = Vect{v1 , . . . , vp }, ce qui veut dire que
On dit aussi, parfois, que tout x ∈ E se décompose sur les vecteurs vi , ou encore que tout x ∈ E est
combinaison linéaire des vecteurs vi .
Exemple 1.4
1. Dans R2 la famille {e1 = (1, 0), e2 = (0, 1)} est une famille génératrice car tout x = (x1 , x2 ) ∈ R2 ,
s’écrit (x1 , x2 ) = x1 (1, 0) + x2 (0, 1) = x1 e1 + x2 e2 .
Exercice 1.3 Dans R2 , soient v1 = (1, 1) et v2 = (1, −1). Montrons que {v1 , v2 } est génératrice.
Solution. Soit x = (a, b) ∈ R2 avec a, b arbitraires : il s’agit de montrer qu’il existe x1 , x2 ∈ R tels
CA
que x = x1 v1 + x2 v2 , c’est-à-dire :
N
(
x1 + x2 = a
x1 − x2 = b.
LA
a+b a−b
En résolvant, on trouve en effet x1 = et x2 = . Donc {v1 , v2 } est génératrice. r
3
2 2
Définition 1.4 Un espace vectoriel E est dit de dimension finie, s’il existe une famille génératrice
finie engendre E; dans le cas contraire, on dit qu’il est de dimension infinie.
Remarque 1.5 B
SA
1. Rn et Cn sont des espaces vectoriels de dimension finie.
2. R[X ] et C[X ] sont des espaces vectoriels de dimension infinie.
Définition 1.5 Soit {v1 , . . . , vp } une famille finie d’éléments de E. On dit qu’elle est libre, si :
Exemple 1.5 Dans R3 , les vecteurs v1 = (1, 1, −1), v2 = (0, 2, 1), v3 = (0, 0, 5) sont linéairement
indépendants. En effet, supposons qu’il existe des réels λ1 , λ2 , λ3 tels que
SA
λ1 v1 + λ2 v2 + λ3 v3 = 0R3 ,
c’est-à-dire :
λ1 (1, 1, −1) + λ2 (0, 2, 1) + λ3 (0, 0, 5) = 0R3 .
EN
On aura (λ1 , λ1 + 2λ2 , −λ1 + λ2 + 5λ3 ) = (0, 0, 0), ce qui donne immédiatement λ1 = λ2 = λ3 = 0.
Définition 1.6 Une famille qui n’est pas libre est dite liée (on dit aussi que ses vecteurs sont liés ou
linéairement dépendants).
Exemple 1.6 Dans R3 , les vecteurs v1 = (1, 2, 1), v2 = (−1, 3, 1) et v3 = (−1, 13, 5) sont liés, car on a
2v1 + 3v2 − v3 = 0R3 .
Ou, d’une manière équivalente : une famille {v1 , . . . , vp } est libre si et seulement si aucun des
vecteurs vi n’appartient à l’espace engendré par les autres.
N CA
LA
Figure 1.3: Les vecteurs v1 et v2 forment une famille liée : v2 appartient à l’espace engendré par v1 .
B
SA
CA
Figure 1.4: Les vecteurs v1 , v2 et v3 forment une famille liée : v3 appartient à l’espace engendré par
M
v1 et v2 .
SA
Proposition 1.6 Soit {v1 , . . . , vp } une famille libre et x ∈ Vect{v1 , . . . , vp }, (c’est-à-dire x est combi-
naison linéaire des vi ). Alors la décomposition de x sur les vi est unique.
EN
x = λ1 v1 + . . . + λp vp = µ1 v1 + . . . + µp vp
λ1 − µ1 = 0, . . . , λp − µp = 0
c’est-à-dire : λ1 = µ1 , . . . λp = µp . r
3
CA
On a immédiatement :
Proposition 1.7 Une famille {v1 , . . . , vn } est une base de E si et seulement si tout x ∈ E se décompose
d’une façon unique sur les vi , c’est-à-dire : ∀x ∈ E il existe un unique n-uplet (λ1 , . . . , λn ) ∈ Kn tel
que :
N
x = λ1 v1 + . . . + λn vn .
Les scalaires λi sont dits composantes de x dans la base {v1 , . . . , vn }.
LA
Exemple 1.7 (Base canonique de Rn [X ])
La famille B = {1, X, X 2 , . . . , X n } est une base de Rn [X ]. En effet, tout P ∈ Rn [X ] s’écrit
P ( X ) = a0 1 + a1 X + . . . + an X n
Autrement dit B est une famille libre de Rn [X ]. Ainsi B est une base de Rn [X ].
CA
Solution. Il est facile de vérifier que F est un espace vectoriel. Soit (x, y, z ) ∈ F . On a (x, y, z ) = (x, −2x − 3z, z
Donc la famille {(1, −2, 0), (0, −3, 1)} est une famille génératice de F . De plus, il est facile de vérifier
que {(1, −2, 0), (0, −3, 1)} est une famille libre. Ainsi {(1, −2, 0), (0, −3, 1)} est une base de F . r 3
M
Proposition 1.8
1. {x} est une famille libre ⇔ x , 0.
2. Toute famille contenant une famille génératrice est génératrice.
SA
Démonstration.
1. — On a λx = 0 ⇒ λ = 0 ou x = 0. Donc, si x , 0, λx = 0 implique λ = 0, ce qui signifie
que {x} est une famille libre.
— Réciproquement, supposons {x} libre. Alors, d’après la définition de famille libre, si λx = 0
on a nécessairement λ = 0, ce qui signifie toujours que x , 0. r
3
CA
3. Soit F = {v1 , . . . , vp } une famille libre et F 0 une sous-famille de F telle que F 0 = {v1 , . . . , vk }
avec k ≤ p. Si F 0 était liée, l’un des vecteurs v1 , . . . , vk serait combinaison linéaire des autres. Il
existerait donc un élément de F qui s’écrirait comme combinaison linéaire de certains éléments
de F . Or, cela est impossible car F est libre. r 3
4. Soit F = {v1 , . . . , vp } une famille liée et G = {v1 , . . . , vp , w1 , . . . , wq }. Alors l’un des vi est
N
combinaison linéaire des autres. Or, les vecteurs vi appartiennent à G, donc l’un des éléments
de G est combinaison linéaire des autres, et par conséquent G est liée. r 3
LA
5. Évident d’après le point 4, car il s’agit d’une famille contenant {0} et {0} est liée, d’après 1. r
3
B
Dans ce paragraphe nous allons montrer que dans tout espace vectoriel E , {0E } de dimension
finie, il existe des bases.
SA
Remarque 1.6 Soit E , {0E } un espace vectoriel de dimension finie et G = {v1 , . . . , vp } une famille
génératrice de E : pour tout x ∈ E, il existe α1 , . . . , αp ∈ K tels que :
x = α1 v1 + . . . + αp vp .
CA
Notons que G contient certainement des familles libres : il suffit de prendre par exemple, L = {vi }
avec vi ∈ G, vi , 0E .
Théorème 1.1 Soit E , {0E } un espace vectoriel de dimension finie et G une famille génératrice.
Considérons une famille libre L ⊂ G. Il existe alors une base B de E telle que L ⊂ B ⊂ G.
M
et L ⊂ P (G). En outre tout élément de L possède un nombre fini d’éléments. Choisissons dans L une
partie B ayant le plus grand nombre possible d’éléments. Soit p ce nombre et montrons que B est une
base de E. Il suffit de montrer que B est une partie génératrice de E puisque par construction B est
une partie libre de E. Comme G engendre E, il suffit de voir que tout élément de G est combinaison
linéaire des éléments de B. Si Card(G) = p, alors on a B = G. La partie génératrice G de E est donc
EN
λ1 x1 + . . . + λp xp + λx = 0E .
CA
Ce théorème peut s’exprimer aussi de la manière suivante :
Théorème 1.2 Soit E , {0E } un espace vectoriel de dimension finie. Alors
1. De toute famille génératrice on peut extraire une base.
N
2. (Théorème de la base incomplète). Toute famille libre peut être complétée de manière à former
une base.
LA
Démonstration :
1. C’est en fait ce nous avons établi dans la démonstration ci-dessus.
2. Soient L = {v1 , . . . , vp } une famille libre et G = {w1 , . . . , wq } une famille génératrice quelconque
de E. La famille G0 = G L est génératrice, car elle est une sur-famille d’une famille génératrice,
S
L ⊂ B ⊂ G0 . r3 B
et elle contient la famille L. D’après le théorème d’existence, il existe une base B telle que
SA
Remarque 1.7
1. Pour extraire une base d’une famille génératrice G = {v1 , v2 , . . . , vm } d’un sous-espace vectoriel
F , on suit l’algorithme suivant :
i) Si G est libre, c’est terminé. Autrement dit G est une base de F .
CA
ii) Sinon (G est liée), un des vecteurs vi de G peut s’exprimer en fonction des autres, c’est-à-dire
m
λj vj , λj ∈ K.
X
vi =
j =1,j,i
bien sûr la famille obtenue G1 est génératrice et on recommence jusqu’à trouver une famille
SA
soit libre de F et on recommence jusqu’à trouver une famille génératrice. Donc une base
de F .
CA
de E. On peut facilement vérifier que la famille G engendre E. Par ailleurs, on a
donc la famille G n’est pas libre, on supprime le vecteur (1, 2), on obtient la famille
N
G1 = {(0, 1), (−1, 3)}
LA
qui est aussi génératrice de E. On peut facilement voir que G1 est libre, donc une base de E.
2. Dans un espace vectoriel de dimension n, les familles ayant moins de n éléments ne peuvent être
génératrices.
Remarque 1.8
1. Si E = {0E }, on pose : dimK E = 0.
2. dimR Rn = n. En effet, comme nous l’avons vu, la famille {e1 , . . . , en }, avec
M
3. La dimension d’un espace vectoriel E dépend non seulement de E mais aussi du corps de base
K. En effet, considérons, par exemple, C muni de la structure d’espace vectoriel sur R définie
par les lois :
EN
Démonstration : En effet, soient {a1 , . . . , an1 }, {b1 , . . . , bnn }, . . . {l1 , . . . , lnp } des bases de E1 , E2 , . . . , Ep .
On vérifie facilement que la famille
CA
n o
(ai , 0, . . . , 0)i∈{1,...,n1 } ; (0, bi , . . . , 0)i∈{1,...,n2 } ; . . . ; (0, 0, . . . , lnp )i∈{1,...,np }
est une base de E1 × E2 × . . . × Ep . r
3
Exemple 1.9 On a dimR Rn = n; dimC Cn = n et dimR Cn = 2n.
N
En général, pour montrer qu’une famille est une base, il faut montrer qu’elle est libre et qu’elle est
génératrice. Cependant, si la famille a exactement autant d’éléments que la dimension de l’espace, on
a le théorème suivant qui est d’un usage fréquent :
LA
Théorème 1.4 Soit E un espace vectoriel de dimension n. Alors :
1. Toute famille génératrice ayant n éléments est une base.
2. Toute famille libre ayant n éléments est une base.
Démonstration : B
1. Soit F = {v1 , . . . , vn } une famille génératrice de E. Supposons que F n’est pas libre (famille
SA
liée), donc ∃vm ∈ F tel que
n
X
vm = λj vj .
j =1,j,m
CA
Alors F − {vm } engendre E. Ce qui est impossible puisque Card(F − {vm }) = n − 1 < n. r
3
2. Par hypothèse, E possède une base B = {v1 , . . . , vn } avec n éléments. Soit une famille libre
L = {w1 , . . . , wn } avec n éléments. Supposons L non génératrice, c’est-à-dire qu’il existe un
vecteur v ∈ E qui ne s’écrit pas sous forme d’une combinaison linéaire des éléments de L. Dans
ce cas, L0 = L {v} est aussi libre. Mais alors on a une famille libre L qui a plus d’éléments
S
qu’une famille génératrice B, ce qui est impossible. Donc L est une base de E. r 3
M
Exercice 1.5
1. Montrer que la famille {v1 , v2 } engendre R2 où v1 = (1, 2) et v2 = (−1, 1).
SA
Solution.
1. Pour montrer que la famille {v1 , v2 } engendre R2 , il faut montrer que pour tout (x1 , x2 ) ∈ R2 ,
EN
CA
2. dimK F = dimK E ⇔ E = F .
Démonstration.
1. Le cas où F = {0E } est trivial. Sinon, soit B = {v1 , . . . , vn } une base de E. Il est clair que B
engendre F , ce qui implique que F est un sous espace vectoriel de dimension finie. D’après le
N
théorème de la construction de la base, on déduit qu’il existe une base B1 de F telle que B1 ⊂ B.
Autrement dit Card(B1 ) ≤ Card(B ), ce qui montre que dimK F ≤ dimK E. r 3
LA
2. Il est facile de voir que E = F ⇒ dimK F = dimK E.
Inversement, pour montrer que E = F , il suffit de montrer que E ⊂ F . Soit F = Vect(B ),
où B = {v1 , . . . , vn } une base de F . Comme F ⊂ E, alors vi ∈ E, ∀i ∈ {1, . . . , n}. De plus B
est une famille libre de E et Card(B ) = dimK E, alors B est une base de E. Donc ∀x ∈ E,
∃!λ1 , . . . , λn ∈ K tels que
x=
n
X
B
j =1
λj vj ∈ Vect(B ) = F .
SA
Ce qui prouve que E ⊂ F . Ainsi E = F . r
3
Solution. On a {(1, 2) , (2, 1)} est une famille génératrice de F . De plus, il est facile de montrer que
CA
{(1, 2) , (2, 1)} est une famille libre. Alors {(1, 2) , (2, 1)} est une base de F . Ainsi dimR F = 2. En
utilisant le fait que F est un sous espace vectoriel de R2 et dimR F = dimR R2 , on obtient le résultat
désiré F = R2 . r 3
Définitions 1.1 Soient E un espace vectoriel et F = {xj }j∈A une famille d’éléments de E, non néces-
sairement finie.
SA
1. On appelle combinaison linéaire finie (ou simplement combinaison linéaire) de la famille, toute
expression du type :
X
λj xj , où I est une sous-famille finie de A. (1.2)
j∈I
EN
2. On appelle sous-espace engendré par F , le sous-espace vectoriel de E noté Vect{F }, formé par
toutes les combinaisons linéaires finies des éléments de F .
x = λ1 x1 + . . . + λp xp .
CA
2. La famille F est dite libre, si toute sous-famille finie est libre, c’est-à-dire si : ∀I ⊂ A avec I est
finie : X
λj xj = 0 ⇒ λj = 0, ∀j ∈ I.
j∈I
N
3. Une famille F est dite base si elle est libre et génératrice.
LA
Proposition 1.11 B est une base de E si et seulement si tout élément de E s’écrit d’une manière
unique comme combinaison linéaire finie d’éléments de B.
B
tout polynôme s’écrit comme combinaison linéaire finie de {1, X, X 2 , . . . , X n , . . .}n∈N . D’autre part,
elle est libre car si l’on considère une combinaison linéaire finie nulle : λ0 1 + λ1 X + . . . + λp X p = 0,
SA
on a : λ0 = 0, . . . , λp = 0.
Théorème 1.5 Tout espace vectoriel non réduit à {0} admet une base. Plus précisément :
1. De toute famille génératrice on peut extraire une base.
CA
Définition 1.8 Soit E un K−ev et B une famille finie de vecteurs de E alors le rang de B, noté rg(B ),
est la dimension de Vect(B ).
Exemple 1.11 On a rg{(1, 0), (0, 1)} = 2 et rg{(1, 2), (−2, −4)} = 1.
M
Définition 1.9 Soient E1 et E2 deux sous-espaces vectoriels d’un espace vectoriel E. On appelle somme
de E1 et E2 , le sous-espace de E défini par :
Démonstration.
— Les trois premiers points se déduisent directement des propriétés de l’addition dans un espace
vectoriel. r
3
— On montre d’abord 5. On sait que F + G est un sev de E par la propriété précédente. De plus
CA
F = {x + 0E ; x ∈ F } ⊂ F + G. De même, G ⊂ F + G. D’où F G ⊂ F + G. Donc F + G
S
contient bien F et G. Maintenant, si H est un sev de E tels que F G ⊂ H, alors, pour tout
S
N
F + E = E et on a bien 4. r 3
LA
Proposition 1.12 Soient E1 et E2 deux sous-espaces vectoriels de E et F = E1 + E2 . La décomposition
de tout élément de F en somme d’un élément de E1 et d’un élément de E2 est unique, si et seulement
si E1 E2 = {0E }. On écrit alors F = E1 ⊕ E2 . On dit que F est somme directe de E1 et E2 .
T
Démonstration.
B
— D’après la définition, tout élément de F est somme d’un élément de E1 et d’un élément de E2 .
Mais cette décomposition en général n’est pas unique. En effet, supposons que E1 E2 , {0E }
T
SA
et soit x0 ∈ E1 E2 avec x0 , 0E . Si x = x1 + x2 (avec xi ∈ Ei ) on a aussi la décomposition :
T
On voit donc qu’une condition nécessaire pour que la décomposition soit unique, et que
\
E1 E2 = {0E }.
\
E1 E2 = {0E }
on a :
x1 − x01 = x02 − x2 ∈ E1 ∩ E2 = {0E }.
| {z } | {z }
∈E1 ∈E2
Remarque 1.10 On a
F = E1 + E2 et
F = E1 + E2
tout élément x ∈ F s’écrit d’une manière unique
F = E1 ⊕ E2 ⇔ et ⇔
x = x 1 + x2
E1 E2 = {0E }
T
avec x1 ∈ E1 , x2 ∈ E2
CA
Démonstration.
— En effet, soient B1 = {ei }i∈I et B2 = {vj }j∈J des bases de E1 et E2 respectivement et supposons
que {ei , vj }(i,j )∈I×J est une base de E. Alors tout x ∈ E s’écrit d’une manière unique :
x = λ1 e1 + . . . + λn en + µ1 v1 + . . . + µm vm
N
| {z } | {z }
∈E1 ∈E2
LA
E = E1 ⊕ E2 .
— Réciproquement, si E = E1 ⊕ E2 , tout x ∈ E se décompose d’une manière unique sur E1 et E2 ,
et par conséquent, sur la famille B = {B1 , B2 }. On en déduit que B est une base de E. r
3
( B
Théorème 1.7 Soit E un espace vectoriel de dimension finie. Alors
E1 E2 = {0E }
T
SA
E = E1 ⊕ E2 ⇔
dim E = dim E1 + dim E2
Exemple 1.12 Dans R2 , soient v et w sont deux vecteurs indépendants, E1 = Vect{v} et E2 = Vect{w}
les droites vectorielles engendrées par v et par w. On a R2 = E1 ⊕ E2 . En effet E1 E2 = {(0, 0)} et
T
CA
dim E1 = dim E2 = 1 et dim R2 = 2. Autrement dit dim E1 + dim E2 = dim R2 . Comme on le voit
sur la Figure 1.5, tout x ∈ R2 se décompose d’une manière unique sur E1 et E2 .
M
SA
EN
Figure 1.5
N CA
B LA
SA
Figure 1.6
Proposition 1.14 Soit E un espace vectoriel. Pour tout sous-espace vectoriel E1 , il existe toujours un
CA
supplémentaire. Le supplémentaire de E1 n’est pas unique, mais si E est de dimension finie, tous les
supplémentaires de E1 ont même dimension.
Exemple 1.14 Soient E = R2 et F = Vect{(1, 0)} est un sous espace vectoriel de E. Alors F admet
des sous espaces supplémentaires. Par exemple, le sous espace vectoriel G = Vect{(0, 1)} est un
supplémentaire de F .
M
Alors
dim(E1 + E2 ) = dim(E1 ) + dim(E2 ) − dim(E1 ∩ E2 ). (1.4)
En particulier
dim(E1 ⊕ E2 ) = dim(E1 ) + dim(E2 ). (1.5)
EN
Démonstration. Il est clair que E1 ∩ E2 est un sous espace vectoriel de E, alors de dimension finie. Soit
BE1 ∩E2 = {e1 , e2 , . . . , ek } est une base de E1 ∩ E2 avec dim(E1 ∩ E2 ) = k. De plus, BE1 ∩E2 est libre dans
E1 , on peut la compléter en une base de E1 par le théorème de la base incomplète. Soit donc {f1 , . . . , fl }
une famille des vecteurs de E1 tels que BE1 = {e1 , . . . , ek , f1 , . . . , fl } soit une base de F . Nous savons
que dim(E1 ) = k + l. Remarquons que les vecteurs fj sont dans E1 \E2 (car ils sont dans E1 mais pas
CA
α1 e1 + . . . + αk ek + β1 f1 + . . . + βl fl + γ1 g1 + . . . + γm gm = 0E . (1.6)
N
les scalaires γ1 , γ2 , . . . , γm sont nuls. Le reste de l’équation (1.6) devient
LA
α1 e1 + . . . + αk ek + β1 f1 + . . . + βl fl = 0E .
Or, la famille {e1 , . . . , ek , f1 , . . . , fl } est libre, donc tous les scalaires α1 , . . . , αk , β1 , . . . , βl sont nuls.
Par conséquent, la famille BE1 +E2 est libre, donc c’est une base de E1 + E2 . On en déduit alors que
dim(E1 + E2 ) = k + l + m. En utilisant maintenant le fait que dim(E1 E2 ) = k, dim(E1 ) = k + l,
T
B
dim(E2 ) = k + m, on obtient dim(E1 + E2 ) = dim(E1 ) + dim(E2 ) − dim(E1 E2 ). r
T
3
SA
Exercice 1.7 Soient v1 = (1, 0, 0, 1), v2 = (0, 0, 1, 0), v3 = (0, 1, 0, 0), v4 = (0, 0, 0, 1) et v5 = (0, 1, 0, 1)
des vecteurs dans R4 .
1. Vect{v1 , v2 } et Vect{v3 } sont-ils supplémentaires dans R4 ?
2. Vect{v1 , v2 } et Vect{v4 , v5 } sont-ils supplémentaires dans R4 ?
CA
Solution.
1. Par absurde, on suppose que Vect{v1 , v2 } et Vect{v3 } sont supplémentaires dans R4 . Autrement
M
dit
(
Vect{v1 , v2 } Vect{v3 } = {(0, 0, 0, 0)}
T
R = Vect{v1 , v2 } ⊕ Vect{v3 } ⇔
4
4 = dim(R4 ) = dim(Vect{v1 , v2 }) + dim(Vect{v3 }).
SA
4 = dim(Vect{v1 , v2 }) + dim(Vect{v3 }) ≤ 3.
EN
Ce qui est impossible. Donc Vect{v1 , v2 } et Vect{v3 } ne sont pas supplémentaires dans R4 . r
3
2. Calculons Vect{v1 , v2 } Vect{v4 , v5 }. Soit (a, b, c, d) ∈ Vect{v1 , v2 } Vect{v4 , v5 }. Alors
T T
(
(a, b, c, d) = λ1 v1 + λ2 v2
(a, b, c, d) = λ4 v4 + λ5 v5
CA
\
Vect{v1 , v2 } Vect{v4 , v5 } = {(0, 0, 0, 0)}.
De plus, les deux vecteurs v1 et v2 sont linéairement indépendants. Alors dim Vect{v1 , v2 } = 2.
De la même manière, les deux vecteurs v4 et v5 sont linéairement indépendants. Ce qui implique
que dim Vect{v4 , v5 } = 2. Ainsi R4 = Vect{v1 , v2 } ⊕ Vect{v4 , v5 }. r
3
N
3. Cherchons Vect{v1 , v3 , v4 } Vect{v2 , v5 }. Soit (a, b, c, d) ∈ Vect{v1 , v3 , v4 } Vect{v2 , v5 }. Alors
T T
LA
(
(a, b, c, d) = (λ1 , λ3 , 0, λ1 + λ4 )
(a, b, c, d) = (0, λ5 , λ2 , λ5 ),
B
SA
CA
M
SA
EN
23
Chapitre 2
CA
Applications linéaires
N
LA
A
p pli cati on s lin éair e
s L a stru ctur e d' e
s p a ce vectori el n e d evi ent vr aim ent intér e
s-
s ante qu e si l on intr oduit la n oti on d' a p pli cati on lin éair e. Il s' a git d e
s a p pli cati on s entr e
e
s p a ce
s vectori el
s qui, d an s un s en s qu e n ou s allon s pr éci s er, con s ervent la stru ctur e
d' e
s p a ce vectori el.
B
SA
D an s ce c
h a pitr e, qui e
st un p eu l axe d e tout le r e
ste du cour s, n ou s allon s d onn er
e
s s enti ellem ent le
s d éfiniti on s et le
s r é
sultat
s élém entair e
s d e ba s e.
CA
L’ensemble des applications linéaires de E dans E 0 est noté LK (E, E 0 ) ou plus simplement, L(E, E 0 ).
SA
Remarque 2.1 Si f est linéaire, on a : f (0E ) = 0E 0 . Il suffit, en effet, de faire λ = 0 dans f (λx) = λf (x).
Certains types d’applications linéaires sont particulièrement importants ; nous y reviendrons largement
dans la suite. En voici les définitions :
EN
Définition 2.2
1. On appelle endomorphisme de E, une application linéaire de E dans E (même espace de départ
et d’arrivée). L’ensemble des endomorphismes de E est noté EndK (E ) ou, plus simplement
End(E ) ou encore LK (E ) ou L(E ).
2. On appelle isomorphisme de E sur E 0 une application linéaire bijective de E dans E 0 . L’ensemble
des isomorphismes de E dans E 0 est noté par IsomK (E, E 0 ).
24
2.1. APPLICATIONS LINÉAIRES 25
3. On appelle automorphisme toute application linéaire bijective de E dans E. L’ensemble des
automorphisme est noté par AutK (E ).
Exemple 2.1
f : E −→ E 0
v 7−→ 0E 0
CA
est une application linéaire dite application nulle.
Exemple 2.2
idE : E −→ E
v 7−→ v
N
est un endomorphisme de E dit identité sur E.
Exemple 2.3
LA
f: R3 −→ R2
(x1 , x2 , x3 ) 7−→ (2x1 + x2 , x2 − x3 )
est une application linéaire. En effet, si v = (x1 , x2 , x3 ) et w = (y1 , y2 , y3 ), on a :
B
f (v + w ) = f ((x1 + y1 , x2 + y2 , x3 + y3 ))
= (2(x1 + y1 ) + (x2 + y2 ), (x2 + y2 ) − (x3 + y3 ))
= ((2x1 + x2 ) + (2y1 + y2 ), (x2 − x3 ) + (y2 − y3 ))
SA
= f (v ) + f (w ).
f (λv ) = f ((λx1 , λx2 , λx3 )) = (2λx1 + λx2 , λx2 − λx3 )
= λ ( 2 x1 + x2 , x2 − x3 )
= λf (v ).
CA
f: R3 −→ R2
(x1 , x2 , x3 ) 7−→ (x21 − x2 , x2 + x3 )
n’est pas linéaire (ni 1, ni 2 de la Définition 2.1 ne sont satisfaites à cause du terme au carré).
M
Exemple 2.5 Soient C 0 ([0, 1], R) et C 1 ([0, 1], R) les espaces vectoriels des applications f : [0, 1] −→ R
respectivement continues et continues à dérivée continue. L’application :
SA
D (f + g ) = (f + g )0 = f 0 + g 0 = Df + Dg
D (λf ) = (λf )0
= λf 0
= λDf
CA
manière, on définit le projecteur sur E2 parallèlement à E1 , par
pr2 : E −→ E2
. (2.2)
x = x1 + x2 7−→ x2
N
B LA
SA
CA
Figure 2.1
Exercice 2.1 Montrer que prj est un projecteur ⇔ prj ◦ prj = prj , j = 1, 2.
M
v 7 → v + v0
−
n’est pas linéaire (noter, par exemple, que : tv0 (0) = v0 , 0).
Exercice 2.2
EN
1. Soit E = C ([0, 1], R) l’espace vectoriel des applications continues de [0, 1] dans R. Montrer que
l’application :
φ1 : E −→ E
f 7−→ F
Z x
où F (x) = f (t)dt, est un endomorphisme de E.
0
CA
δ : E −→ R
f 7−→ f (0)
est une application linéaire (elle est appelée fonctionnelle de Dirac).
N
2.2 Image et noyau. Image d’une famille de vecteurs
Proposition 2.1 Soit f : E −→ E 0 une application linéaire et F un sous-espace vectoriel de E. Alors
LA
f (F ) est un sous-espace vectoriel de E 0 . En particulier f (E ) est un sous-espace vectoriel de E 0 appelé
image de f et noté Im(f ). Sa dimension est appelée rang de f et est notée :
B
Démonstration. En effet, il esl clair que f (F ) ⊂ E 0 et f ( 0E ) = 0E 0 ∈ f (F ). De plus, pour tout
|{z}
SA
∈F
y1 , y2 ∈ f (F ); ils existent x1 , x2 ∈ F tels que
y1 = f (x1 ) et y2 = f (x2 ).
| {z }
∈F
y = f (x) avec x ∈ F ), alors pour tout λ ∈ K, on a : λy = λf (x) = f (|{z}
λx ); ainsi λy ∈ f (F ). r
3
∈F
Proposition 2.3 Soit f ∈ L(E, E 0 ). Alors f est injective si et seulement si ker f := {0E }.
Démonstration. Montrons que f est injective si et seulement si ker f := {0E }.
EN
— En effet, soient ker f = {0E } et x, y ∈ E tels que f (x) = f (y ). Cela implique que f (x) − f (y ) = 0E 0 ,
d’où f (x − y ) = 0E 0 . Ainsi x − y ∈ ker f = {0E } et donc x = y c’est-à-dire f est injective.
— Réciproquement, supposons que f est injective et soit x ∈ ker f , c’est-à-dire f (x) = 0E 0 . Puisque
f (0E ) = 0E 0 pour toute application linéaire, on a f (x) = f (0E ). Le fait que f est injective
implique x = 0E . On en déduit que ker f = {0E }.
D’où le résultat. r
3
CA
0
z = 3x + 2y − 4z
ker f est l’ensemble des triplets (x, y, z ) ∈ R3 qui vérifient le système :
x+y−z =0
2x + y − 3z =0
N
3x + 2y − 4z = 0.
On trouve facilement x = 2λ, y = −λ, z = λ; c’est-à-dire ker f est la droite vectorielle engendrée
LA
par le vecteur (2, −1, 1). Pour ce qui est de Imf , on a : (x0 , y 0 , z 0 ) ∈ Imf si et seulement si, il existe
(x, y, z ) ∈ R3 vérifiant le système :
= x0
x+y−z
= y0
B
2x + y − 3z
3x + 2y − 4z = z 0
SA
Il s’agit donc de savoir pour quelles valeurs de x0 , y 0 , z 0 . On a
x + y − z = x0 0
x+y−z = x
−y − z = y 0 − 2x0 ⇒ y + z = 2x0 − y 0
= z 0 − 3x0 = 2x0 − y 0 + z 0 − 3x0
−y − z 0
CA
Exercice 2.3 Soient E un espace vectoriel et E1 et E2 deux sous espaces vectoriels de E tels que
E = E1 ⊕ E2 . Soient pr1 le projecteur sur E1 parallèlement à E2 et pr2 le projecteur sur E2 parallèlement
M
à E1 .
1. Montrer que prj ◦ prj = prj , ∀j = 1, 2 et pr1 ◦ pr2 = pr2 ◦ pr1 = 0.
2. Montrer que E = Im(prj ) ⊕ ker(prj ), ∀j = 1, 2.
SA
Solution.
1. Soient x ∈ E et j ∈ {1, 2}. Il est clair que prj , prj ◦ prj ∈ LK (E, Ej ). De plus, on a
EN
pr1 ◦ pr2 (x) = pr1 (x2 ) = 0; pr2 ◦ pr1 (x) = pr2 (x1 ) = 0.
D’où le résultat. r
3
que
prj (y ) = prj (prj (x)) = prj ◦ prj (x) = prj (x) = y = 0.
Par suite Im(prj ) ker(prj ) = {0}. Par ailleurs, il est clair que Im(prj ) + ker(prj ) ⊂ E. Mon-
T
trons que E ⊂ Im(prj ) + ker(prj ). Pour tout x ∈ E, on a x = prj (x) + x − prj (x) . En effet
| {z } | {z }
CA
∈Im(prj ) ker(prj )
prj (x − prj (x)) = prj (x) − prj (prj (x)) = prj (x) − prj (x) = 0.
N
Proposition 2.4 Soit f ∈ L(E, E 0 ) et {vj }j∈I une famille de vecteurs de E.
1. Si f est injective et la famille de {vj }j∈I est libre, alors la famille {f (vj )}j∈I de E 0 est libre.
LA
2. Si f est surjective et la famille {vj }j∈I est génératrice de E, alors la famille {f (vj )}j∈I est
génératrice de E 0 .
En particulier si f est bijective l’image d’une base de E est une base de E 0 .
Démonstration.
B
1. Supposons que la famille {vj }j∈I est libre et que f soit injective. Alors pour toute famille extraite
{vα1 , vα2 , . . . , vαq } la relation
SA
λ1 f (vα1 ) + . . . + λq f (vαq ) = 0 ⇒ f (λ1 vα1 + . . . + λq vαq ) = 0 ⇒ λ1 vα1 + . . . + λq vαq ∈ ker f .
λ1 vα1 + . . . + λq vαq = 0E
et puisque la famille {vj }j∈I est libre, on a λ1 = 0, . . . , λq = 0. Donc la famille {f (vj )}j∈I est
libre. r
3
2. Soit y ∈ E 0 quelconque ; puisque f est surjective, il existe x ∈ E tel que y = f (x). D’autre part
la famille {vj }j∈I est génératrice de E, ainsi, x s’écrit sous la forme
M
x = λ1 vα1 + . . . + λp vαp ,
d’où y = f (x) = λ1 f (vα1 ) + . . . + λp f (vαp ). Alors y est une combinaison linéaire d’éléments
de la famille {f (vj )}j∈I et, puisqu’il est choisi arbitrairement dans E 0 , la famille {f (vj )}j∈I est
SA
génératrice. r
3
Théorème 2.1 Deux espaces vectoriels de dimension finie sont isomorphes, si et seulement si, ils ont
même dimension.
EN
Démonstration. En effet, s’il existe un isomorphisme f : E −→ E 0 , l’image par f d’une base de E est
une base de E 0 , donc E et E 0 ont même dimension.
Réciproquement, supposons que dim E = dim E 0 et soient {e1 , . . . , en } et {e01 , . . . , e0n } deux bases
respectivement de E et E 0 . Considérons l’application f : E −→ E 0 construite de la manière suivante :
1. pour k = 1, . . . , n on pose : f (ek ) = e0k ;
Dans le cas où les espaces E et E 0 sont de dimension finie, les dimensions du noyau et de l’image de
l’application f sont liées par la relation donnée dans le théorème suivant, l’un des plus importants en
CA
Algèbre Linéaire :
N
dim E = rg(f ) + dim(ker f ). (2.4)
LA
Soit {w1 , . . . , wr } une base de ker f , et {v1 , . . . , vn−r } une famille de vecteurs telle que
{w1 , . . . , wr , v1 , . . . , vn−r } soit une base de E. Soit B = {f (v1 ), . . . , f (vn−r )}. Montrons que B est une
base de Imf .
1. B engendre Imf .
B
Soit, en effet y = f (x) ∈ Imf . Comme x ∈ E, alors x s’écrit sous la forme
x = a1 w1 + . . . + ar wr + b1 v1 + . . . + bn−r vn−r .
SA
On a donc :
y = f (a1 w1 + . . . + ar wr + b1 v1 + . . . + bn−r vn−r )
= a1 f (w1 ) + . . . + ar f (wr ) + b1 f (v1 ) + . . . + bn−r f (vn−r )
CA
donc
λ1 v1 + . . . + λn−r vn−r ∈ ker f .
Par conséquent, il existe a1 , . . . , ar ∈ K tels que :
SA
λ1 v1 + . . . + λn−r vn−r = a1 w1 + . . . + ar wr
c’est-à-dire :
λ1 v1 + . . . + λn−r vn−r − a1 w1 − . . . − ar wr = 0E .
EN
Puisque la famille {v1 , . . . , vn−r , w1 , . . . , wr } est libre, les coefficients de cette combinaison linéaire
sont tous nuls ; en particulier λ1 = 0, λ2 = 0, . . . , λn−r = 0, c’est-à-dire B est libre. r 3
Remarque 2.2
1. Si f est injective ⇒ ker f = {0E } ⇒ dim(ker f ) = 0 ⇒ dim E = rgf = dim(f (E )) ≤ dim E 0 .
Exercice 2.4
CA
1. Existe-t-il une application linéaire injective de R2 dans R ?
2. Existe-t-il une application linéaire surjective de R dans R2 ?
3. Existe-t-il une application linéaire f : R4 −→ R3 telle que ker f = Vect{(1, 2, 0, −3)} et
Imf = {(x, y, z ) ∈ R3 ; x − y + z = 0} ?
N
Ce théorème a un corollaire important. Pour montrer qu’une application linéaire est bijective, il faut
montrer qu’elle est injective et surjective ; cependant, dans le cas de dimension finie, si la dimension
LA
de l’espace de départ et celle de l’espace d’arrivée sont les mêmes, il suffit de démontrer l’une des deux
propriétés - soit l’injectivité, soit la surjectivité :
Corollaire 2.1 Soient f ∈ L(E, E 0 ), E et E 0 étant deux espaces vectoriels de même dimension finie.
(en particulier, par exemple, si f ∈ End(E ), avec E de dimension finie). Alors les propriétés suivantes
sont équivalentes :
1. f est injective.
B
SA
2. f est surjective.
3. f est bijective.
Démonstration. Il suffit, bien entendu de montrer que 1. est équivalent à 2. Comme on l’a vu f est
CA
injective si et seulement si ker f = {0E }. Puisque dim E = rgf + dim(ker f ); donc f est injective si et
seulement si dim E = rgf , c’est-à-dire dim E = dim(Imf ). Or, par hypothèse, dim E = dim E 0 , donc
f est injective si et seulement si dim(Imf ) = dim E 0 . Puisque Imf ⊂ E 0 cela équivaut à Imf = E 0 ,
c’est-à-dire f est surjective. r
3
M
SA
EN
B
SA
CA
M
SA
EN
32
Chapitre 3
CA
Matrices
N
3.1 Matrices
LA
Définitions 3.1
1. Soient p, n ∈ N∗ . On appelle matrice de type (p, n) à cœfficients dans K, un tableau A de p × n
éléments de K rangés sur p lignes et n colonnes :
B a11 a12 . . . a1n
SA
a21 a22 . . . a2n
A= .. .. ..
. . .
ap1 ap2 . . . apn
ou, en abrégé : A = (aij ) 1≤i≤p . Notons que le scalaire aij désigne l’élément de la i-ème ligne et
CA
1≤j≤n
de la j-ème colonne :
M
3. L’ensemble des matrices à p lignes et n colonnes est noté par Mp,n (K).
4. Si n = p, la matrice A est dite matrice carrée d’ordre n et l’ensemble des matrices carrées est
noté par Mn (K).
EN
Exemple 3.1
!
1 3 −1
1. ∈ M2,3 (R).
0 1 2
1 2−i 3+i
2. 0 1 + i i ∈ M3 ( C ) .
−i 2 1
33
34 CHAPITRE 3. MATRICES
3.1.1 Matrices carrées particulières
Définitions 3.2
1. Si p = 1. La matrice A = (a11 , a12 , . . . a1n ) ∈ M1,n (K) est dite matrice ligne de dimension 1 × n.
a11
a21
∈ Mp,1 (K) est dite matrice colonne de dimension p × 1.
2. Si n = 1. La matrice A =
CA
..
.
ap 1
3. Si aij = 0 dès que i , j, A est appelée matrice diagonale :
a11 ···
0 0
N
0
a22 ··· 0
A= ..
.. .. .. .
. . . .
LA
0 0 · · · ann
4. La matrice identité ou matrice unité est une matrice carrée avec des 1 sur la diagonale et des 0
partout ailleurs. Elle peut s’écrire diag(1, 1, . . . , 1). Puisque les matrices peuvent être multipliées à
la seule condition que leurs types soient compatibles, il y a des matrices unité de tout ordre. In est
B
la matrice unité d’ordre n et est donc définie comme une matrice diagonale avec
1 sur chaque en-
1 0 ... 0
SA
.
0 ..
!
1 0 0 1
trée de sa diagonale principale. Ainsi : I1 = 1 , I2 = , . . . , In = .
0 1 . .
.. 0 .. 0
0 ... 0 1
5. Si aij = 0 dès que i > j, A est appelée matrice triangulaire supérieure :
CA
a11 0 ···
0
SA
a21 a22 ··· 0
A=
.. .. ... .
..
. . .
an1 an2 · · · anp
EN
Exemple 3.2
1 2 3
1. La matrice T = 0 4 0 est triangulaire supérieure.
0 0 6
!
1 0
2. La matrice V = est triangulaire inférieure.
5 6
Proposition 3.1 Les matrices A = (aij ) et B = (bij ) de dimension n × p sont égales ssi aij = bij pour
tous i, j.
CA
Proposition 3.2 Sur l’ensemble Mp,n (K), on définit les deux lois suivantes :
1. L’addition : si A = (aik ) et B = (bik ), on note C = A + B, la matrice (cik ) telle que
cik = aik + bik , ∀i ∈ ~1, p, ∀k ∈ ~1, n.
N
2. Le produit par un scalaire : si A = (aik ) et λ ∈ K, on note λA la matrice (λaik ) c’est-à-dire la
matrice obtenue en multipliant tous les éléments de A par λ.
LA
Exemple 3.3
! ! !
2 −1 0 3 1 2 0 4 3 1 0 7
i) + = .
1 2 1 −1 3 1 −1 2 4 3 0 1
! !
2 −1 0 3 10 −5 0 15
ii) 5
1 2 1 −1
=
5 10 5 −5
B .
SA
Remarque 3.1
1. L’ensemble Mp,n (K) muni de ces deux lois est un espace vectoriel sur K.
2. L’élément neutre est la matrice dont tous les éléments sont nuls, dite matrice nulle et est notée
0Mp,n (K) ou tout simplement 0.
CA
CA
f ( e2 ) = a12 e01 + a22 e02 + . . . + ap2 e0p
..
. ...........................
f (en ) = a1n e01 + a2n e02 + . . . + apn e0p .
Définition 3.1 On appelle matrice de f dans les bases B1 = {e1 , . . . , en } et B2 = {e01 , . . . , e0p } la
N
matrice notée MB1 ,B2 (f ) appartenant à Mp,n (K) dont les colonnes sont les composantes des vecteurs
f (e1 ), . . . , f (en ) dans la base B2 par
LA
f (e1 ) f (e2 ) . . . f ( en )
e0 a11 a12 ... a1n
1 a11 a12 . . . a1n
0
e2 a21 a22 . . . a2n a21 a22 . . . a2n
MB1 ,B2 (f ) = .. .. .. .. = .
. .. .. .
. . . . . . .
e0p
Remarque 3.2
ap 1 ap 2
B ... apn ap 1 ap 2 . . . apn
SA
1. S’il n’y a pas d’ambiguïté possible, on écrira aussi M(f ) à la place de MB1 ,B2 (f ), mais il est clair
que la matrice associée à f dépend du choix des bases de E et E 0 .
2. Dans le cas où f est un endomorphisme, on peut choisir la même base B dans E considéré
comme espace de départ et d’arrivée. Dans ce cas, on notera MB (f ) au lieu de MB,B (f ).
CA
M (f + g ) = M (f ) + M (g )
M (λf ) = λM (f )
M est bijective.
SA
= (f + g )(e1 ), (f + g )(e2 ), . . . , (f + g )(en )
B2
= f (e1 ) + g (e1 ), f (e2 ) + g (e2 ), . . . , f (en ) + g (en )
B2
= f (e1 ), f (e2 ), . . . , f (en ) + g (e1 ), g (e2 ), . . . , g (en )
B2 B2
= MB1 ,B2 (f ) + MB1 ,B2 (g )
= M (f ) + M (g ).
CA
= λf (e1 ), λf (e2 ), . . . , λf (en )
B2
= λ f (e1 ), f (e2 ), . . . , f (en )
B2
= λMB1 ,B2 (f )
= λM (f ).
N
Donc M est linéaire. D’autre part M est surjective. Soient, en effet :
a11 . . . a1n
LA
a21 . . . a2n
∈ Mp,n (K)
A=
.. ..
. .
ap1 . . . apn
et f ∈ L(E, E 0 ) définie de la manière suivante
B
f (e1 ) = a11 e01 + a21 e02 + . . . + ap1 e0p
SA
... = ........................
f (en ) = a1n e01 + a2n e02 + . . . + apn e0p .
On prolonge, ensuite, f par linéarité sur E, c’est-à-dire, si
x = λ1 e1 + . . . + λn en ∈ E,
CA
on pose
f (x) = λ1 f (e1 ) + . . . + λn f (en ).
Il est clair que A = MB1 ,B2 (f ). Enfin M est injective. Soit en effet f ∈ ker M , ce qui implique
M (f ) = 0Mp,n (K) , autrement dit
f (e1 ) f (e2 ) . . . f (en )
M
e01 ...
0 0 0
e02
0 0 ... 0
MB1 ,B2 (f ) = .. .. .. .. .
SA
. . . .
e0p 0 0 ... 0
EN
c’est-à-dire f = 0. Donc f est injective. Par ailleurs, en utilisant le fait que L(E, F ) ' Mp,n (K), on
obtient
dim(L(E, F )) = dim(Mp,n (K)) = n × p.
CA
D’où le résultat.
Exemple 3.4 Soit E un espace vectoriel de dimension n et
idE : E −→ E
N
x 7−→ x.
LA
idE (ei ) = ei , ∀i ∈ ~1, n.
Donc
... 0
1 0
MB (idE ) = B
0
..
. 0
1
...
.
0 ..
.
0
SA
0 ... 0 1
Cette matrice est notée In ou tout simplement I et est appelée matrice unité de Mn (K).
pr1 : R2 −→ R2
(x, y ) 7−→ (x, 0).
M
SA
EN
Figure 3.1
Considérons la base canonique B = {e1 , e2 } de R2 avec e!1 = (1, 0) et e2 = (0, 1). On a pr1 (e1 ) = (1, 0) = e1
1 0
et pr1 (e2 ) = (0, 0) = 0e1 + 0e2 . Donc MB (pr1 ) = .
0 0
N CA
LA
Figure 3.2
!
1 0
On a f (e1 ) = e1 et f (e2 ) = −e2 . Donc MB (f ) = .
B 0 −1
Exemple 3.7 Dans le plan R2 rapporté à la base canonique B = {e1 , e2 }, on considère la rotation de
SA
centre O et d’angle θ. Comme le montre la Figure ci-dessous
CA
M
SA
Figure 3.3
EN
f: R3 −→ R2
(x, y, z ) 7−→ (x − y, z − y )
On a
CA
f (e01 ) = f (1, 0, 0) = (1, 0) = e1
f (e02 ) = f (0, 1, 0) = (−1, −1) = −e1 − e2
f (e03 ) = f (0, 0, 1) = (0, 1) = e2
Donc !
1 −1 0
MB2 ,B1 (f ) = .
N
0 −1 1
LA
3.2 Produit matriciel
Définition 3.2 Soient A = (aij ) ∈ Mp,n (K) et B = (bjk ) ∈ Mn,q (K). On appelle produit de matrices,
l’application :
Mp,n (K) × Mn,q (K) −→ Mp,q (K)
(aij ) , B
(bjk ) 7−→ C = (cik )
SA
où n
X
cik = ai1 b1k + ai2 b2k + . . . + ain bnk = aij bjk .
j =1
En d’autres termes, l’élément cik de la iième ligne et k ième colonne du produit C = AB est la somme
CA
des produits des éléments de la iième ligne de A par les éléments de même rang de la k ième colonne
de la matrice B. Brièvement, on dit que le produit de deux matrices s’effectue lignes par colonnes.
Voici le schéma de cette définition :
M
SA
EN
Figure 3.4
Exemple 3.9
! 2 0 1 0
2 −1 1
1. Soient A = et B = 1 1 2 2 . On a
1 0 2
CA
1 2 1 0
! 2 0 1 0 !
2 −1 1 4 1 1 −2
AB = 1 1 2 2 =
.
1 0 2 4 4 3 0
1 2 1 0
N
2 3 ! 2 3 ! 11
1 1
2. Soient A =
4 1 et B =
. On a AB =
4 1
=
7 .
3 3
LA
0 2 0 2 6
! !
2 −1 1 4 1
3. Soient A = et B = . Alors le produit AB n’est pas défini. Tandis que
1 0 2 0 2
BA l’est.
Remarque 3.4
B 0 0
!
SA
1. On peut avoir AB = 0 sans que A ou B soient nulles. Par exemple pour A = et
1 0
! !
0 0 0 0
B= . On a AB = .
0 1 0 0
2. AB = AC avec A , 0 n’implique pas nécessairement B = C (c’est-à-dire,! en général on ne peut
CA
!
0 0 0 0
pas simplifier par A, même si A , 0). Par exemple pour A = et B = et
1 0 0 1
!
0 0
C= . On a AB = AC et pourtant B , C.
1 1
3. En général, on a AB , BA (c’est-à-dire : la multiplication entre matrices n’est pas commutative).
M
! !
0 0 0 0
Par exemple pour A = et B = . On a AB , BA.
1 0 0 1
Proposition 3.5
SA
CA
Donc les lois de somme et de produit confèrent à Mn (K) une structure d’anneau unitaire non com-
mutatif.
N
Définition 3.3 Soient E un espace vectoriel de dimension n et B = {e1 , . . . , en } une base de E et
LA
x = x1 e1 + . . . + xn en
un vecteur de E. On appelle matrice de x dans la base B, la matrice colonne des composantes de x
dans la base B, i.e,
x1
MB (x) =
.
..
B xn
SA
notée aussi M (x).
Exemple 3.10 Dans R2 , on considère
! le vecteur x = 3e1 − e2 avec B = {e1 , e2 } est la base canonique
3
de R2 . Alors MB (x) = .
CA
−1
Proposition 3.6 Soient E et F deux espaces vectoriels sur K et soient B1 = {e1 , . . . , en } et B2 = {e01 , . . . , e0p }
deux bases de E et F respectivement. Pour toute application f ∈ LK (E, F ) et pour tout x ∈ E, on
a:
MB2 (f (x)) = MB1 ,B2 (f )MB1 (x),
M
ou plus brièvement
M (f (x)) = M (f )M (x).
a11 . . . a1n
SA
. ..
Démonstration : On a MB1 ,B2 (f ) = ..
, ce qui veut dire que :
.
ap1 . . . apn
p
a1i e1 + . . . + api e0p
0
aki e0k .
X
f ( ei ) = =
EN
k =1
On a
n n p p n
! p
aki e0k aki xi e0k = yk e0k .
X X X X X X
f (x) = f (x1 e1 + . . . + xn en ) = xi f (ei ) = xi =
i=1 i=1 k =1 k =1 i=1 k =1
| {z }
yk
CA
n
X
a1i xi
a11 . . . a1n x1 i=1
y1
. .. .
. .. = ..
.. .
MB1 ,B2 (f )MB1 (x) =
. . . .
= (3.2)
n
ap1 . . . apn xn X yp
api xi
N
i=1
LA
MB1 ,B2 (f )B1 M (x) = MB2 (f (x)).
Exemple 3.11 Soit le plan R2 rapporté à sa base canonique. Déterminer l’image du vecteur x = (3, 2)
π
par la rotation de centre O et d’angle .
6
B
SA
CA
Figure 3.5
On a
M
√ √
3−2
cos( π6 ) − sin( π6 ) 3
− 21 3
! ! !
3 2 3 2√ .
M (f (x)) = M (f ).M (x) = = √ =
sin( π6 ) cos( π6 )
2 1 3 2 3+2 3
SA
2 2 2
CA
Définition 3.4 Une matrice carrée A ∈ Mn (K) est dite inversible, s’il existe une matrice A0 ∈ Mn (K)
telle que
AA0 = A0 A = In .
La matrice A0 est dite inverse de A et est notée A−1 .
N
! !
1 2 3 −2
Exemple 3.12 La matrice A = est inversible et son inverse est A−1 = , comme
LA
1 3 −1 1
on le vérifie immédiatement en effectuant les produits AA−1 et A−1 A.
Remarque 3.6
B
1. Il existe des matrices non inversibles, par exemple la matrice nulle. Mais la matrice nulle n’est
pas la seule matrice non inversible.
SA
! !
1 0 x y
2. Considérons par exemple la matrice A = . S’il existait une matrice A0 = telle
0 0 z t
! ! ! ! !
1 0 x y 1 0 x y 1 0
que AA0 = I2 , on aurait = c’est-à-dire = ce
0 0 z t 0 1 0 0 0 1
CA
En fait, les matrices inversibles sont les matrices qui représentent les applications linéaires bijectives.
On a en effet :
Proposition 3.8 Soient E et F deux espaces vectoriels de dimension n sur le même corps K et soient
M
B1 = {e1 , . . . , en } une base de E et B2 = {e01 , . . . , e0n } une base de F . Une application linéaire
f : E −→ F est bijective (c’est-à-dire est un isomorphisme) si et seulement si MB1 ,B2 (f ) est inversible.
De plus, on a
SA
−1
MB1 ,B2 (f ) = MB2 ,B1 (f −1 ),
ou, d’une manière plus concise
M (f −1 ) = M (f )−1 .
EN
Démonstration : On a f −1 ◦ f = idE ; d’où MB1 ,B1 (f −1 ◦ f ) = MB1 ,B1 (idE ). Donc, d’après la Proposition
3.7, on a
MB2 ,B1 (f −1 )MB1 ,B2 (f ) = In .
De même, on voit que
MB1 ,B2 (f )MB2 ,B1 (f −1 ) = In .
CA
X 0 = AX. (3.3)
Si A est inversible, en multipliant les deux membres à gauche par A−1 , on obtient
N
c’est-à-dire X = A−1 X 0 . Donc A−1 est la matrice du système obtenu en résolvant le système (3.3) en
LA
les composantes xi de x.
!
1 2
Exemple 3.13 Calculer l’inverse de la matrice A = .
1 3
x01 x01
! ! ! ! !
x1 1 2 x1
Écrivons l’équation matricielle (3.3) avec X = et X 0 = . On a =
ce qui est équivalent au système ( B x2
x01 = x1 + 2x2
x02 x02 1 3 x2
SA
x02 = x1 + 3x2 .
En résolvant en x1 et x2 , on trouve
x1 = 3x01 − 2x02
(
x2 = −x01 + x02 ,
CA
c’est-à-dire !
3 −2
X= X 0.
−1 1
!
3 −2
Donc A−1 = .
−1 1
M
Démonstration : On a
et
B −1 A−1 AB = B −1 (A−1 A)B = B −1 In B = B −1 B = In .
Donc (AB )−1 = B −1 A−1 .
Définition 3.5 L’ensemble des matrices inversibles de Mn (K) est noté GL(n, K) et est dit groupe
linéaire.
CA
3.3.1 Matrice de passage
Soient E un espace vectoriel de dimension n et B1 = {e1 , . . . , en } et B2 = {e01 , . . . , e0n } deux bases
de E. Les vecteurs e0i s’écrivent comme combinaisons linéaires des vecteurs ei :
e01 = p11 e1 + p21 e2 + . . . + pn1 en
N
e02 = p12 e1 + p22 e2 + . . . + pn2 en
... ...........................
LA
e0n = p1n e1 + p2n e2 + . . . + pnn en .
Définition 3.6 On appelle matrice de passage de la base B1 = {e1 , . . . , en } à la base B2 = {e01 , . . . , e0n },
la matrice notée PB1 →B2 et est définie par
p11 p12 . . . p1n
B
PB1 →B2 = MB2 ,B1 (idE ) =
p21 p22 . . . p2n
..
.
..
.
..
.
.
SA
pn1 pn2 . . . pnn
On a, bien entendu PB1 →B2 = MB2 ,B1 (idE ) et PB2 →B1 = MB1 ,B2 (idE ).
Exemple 3.14 L’ensemble R2 muni de sa base canonique B1 = {e1 , e2 }. On pose e01 = 2e1 + 5e2 et
e02 = e1 + 7e2 . La matrice de passage de la base canonique B1 à la nouvelle base B2 = {e01 , e02 } est
CA
donnée par !
2 1
PB1 →B2 = .
5 7
Proposition 3.10
1. Propriété transitivité : PB1 →B2 PB2 →B3 = PB1 →B3 .
M
!
2 1
PB2 →B3 = .
−1 1
La matrice de passage de la base B1 à la base B3 = {v1 , v2 } est alors donnée par :
! ! !
2 1 2 1 3 3
PB1 →B3 = PB1 →B2 PB2 →B3 = = .
5 7 −1 1 3 12
X 0 = P −1 X.
CA
Démonstration. Soit x ∈ E de composantes (x1 , . . . , xn ) dans la base B1 = {e1 , . . . , en } et de compo-
santes (x01 , . . . , x0n ) dans la base B2 = {e01 , . . . , e0n }. Il est facile de déterminer les relations entre les xi
et x0i à l’aide de la matrice de passage PB1 →B2 . Notons
x01
N
x1
. 0 ..
.. = MB1 (x) et X : =
X :=
= MB2 (x) et P = PB1 →B2 .
.
x0n
LA
xn
On a
P X 0 = MB2 ,B1 (idE ) × MB2 (x) = MB1 (idE (x)) = MB1 (x) = X,
c’est-à-dire P X 0 = X, d’où X 0 = P −1 X.
B
Exemple 3.16 Soit R2 muni de deux bases : la base canonique B1 = {e1 , e2 } et la base B2 = {e01 , e02 }
SA
définie par
e01 = 2e1 + e2
(3.4)
e02 = 3e1 + 2e2 .
CA
!
2 3
Soit x = 2e1 + 3e2 . Pour calculer les composantes de x dans la base {e0 , e0 }.
1 2 On a P = et
1 2
! !
2 −3 2
P −1 = et X = . Donc
−1 2 3
! ! !
0 −1 2 −3 2 −5
M
X =P X= = .
−1 2 3 4
Alors, on a
A0 = Q−1 AP .
CA
On déduit via (3.5) et (3.6) que
A0 P −1 X = Q−1 AX.
Comme x est arbitraire, cela implique que
N
A0 P −1 = Q−1 A.
D’où
LA
A0 = Q−1 AP .
Corollaire 3.1 Soit f ∈ L(E ) et B1 = {e1 , . . . , en } et B2 = {e01 , . . . , e0n } deux bases de E. Notons
A = MB1 (f ), A0 = MB2 (f ) et P = PB1 →B2 . Alors, on a
B
A0 = P −1 AP .
Définition 3.7 Deux matrices A, A0 ∈ Mn (K) sont dites semblables, s’il existe une matrice inversible
SA
P ∈ Mn (K) telle que
A0 = P −1 AP .
Remarque 3.7 Il est clair que deux matrices semblables représentent le même endomorphisme en des
CA
bases différentes.
Exemple 3.17 Soit f l’endomorphisme de R3 est représenté dans la base canonique B1 = {e1 , e2 , e3 }
par la matrice
3 −1 1
A = MB1 (f ) = 0 2
0 .
M
1 −1 3
Déterminer la matrice A0 qui représente f dans la base {e01 , e02 , e03 }, où
SA
0 − 1
On a A = P AP avec P = 0 1 0 . Alors P −1 = PB2 →B1 . Il s’agit donc d’exprimer e1 , e2 et
−1 1 1
e3 dans la base {e01 , e02 , e03 }. Or
e01 = e1 − e3
e0 = e2 + e3
02
e3 = e1 + e3 .
CA
2
1 1 −1 2 0 0
1
Donc P −1 = 0 2 0 . En effectuant le produit A0 = P −1 AP , on trouve A0 = 0 2 0 .
2
1 −1 1 0 0 4
N
Remarque 3.8 Puisque A0 = M (f )B2 , ceci veut dire que f (e01 ) = 2e01 , f (e02 ) = 2e02 et f (e03 ) = 4e03 .
Comme d’ailleurs on le vérifie directement. On a, en effet
LA
f (e01 ) = f (e1 − e3 ) = f (e1 ) − f (e3 ).
Or f (e1 ) = 3e1 + e3 de même f (e3 ) = e1 + 3e3 . Donc f (e01 ) = 2e1 − 2e3 = 2e01 , etc.
B
SA
CA
M
SA
EN
B
SA
CA
M
SA
EN
50
Chapitre 4
CA
Déterminants
N
LA
L e prin ci p al intér êt d e
s d étermin ant
s e
st d e fournir d e
s con diti on s ex
pli cite
s d'in d é-
d e vecteur s e
st libr e ou n on et au s si la r é
s oluti on d e
s sy
stèm e
s lin éair e
s.
det : Mn (K) −→ K
A 7−→ det(A)
CA
de la manière suivante :
1. Si n = 1, c’est-à-dire si A = a , on pose det(A) = a.
2. Si n > 1, notons Aij la matrice obtenue de A en supprimant la ième ligne et la j ème co-
lonne (c’est-à-dire la ligne et la colonne qui passent par l’élément aij . On pose alors (puisque
M
det(A) = a11 (−1)1+1 det(A11 ) + . . . + a1k (−1)1+k det(A1k ) + . . . + a1n (−1)1+n det(A1n ).
SA
.
. .
an1 . . . ann
a11 . . . a1n
est noté, habituellement par
.. ..
.
. .
an1 . . . ann
51
52 CHAPITRE 4. DÉTERMINANTS
Exemple 4.1 On a
4 −2
3
= 4 × (−1)1+1 × 5 + (−2) × (−1)1+2 × 3 = 20 + 6 = 26.
5
a c
Plus généralement = ad − bc.
CA
b d
Exemple 4.2 On a
1 −2 3
1 −1 2 −1 2 1
1 × ( −1 ) 1 + 1 + (−2) × (−1)1+2 + 3 × (−1)1+3
N
2 1 −1 =
5 1 1 1 1 5
1 5 1
= (1 + 5) + 2(2 + 1) + 3(10 − 1) = 39.
LA
Exemple 4.3 On a
2 −1
0 1
0 −2 8 1 −2 8
0 −2
1
3
−2 4
3 5
8
2
4 −5
=
2 × ( −1 ) 1 + 1 3
4 B 5 2
4 −5
+ ( −1 ) × ( −1 ) 1 + 2
3
−2
5 2
4 −5
SA
1 0 8
1 0 −2
1+3
+0 × (−1) 3 3 2 + 1 × ( −1 ) 1 + 4 3 3 5
−2 4 −5 −2 4
4
!
5 2 3 2 3 5
CA
h i h i
= 2 2(−15 − 8) + 8(12 − 20) + (−25 − 8) + 2(−15 + 4) + 8(12 + 10)
h i
− (12 − 20) − 2(12 + 6)
= −55.
SA
CA
a11 . . . a1k . . . a1n
.. .. ..
a21 . . . a2k . . . a2n
. . .
2. = λ .. .. .. .
λaj 1 . . . λajk . . . λajn . . .
.. .. ..
an1 . . . ank . . . a1n
. . .
an1 . . . ank . . . a
N
nn
LA
3.
.. .. .. = ..
.. .. +
.. .. .. .
. . . . . . . . .
an1 . . . ank + bnk . . . ann an1 . . . ank . . . ann
an1 . . . bnk . . . ann
4.
a11 ... a1k ... a1n a11 . . . a1k . . . a1n
..
.
aj 1 + bj 1 . . . ajk + bjk . . .
..
. B ..
.
ajn + bjn a
= j1
..
.
. . . a
..
.
jk . . . a
..
.
jn
SA
.. .. .. ..
.. ..
. . .
. . .
an1 ... ank ... ann an1 . . . ank . . . ann
a11 . . . a1k . . . a1n
CA
.. .. ..
. . .
+ bj 1 . . . bjk . . . bjn
.. .. ..
. . .
an1 . . . ank . . . ann
M
Proposition 4.1 Si l’on échange entre elles deux colonnes ou deux lignes, le déterminant change de
SA
signe.
1 2 2 1
Exemple 4.4 On a = − .
3 8 8 3
EN
0 0 0 1 0
1 0 0 0 0
Exemple 4.5 Calculer ∆ =
0 0 0 0 1 .
0 1 0 0 0
0 0 1 0 0
CA
0 0 0 1 0
0 0 0 0 1
= −1.
Ces remarques permettent de démontrer le théorème principal, celui qui motive l’introduction de la
notion de déterminant.
N
Théorème 4.2 Soit A = (C1 , . . . , Cn ) ∈ Mn (K). Alors les vecteurs colonnes C1 , . . . , Cn de la matrice
A forment une base de Kn si et seulement si det(A) , 0.
LA
2 3 −2
Exemple 4.6 Soient v1 = 0 ; v2 = 1 et v3 = 2 trois vecteurs de R3 . Montrons que
−1 2 −3
B 2 3 −2
la famille {v1 , v2 , v3 } forme une base de R3 . On pose A = 0 1
−1 2 −3
2 . On a det(A) = −22 , 0.
SA
Alors la famille {v1 , v2 , v3 } est une base de R3 .
Définition 4.2 On appelle transposée d’une matrice A ∈ Mp,n (K) et de terme général, aij la matrice
notée t A ∈ Mn,p (K) obtenue en échangeant les lignes et les colonnes de même indice i de A i.e.,
A = (aij ) ⇔ t A = (aji ).
! 1 3
1 0 −2
. Alors t A = 0 4 .
M
1. t ( t A)
= A.
2. t (αA)
= α t A.
3. t (A + B ) = t A + t B.
EN
! 1 3
1 0 −2 t
Exemple 4.8 Soit A = . Alors A = 0 4
. De plus
3 4 6
−2 6
!
t 1 0 −2
( t A) = = A.
3 4 6
CA
!
2 1
Exemple 4.9 1. Soit A = = t A. Donc A est une matrice symétrique.
1 3
0 1 −2
2. Soit A = −1 0 3 . Il est clair que t A = −A. Donc A est une matrice antisymétrique.
N
2 −3 0
Remarque 4.3 Ou, d’une manière équivalente, (en prenant la contraposée) : Un déterminant est nul
LA
si et seulement si l’une des colonnes est combinaison linéaire des autres colonnes.
Théorème 4.3 Pour toute matrice A ∈ Mn (K), on a :
det( t A) = det(A).
Exercice 4.1 Soit A une matrice antisymétrique d’ordre impair. Montrer que det(A) = 0.
a11 . . . a1n
. ..
..
Solution. La matrice A = est antisymétrique, alors
SA
.
an1 . . . ann
−1 × a11 . . . −1 × a1n
t
A = −A = .. ..
.
. .
EN
−1 × an1 . . . −1 × ann
De plus, det(A) = det( t A) = det(−A) = (−1)n det(A), où n est l’ordre de la matrice A. Comme n
est impair, alors
det(A) = (−1)n det(A) = − det(A).
On en déduit que det(A) = 0. r
3
CA
. ..
..
Définition 4.4 Soit A = . ∈ Mn (K). On appelle cofacteur de l’élément aij le sca-
an1 . . . ann
laire :
cof (aij ) := (−1)i+j det(Aij )
N
où Aij est la matrice obtenue en supprimant la ième ligne et la j ème colonne.
1 0 −3
LA
Exemple 4.11 Soit A = 2 4 −2
.
5
− 1 3
4 −2 2 −2 2 4
Alors cof (1) = + = 10; cof (0) = − = 10 et cof (−3) = + = −22.
−1 3 5 3 5 −1
+ − + − + ...
... ... ... ... ... ...
det(A) = a1j cof (a1j ) + a2j cof (a2j ) + . . . + anj cof (anj ).
1 −2 3
EN
1 −1 2
Le calcul d’un déterminant ne présente pas de difficulté, mais il peut être très long. On utilise pour
cela la propriété suivante :
CA
Proposition 4.4 Le déterminant ne change pas si à une ligne (respect, à une colonne) on ajoute
une combinaison linéaire des autres lignes (respect, des autres colonnes). Autrement dit pour toute
matrice A ∈ Mn (K) ayant les colonnes C1 , C2 , . . . , Cn et des lignes L1 , L2 , . . . , Ln . On note A0 la
matrice obtenue par une des opérations élémentaires sur les colonnes et sur les lignes, qui sont :
n
λj Cj avec λj ∈ K (i , j ) et la matrice A0 est obtenue en ajoutant à une colonne
X
1. Ci ← Ci +
N
j =1
de A un multiple d’une autre colonne de A. Alors det(A0 ) = det(A).
LA
n
λj Lj avec λj ∈ K (i , j ). Alors le déterminant ne change pas.
X
2. Li ← Li +
j =1
Remarque 4.5 La méthode pratique pour le calcul des déterminants consiste à utiliser la propriété
ci-dessus de manière à faire paraître le plus possible de zéros sur les lignes ou sur les colonnes.
1 −2
1 −1
1 3 4
0 2 4
B
SA
Exemple 4.13 Calculer ∆ =
2 1 3 1 2 .
−1 0 1 1 3
1 −1 1 3
0
En utilisant les opérations élémentaires suivantes : L2 ← L2 − L1 ; L3 ← L3 − 2L1 et L4 ← L4 + L1 ,
on obtient
CA
M
1 −1 −1
0
5 1 −5 −6
SA
En développant selon la première colonne : ∆ = . En utilisant les opérations
−2 2 4 7
1 −1 1 3
élémentaires suivantes : C2 ← C2 + C1 et C3 ← C3 + C1 , on obtient
EN
CA
Théorème 4.6 Pour toutes matrices A, B ∈ Mn (K), on a
det(AB ) = det(A) det(B ).
Corollaire 4.1 Soit A ∈ Mn (K) est inversible si et seulement si det(A) , 0 et l’on a alors
N
1
det(A−1 ) = .
LA
det(A)
Démonstration : Supposons que A est inversible. Il existe alors A−1 ∈ Mn (K) telle que AA−1 = In ;
d’où det(AA−1 ) = det(In ) = 1 et par conséquent
det(A) det(A−1 ) = 1.
Corollaire 4.2 Soient A et A0 sont deux matrices semblables. Alors det(A) = det(A0 ).
Démonstration : En effet, puisque A0 = P −1 AP , on a
det(A) det(P )
det(A0 ) = det(P −1 AP ) = det(P −1 ) det(A) det(P ) = = det(A).
det(P )
M
Définition 4.5 La comatrice d’une matrice A ∈ Mn (K) est la matrice obtenue de A en remplaçant
chaque élément par son cofacteur et est notée com(A). La comatrice est aussi appelée matrice des
cofacteurs et est notée cof (A).
EN
! !
1 2 3 −4
Exemple 4.14 Soit A = . On a cof (A) = .
4 3 −2 1
Théorème 4.7 Soit A ∈ Mn (K). Alors, si A est inversible (c’est-à-dire det(A) , 0), on a
t cof (A)
A−1 = . (4.1)
det(A)
CA
t cof (A)
!
−1 1 3 −2
A = = .
det(A) 5 1 1
! !
a b 1 d −b
Plus généralement, si A = , ad − bc , 0, on a A−1 = .
N
c d ad − bc −c a
1 2 0
LA
Exemple 4.16 Soit A = −1 3 0 , on a det(A) = −3 − 2 = −5 , 0, donc A est inversible. Les
0 1 −1
cofacteurs des coefficients de la première ligne sont
3 1 −1 0 −1 3
cof (1) =
= −3, cof (2) = −
= −1, cof (0) =
= −1.
0
−1
Puisque φ est un isomorphisme, les vecteurs v1 , . . . , vn forment une base de E si et seulement si les
vecteurs φ(v1 ), . . . , φ(vn ), c’est-à-dire les composantes des vecteurs vi , forment une base de Kn et plus
généralement :
rg{v1 , . . . , vn } = rg{φ(v1 ), . . . , φ(vn )}.
EN
Théorème 4.8 Soit E un espace vectoriel de dimension n. Les vecteurs {v1 , . . . , vn } de E forment une
base si et seulement si
det(v1 , . . . , vn ) , 0,
où (v1 , . . . , vn ) désigne la matrice dont les colonnes sont les composantes des vecteurs v1 , . . . , vn dans
une base B = {e1 , . . . , en } (quelconque) de E.
CA
4.3.2 Comment reconnaître si une famille de vecteurs est libre
Définition 4.7 On appelle mineur d’ordre r d’une matrice A le déterminant d’une matrice d’ordre r
extraite de A obtenue en choisissant r lignes et r colonnes.
N
Exemple 4.18 Par exemple, en choisissant la 2ème et 3ème ligne et la 2ème et 4ème colonne dans la
matrice suivante
LA
1 2 7 3 2
3 4
0 5 1
2 1 3 6 1
2 1 −1 3 2
on obtient le mineur δ =
3 4
= 14.
B
SA
1 6
Théorème 4.9 Soient {v1 , . . . , vr } une famille de r vecteurs d’un espace vectoriel E de dimension n
CA
(r ≤ n) et A = (v1 , . . . , vr ) la matrice dont les colonnes sont les composantes des vecteurs v1 , . . . , vr
dans une base quelconque de E. La famille {v1 , . . . , vr } est libre si et seulement si on peut extraire de
A un mineur d’ordre r non nul.
1 0 1
2 1 5
M
Exemple 4.19 Les vecteurs v1 =
3 ,
v2 =
2
et v3 =
9
forment une famille libre de
3
4
−2
5 0 0
SA
3 4 −2
5 0 0
3 2 9
par exemple le mineur δ = 3 4
−2
= −210 est non nul.
5 0 0
CA
.. .. .. .. (4.2)
. . . .
an1 x1 + an2 x2 + . . . + anp xp = bn .
N
ii) Si b1 = b2 = . . . = bn = 0, on dit que le système (4.2) est homogène.
iii) Le système obtenu en remplaçant les bi par 0 :
LA
a11 x1 + a12 x2 + . . . + a1p xp = 0
a21 x1 + a22 x2 + . . . + a2p xp = 0
.. .. .. .. (4.3)
. . . .
an1 x1 + an2 x2 + . . . + anp xp = 0
(
x + 2y − 5z = 0
−x + 3y + 2z = 0.
Exemple 4.21
1. Le système
M
x + 2y − 3z + 4t = −3
3x − 6y + z + 5t = 11
2 y + 5z − t = 0
SA
2y + 5z − t = 0.
2. Le système
+ y − 3z = 11
2x
x − 4y + 9z = −2
−12x + 11y + 2z = −1
7x + 3y + z = 0
+ y − 3z =
2x 0
x − 4y + 9 z =
0
−12x + 11y + 2z = 0
7x + 3y + z = 0.
CA
4.4.1 Systèmes compatibles, systèmes équivalents
Définition 4.9 (Système compatible) On appelle une solution du système (4.2) tout p−uplet (x1 , . . . , xp )
de Rp vérfiant le système (4.2).
N
Exemple 4.22 Le système (
x + 2 y − 5z = 1
LA
(4.4)
−x + 3y + 2z = −9
est un système de 2 équations et 3 inconnues (x, y, z ). On a (2, −3, −1) est une solution de (4.4).
Définition 4.10 Un système est dit compatible, s’il admet au moins une solution, sinon on dit qu’il
est incompatible.
B
SA
Remarque 4.6 Il est clair que (0, 0, . . . , 0) ∈ Rp est une solution du système homogène (4.3), donc
(4.3) est toujours compatible.
Définition 4.11 (Systèmes équivalents) On dit que deux systèmes sont équivalents, s’ils ont le même
ensemble de solutions.
CA
a21 x1 + a22 x2 + . . . + a2n xn = b2
.. . (4.5)
.
= ..
an1 x1 + an2 x2 + . . . + ann xn = bn .
EN
CA
Autrement dit, Aj est la matrice obtenue en remplaçant la j ème colonne de A par le second membre
B. La règle de Cramer va nous permettre de calculer la solution du système dans le cas où det(A) , 0
en fonction des déterminants des matrices A et Aj .
N
Théorème 4.10 (Règle de Cramer).
Soit
AX = B (4.6)
LA
un système de n équations à n inconnues. On a trois cas se présentent :
1. Si det(A) , 0. Alors l’unique solution (x1 , x2 , . . . , xn ) du système (4.6) est donnée par :
det(Aj )
xj =
B det(A)
, 1 ≤ j ≤ n.
SA
2. Si det(A) = 0 et det(Aj ) = 0, ∀j ∈ ~1, n. Alors le système (4.6) admet une infinité des
solutions.
3. Si det(A) = 0 et ∃j0 ∈ ~1, n tel que det(Aj0 ) , 0. Alors le système (4.6) n’admet pas de
solution.
CA
On a
1 0 2 6 6 0 2 1 6 2
SA
A = −3 4 6 , B = 30 , A1 = 30 4 6 , A2 = −3 30 6 ,
−1 −2 3 8 8 −2 3 −1 8 3
1 0 6
EN
−1 −2 8
det(A1 ) 40 10 det(A2 ) 72 18
La solution est alors donnée par : x = = − = − , y = = = et
det(A) 44 11 det(A) 44 11
det(A3 ) 152 38
z= = = .
det(A) 44 11
CA
5 5
Donc le système admet une unique solution 4, 2, 3 .
Définition 4.13 Un système est échelonné si le nombre de coefficients nuls commençant une ligne
N
croît strictement ligne après ligne :
a1j1 xj1 + ... + ... + ... + . . . + a1p xp = b1
LA
a2j2 xj2 + + + . . . + a2p xp = b2
... ...
a3j3 xj3 + ... + . . . + a3p xp = b3
.. ..
. .
arjr xjr + . . . + arp xp = br
B
avec a1j1 , a2j2 , . . . , arjr des réels tous non nuls, appelés les pivots. Les éléments xj1 , xj2 , . . . , xjr sont
appelés des inconnues principales et les autres sont appelés les inconnues secondaires.
SA
Exemple 4.25
1. Pour le système (
2x + y − 2z + t = 7
CA
5z + 6t = −3
les éléments x et z sont les inconnues principales, y et t les inconnues secondaires.
2. Pour 3x + 2y − z = 1, x est une inconnue principale et les autres sont secondaires.
M
Définition 4.14 On appelle opération élémentaire une des trois opérations suivantes :
1. Echanger la iéme ligne et la j éme ligne. Autrement dit L ←→ L . i j
2. Multiplier une ligne Li par un scalaire non nul α. Autrement dit Li ←− αLi .
EN
3. Ajouter à une ligne Li une autre ligne Lj multipliée par un scalaire α. Autrement dit Li ←− Li + αLj
avec i , j.
CA
x + 5y = 3 ⇐⇒ 4y + z = −4 L2 ← L2 − L1
2x + y − z = 1 − y + z = −13 L3 ← L3 − 2L1
x + y − z = 7
⇐⇒ + 4y + z = −4
N
5
4 z = −14 L3 ← L3 + 41 L2
x = 7−y+z
⇐⇒ 4y = −4 − z = 19
LA
z = −16 L3 ← 43 L3
−63
x = 5 − 19
4 − 16 = 4
⇐⇒ y = 3−z = 19
4
z = −16.
B
Ainsi le système possède une unique solution − 63 19
4 , 4 , −16 .
SA
Exemple 4.27 On a
x + y + 3z + 2t = −2
x + y + 3z + 2t = −2
2x + 3y + 4z + t = −1 ⇐⇒ y − 2z − 3t = 3 L2 ← L2 − 2L1
CA
3x + 7y + z − 6t = 6 4y − 8z − 12t = 12 L3 ← L3 − 3L1
x + y + 3z + 2t = −2
⇐⇒ y − 2z − 3t = 3
L3 ← 41 L3
y − 2z − 3t = 3
x + y + 3z + 2t = −2
⇐⇒ y − 2z − 3t = 3
M
L3 ← L3 − L2
0 = 0
(
x + y = −2 − 3z − 2t
⇐⇒
y = 3 + 2z + 3t
SA
(
x = −2 − 3z − 2t − y
⇐⇒
y = 3 + 2z + 3t
(
x = −2 − 3z − 2t − 3 − 2z − 3t
⇐⇒
y = 3 + 2z + 3t
EN
x = −5 − 5z − 5t
⇐⇒ z, t ∈ R.
y = 3 + 2z + 3t
Alors le système admet une infinité de solutions (−5 − 5z − 5t, 3 + 2z + 3t, z, t) où z et t sont deux
paramètres quelconque.
+ y − z = 7
x
CA
x + 5y = 3
2x + y − z = 1
3x + y + z = −2.
On a
N
+ y − z = 7 x + − z = 7
x
y
x + 5y = 3 4y + z = −4 L2 ← L2 − L1
⇐⇒
LA
2x + y − z = 1
− y + z = −13 L3 ← L3 − 2L1
3x + y + z = −2 − 2y + 4z = −17 L4 ← L4 − 3L1
x + y − z = 7
4y + z = 3
⇐⇒ 3
4z = −12 L3 ← L3 − 41 L2
B
9
x = 5−y+z
3 1
2 z = −17 + 2 L4 ← L4 + 2 L2
SA
4y = 3 − z = 19
⇐⇒
z = −16 L3 ← 43 L3
−62
z = L4 ← 92 L4
27
−63
x = 5 − 19
4 − 16 =
CA
4
19
y = 3−z =
⇐⇒ 4
z = −16
−62
0 = 27 + 16 L4 ← L4 − L1 .
Donc le système est incompatible, ainsi l’ensemble des solutions est vide .
M
SA
EN