Vous êtes sur la page 1sur 331

Année

2020 – 2021
Universitaire

DUT Génie Electrique et Informatique Industrielle


UE33 - Mathématiques - module Ma3
UE43 - Probabilités & Statistiques - module M 4306 C

PARTIE 1 – Suites et Séries

UNIVERSITÉ POLYTECHNIQUE HAUTS DE FRANCE


INSTITUT UNIVERSITAIRE DE TECHNOLOGIE
DÉPARTEMENT GÉNIE ÉLECTRIQUE ET INFORMATIQUE INDUSTRIELLE
TABLE DES MATIÈRES

Table des matières


1 Séries en Z 3
1.1 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Produit de convolution . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Série en Z inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Application : Suites récurrentes . . . . . . . . . . . . . . . . . . . 10

2 Séries de Fourier 11
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 Résultats de convergence . . . . . . . . . . . . . . . . . . . . . . . 16

Page 2/ 18
PARTIE 1 – Suites et Séries

Cette partie est consacrée à l’étude de suites et de séries.

1 Séries en Z
Lorsqu’on traite un signal temporel, il arrive souvent qu’on n’ait accès qu’à
certaines de ses valeurs (e.g., celles aux temps nT , pour n ∈ N, et T > 0, appelé
période d’échantillonnage). Finalement, à partir d’un signal continu f (t), nous
ne pouvons parfois considérer qu’un signal discret numérique fn = f (nT ).
Nous allons voir ici un outil (utilisé en filtrage numérique, ainsi qu’en résolu-
tion d’équations récurrentes) permettant d’associer une fonction d’une variable
complexe z à ce type de signal discret.

Définition 1. La série en Z (ou la série de Laurent), associée à une


suite complexe (an )n∈N , est définie par :
+∞ +∞
1
Z(an )(z) = ∑ an z −n = ∑ an .
n=0 n=0 zn

Remarque 1. On a lim Z(an )(z) = a0 .


∣z∣→+∞

Faisons le lien avec les séries entières :

Remarque 2. Considérons une suite complexe (an )n∈N . On définit la série


entière associée par :
+∞
S(an )(z) = ∑ an z n .
n=0

Dans ce cas, nous avons que :

Z(an )(z) = S(an )(1/z).

Ainsi, à l’aide des propriétés sur les séries entières, on en déduit celles sur
les séries en Z.

Page 3/ 18
PARTIE 1 – Suites et Séries

Exemple 13. On pose a0 = 0, a1 = 1, an = 0 pour tout n ≥ 2 et bn = 0 pour


tout n ∈ N. Dans ce cas, on obtient la série trigonométrique cos(x).

Proposition 8. Si ∑n∈N ∣cn ∣ et ∑n∈N ∣c−n ∣ (ou ∑n∈N ∣an ∣ et ∑n∈N ∣bn ∣)
convergent, la série trigonométrique ∑n∈Z cn einx converge normalement sur
R. La fonction définie par :

S(x) = ∑ cn einx ,
n∈Z

est continue et (2π)-périodique.

Démonstration. On définit les fonctions fn (x) = cn einx . On remarque que ces


fonctions sont bornées dans C par ∣cn ∣. Or la série ∑n∈Z ∣cn ∣ converge par hy-
pothèse. Ainsi la série ∑n∈Z fn converge normalement par définition.
D’après les propriétés des séries de fonctions convergeants normalement,
on sait que la fonction S est continue. Enfin pour tout x ∈ R, on a :

S(x + 2π) = ∑ cn ein(x+2π) = ∑ cn einx e2inπ = ∑ cn einx = S(x),


n∈Z n∈Z n∈Z

ce qui implique la (2π)-périodicité de S.

Proposition 9. Si (cn )n∈N et (c−n )n∈N (ou (an )n∈N et (bn )n∈N ) sont réelles,
décroissantes et tendent vers 0, alors la série trigonométrique ∑n∈Z cn einx
converge simplement sur R ∖ {2πx, x ∈ Z}, et uniformément sur tout inter-
valle de la forme [2kπ + α, 2(k + 1)π − α], avec 0 < α < π et k ∈ Z.

Démonstration. Par périodicité, on va simplement montrer que la série converge


uniformément sur [α, 2π − α] pour tout α > 0 fixé. On pose pour tout n ∈ N :
n
En (x) = ∑ eikx .
k=0

Page 13/ 18
PARTIE 1 – Suites et Séries

1.1 Propriétés

Proposition 2. Linéarité
Soit (an )n∈N et (bn )n∈N deux suites complexes et α, β deux complexes. Dans
ce cas, on a :

Z(αan + βbn )(z) = αZ(an )(z) + βZ(bn )(z).

Exemple 3. Considérons deux suites définies par an = n et bn = 1 pour tout


n. Dans ce cas, on a :
2z z
Z(2an − bn )(z) = 2Z(an )(z) − Z(bn )(z) = 2
− ,
(z − 1) z−1

d’après les exemples précédents.

Proposition 3. Modulation
Soit (an )n∈N une suite complexe et q ∈ C∗ . On définit la suite (bn )n∈N par :

bn = q n an .

Dans ce cas, on a :
z
Z(bn )(z) = Z(an ) ( ) .
q

Exemple 4. Signal géométrique


Soit (an )n∈N la suite définie par an = 1 pour tout n. Prenons q ∈ C. On pose
alors bn = q n an = q n . D’après la propriété de modulation, on sait que :

z z/q z
Z(bn )(z) = Z(an ) ( ) = = .
q z/q − 1 z − q

Page 5/ 18
PARTIE 1 – Suites et Séries

Théorème 11. Égalité de Parseval (admis)


Soit f ∶ R → C une fonction T -périodique et continue par morceaux. Les
séries ∑n∈Z ∣cn (f )∣2 , ∑n∈N ∣an (f )∣2 et ∑n∈N∗ ∣bn (f )∣2 convergent et :

1 1 1 T
2 2 2 2 2
∑ ∣cn (f )∣ = ∣a0 (f )∣ + ∑ ∣an (f )∣ + ∑ ∣bn (f )∣ = ∫ ∣f (t)∣ dt.
n∈Z 2 n∈N∗ 2 n∈N∗ T 0

Théorème 12. Dirichlet


Soit f ∶ R → C une fonction T -périodique, de classe C 1 par morceaux, alors
pour tout x ∈ R, on a que :

f (x−) + f (x+)
Sf (x) = .
2
En particulier, si f est continue en x, alors Sf (x) = f (x).

Démonstration. Quitte à étudier la fonction g(t) = f (t + x), on peut supposer


que x = 0. Pour tout n ∈ N, on pose :
n n
2πk
sn (f ) = ∑ ck (f ) = ∑ ck (f ) exp [i 0] .
k=−n k=−n T
On souhaite donc montrer que la suite définie par un = sn − [f (0+) + f (0−)]/2
n
2πk
tend vers 0. En définissant le noyau de Dirichlet Dn (t) = ∑ exp [i t],
k=−n T
on vérifie que :
n n T /2 T /2
2πk
T sn = ∑ ck (f ) = ∑ ∫ f (t) exp [i t] dt = ∫ f (t)Dn (t)dt.
k=0 k=−n −T /2 T −T /2

On peut cependant calculer explicitement Dn (t) (étant donné qu’il s’agit d’une
somme de termes d’une suite géométrique) :
2π(2n+1)
2πn exp [i T t] − 1 sin[π(2n + 1)t/T ]
∀t ∈ R∖2πZ, Dn (t) = exp [−i t] = .
T exp [i 2π
T t] − 1
sin[πt/T ]

Page 17/ 18
PARTIE 1 – Suites et Séries

Exemple 6. Signal Dirac


On définit la suite Dirac en p ∈ N par :

0, si k ≠ p,
δp (k) = {
1, si k = p.

Elle est toujours nulle, sauf en k = p où elle vaut 1. Tout d’abord, on a :


+∞
Z(δ0 (n))(z) = ∑ δ0 (n)z −n = δ0 (0)z −0 = 1.
n=0

Ensuite, par une récurrence immédiate, on remarque que δp est la suite


retardée de p de la suite (δ0 (n))n∈N . D’après la formule de retard, on obtient
que :
Z(δp (n))(z) = z −p Z(δ0 (n))(z) = z −p .

Proposition 5. Avance
Soit (an )n∈N une suite complexe et k ∈ N∗ . La suite avancée de k de la
suite (an )n∈N est définie par bn = an+k . Dans ce cas, on a :
k−1
Z(bn )(z) = z k [Z(an )(z) − ∑ an z −n ] .
n=0

Exemple 7. On pose pour tout n, an = n. Soit (bn )n∈N la suite avancée de


z
1 de la suite (an )n∈N . On a déjà vu que Z(an )(z) = (z−1) 2 . Par la propriété

de l’avance, on sait que pour tout ∣z∣ > 1 :

Z(an+1 )(z) = Z(bn )(z),


0
z z2
= z [Z(an )(z) − ∑ an z −n ] = z [ − 0z −0
] = .
n=0 (z − 1)2 (z − 1)2

Page 7/ 18
TABLE DES MATIÈRES

Table des matières


1 Séries en Z 3

2 Séries de Fourier 4

Page 2/ 6
PARTIE 1 – Suites et Séries

Proposition 7. Soit (an )n∈N et (bn )n∈N deux suites complexes. On note Ra
et Rb les rayons de convergences des séries Z(an )(z) et Z(bn )(z). Dans ce
cas, pour tout ∣z∣ > max(Ra−1 , Rb−1 ), on a :

Z((a ∗ b)n )(z) = Z(an )(z)Z(bn )(z).

Exemple 9. On considère une suite (an )n∈N quelconque et la suite


(δp (n))n∈N . On définit cn = (a ∗ δp )n . Par les propriétés sur la convolution,
on a :
Z(cn )(z) = Z(an )(z)Z(δp (n))(z) = z −p Z(an )(z).
Remarquons que :
n
cn = ∑ δp (k)an−k .
k=0

Si n < p, dans ce cas δp (k) = 0 pour tout k ≤ n, puis cn = 0. Si n ≥ p, on


trouve cn = δp (p)an−p = an−p . Ainsi (cn )n∈N est la suite retardée de (an )n∈N
et on a bien retrouvé la formule associée. ATTENTION ! Ceci ne constitue
pas une preuve ! On a utilisé la formule de la série en Z d’une suite retardée
pour calculer Z(δp (n))(z) (il faudrait la calculer par un autre moyen).

1.3 Série en Z inverse

Définition 3. Soit (an )n∈N une suite complexe et Za (z) sa série en Z. La


série en Z inverse de Za (z), notée Z −1 (Za ), est la suite (an )n∈N .

On remarque que les séries en Z étudiées sont sous forme de fractions


rationnelles. Ainsi, si on veut inverser une série en Z, notée Z, on appliquera
une décomposition en éléments simples et on utilisera les formules de série en
Z usuelle, vues en cours.

Page 9/ 18
1.4 Application : Suites récurrentes

Exemple 10. On considère la fonction :

z2
Z1 (z) = .
z2 − 4
On cherche sa série en Z inverse. Pour cela, on va mettre Z1 (z) sous forme
de fractions rationnelles :
z 1 1
Z1 (z) = [ + ].
2 z−2 z+2
On définit deux signaux géométriques avec an = 2n et bn = (−2)n . Par le
formulaire du cours, on sait que :
z z
Z(an )(z) = , et Z(bn )(z) = .
z−2 z+2
Finalement, par linéarité, on obtient que :
an + bn
Z( ) (z) = Z1 (z).
2
Ainsi la série en Z inverse de Z1 est la suite (cn )n∈N définie par :

an + bn 2n + (−2)n 2n , si n est pair,


cn = = ={
2 2 0, si n est impair.

1.4 Application : Suites récurrentes


Étudions la suite définie par la récurrence suivante :


⎪ a0 = 0,


⎨ a1 = 1,



⎩ an+2 = an + 1.

Pour déterminer an en fonction de n, on va alors appliquer la série en Z à la
formule de récurrence et utiliser ses propriétés :
z
Z(an+2 )(z) = Z(an + 1)(z) = Z(an )(z) + Z(1)(z) = Z(an )(z) + .
z−1

Page 10/ 18
PARTIE 1 – Suites et Séries

Or la suite (an+2 )n∈N correspond à la suite avancée de 2 de (an )n∈N , ce qui


implique que :

Z(an+2 )(z) = z 2 [Z(an )(z) − a1 z −1 − a0 z −0 ] = z 2 Z(an )(z) − z.

Ainsi nous avons une formule pour Z(an )(z) :


z z
Z(an )(z) = 2
+ 2 .
(z − 1)(z − 1) z − 1

Trouvons la décomposition en élément simple de Z(an )(z) :


1 1 3 1 1 1
Z(an )(z) = + + .
4 z + 1 4 z − 1 2 (z − 1)2
Il nous reste à trouver :
◇ la série en Z inverse de (z − p)−1 , pour p ∈ C. On la note (cn )n∈N . On
remarque que :
z 1
Z((δ1 ∗ pn ))(z) = Z(δ1 )(z)Z(pn )(z) = z −1 = .
z−p z−p

Ainsi on a Z −1 ((z − 1)−1 ) = δ1 ∗ pn .


◇ la série en Z inverse de (z − 1)−2 . On vérifie que :

Z −1 ((z − 1)−2 ) = δ1 ∗ n.

Finalement, on a :

⎪ 0, si n = 0,
1 3 1 ⎪
an = δ1 ∗ (−1)n + δ1 ∗ 1 + δ1 ∗ n = ⎨ (−1)n−1 3 n−1
4 4 2
2 , si n > 0.

⎪ + +
⎩ 4 4

2 Séries de Fourier
Ici nous allons nous pencher sur une certaine forme de séries de fonctions :
les séries trigonométriques. Elles vont nous permettre d’approximer des fonc-
tions irrégulières (comme un signal en créneau) à l’aide de fonctions régulières
(somme de cos et de sin)

Page 11/ 18
2 - Séries de Fourier

4. Exprimez Sf (x) en fonction de I− (n) et de I+ (n).


5. Dans le cas où f est paire (i.e. Kg = Kd ), exprimez Sf (x).
6. Dans le cas où f est impaire (i.e. Kg = −Kd et Kc = 0), exprimez Sf (x).
Correction ▼ [010]

Page 6/ 6
PARTIE 1 – Suites et Séries

Exemple 13. On pose a0 = 0, a1 = 1, an = 0 pour tout n ≥ 2 et bn = 0 pour


tout n ∈ N. Dans ce cas, on obtient la série trigonométrique cos(x).

Proposition 8. Si ∑n∈N ∣cn ∣ et ∑n∈N ∣c−n ∣ (ou ∑n∈N ∣an ∣ et ∑n∈N ∣bn ∣)
convergent, la série trigonométrique ∑n∈Z cn einx converge normalement sur
R. La fonction définie par :

S(x) = ∑ cn einx ,
n∈Z

est continue et (2π)-périodique.

Démonstration. On définit les fonctions fn (x) = cn einx . On remarque que ces


fonctions sont bornées dans C par ∣cn ∣. Or la série ∑n∈Z ∣cn ∣ converge par hy-
pothèse. Ainsi la série ∑n∈Z fn converge normalement par définition.
D’après les propriétés des séries de fonctions convergeants normalement,
on sait que la fonction S est continue. Enfin pour tout x ∈ R, on a :

S(x + 2π) = ∑ cn ein(x+2π) = ∑ cn einx e2inπ = ∑ cn einx = S(x),


n∈Z n∈Z n∈Z

ce qui implique la (2π)-périodicité de S.

Proposition 9. Si (cn )n∈N et (c−n )n∈N (ou (an )n∈N et (bn )n∈N ) sont réelles,
décroissantes et tendent vers 0, alors la série trigonométrique ∑n∈Z cn einx
converge simplement sur R ∖ {2πx, x ∈ Z}, et uniformément sur tout inter-
valle de la forme [2kπ + α, 2(k + 1)π − α], avec 0 < α < π et k ∈ Z.

Démonstration. Par périodicité, on va simplement montrer que la série converge


uniformément sur [α, 2π − α] pour tout α > 0 fixé. On pose pour tout n ∈ N :
n
En (x) = ∑ eikx .
k=0

Page 13/ 18
2.2 Définitions

On reconnaît la somme des termes d’une suite géométrique (de raison eix ), ce
qui implique que pour tout x ∈ [α, 2π − α] :
1 − ei(n+1)x 2 1 1
∣En (x)∣ = ∣ ix
∣≤ ix
= ≤ .
1−e ∣1 − e ∣ ∣ sin(x/2)∣ sin(α/2)
Vérifions rapidement la relation suivante :
n n−1
∀x ∈ [α, 2π − α], Sn (x) = ∑ cn eikx = ∑ [ck − ck+1 ]Ek (x) + cn En (x).
k=0 k=0

On appelle cette écriture la transformation d’Abel de la série. La décrois-


1
sance de la suite (cn )n∈N , ajoutée à la majoration ∣En (x)∣ ≤ sin(α/2) , implique
que la série ∑k∈N [ck − ck+1 ]Ek (x) converge normalement sur [α, 2π − α].
1
Comme limn→+∞ cn = 0 et que ∣En (x)∣ ≤ sin(α/2) , la suite de fonctions
(cn En (x))n∈N converge uniformément vers 0. Finalement, on a montré que
la série de fonctions ∑n∈N cn einx converge uniformément sur [α, 2π − α]. Par
symétrie, on en déduit que la série ∑n∈N c−n e−inx converge aussi uniformément
sur [α, 2π−α]. Ainsi la série ∑n∈N cn einx converge uniformément sur [α, 2π−α].
On a donc montré la convergence sur ]0, 2π[.

2.2 Définitions

Définition 5. Soit f ∶ R → C une application T -périodique et continue par


morceaux sur R. On appelle coefficients de Fourier de f les nombres
complexes définis par :

1 T 2πn
∀n ∈ Z, cn (f ) = ∫ f (t) exp [−i t] dt,
T 0 T
et :
⎧ 1 T


⎪ a 0 (f ) = f (t)dt,
⎪ ∫


⎪ T 0
T
⎪ 2
⎨ ∀n ∈ N∗ , an (f ) = ∫ f (t) cos(2πnt/T )dt,


⎪ T 0T


⎪ ∗ 2

⎪ ∀n ∈ N , bn (f ) = ∫ f (t) sin(2πnt/T )dt.
⎩ T 0

Page 14/ 18
PARTIE 1 – Suites et Séries

D’après les remarques faites en Section 2.1, on sait que :

∀n ∈ N∗ , an (f ) = cn (f )+c−n (f ), et ∀n ∈ N∗ , bn (f ) = i[cn (f )−c−n (f )].

Remarque 4. Soit t0 ∈ R. La relation de Chasles implique que :


t0 +T 2πn T 2πn t0 +T 2πn
∫ f (t) exp [−i t]dt = ∫ f (t) exp [−i t] dt + ∫ f (t) exp [−i t] dt,
t0 T t0 T T T
T 2πn t0 2πn
= ∫ f (t) exp [−i t] dt + ∫ f (τ + T ) exp [−i (τ + T )] dτ,
t0 T 0 T
d’après le changement de variable t = τ + T . Par périodicité on sait que
f (τ + T ) = f (τ ). On trouve donc que :
t0 +T 2πn T 2πn t0 2πn
∫ f (t) exp [−i t] dt = ∫ f (t) exp [−i t] dt + ∫ f (τ ) exp [−i τ ] dτ,
t0 T t0 T 0 T
T 2πn
= ∫ f (t) exp [−i t] dt,
0 T
via la relation de Chasles. Ainsi pour la définition des coefficients de Fou-
rier, il suffit d’intégrer sur n’importe quel intervalle de longueur T .

Proposition 10. Considérons une fonction f continue par morceaux sur


R et T -périodique.
◇ Si f est paire, alors pour tout n ∈ N, les coefficients bn (f ) sont nuls.
◇ Si f est impaire, alors pour tout n ∈ N, an (f ) est nul.

Démonstration. Si f est paire, la fonction g(t) = f (t) sin(2πnt/T ) est impaire.


Finalement, par un changement de variable on a que :
2 T /2 2 0 2 T /2
bn (f ) = ∫ g(t)dt = ∫ g(t)dt + ∫ g(t)dt,
T −T /2 T −T /2 T 0
2 T /2 2 T /2 2 T /2
= ∫ g(−τ )dτ + ∫ g(t)dt = ∫ [g(τ ) + g(−τ )]dτ = 0.
T 0 T −T /2 T 0
De même, si f est impaire, alors la fonction h(t) = f (t) cos(2πnt/T ) est
aussi impaire. Par le même changement de variable on trouve que pour tout

Page 15/ 18
2.3 Résultats de convergence

n≠0 :

2 T /2 2 0 2 T /2
an (f ) = ∫ h(t)dt = ∫ h(t)dt + ∫ h(t)dt,
T −T /2 T −T /2 T 0
2 T /2 2 T /2 2 T /2
= ∫ h(−τ )dτ + ∫ h(t)dt = ∫ [h(τ ) + h(−τ )]dτ = 0.
T 0 T −T /2 T 0

Par la même méthode, on peut aussi vérifier que a0 (f ) = 0.

Définition 6. Soit f ∶ R → C une application T -périodique et continue par


morceaux sur R. Sa série de Fourier est la série trigonométrique :
2πn
Sf (x) = ∑ cn (f ) exp [i x] ,
n∈Z T
2πnx 2πnx
= a0 (f ) + ∑ [an (f ) cos ( ) + bn (f ) sin ( )] .
n∈N∗ T T

Exemple 14. La série de Fourier de la fonction f (x) = sin(x) est donnée


par :
1 1
Sf (x) = sin(x) = eix − e−ix .
2i 2i

2.3 Résultats de convergence


On notera ici que toute fonction continue par morceaux admet une limite
à gauche et à droite en tout point x, qu’on abrègera en :

f (x−) = lim− f (t), et f (x+) = lim+ f (t).


t→x t→x

Page 16/ 18
PARTIE 2 – Analyse Fonctionnelle

Proposition 2. (Propriétés de la fonction sh)


◇ La fonction sh est continue, impaire, avec sh(0) = 0 ;
◇ Pour tout x > 0, sh(x) > 0 ;
◇ Limites de la fonction sh :

lim sh(x) = −∞, et lim sh(x) = +∞ ;


x→−∞ x→+∞

◇ Croissances comparées :

sh(x) sh(x)
lim = lim = +∞.
x→−∞ x x→+∞ x

Démonstration. ◇ Comme exp est continue, sh l’est aussi. Par ailleurs,


pour tout x ∈ R, on a :

e−x − ex ex − e−x
sh(−x) = =− = −sh(x),
2 2
ce qui prouve l’imparité de sh. On en déduit aisément que sh(0) = 0.
◇ Soit x > 0. Comme exp est strictement croissante, on a :

ex > e−x , ce qui implique que sh(x) > 0.

◇ On sait que :

lim ex − e−x = lim ex − lim e−x = +∞,


x→+∞ x→+∞ x→+∞

implique bien que sh(x) tend vers +∞ quand x → +∞. Comme sh est
impaire, on a l’égalité suivante :

lim sh(x) = lim sh(−t) = − lim sh(t) = −∞.


x→−∞ t→+∞ t→+∞

◇ Nous avons :
sh(x) ex e−x 1 ex 1 et
lim = lim − lim = lim + lim = +∞.
x→+∞ x x→+∞ 2x x→+∞ 2x 2 x→+∞ x 2 t→−∞ t

Page 7/ 75
1.1 Fonctions Cosinus et Sinus Hyperboliques

À partie de l’imparité de la fonction sh, on a que :

sh(x) ch(t)
lim = lim = +∞.
x→−∞ x t→+∞ t

Remarque 1. Comme la fonction sh est impaire, on a :

∀x < 0, sh(x) < 0.

Proposition 3. Pour tout x ∈ R :

ch(x) > sh(x).

Il existe de nombreuses relations entre cos et sin, comme la formule d’Euler.


Voici la version associée aux fonctions hyperboliques :

Proposition 4. ("Formule d’Euler" – version hyperbolique)


Pour tout x ∈ R, on a :
◇ ch(x) + sh(x) = ex et ch(x) − sh(x) = e−x ;
◇ ch2 (x) − sh2 (x) = 1.

Démonstration. ◇ Il suffit d’utiliser les définitions de ch et de sh pour


démontrer ces deux points.
◇ À l’aide du premier point et d’une identité remarquable, on a :

ch2 (x) − sh2 (x) = [ch(x) − sh(x)][ch(x) + sh(x)],


= e−x ex = e−x+x = e0 = 1.

Page 8/ 75
PARTIE 2 – Analyse Fonctionnelle

Passons à la formule de Moivre version hyperbolique :

Proposition 5. ("Formule de Moivre" – version hyperbolique)


Pour tout x ∈ R, on a :

[ch(x) + sh(x)]n = ch(nx) + sh(nx).

Démonstration. D’après la version hyperbolique de la formule d’Euler, le membre


de gauche se simplifie par :

[ch(x) + sh(x)]n = [ex ]n = enx ,

qui est égal exactement au membre de droite, toujours par la formule d’Euler
version hyperbolique.

Proposition 6. (Formules de duplication)


Pour tout a, b ∈ R :

ch(a + b) = ch(a)ch(b) + sh(a)sh(b),


ch(a − b) = ch(a)ch(b) − sh(a)sh(b),
sh(a + b) = sh(a)ch(b) + sh(b)ch(a),
sh(a − b) = sh(a)ch(b) − sh(b)ch(a).

Démonstration. Tout d’abord, les définitions de ch et sh impliquent que :

ea + e−a eb + e−b ea − e−a eb − e−b


ch(a)ch(b) + sh(a)sh(b) = − ,
2 2 2 2
ea+b + ea−b + eb−a + e−a−b ea+b − ea−b − eb−a + e−a−b
= − ,
4 4
ea+b + e−(a+b)
= = ch(a + b).
2

Page 9/ 75
TABLE DES MATIÈRES

Table des matières


1 Séries en Z 3

2 Séries de Fourier 4

Page 2/ 6
PARTIE 1 – Suites et Séries (TD)

1 Séries en Z
Exercice 1. Signal Dirac
À l’aide d’un calcul direct, calculez la série en Z de la suite Dirac en p ∈ N.
Correction ▼ [001]

Exercice 2.
Calculez la série en Z des suites définies ci-dessous :
◇ an = n(n − 1) ;
◇ bn = (−1)n ;
◇ cn = sin(nω) pour ω ∈ R ;
◇ dn = 2−n−3 ;
◇ en = n2 .
Correction ▼ [002]

Exercice 3. Signal ch
ex +e−x
On définit la suite (an )n∈N par an = f (n) avec f (x) = 2 . Exprimez la
série en Z de (an )n∈N en fonction de f (1).
Correction ▼ [003]

Exercice 4.
On définit les suites (an )n∈N et (bn )n∈N par an = 1 et bn = (a ∗ a)n .
1. Calculez la série en Z de (bn )n∈N .
2. Montrez que bn = n + 1.
3. Déduisez-en la formule de la série en Z de la suite (cn )n∈N avec cn = n.
Correction ▼ [004]

Exercice 5.
Exprimez an en fonction de n avec a0 = a1 = 1 et an+2 − 2an+1 + an = 0.
Correction ▼ [005]

Page 3/ 6
2 - Séries de Fourier

Exercice 6. Somme des premiers carrés


On définit la suite récurrente suivante :

s0 = 0, et sn+1 = sn + (n + 1)2 .

1. Montrez par récurrence que pour tout n :


n
sn = ∑ k 2 .
k=0

2. Donnez la série en Z de (sn )n∈N .


3. Calculez Z[n(n + 1)(2n + 1)](z).
4. Déduisez-en sn en fonction de n.
Correction ▼ [006]

2 Séries de Fourier
Exercice 7. Fonction Porte
On définit la fonction 2-périodique suivante :

⎪ −1, si − 1 < x < 0,



f (x) = ⎨ 0, si x ∈ {−1, 0, 1},




⎩ 1, si 0 < x < 1.
Montrez l’égalité ci-dessous.
1 − (−1)n iπnx
∀x ∈ R, f (x) = ∑ e .
n∈Z iπn
n≠0

Correction ▼ [007]

Exercice 8. Fonction Dent de Scie


Soit f la fonction 2-périodique définie par :
x + 1, si − 1 ≤ x ≤ 0,
f (x) = {
1 − x, si 0 ≤ x ≤ 1.

Page 4/ 6
PARTIE 2 – Analyse Fonctionnelle

Exemple 27. Soit f (x) = arctan(x). On sait que f ′ (x) = 1


1+x2
admet le
développement limité suivant au voisinage de 0 à l’ordre n :

f ′ (x) =
1
= 1 − x2 + x4 + ⋯ + (−1)n x2n + o (x2n+1 ).
1 + x2 x→0

En intégrant cette formule, comme f (0) = 0, on a :

x3 x5 (−1)n x2n+1
arctan(x) = x − + +⋯+ + o (x2n+2 ).
3 5 2n + 1 x→0

Exemple 28. Soit f (x) = argsh(x). On sait que f ′ (x) = √ 1 2 admet le


1+x
développement limité suivant au voisinage de 0 à l’ordre n :

(α)2 4 (α)n 2n
f ′ (x) = √
1
= 1 + αx2 + x +⋯+ x + o (x2n+1 ).
1 + x2 2 n! x→0

En intégrant cette formule, comme f (0) = 0, on a :

αx3 (α)2 5 (α)n


argsh(x) = x + + x +⋯+ x2n+1 + o (x2n+2 ).
3 2×5 n!(2n + 1) x→0

Exemple 29. Soit f (x) = argth(x). On sait que f ′ (x) = 1


1−x2
admet le
développement limité suivant au voisinage de 0 à l’ordre n :

f ′ (x) =
1
= 1 + x2 + x4 + ⋯ + x2n + o (x2n+1 ).
1 − x2 x→0

En intégrant cette formule, comme f (0) = 0, on a :

x3 x5 x2n+1
argth(x) = x + + +⋯+ + o (x2n+2 ).
3 5 2n + 1 x→0

Finissons maintenant avec un exemple d’utilisation de la formule du quo-


sin(x)
tient. En effet, tan(x) = cos(x) est bien le quotient de deux fonctions admettant

Page 37/ 75
2 - Séries de Fourier

4. Exprimez Sf (x) en fonction de I− (n) et de I+ (n).


5. Dans le cas où f est paire (i.e. Kg = Kd ), exprimez Sf (x).
6. Dans le cas où f est impaire (i.e. Kg = −Kd et Kc = 0), exprimez Sf (x).
Correction ▼ [010]

Page 6/ 6
5 - Dérivées Partielles et Différentielles

Proposition 35. (admis)


Soit f, g ∈ L1 (R, C) continues. La fonction f ∗ g est bien définie, intégrable
et : +∞ +∞ +∞
∫ ∣f ∗ g∣(y)dy ≤ ∫ ∣f (y)∣dy ∫ ∣g(y)∣dy.
−∞ −∞ −∞
De plus, le produit scalaire est commutatif : f ∗ g = g ∗ f .

Proposition 36. (admis)


Soit f ∈ L1 (R, C) continue et ϕ à support compact (c’est-à-dire nulle en
dehors d’une boule) et de classe C 1 (R, C). La fonction f ∗ ϕ est dérivable
avec :
∀x ∈ R, (f ∗ ϕ)′ (x) = f ∗ (ϕ′ )(x).

Lien avec la transformée de Fourier

Proposition 37. (admis)


Soit f, g ∈ L1 (R, C) continues. La fonction f̂
∗ g est bien définie et :

∀ξ ∈ R, f̂
∗ g(ξ) = 2π f̂(ξ) ̂
g (ξ).

5 Dérivées Partielles et Différentielles


À partir de maintenant, jusqu’à la fin de la Partie 2, nous étudierons des
fonctions à plusieurs variables, et nous allons étendre des notions que nous
avons vues pour les fonctions à variables réelles.

Définition 12. Un ensemble U de Rn est un ouvert si pour tout x ∈ U , il


existe r > 0 tel que B(x, r) ⊂ U , avec B(x, r) la boule ouverte de centre x et
de rayon r.

Page 44/ 75
5.3 Différentielle

Notons ici que g(h) = o (∥h∥) signifie que :


∥h∥→0

∀ε > 0, ∃r > 0, B(0, r) ⊂ U et ∀h ∈ B(0, r), ∥g(h)∥ ≤ ε∥h∥.

Définition 18. Si f est différentiable sur U , on définit l’application diffé-


rentielle de f la fonction : df a ↦ dfa . Si df est continue, on dit que f est
de classe C 1 .

Exemple 44. Soit f ∶ R → Rm . Alors par la théorie des développements


limités, on sait que dfa (h) = f ′ (a)h.

Exemple 45. Si f ∶ Rn → Rm est linéaire, comme f (a + h) = f (a) + f (h),


l’unicité de la différentielle implique que dfa (h) = f (h).

Proposition 40. Une fonction différentiable en un point est continue en


ce point.

Démonstration. Soit f différentiable en a. Alors on a :

f (a + h) = f (a) + dfa (h) + o (∥h∥).


∥h∥→0

En faisant tendre h vers 0, on obtient que f (a + h) tend vers f (a) quand h


tend vers 0.

Proposition 41. Soit f, g ∶ U → Rm avec U ouvert de Rm . Si elles sont


toutes les deux différentiables en a ∈ U , alors f + g l’est aussi avec :

d(f + g)a = dfa + dga .

Page 50/ 75
PARTIE 2 – Analyse Fonctionnelle

6.4.1 Coordonnées Polaires . . . . . . . . . . . . . . . . . . . . . 71


6.4.2 Coordonnées Cylindriques . . . . . . . . . . . . . . . . . . 73
6.4.3 Coordonnées Sphériques . . . . . . . . . . . . . . . . . . . 74

Page 3/ 75
1 - Fonctions Hyperboliques

Dans cette partie, nous allons très souvent utiliser la fonction exp. Rap-
pelons qu’il s’agit de l’unique fonction de classe C 1 (R, R) (continue, dérivable
et de dérivée continue sur R) telle que :

exp′ (x) = exp(x), ∀x ∈ R,


{
exp(0) = 1.

On peut aussi la définir à l’aide d’une série entière :

+∞
xk
∀x ∈ R, exp(x) = ∑ .
k=0 k!

Ces deux définitions sont équivalentes. Enfin, il nous reste à énoncer la propriété
la plus importante de la fonction exp :

∀x, y ∈ R, exp(x + y) = exp(x) exp(y).

De cela, en découle l’écriture sous forme de puissance de la fonction exp. On


pose e = exp(1) 1 , et alors :

∀x ∈ R, exp(x) = ex .

Cela implique que exp(x) > 0, la stricte croissance de exp et :

lim exp(x) = 0, et lim exp(x) = +∞.


x→−∞ x→+∞

1 Fonctions Hyperboliques
Les fonctions hyperboliques sont définies de façon similaire aux fonctions
cos et sin, à l’aide de la fonction exp. Rappelons avant tout que :

eix + e−ix eix − e−ix


∀x ∈ R, cos(x) = , et sin(x) = .
2 2i
1. e ≈ 2.7182818284590452353602874713526624977572470936999595749669676277

Page 4/ 75
PARTIE 2 – Analyse Fonctionnelle

1.1 Fonctions Cosinus et Sinus Hyperboliques

Définition 1. La fonction cosinus hyperbolique, notée ch (ou cosh),


est définie sur R par :

ex + e−x
∀x ∈ R, ch(x) = .
2
La fonction sinus hyperbolique, notée sh (ou sinh), est définie sur R
par :
ex − e−x
∀x ∈ R, sh(x) = .
2

D’après les définitions, nous pouvons déjà énoncer des propriétés évidentes :

Proposition 1. (Propriétés de la fonction ch)


◇ La fonction ch est continue, paire, avec ch(0) = 1 ;
◇ Pour tout x ∈ R, ch(x) > 0 ;
◇ Limites de la fonction ch :

lim ch(x) = lim ch(x) = +∞ ;


x→−∞ x→+∞

◇ Croissances comparées :

ch(x) ch(x)
lim = −∞, et lim = +∞.
x→−∞ x x→+∞ x

Démonstration. ◇ Comme exp est continue, ch l’est aussi. Par ailleurs,


pour tout x ∈ R, on a :

e−x + ex
ch(−x) = = ch(x),
2
ce qui prouve la parité de ch. Enfin, comme exp(0) = 1, on en déduit
aisément que ch(0) = 1.

Page 5/ 75
1.1 Fonctions Cosinus et Sinus Hyperboliques

◇ Soit x ∈ R. Comme exp est strictement positive, on a bien :

ex + e−x
ch(x) = > 0.
2

◇ On sait que exp(x) diverge vers +∞ quand x → +∞, et converge vers 0


quand x → −∞. Ainsi :

lim ex + e−x = lim ex + lim e−x = +∞,


x→+∞ x→+∞ x→+∞

implique bien que ch(x) tend vers +∞ quand x → +∞. Comme ch est
paire, on a l’égalité suivante :

lim ch(x) = lim ch(−t) = lim ch(t) = +∞.


x→−∞ t→+∞ t→+∞

◇ Par croissances comparées, on sait que :

ex ex
lim = 0, et lim = +∞.
x→−∞ x x→+∞ x

Ainsi nous avons :

ch(x) ex e−x 1 ex 1 et
lim = lim + lim = lim − lim = +∞.
x→+∞ x x→+∞ 2x x→+∞ 2x 2 x→+∞ x 2 t→−∞ t

La parité de la fonction ch implique que :

ch(x) ch(−t) ch(t)


lim = − lim = − lim = −∞.
x→−∞ x t→+∞ t t→+∞ t

Page 6/ 75
PARTIE 2 – Analyse Fonctionnelle

Proposition 2. (Propriétés de la fonction sh)


◇ La fonction sh est continue, impaire, avec sh(0) = 0 ;
◇ Pour tout x > 0, sh(x) > 0 ;
◇ Limites de la fonction sh :

lim sh(x) = −∞, et lim sh(x) = +∞ ;


x→−∞ x→+∞

◇ Croissances comparées :

sh(x) sh(x)
lim = lim = +∞.
x→−∞ x x→+∞ x

Démonstration. ◇ Comme exp est continue, sh l’est aussi. Par ailleurs,


pour tout x ∈ R, on a :

e−x − ex ex − e−x
sh(−x) = =− = −sh(x),
2 2
ce qui prouve l’imparité de sh. On en déduit aisément que sh(0) = 0.
◇ Soit x > 0. Comme exp est strictement croissante, on a :

ex > e−x , ce qui implique que sh(x) > 0.

◇ On sait que :

lim ex − e−x = lim ex − lim e−x = +∞,


x→+∞ x→+∞ x→+∞

implique bien que sh(x) tend vers +∞ quand x → +∞. Comme sh est
impaire, on a l’égalité suivante :

lim sh(x) = lim sh(−t) = − lim sh(t) = −∞.


x→−∞ t→+∞ t→+∞

◇ Nous avons :
sh(x) ex e−x 1 ex 1 et
lim = lim − lim = lim + lim = +∞.
x→+∞ x x→+∞ 2x x→+∞ 2x 2 x→+∞ x 2 t→−∞ t

Page 7/ 75
1.1 Fonctions Cosinus et Sinus Hyperboliques

À partie de l’imparité de la fonction sh, on a que :

sh(x) ch(t)
lim = lim = +∞.
x→−∞ x t→+∞ t

Remarque 1. Comme la fonction sh est impaire, on a :

∀x < 0, sh(x) < 0.

Proposition 3. Pour tout x ∈ R :

ch(x) > sh(x).

Il existe de nombreuses relations entre cos et sin, comme la formule d’Euler.


Voici la version associée aux fonctions hyperboliques :

Proposition 4. ("Formule d’Euler" – version hyperbolique)


Pour tout x ∈ R, on a :
◇ ch(x) + sh(x) = ex et ch(x) − sh(x) = e−x ;
◇ ch2 (x) − sh2 (x) = 1.

Démonstration. ◇ Il suffit d’utiliser les définitions de ch et de sh pour


démontrer ces deux points.
◇ À l’aide du premier point et d’une identité remarquable, on a :

ch2 (x) − sh2 (x) = [ch(x) − sh(x)][ch(x) + sh(x)],


= e−x ex = e−x+x = e0 = 1.

Page 8/ 75
PARTIE 2 – Analyse Fonctionnelle

Passons à la formule de Moivre version hyperbolique :

Proposition 5. ("Formule de Moivre" – version hyperbolique)


Pour tout x ∈ R, on a :

[ch(x) + sh(x)]n = ch(nx) + sh(nx).

Démonstration. D’après la version hyperbolique de la formule d’Euler, le membre


de gauche se simplifie par :

[ch(x) + sh(x)]n = [ex ]n = enx ,

qui est égal exactement au membre de droite, toujours par la formule d’Euler
version hyperbolique.

Proposition 6. (Formules de duplication)


Pour tout a, b ∈ R :

ch(a + b) = ch(a)ch(b) + sh(a)sh(b),


ch(a − b) = ch(a)ch(b) − sh(a)sh(b),
sh(a + b) = sh(a)ch(b) + sh(b)ch(a),
sh(a − b) = sh(a)ch(b) − sh(b)ch(a).

Démonstration. Tout d’abord, les définitions de ch et sh impliquent que :

ea + e−a eb + e−b ea − e−a eb − e−b


ch(a)ch(b) + sh(a)sh(b) = − ,
2 2 2 2
ea+b + ea−b + eb−a + e−a−b ea+b − ea−b − eb−a + e−a−b
= − ,
4 4
ea+b + e−(a+b)
= = ch(a + b).
2

Page 9/ 75
1.2 Dérivation et Variations

Ensuite, on applique cette formule en remplaçant b par −b :


ch(a − b) = ch(a)ch(−b) + sh(a)sh(−b) = ch(a)ch(b) − sh(a)sh(b),
par parité de ch et imparité de sh. Passons aux formules vérifiées par sh. Par
la formule d’Euler version hyperbolique, on a :
sh(a + b) = ea+b − ch(a + b) = ea eb − ch(a)ch(b) − sh(a)sh(b),
= [ch(a) + sh(a)][ch(b) + sh(b)] − ch(a)ch(b) − sh(a)sh(b),
= ch(a)sh(b) + sh(a)ch(b).
On démontre le dernier point en appliquant la formule précédente, en rempla-
çant b par −b, et en utilisant la parité de ch et l’imparité de sh.

Remarque 2. Des formules de duplication, on obtient que pour tout x ∈ R :

ch(2x) = ch2 (x) + sh2 (x) = 2ch2 (x) − 1 = 1 + 2sh2 (x),

et :
sh(2x) = 2sh(x)ch(x).

1.2 Dérivation et Variations


Intéressons-nous maintenant à la régularité des fonctions ch et sh.

Proposition 7. Les fonctions ch et sh sont de classes C 1 (R, R). Par


ailleurs, on a :

∀x ∈ R, ch′ (x) = sh(x), et sh′ (x) = ch(x).

Démonstration. Comme exp est de classe C 1 (R, R), il est clair que ch et sh le
sont aussi. Ensuite, pour x ∈ R, on a :
ex − e−x ex + e−x
ch′ (x) = = sh(x), et sh′ (x) = = ch(x).
2 2

Page 10/ 75
PARTIE 2 – Analyse Fonctionnelle

À l’aide de l’expression des dérivées et des propriétés qu’on a déjà vues,


nous obtenons les tableaux de variations des fonctions ch et sh :

x −∞ 0 +∞

ch′ (x) − 0 +

+∞ +∞
ch(x)
1

x −∞ 0 +∞

sh′ (x) +

+∞
sh(x) 0
−∞

Proposition 8. La fonction ch est décroissante sur R− et croissante sur


R+ . La fonction sh est croissante sur R.

À l’aide de ces variations, nous avons donc une nouvelle inégalité satisfaite
par ch :

Proposition 9. Pour tout x ∈ R, ch(x) ≥ 1.

Page 11/ 75
1.2 Dérivation et Variations

Figure 1 – Graphes des fonctions ch (bleu) et sh (rouge).

Page 12/ 75
3 - Transformée de Fourier

Montrez que pour tout ξ :


1
f ′ (x) = [ΠT (x + T ) − ΠT (x − T )] .
2T

(c) En déduire la transformée de Fourier de f ′ puis de f .


Correction ▼ [019]

Exercice 20.
Soit a > 0. On définit la fonction :
1
f (x) = .
1 + a2 x2
On admettra que f ∈ L1 (R).
1. Montrez qu’il existe deux constantes b et c telles que :

b c
∀x ∈ R, f (x) = − ,
ix + a′ ix − a′
avec a′ = 1/a.
2. D’après l’exercice 18, quelle est la transformée de Fourier de la fonction :
1
f1 (x) = .
ix + a′

3. On admettra que la transformée de Fourier de la fonction f2 (x) = 1


ix−a′
est
donnée par :
0, si x ≥ 0,
f̂2 (ξ) = { √
− 2π exp(a x), sinon.

En déduire que pour tout ξ ≠ 0 :




f̂(ξ) = exp(−a′ ∣ξ∣).
2a
On admettra la formule pour ξ = 0.
4. Que vaut la transformée inverse de Fourier de la fonction f ?
Correction ▼ [020]

Page 8/ 45
1.3 Fonction Tangente Hyperbolique

Or e−2x tend vers 0, quand x → +∞. Cela implique donc bien que :
1−0
lim th(x) = = 1.
x→+∞ 1−0
Enfin, comme th est impaire, nous avons :
lim th(x) = lim th(−t) = − lim th(t) = −1.
x→−∞ t→+∞ t→+∞

Proposition 11. La fonction th est de classe C 1 (R, R), avec :

∀x ∈ R, th′ (x) =
1
= 1 − th2 (x).
ch (x)
2

Démonstration. Les fonctions sh et ch sont de classes C 1 (R, R) : la fonction


th l’est donc tout autant. De plus, pour x ∈ R, on a :
sh′ (x)ch(x) − sh(x)ch′ (x) ch(x)ch(x) − sh(x)sh(x)
th′ (x) =
1
= = 2 .
ch (x)
2
ch (x)
2
ch (x)
Cependant, on a aussi :
ch2 (x) sh2 (x)
th′ (x) = − = 1 − th2 (x).
ch2 (x) ch2 (x)

De là, nous obtenons les variations de la fonction th :

Proposition 12. La fonction th est une fonction (strictement) croissante


sur R. Ainsi pour tout x ∈ R, −1 < th(x) < 1.

Démonstration. On a montré que pour tout x ∈ R :

th′ (x) = 2
1
> 0.
ch (x)
Cela implique bien que la fonction th est croissante.

Page 14/ 75
PARTIE 2 – Analyse Fonctionnelle

Figure 2 – Graphe de la fonction th (rouge) et de ses asymptotes (bleu).

1.4 Fonctions Réciproques


On a vu que ch réalisait une bijection de R+ sur [1, +∞[, tandis que sh de
R sur R. Ainsi nous pouvons définir leur fonction réciproque :

Définition 3. La fontion argument cosinus hyperbolique, notée argch,


est définie sur [1, +∞[ par :

∀x ∈ [1, +∞[, argch(x) = y, tel que x = ch(y).

La fontion argument sinus hyperbolique, notée argsh, est définie sur


R par :
∀x ∈ R, argsh(x) = y, tel que x = sh(y).

Nous pouvons en fait les exprimer grâce à la fonction réciproque de exp,


c’est-à-dire log :

Proposition 13. Pour tout x ∈ R, on a :


√ √
argch(x) = log(x + x2 − 1), et argsh(x) = log(x + x2 + 1).

Démonstration. Comme ch(y)2 − sh2 (y) = 1, on a :

sh2 (argch(x)) = ch2 (argch(x)) − 1 = x2 − 1.

Page 15/ 75
5 - Dérivées Partielles et Différentielles

2. Montrez qu’il existe deux fonctions f et g (à déterminer) telles que 1 :


1
y(x) = √ (f ∗ g)(x).

3. Déduisez-en y(x).
Correction ▼ [023]

5 Dérivées Partielles et Différentielles


Exercice 24.
Calculez les dérivées partielles par rapport à x et par rapport à y des fonctions :
◇ f (x, y) = y 2 x3 + x − y ;
◇ g(x, y) = x3 + y 2 ;
◇ h(x, y) = sin(x) + cos(y).
Correction ▼ [024]

Exercice 25.
Calculez les dérivées partielles par rapport à x, à y et à z des fonctions :
◇ f (x, y, z) = ex + ey − ez ;
◇ g(x, y, z) = (x + y)e−z ;
◇ h(x, y, z) = 1
1+x2 +y 2 +z 2
.
Correction ▼ [025]

Exercice 26.
Donnez les dérivées partielles par rapport à x et à y de la fonction :

f (x, y) = (x + y, x − y).

Correction ▼ [026]

1. Pensez aux différentes transformées de Fourier que nous avons déjà calculées dans les
précédents exercices.

Page 10/ 45
PARTIE 2 – Analyse Fonctionnelle

Figure 3 – Graphe de la fonction ch (bleu) et de argch (rouge).


y

Figure 4 – Graphe de la fonction sh (rouge) et de argsh (bleu).

Page 17/ 75
1.4 Fonctions Réciproques

Passons à la dernière fonction réciproque : celle de th, qui est une bijection
entre R et ] − 1, 1[.

Définition 4. La fonction argument tangente hyperbolique, notée


argth, est définie sur ] − 1, 1[ par :

∀x ∈] − 1, 1[, argth(x) = y, tel que x = th(y).

On peut exprimer là-encore argth à l’aide de la fonction log, ainsi que sa


dérivée :

Proposition 15. Pour tout x ∈] − 1, 1[, on a :


1 1+x
argth(x) = log ( ).
2 1−x

La fonction argth est de classe C 1 (] − 1, 1[, R) avec :

∀x ∈] − 1, 1[, argth′ (x) =


1
.
1 − x2

Figure 5 – Graphe de la fonction th (rouge) et de argth (bleu).

Page 18/ 75
PARTIE 2 – Analyse Fonctionnelle

1.5 Développement en Série Entière

Grâce à la forme de la fonction exp en série entière, on obtient très rapide-


ment le résultat suivant :

Proposition 16. Pour tout x ∈ R, on a :


+∞ +∞
x2k x2k+1
ch(x) = ∑ , et sh(x) = ∑ .
k=0 (2k)! k=0 (2k + 1)!

Il existe aussi une forme en série entière de th, mais les coefficients sont
difficiles à exprimer.

Enfin, les dérivées des fonctions réciproques nous aident à avoir le dévelop-
pement de certaines.

Proposition 17. On définit pour tout k :


1 1 1 1
( ) = ( ) ( + 1) ⋯ ( + k − 1) .
2 k 2 2 2
Pour tout x ∈] − 1, 1[, on a :
+∞
1 (−1)k x2k+1
argsh(x) = ∑ ( ) .
k=0 2 k (2k + 1) k!

Proposition 18. Pour tout x ∈] − 1, 1[, on a :


+∞
x2k+1
argth(x) = ∑ .
k=0 2k + 1

Page 19/ 75
2 - Développements Limités

2 Développements Limités
Ici nous allons voir comment approcher certaines fonctions par des poly-
nômes. Pour cela, nous allons avoir besoin de la définition de voisinage d’un
point :

Définition 5. Un voisinage de x0 ∈ R est un ensemble contenant un seg-


ment de la forme : ]x0 − η, x0 + η[, avec η > 0.
Un voisinage de +∞ est un ensemble contenant un intervalle de la forme
]A, +∞[ pour A ∈ R.
Un voisinage de −∞ est un ensemble contenant un intervalle de la forme
] − ∞, A[ pour A ∈ R.

Exemple 1. Voici des exemples de voisinage de 0 :

] − 1, 1[, ] − 1, 1], [−1, 1[, [−1, 1], ] − π, e[,

] − 2, +∞[, ] − ∞, 3], ] − ∞, −10[∪[−0.1, 7[.

Exemple 2. Voici des exemples de voisinage de +∞ :

]3, +∞[, [3, +∞[, ] − ∞, +∞[, ] − 2713, −10[∪[257, +∞[.

Notation 1. On notera V(x0 ) l’ensemble des voisinages de x0 avec x0 ∈ R,


ou x0 = ±∞.

2.1 Comparaisons et Notations de Landau


Dans cette partie, nous considérons f ∶ I → R et g ∶ I → R deux fonctions
avec I un intervalle (borné ou non, mais non réduit à un singleton, et non vide)
de R.

Page 20/ 75
A - Fonctions Hyperboliques

A Fonctions Hyperboliques

Correction de l’exercice 1. ▲
On rappelle que :
ey + e−y
ch(y) = .
2
Nous allons utiliser cette formule pour y = 2 + kx :
2020
e2+kx + e−2−kx e2 2020 kx e−2 2020 −kx
C= ∑ = ∑ e + ∑ e ,
k=1 2 2 k=1 2 k=1
e2 2020 x k e−2 2020 −x k e2 x 1 − e2020x e−2 −x 1 − e−2020x
= ∑ (e ) + ∑ (e ) = e + e ,
2 k=1 2 k=1 2 1 − ex 2 1 − e−x
e2+x 1010x e−1010x − e1010x e−2−x −1010x e1010x − e−1010x
= e + e ,
1−e x 2 1 − e−x 2
1 1
= −e2+1011x sh(1010x) + e−2−1011x sh(1010x),
1 − ex 1 − e−x
sh(1010x)
= [e−2−1011x (1 − ex ) − e2+1011x (1 − e−x )] .
(1 − ex )(1 − e−x )

Remarquons que :

(1 − ex )(1 − e−x ) = 2 − e−x − ex = 2 − (e−x + ex ) = 2 − 2ch(x),

et que :
e−2−1011x (1 − ex ) − e2+1011x (1 − e−x ) = e−2−1011x − e2+1011x − e−2−1010x + e2+1010x ,
= −2sh(2 + 1011x) + 2sh(2 + 1010x).

Ainsi on a obtenu que :

sh(1010x)
C= [sh(2 + 1010x) − sh(2 + 1011x)] .
1 − ch(x)

Les formules de duplication impliquent que :

sh(2 + 1010x) − sh(2 + 1011x) = sh(2)ch(1010x) + ch(2)sh(1010x)


− sh(2)ch(1011x) − ch(2)sh(1011x).

Page 14/ 45
2.1 Comparaisons et Notations de Landau

Exemple 5. Pour tout x ∈] − 1, 1[, on a ∣x + 2∣ ≤ ∣x∣ + 2 ≤ 3. Ainsi on a


montré que x + 2 = O (1) (il suffit de prendre C = 3).
x→0

Exemple 6. On a (x + 2)2 = O (1). En effet, on a :


x→0

∀x ∈] − 1, 1[, ∣f (x)∣ = (x + 2)2 ≤ 9.

Il suffit donc de prendre C = 9 et V =] − 1, 1[.

Remarque 3. D’après la définition, si f (x) = O (g(x)), alors pour tout


x→x0
λ ∈ R non nul, on a aussi f (x) = O (λg(x)).
x→x0

Exemple 7. Si f (x) = O (2g(x)), alors f (x) = O (g(x)).


x→x0 x→x0

Remarque 4. De même, si f1 (x) = O (g1 (x)) et si f2 (x) = O (g2 (x)),


x→x0 x→x0
alors :
f1 (x) + f2 (x) = O (g1 (x)) + O (g2 (x)).
x→x0 x→x0

Exemple 8. On a vu que x2 = O (x) et que x3 = O (1). Donc on a :


x→0 x→0

x2 + x3 = O (x) + O (1).
x→0 x→0

Page 22/ 75
PARTIE 2 – Analyse Fonctionnelle

Remarque 5. Si f (x) = O (g(x)) et si h est une fonction non nulle, on


x→x0
a aussi h(x)f (x) = O (h(x)g(x)).
x→x0

Exemple 9. Si 1
2 f (x) = O (g(x)), alors on a :
x→x0

f (x) = O (2g(x)) = O (g(x)).


x→x0 x→x0

Remarque 6. Si f1 (x) = O (g1 (x)) et si f2 (x) = O (g2 (x)), alors la


x→x0 x→x0
définition de dominance implique que f1 (x)f2 (x) = O (g1 (x)g2 (x)).
x→x0

Négligeabilité

Exemple 10. Pour tout n, 0 = o (xn ).


x→0

Exemple 11. Soit n, k ∈ N. On pose f (x) = xn+k et g(x) = xn . Pour ε > 0,


on pose V =] − ε1/k , ε[. Dans ce cas, on a :

∀x ∈ V, ∣xk ∣ ≤ ε, ce qui est équivalent à ∣xn+k ∣ ≤ ε∣xn ∣.

On a donc montré que xn+k = o (xn ).


x→0

Remarque 7. Dire que f (x) = o (1), revient à ce que pour tout ε, il


x→x0
existe η > 0 tel que pour tout x ∈]x0 − η, x0 + η[, tel que ∣f (x)∣ ≤ ε. Il s’agit
donc de la définition de la convergence de f vers 0.

Page 23/ 75
2.1 Comparaisons et Notations de Landau

Exemple 12. Supposons que f (x) = L + o (1), pour L ∈ R. Dans ce cas,


x→x0
on a :
f (x) − L = o (1).
x→x0

D’après la remarque précédente, cela revient à dire que f (x) − L tend vers
0, quand x tend vers x0 :
lim f (x) = L.
x→x0

Remarque 8. D’après la définition, si f (x) = o (g(x)), alors pour tout


x→x0
λ ∈ R non nul, on a aussi f (x) = o (λg(x)).
x→x0

Remarque 9. De même, si f1 (x) = o (g1 (x)) et si f2 (x) = o (g2 (x)),


x→x0 x→x0
alors :
f1 (x) + f2 (x) = o (g1 (x)) + o (g2 (x)).
x→x0 x→x0

Remarque 10. À l’aide de la définition, si f (x) = o (g(x)) et si h est


x→x0
une fonction non nulle, on a aussi h(x)f (x) = o (h(x)g(x)).
x→x0

Remarque 11. Si f1 (x) = o (g1 (x)) et si f2 (x) = o (g2 (x)), alors


x→x0 x→x0
f1 (x)f2 (x) = o (g1 (x)g2 (x)).
x→x0

Exemple 13. Comme f (x) = x3 +3 tend vers 3 quand x tend vers 0, on sait
que x3 + 3 = o (1).On peut élever au carré cette égalité : (x3 + 3)2 = o (1).
x→0 x→0

Page 24/ 75
PARTIE 2 – Analyse Fonctionnelle

Équivalence

√ On pose h(x) = (x + 2) − 4 = x + 2x, et pour tout ε > 0, on


2 2
Exemple 14.
définit η = 2 1 + ε − 2. Dans ce cas, on a :

∀x ∈] − η, η[, ∣h(x)∣ = ∣x2 + 4x∣ ≤ x2 + 4∣x∣ ≤ η 2 + 4η = 4ε.

On a donc montré que h(x) = o (4), en prenant V =] − η, η[.


x→0

Exemple 15. Soit f (x) = (x+2)2 et g(x) = 4. On a montré, dans l’exemple


précédent, que f (x) − g(x) = o (g(x)). En particulier, on a :
x→0

f (x) ∼ 4.
x→0

ATTENTION .! On ne peut pas additionner les équivalents ! Par exemple,


on a :
x + 2 ∼ x + 1, et − x ∼ −x,
x→+∞ x→+∞

mais on a pas 2 ∼ 1 !!
x→+∞

Remarque 12. À l’aide de la définition, si f (x) ∼ g(x) et si h est une


x→x0
fonction non nulle, on a aussi h(x)f (x) ∼ h(x)g(x).
x→x0

Proposition 19. Si f1 (x) ∼ g1 (x) et si f2 (x) ∼ g2 (x), alors :


x→x0 x→x0

f1 (x)f2 (x) ∼ g1 (x)g2 (x), et ∀α ∈ R, [f1 (x)]α ∼ [g1 (x)]α .


x→x0 x→x0

Page 25/ 75
2.1 Comparaisons et Notations de Landau

Démonstration. Remarquons que, par définition, on a :

f1 (x) = g1 (x) + o (g1 (x)), et f2 (x) = g2 (x) + o (g2 (x)).


x→x0 x→x0

Faisons donc le produit :

f1 (x)f2 (x) = [g1 (x) + o (g1 (x))] [g2 (x) + o (g2 (x))] ,
x→x0 x→x0
= g1 (x)g2 (x) + g2 (x) o (g1 (x)) + g1 (x) o (g2 (x))
x→x0 x→x0
+ o (g1 (x)) o (g2 (x)),
x→x0 x→x0
= g1 (x)g2 (x) + o (g1 (x)g2 (x)).
x→x0

On a donc montré que f1 (x)f2 (x) − g1 (x)g2 (x) = o (g1 (x)g2 (x)), ce qui
x→x0
termine la preuve.

Exemple 16. Soit f (x) = x + 2 et g(x) = 2. Montrons que f (x) ∼ g(x).


x→0
On pose h(x) = f (x) − g(x) = x. Pour tout ε > 0, on a donc que :

∀x ∈] − 2ε, 2ε[, ∣h(x)∣ = ∣x∣ ≤ 2ε.

On vient de montrer que h(x) = o (2), puis que f (x) ∼ g(x).


x→0 x→0
Maintenant, on peut élever à la puissance, ce qui nous redonne le résultat :

(x + 2)2 ∼ 4.
x→0

Proposition 20. Si f /g est définie au voisinage de x0 , alors on a :

f (x)
f (x) ∼ g(x) ⇐⇒ lim = 1.
x→x0 x→x0 g(x)

Page 26/ 75
PARTIE 2 – Analyse Fonctionnelle

Démonstration. Il suffit de remarquer que :

f (x) ∼ g(x) ⇐⇒ ∀ε > 0, ∃V ∈ V(x0 ), ∀x ∈ V ∩ I, ∣f (x) − g(x)∣ ≤ ε∣g(x)∣,


x→x0
f (x)
⇐⇒ ∀ε > 0, ∃V ∈ V(x0 ), ∀x ∈ V ∩ I, ∣ − 1∣ ≤ ε,
g(x)
f (x)
⇐⇒ lim = 1.
x→x0 g(x)

ATTENTION .! Il ne faut jamais écrire f (x) = O (0), f (x) = o (0)


x→x0 x→x0
ou f (x) ∼ 0 ! Cela signifie que, sur un voisinage de x0 , f est NULLE !
x→x0

2.2 Définitions et Propriétés

Définition 7. Soit f ∶ I → R et supposons que 0 ∈ I. On dit que f admet


un développement limité à l’ordre n ∈ N au voisinage de 0 s’il existe
a0 , a1 , . . . , an ∈ R tels qu’au voisinage de 0 on ait :

f (x) = a0 + a1 x + ⋯ + an xn + o (xn ).
x→0

Plus généralement, si x0 ∈ I, f admet un développement limité à l’ordre


n ∈ N au voisinage de x0 s’il existe a0 , a1 , . . . , an ∈ R tels qu’au voisinage
de x0 on ait :

f (x) = a0 + a1 (x − x0 ) + ⋯ + an (x − x0 )n + o ((x − x0 )n ).
x→x0

Proposition 21. Le développement limité d’une fonction à l’ordre n au


voisinage de x0 est unique.

Page 27/ 75
2.2 Définitions et Propriétés

Démonstration. Supposons, par l’absurde, qu’on ait deux écritures différentes :

f (x) = a0 + ⋯ + an xn + o ((x − x0 )n ) = b0 + ⋯ + bn xn + o ((x − x0 )n ).


x→x0 x→x0

En faisant la différence, on obtient que :

(a0 − b0 ) + ⋯ + (an − bn )xn = a0 + ⋯ + an xn − (b0 + ⋯ + bn xn ),


= o ((x − x0 )n ) − o ((x − x0 )n ),
x→x0 x→x0
= o ((x − x0 ) ). n
x→x0

Étant donné que les deux développements limités sont supposés différents, on
note k ≥ n le plus grand entier tel que ak ≠ bk : pour tout j > k, on a aj = bj .
Finalement, on a :

(a0 − b0 ) + ⋯ + (ak − bk )xk = o ((x − x0 )n ).


x→x0

On divise cette égalité par (x − x0 )k :

a0 − b0 ak−1 − bk−1
+⋯+ + (ak − bk ) = o ((x − x0 )n−k ).
(x − x0 ) k x − x0 x→x0

On fait tendre x vers x0 , ce qui implique que ak − bk = 0 (car (x − x0 )n−k


converge quand x → x0 ), ce qui est impossible. On a donc bien unicité du
développement limité.

Proposition 22. Si f admet un développement limité à l’ordre n ≥ 1 au


voisinage de x0 , alors f (x0 ) = a0 , f et dérivable en x0 avec f ′ (x0 ) = a1 .

Démonstration. On note a0 , . . . , an les coeffificients du développement limité


à l’ordre n ≥ 1 de f . En particulier, on peut réduire le développement limité
de f en :
f (x) = a0 + a1 (x − x0 ) + o (x − x0 ).
x→x0

Page 28/ 75
PARTIE 2 – Analyse Fonctionnelle

Maintenant en faisant tendre x vers x0 , on a bien f (x0 ) = a0 . Maintenant,


voyons que :
f (x) − f (x0 ) f (x) − a0
= = a1 + o (1).
x − x0 x − x0 x→x0

Ainsi, ce quotient admet une limite quand x tend vers x0 : f est dérivable en
x0 et f ′ (x0 ) = a1 .

Exemple 17. Soit f (x) = (x + 2)2 . Dans ce cas, on a :

f (x) = 4 + 4x + x2 = 4 + 4x + x2 + o (x2 ).
x→0

On a obtenu un développement limité à l’ordre 2 de la fonction f en 0. On


a bien f (0) = 4 et f ′ (0) = 4. CEPENDANT, f ′′ (0) = 4 n’est pas égal au
coefficient a2 !

2.3 Formules de Taylor


Nous allons voir maintenant une méthode pour obtenir un développement
limité d’une fonction, si elle est suffisamment régulière.

Théorème 23. Formule de Taylor avec reste intégral


Si la fonction f ∶ I → R est (n + 1)-fois dérivable, alors f admet un déve-
loppement limité à l’ordre n donné par :

f (n) (x0 ) x (x − t)n


f (x) = f (x0 ) + f ′ (x0 )(x − x0 ) + ⋯ + (x − x0 )n + ∫ f (n+1) (t) dt.
n! x0 n!

Démonstration. Montrons cette formule par récurrence.


◇ Initialisation – n = 0 : On a bien, par définition de l’intégrale, que :
x
f (x) − f (x0 ) = ∫ f ′ (t) dt,
x0

Page 29/ 75
2.3 Formules de Taylor

◇ Hérédité : Supposons la propriété vraie au rang n − 1. Montrons la au


rang n. Soit f une fonction (n+1)-fois dérivable : elle est par conséquent
n-fois dérivable. Par hypothèse de récurrence sur f , on obtient :

f (n−1) (x0 ) x (x − t)n−1


f (x) = f (x0 ) + ⋯ + (x − x0 )n−1 + ∫ f (n) (t) dt.
(n − 1)! x0 (n − 1)!

Il suffit donc de montrer que :

x (x − t)n−1 (n) f (n) (x0 ) x (x − t)n


∫ f (t) dt = (x−x0 )n +∫ f (n+1) (t) dt.
x0 (n − 1)! n! x0 n!

En effectuant une intégration par partie, on obtient que :


x
x (x − t)n−1 (n) (x − t)n (n) x (x − t)n
∫ f (t) dt = [− f (t)] + ∫ f (n+1) (t) dt,
x0 (n − 1)! n! x0
x0 n!
f (n) (x0 ) x (x − t)n
= (x − x0 )n + ∫ f (n+1) (t) dt.
n! x0 n!

◇ On a donc montré le résultat par récurrence pour tout n ≥ 0.

Théorème 24. Formule de Taylor-Young


Si la fonction f ∶ I → R est n-fois dérivable en x0 ∈ I, alors f admet un
développement limité à l’ordre n en x0 donné par :

f (n) (x0 )
f (x) = f (x0 ) + f ′ (x0 )(x − x0 ) + ⋯ + (x − x0 )n + o ((x − x0 )n ).
n! x→x0

Démonstration. Nous allons le montrer que si f est (n + 1)-fois dérivable. Par


la formule de Taylor avec reste intégral, on a :

f (n) (x0 ) x (x − t)n


f (x) = f (x0 )+f ′ (x0 )(x−x0 )+⋯+ (x−x0 )n + ∫ f (n+1) (t) dt.
n! x0 n!

Page 30/ 75
PARTIE 2 – Analyse Fonctionnelle

Il suffit donc de montrer que :


x (x − t)n (n+1)
∫ f (t) dt = o ((x − x0 )n ).
x0 n! x→x0

Soit ε > 0 et η > 0 qu’on fixera plus tard. Supposons que x = x0 + h avec
h ∈] − η, η[. Dans ce cas, par le changement de variable s = t−x 0
h , on a :

x (x − t)n (n+1) 1 (1 − s)n


∫ f (t) dt = hn+1 ∫ f (n+1) (sh + x0 ) ds.
x0 n! 0 n!
Maintenant, nous avons :

1 (1 − s)n (n+1) 1 (1 − s)n


∣h ∫ f (sh + x0 ) ds∣ ≤ ∣h ∫ ∣f (n+1) (sh + x0 )∣ ds∣ ,
0 n! 0 n!
1 (1 − s)n
≤ M (η) ∣h ∫ ds∣ ,
0 n!

pour un certain M (η). En effet, on sait que la fonction f (n+1) est continue sur
[x0 − η, x0 + η] donc bornée sur cet intervalle, par une quantité qu’on note ici
M (η). Finalement, on obtient que :

x (x − t)n (n+1) M (η)η n


∣∫ f (t) dt∣ ≤ h .
x0 n! (n + 1)!

Étudions la fonction M (η) et montrons que c’est une fonction croissante. Si


η1 < η2 , alors [x0 − η1 , x0 + η1 ] ⊂ [x0 − η2 , x0 + η2 ] implique que :

∀x ∈ [x0 − η1 , x0 + η1 ], f (n+1) (x) ≤ M (η2 ),

ce qui revient à M (η1 ) ≤ M (η2 ).


Comme M (η) est bornée au voisinage de 0, on a que :

M (η)η
lim = 0.
η→0 (n + 1)!
M (η)η
On peut donc prendre η suffisamment petit pour que (n+1)! ≤ ε.

Page 31/ 75
2.4 Calculs sur les Développements Limités

2.4 Calculs sur les Développements Limités


Nous allons maintenant voir comment calculer des développements limités,
sans avoir forcément besoin de calculer les dérivées d’une fonction. Les pre-
mières viennent directement des premières propriétés, que nous avons vues sur
les fonctions négligeables.

Proposition 25. Somme, Produit


Soit f et g deux fonctions admettant un développement limité à l’ordre n
au voisinage de x0 :
n n
f (x) = ∑ ak (x − x0 )k + o ((x − x0 )n ), et g(x) = ∑ bk (x − x0 )k + o ((x − x0 )n ).
x→x0 x→x0
k=0 k=0

Alors les fonction f + g et f g admettent un développement limité à l’ordre


n au voisinage de x0 :
n
(f + g)(x) = ∑ (ak + bk )(x − x0 )k + o ((x − x0 )n ),
x→x0
k=0
n k
et, (f g)(x) = ∑ [∑ ak bk−l ] (x − x0 )k + x→x
o ((x − x0 )n ).
k=0 l=0 0

Proposition 26. Composée


Soit g ∶ I → R admettant un développement limité à l’ordre n au voisinage
de x0 et f ∶ J → R (aec g(I) ⊂ J) admettant un développement limité à
l’ordre n au voisinage de g0 = g(x0 ) :
n n
g(x) = ∑ ak xk + o ((x − x0 )n ), et f (t) = ∑ bk (t − g0 )k + o ((t − g0 )n ).
x→x0 t→g0
k=0 k=0

n n
On pose les deux polynômes Gn (X) = ∑ ak X k et Fn (X) = ∑ bk (X − g0 )k . On
k=0 k=0
peut donc effectuer la division euclidienne de Fn ○ Gn (X)par X n+1 :
Fn ○ Gn (X) = Rn (X) + X n+1 Qn (X), avec deg(Rn ) ≤ n.

Alors la fonction f ○ g admettent un développement limité à l’ordre n au


voisinage de x0 : (f ○ g)(x) = Rn (x − x0 ) + o ((x − x0 )n ).
x→x0

Page 32/ 75
PARTIE 2 – Analyse Fonctionnelle (TD)

◇ On a ∂x h(1, −1) = −1 et ∂y h(1, −1) = 1, ce qui implique que :

dha (h1 , h2 ) = ∂x h(1, −1)h1 + ∂y h(1, −1)h2 = −h1 + h2 .

Correction de l’exercice 28. ▲

1. On calcule la dérivée de v :

v ′ (s) = ∂t y(s, χ(s))+χ′ (s)∂x y(s, χ(s)) = ∂t y(s, χ(s))−∂x y(s, χ(s)) = 1,

d’après l’équation de l’énoncé.


2. Tout d’abord, comme χ′ (s) = −1, on sait qu’il existe une constante c
telle que :
χ(s) = −s + c.
Comme χ(t) = x, on obtient c = x + t puis :

χ(s) = x + (t − s).

Passons à v(s). On a v ′ (s) = 1 : il existe une constante d telle que :

v(s) = s + d.

Par définition de v, on a :

d = v(0) = y(0, χ(0)) = exp(−χ(0)2 ) = exp[−(x + t)2 ].

Finalement, on a trouvé que :

v(s) = s + exp[−(x + t)2 ].

3. Les définitions de v et χ impliquent que :

y(t, x) = y(t, χ(t)) = v(t) = t + exp[−(x + t)2 ].

On vérifie rapidement que :

∂t y(t, x) − ∂x y(t, x) = 1 − 2(x + t)e−(x+t) − [−2(x + t)e−(x+t) ] = 1.


2 2

Page 39/ 45
E - Dérivées Partielles et Différentielles

Correction de l’exercice 29. ▲

1. On vérifie que :

v ′ (s) = ∂t y(s, χ(s)) + χ′ (s)∂x y(s, χ(s)),


= ∂t y(x, χ(s)) + y(s, χ(s))∂x y(s, χ(s)) = 0.

Ainsi on a v(s) = v(0) pour tout s.


2. Comme χ′ (s) = y(s, χ(s)) = v(s) = v(0) et que :

v(0) = y(0, χ(0)) = χ(0),

on obtient que χ′ (s) = χ(0) et donc :

χ(s) = χ(0)s + χ(0) = χ(0)(s + 1).

D’après l’énoncé, χ(t) = x implique que :


x
χ(0) = .
1+t
La fonction v est constante :
x
v(s) = v(0) = y(0, χ(0)) = χ(0) = .
1+t

3. On applique la relation v(t) = y(t, χ(t)) = y(t, x) et donc :


x
y(t, x) = v(t) = .
1+t

On vérifie que :
x 1
∂t y(t, x) = − , et ∂x y(t, x) = .
(1 + t)2 1+t

Ainsi y est bien solution :


x x 1
∂t y(t, x) + y(t, x)∂x y(t, x) = − + = 0.
(1 + t) 2 1+t 1+t

Page 40/ 45
PARTIE 2 – Analyse Fonctionnelle (TD)

Correction de l’exercice 30. ▲

1. On vérifie que :
v ′ (s) = ∂t y(s, χ(s)) + χ′ (s)∂x y(s, χ(s)),
= ∂t y(x, χ(s)) + y(s, χ(s))∂x y(s, χ(s)) = 0.
Ainsi on a v(s) = v(0) pour tout s.
2. Comme χ′ (s) = −y(s, χ(s)) = −v(s) = −v(0) et que :
v(0) = y(0, χ(0)) = χ(0),
on obtient que χ′ (s) = −χ(0) et donc :
χ(s) = −χ(0)s + χ(0) = χ(0)(1 − s).
D’après l’énoncé, χ(t) = x implique que :
x
χ(0) = .
1−t
La fonction v est constante :
x
v(s) = v(0) = y(0, χ(0)) = χ(0) = .
1−t
3. On applique la relation v(t) = y(t, χ(t)) = y(t, x) et donc :
x
y(t, x) = v(t) = .
1−t
On vérifie que :
x 1
∂t y(t, x) = , et ∂x y(t, x) = .
(1 − t)2 1−t
Ainsi y et bien solution :
x x 1
∂t y(t, x) + y(t, x)∂x y(t, x) = − = 0.
(1 − t)2 1−t 1−t
4. On remaque que :
lim y(t, x) = +∞.
t→1−
Ainsi la solution n’est pas définie en tout temps !

Page 41/ 45
F - Intégrales Doubles et Triples

F Intégrales Doubles et Triples

Correction de l’exercice 31. ▲


On applique le théorème de Fubini :
2 1
1 2 1 xy 2 1 3 3 x2 9
I1 = ∫ [∫ xydy] dx = ∫ [ ] dx = ∫ xdx = [ ] = − .
−2 −1 −2 2 −1 −2 2 2 2 −2 4

1
1 1 1 x2
I2 = ∫ [∫ (x + y)dy] dx = ∫ (2x + 0)dx = 2 [ ] = 0.
−1 −1 −1 2 −1

2
1 2 1 y 2 ex 1
I3 = ∫ [∫ yex dy] dx = ∫ [ ] dx = 2 ∫ ex dx = 2[e − 1].
0 0 0 2 0 0

1
1 2 1 x2 [e2 − 1] e2 − 1
I4 = ∫ [∫ xey dy] dx = ∫ x[e2 − 1]dx = [ ] = .
0 0 0 2 0
2

Correction de l’exercice 32. ▲


Le théorème de Fubini nous permet d’écrire :
2 1 1 π(x + y) 2 1 2 π(x + y)
I =∫ [∫ (∫ z 2 sin ( ) dz) dy] dx = ∫ [∫ sin ( ) dy] dx,
−1 −2 −1 2 −1 −2 3 2
1
2 2 π(x + y)
1 2 2 2 π(x + y)
= ∫ [∫ sin ( ) dy] dx = ∫ [− cos ( )] dx,
3 −1 −2 2 3 −1 π 2 −2
4 2 π(x + 1) 4 2 π(x − 2)
=− ∫ cos ( ) dx + ∫ cos ( ) dx,
3π −1 2 3π −1 2
2 2
4 2 π(x + 1) 4 2 π(x − 2)
=− [ sin ( )] + [ sin ( )] ,
3π π 2 −1
3π π 2 −1
8 3π 8 3π 2 8 8
=− [sin ( ) − sin (0)] + [sin (0) − sin (− )] = − = 0.
3π 2 2 3π 2 2 −1 3π 2 3π 2

Page 42/ 45
PARTIE 2 – Analyse Fonctionnelle

Exemple 27. Soit f (x) = arctan(x). On sait que f ′ (x) = 1


1+x2
admet le
développement limité suivant au voisinage de 0 à l’ordre n :

f ′ (x) =
1
= 1 − x2 + x4 + ⋯ + (−1)n x2n + o (x2n+1 ).
1 + x2 x→0

En intégrant cette formule, comme f (0) = 0, on a :

x3 x5 (−1)n x2n+1
arctan(x) = x − + +⋯+ + o (x2n+2 ).
3 5 2n + 1 x→0

Exemple 28. Soit f (x) = argsh(x). On sait que f ′ (x) = √ 1 2 admet le


1+x
développement limité suivant au voisinage de 0 à l’ordre n :

(α)2 4 (α)n 2n
f ′ (x) = √
1
= 1 + αx2 + x +⋯+ x + o (x2n+1 ).
1 + x2 2 n! x→0

En intégrant cette formule, comme f (0) = 0, on a :

αx3 (α)2 5 (α)n


argsh(x) = x + + x +⋯+ x2n+1 + o (x2n+2 ).
3 2×5 n!(2n + 1) x→0

Exemple 29. Soit f (x) = argth(x). On sait que f ′ (x) = 1


1−x2
admet le
développement limité suivant au voisinage de 0 à l’ordre n :

f ′ (x) =
1
= 1 + x2 + x4 + ⋯ + x2n + o (x2n+1 ).
1 − x2 x→0

En intégrant cette formule, comme f (0) = 0, on a :

x3 x5 x2n+1
argth(x) = x + + +⋯+ + o (x2n+2 ).
3 5 2n + 1 x→0

Finissons maintenant avec un exemple d’utilisation de la formule du quo-


sin(x)
tient. En effet, tan(x) = cos(x) est bien le quotient de deux fonctions admettant

Page 37/ 75
2.5 Exemples à connaître

des développements limités à l’ordre n au voisinage de 0, avec cos(0) = 1 ≠ 0.


Les calculs sont cependant lourds : c’est pourquoi on va énoncer une formule
pour n = 8, sans la démontrer, puis expliquer le calcul pour n = 3.

Proposition 30. (Développement limité de tan à l’ordre 8)


On a :
x3 2 17 7
tan(x) = x + + x5 + x + o (x8 ).
3 15 315 x→0

Exemple 30. On a déjà vu que :

x3 x2
sin(x) = x − + o (x3 ), et cos(x) = 1 − + o (x3 ).
6 x→0 2 x→0
Ainsi on a :
x3 x3
x− 6 + o (x3 ) x− 6 + o (x3 )
x→0 x→0
tan(x) = = ,
1− x2
+ o (x3 ) 1−y
2 x→0

x2
pour y = 2 + o (x3 ) proche de 0. On connaît le développement limité de
x→0
1
1−y au voisinage de 0, ce qui ous permet d’avoir :

x3
tan(x) = [x − + o (x8 )] [1 + y + y 2 + y 3 + o (y 3 )] ,
6 x→0 y→0

3 2 2 2 3
x ⎡ x x x2 ⎤
+ o (x8 )] ⎢1 + + o (x3 )) + ( + o (x3 )) + o (x3 )⎥ ,
⎢ ⎥
= [x − +(
6 x→0 ⎢
⎣ 2 2 x→0 2 x→0 x→0 ⎥

3 2 4
x 8 x x 3 3
= [x − + o (x )] [1 + + + o (x ) + o (x )] ,
6 x→0 2 4 x→0 x→0

1 3 3
= x − x + o (x ).
3 x→0

Page 38/ 75
PARTIE 2 – Analyse Fonctionnelle

2.6 Application
Les développements limitées permettent de lever l’indétermination lors de
calculs de limite.

sin(x)
Exemple 31. On pose f (x) = x , pour tout x ≠ 0. On veut savoir si f
peut s’étendre en 0 de façon continue. Un développement limité à l’ordre 0
de f suffit donc :
x3
x− 3! + o (x4 ) x2
x→0
f (x) = =1− + o (x3 ) = 1 + o (1).
x 3! x→0 x→0

Donc f peut être prolongée continûment en 0, en posant :

f (0) = lim f (x) = 1.


x→0

3 Transformée de Fourier
On rappelle que L1 (R, C) est l’ensemble des fonctions intégrables sur R,
c’est-à-dire des fonctions f ∶ R → C avec :
+∞
∫ ∣f (x)∣dx < +∞.
−∞

Soit f ∈ L1 (R, C) et T > 0. On définit la fonction T -périodique fT par :

fT (x) = f (x), si x ∈ [−T /2, T /2[.

Étant donné que fT est périodique, on peut définir sa série de Fourier. Sup-
posons que fT peut s’écrire maintenant en fonction de sa série de Fourier, à
l’aide du théorème de Dirichlet :
T /2
e−2ikπx/T fT (x)dx.
1
fT (x) = ∑ e2ikπx/T ck (fT ), avec ck (fT ) = ∫
k∈Z T −T /2

Suite à cette relation, nous allons définir les points ξk = 2πk/T , qui forment
une subdivision de R de pas dξk = ξk+1 − ξk = 2π/T . Notons que dξk tend vers

Page 39/ 75
3 - Transformée de Fourier

0, quand T tend vers +∞. Ainsi on a :


T /2
e−ixξk fT (x)dx,
dξk
fT (x) = ∑ eixξk ∫
k∈Z 2π −T /2
T /2
e−ixξk fT (x)dx] dξk .
1 1
= √ ∑ eixξk [ √ ∫
2π k∈Z 2π −T /2

En faisant tendre T vers +∞, la suite de points ξk va devenir un point ξ et les


séries vont se transformer en terme intégral :
+∞ +∞
e−ixξ f (x)dx] dξ.
1 1
f (x) = √ ∫ eixξ [ √ ∫
2π −∞ 2π −∞
Cela nous invite à définir la transformée suivante :

Définition 9. Soit f ∈ L1 (R, C). Sa transformée de Fourier est la fonc-


tion notée soit par F(f ), soit par f̂, et définie par :
+∞
e−ixξ f (x)dx.
1
∀ξ ∈ R, f̂(ξ) = √ ∫
2π −∞

Comme f est intégrable, et que ∣eixξ ∣ = 1, sa transformée de Fourier est bien


définie pour tout ξ ∈ R.

Proposition 31. Pour toutes fonctions f, g ∈ L1 (R, C) et λ ∈ R, alors :


̂
λf + g = λf̂+ ̂
g.

Démonstration. Cela vient directement des propriétés de l’intégrale.

Proposition 32. Soit f ∈ L1 (R, C) de classe C 1 (R, C). Si f ′ ∈ L1 (R, C),


on a :
∀ξ ∈ R, f̂′ (ξ) = iξ f̂(ξ).

Page 40/ 75
PARTIE 2 – Analyse Fonctionnelle

Démonstration. Par définition, la transformée de Fourier de f ′ , bien définie


car f ′ est supposée intégrable, vérifie pour tout ξ ∈ R :
+∞ A
e−ixξ f ′ (x)dx = √ lim ∫ e−ixξ f ′ (x)dx.
1 1
f̂′ (ξ) = √ ∫
2π −∞ 2π A→+∞ −A
Intégrons alors par partie sur [−A, A] :
A A
e−ixξ f ′ (x)dx = [e−ixξ f (x)]−A + iξ ∫ e−ixξ f (x)dx.
A

−A −A

L’intégrabilité de f sur R implique que :


A +∞
lim ∫ e−ixξ f (x)dx = ∫ e−ixξ f (x)dx.
A→+∞ −A −∞

De plus, f ′ étant intégrable sur R, on obtient que :


A
f (A) − f (0) = ∫ f ′ (x)dx,
0
+∞
qui converge vers ∫ f ′ (x)dx. Donc la fonction f converge en +∞. Comme
0
f est intégrable, on a finalement que :

lim f (A) = 0.
A→+∞

De la même façon on montre que :

lim f (−A) = 0.
A→+∞

Enfin, on sait que e±iAξ est de norme 1 ce qui prouve que, pour x = ±A, :

lim e−ixξ f (x) = 0.


x→+∞

On a donc fini par montré que :


+∞
e−ixξ f (x)dx = iξ f̂(ξ),
1
f̂′ (ξ) = √ iξ ∫
2π −∞

ce qui termine la démonstration.

Page 41/ 75
3 - Transformée de Fourier

Proposition 33. Soit f ∈ L1 (R, C) avec p ∶ x ↦ xf (x) intégrable sur R.


Alors f̂ est dérivable et :

∀ξ ∈ R, f̂ ′ (ξ) = −î
p(ξ).

Démonstration. La fonction ϕx ∶ ξ → e−ixξ f (x) est dérivable pour tout x ∈ R


et on a :
∣ϕ′x (ξ)∣ = ∣(−ix)e−ixξ f (x)∣ ≤ ∣p(x)∣.
Comme p ∈ L1 (R, C), le théorème de dérivation de Lebesgue nous informe que
la fonction f̂ est dérivable sur R et :
+∞ +∞
f̂ ′ (ξ) = √ ∫ ϕ′x (ξ)dx = √ ∫ (−ix)e−ixξ f (x)dx = −î
1 1
p(ξ).
2π −∞ 2π −∞

Définition 10. Soit f ∈ L1 (R, C). On définit la transformée de Fourier


inverse de f par :
+∞
F −1 (f )(ξ) = f̂(−ξ) = √ ∫
1
eixξ f (x)dx.
2π −∞

Théorème 34. Inversion de Fourier (admis)


Si f ∈ L1 (R, C) est continue, avec f̂ ∈ L1 (R, C), alors :

∀x ∈ R, f (x) = F −1 [f̂](x)

Exemple Fondamental : Gaussienne


Soit a > 0. On va étudier la transformée de Fourier de la fonction définie
sur R par :
f (x) = exp(−ax2 ).

Page 42/ 75
PARTIE 2 – Analyse Fonctionnelle

Soit p ∶ x ↦ xf (x). On remarque que :


A
A exp(−ax2 )
∫ xf (x)dx = [− ] = 0,
−A 2x −A

implique que p est intégrable sur R. Par la Proposition 33, on sait que f̂ est
dérivable et que :
f̂ ′ (ξ) = −î
p(ξ).
Maintenant, tentons d’écrire p̂ en fonction de f̂. Pour cela, effectuons une
intégration par partie :
A A 2 1 −ixξ −ax2 A iξ A
−ixξ −ax2
∫ e−ixξ p(x)dx = ∫ e−ixξ xe−ax dx = [− e e ] − ∫ e e dx,
−A −A 2a −A 2a −A
iξ ̂
qui converge vers − 2a f (ξ) quand A tend vers +∞. Ainsi on a obtenu que :

f̂ ′ (ξ) = −
ξ ̂
f (ξ).
2a
Les solutions de cette équation différentielle sont de la forme :
ξ2
f̂(ξ) = f̂(0) exp (− ) .
2a
On admet ici (et démontrera le résultat plus loin dans le cours) que :
+∞
e−ax dx = √ .
1 1
f̂(0) = √ ∫
2

2π −∞ 2a
On a donc que :
1 ξ2
f̂(ξ) = √ exp (− ) .
2a 4a

4 Produit de convolution

Définition 11. Soit f, g ∈ L1 (R, C) continues. La fonction f ∗ g, appelée


produit de convolution de f par g, est définie par :
+∞
∀x ∈ R, f ∗ g(x) = ∫ f (y)g(x − y)dy.
−∞

Page 43/ 75
5 - Dérivées Partielles et Différentielles

Proposition 35. (admis)


Soit f, g ∈ L1 (R, C) continues. La fonction f ∗ g est bien définie, intégrable
et : +∞ +∞ +∞
∫ ∣f ∗ g∣(y)dy ≤ ∫ ∣f (y)∣dy ∫ ∣g(y)∣dy.
−∞ −∞ −∞
De plus, le produit scalaire est commutatif : f ∗ g = g ∗ f .

Proposition 36. (admis)


Soit f ∈ L1 (R, C) continue et ϕ à support compact (c’est-à-dire nulle en
dehors d’une boule) et de classe C 1 (R, C). La fonction f ∗ ϕ est dérivable
avec :
∀x ∈ R, (f ∗ ϕ)′ (x) = f ∗ (ϕ′ )(x).

Lien avec la transformée de Fourier

Proposition 37. (admis)


Soit f, g ∈ L1 (R, C) continues. La fonction f̂
∗ g est bien définie et :

∀ξ ∈ R, f̂
∗ g(ξ) = 2π f̂(ξ) ̂
g (ξ).

5 Dérivées Partielles et Différentielles


À partir de maintenant, jusqu’à la fin de la Partie 2, nous étudierons des
fonctions à plusieurs variables, et nous allons étendre des notions que nous
avons vues pour les fonctions à variables réelles.

Définition 12. Un ensemble U de Rn est un ouvert si pour tout x ∈ U , il


existe r > 0 tel que B(x, r) ⊂ U , avec B(x, r) la boule ouverte de centre x et
de rayon r.

Page 44/ 75
PARTIE 2 – Analyse Fonctionnelle

Exemple 32. Rn est un ouvert de Rn .

Exemple 33. Les segments ouverts comme ] − 1, 1[ sont des ouverts de R.

Exemple 34. [−1, 1[, ] − 1, 1] et [−1, 1] ne sont pas des ouverts de R.

Exemple 35. La boule ouverte B(0, R) est un ouvert de Rn .

Exemple 36. La boule fermée B(0, R) n’est pas un ouvert de Rn .

5.1 Dérivées Partielles

Définition 13. Soit f ∶ U → Rm , avec U un ouvert de Rn . Soit a ∈ U et


v ∈ Rn . Si la fonction définie par ϕ(t) = f (a + tv) est dérivable en t = 0, on
dira que f est dérivable en a selon le vecteur v. On note alors :

f (a + tv) − f (a)
∂v f (a) = ϕ′ (0) = lim .
t→0 t

Exemple 37. Soit f ∶ Rn → R définie par f (x) = x21 + ⋯ + x2n , a = (0, . . . , 0)


et v = (1, . . . , 1). On étudie alors :

ϕ(t) = f (a + tv) = (0 + t)2 + ⋯ + (0 + t)2 = nt2 .

Cette fonction est dérivable en 0 et ϕ′ (0) = 0. Ainsi f est dérivable en a


selon le vecteur v avec :
∂v f (a) = 0.

Page 45/ 75
5.1 Dérivées Partielles

Exemple 38. Considérons la fonction f définie par f (x) = x21 + ⋯ + x2n et


les points a = (a1 , . . . , an ) et v = (1, , 0 . . . , 0). On étudie alors :

ϕ(t) = f (a + tv) = (a1 + t)2 + a22 ⋯ + a2n = t2 + 2a1 t + f (a).

Cette fonction est dérivable en 0 et ϕ′ (0) = 2a1 . Ainsi f est dérivable en a


selon le vecteur v avec ∂v f (a) = 2a1 .

Penchons nous sur le cas de certains vecteurs particuliers : les vecteurs


(ε1 , . . . , εn ) de la base canonique de Rn .

Définition 14. Soit U ouvert de Rn et f ∶ U → Rm . Si pour i ∈ J1, nK, f


est dérivable en a ∈ U selon ei , on dira que f admet une dérivée partielle
en a d’indice i, qu’on peut noter :

∂f (a)
∂i f (a), ∂xi f (a), ∂εi f (a), .
∂xi
On parlera aussi de dérivée partielle de f par rapport à xi .

En fait, la dérivée partielle d’une fonction en a d’indice i est la dérivée de


la fonction définie par :

ϕ(t) = f (a1 , . . . , ai−1 , ai + t, ai , . . . , an ),

en 0. Finalement, calculer la dérivée partielle d’une fonction en un point revient


à fixer toutes les autres variables, et de considérer que seule la i-ème coordonnée
varie.

Exemple 39. Soit f ∶ R2 → R2 définie par f (x, y) = (y, x). On cherche à


dériver partiellement f en a = (1, 1) par rapport à x.
◇ 1ere méthode : On pose ϕ(t) = f (a + tε1 ) = (1, 1 + t). Cette fonction
est dérivable en 0. On a alors ∂x1 f (a) = ϕ′ (0) = (0, 1).
◇ 2e méthode : On pose ϕ̃(t) = f (t, a2 ) = (1, t). Cette fonction est
dérivable en a1 . On a alors ∂x1 f (a) = ϕ̃′ (a1 ) = (0, 1).

Page 46/ 75
PARTIE 2 – Analyse Fonctionnelle

Exemple 40. La fonction définie par f (x, y) = xey − yex admet une dérivée
partielle en (0, 0) par rapport à x et y, ∂x f (0, 0) = 1, et ∂y f (0, 0) = −1.

Étant donné que les dérivées partielles sont fortement liées aux dérivées
d’une fonction à une variable, toutes les opérations élémentaires sont encore
vraies :

Proposition 38. Somme, Produit


Soit f, g ∶ U → Rm avec U ouvert de Rn . Si f et g admettent une dérivée
partielle en a par rapport à xi , alors les fonctions suivantes aussi :
◇ f + g avec ∂xi (f + g)(a) = ∂xi f (a) + ∂xi g(a) ;
◇ f g avec ∂xi (f g)(a) = ∂xi f (a)g(a) + f (a)∂xi g(a).

Proposition 39. Composée


Soit f ∶ U → V et g ∶ V → Rp avec U et V des ouverts de Rn et Rm respec-
tivement. On suppose que f admet une dérivée partielle en a par rapport à
xi et que g admet des dérivées partielles en f (a) par rapport à toutes les
variables. Alors g ○f admet une dérivée partielle en a par rapport à xi avec :
m
∂xi (g ○ f )(a) = ∑ ∂yj g(f (a)) ∂xi fj (a).
j=1

Exemple 41. On pose f (x1 , x2 ) = (x1 + x2 , x2 ) et g(y1 , y2 ) = y1 y2 . Calcu-


lons :

∂x1 f (x1 , x2 ) = (1, 0), ∂y1 g(y1 , y2 ) = y2 , et ∂y2 g(y1 , y2 ) = y1 ,

ce qui donne :

∂x1 (g ○ f )(x1 , x2 ) = ∂y1 g(f (x1 , x2 ))∂x1 f1 (x1 , x2 ) + ∂y2 g(f (x1 , x2 ))∂x1 f2 (x1 , x2 ),
= f2 (x1 , x2 ) × 1 + f1 (x1 , x2 ) × 0 = x2 .

Page 47/ 75
5.2 Dérivées Partielles Successives

5.2 Dérivées Partielles Successives


Comme pour les fonctions d’une variable, on peut dériver plusieurs fois
une même fonction à plusieurs variables. Voici par exemple la définition d’une
dérivée partielle d’ordre 2 :

Définition 15. Soit U ouvert de Rn et f ∶ U → Rm . On note (ε1 , . . . , εn )


la base canonique de Rn . Si pour i, j ∈ J1, nK, f admet une dérivée partielle
par rapport à xi , et si ∂xi f admet une dérivée partielle en a par rapport à xj ,
on dira que f admet une dérivée partielle d’ordre 2 successivement
par rapport à xi puis xj qu’on peut noter :

∂ 2 f (a)
∂ji f (a), ∂xj xi f (a), ∂εj εi f (a), .
∂xj ∂xi

On peut alors définir les dérivées partielles d’ordre k successives de


f , par récurrence.

Définition 16. Soit f ∶ U → Rm une fonction admettant des dérivées par-


tielles successives ∂xi xi pour tout i, avec U un ouvert de Rn . Le laplacien
de f est défini par :

∆f (x) = ∂x1 x1 f (x) + ⋯ + ∂xn xn f (x).

Exemple 42. Considérons la fonction définie par f (x, y) = xey − yex . On


a alors :
∂x f (x, y) = ey − yex , ∂y f (x, y) = xey − ex ,
∂xx f (x, y) = −yex , ∂xy f (x, y) = ey − ex ,
∂yx f (x, y) = ey − ex , et ∂yy f (x, y) = xey .

De plus, on a ∆f (x, y) = −yex + xey .

Page 48/ 75
PARTIE 2 – Analyse Fonctionnelle

ATTENTION .! Il n’est pas toujours vrai que ∂xy f (x, y) = ∂yx f (x, y) !
On n’a donc pas le droit de dériver dans l’ordre qu’on veut !

Exemple 43. Considérons la fonction :



⎪ si (x, y) = (0, 0),
⎪ 0,
f (x, y) = ⎨ x2 −y 2

⎪ xy , sinon.
⎩ x2 +y 2

Calculons ∂x f (0, y) pour tout y. Si y ≠ 0, on remarque que :

f (x, y) − f (0, y) x2 − y 2
=y 2 ,
x x + y2

ce qui implique que ∂x f (0, y) existe et vaut −y. De la même manière, on


montre que ∂x f (0, 0) existe et vaut 0. Finalement pour tout y, on a que :

∂x f (0, y) = −y,

ce qui implique que ∂yx f (0, 0) = −1. Par le même type de calculs, on peut
vérifier que ∂xy f (0, 0) existe et vaut 1.

5.3 Différentielle

Définition 17. Soit U un ouvert de Rn . Une fonction f ∶ U → Rm est


différentiable en a ∈ U s’il existe ϕ une application linéaire de Rn dans
Rm telle que :
f (a + h) = f (a) + ϕ(h) + o (∥h∥).
∥h∥→0

Si ϕ existe, elle est unique et s’appelle la différentielle de f en a. On la


note dfa . Une fonction est différentiable sur U si elle est différentiable
en tout point a ∈ U .

Page 49/ 75
PARTIE 3 – Algèbre Linéaire et Géométrie

1.2 Famille de Vecteurs


Faisons un aparte sur une notion portant sur les ensembles.

Définition 4. Une famille d’éléments F d’un ensemble X est une col-


lection d’éléments de X.
Le nombre d’éléments dans cette collection est appelé cardinal de la famille,
et on le note card(F), ∣F∣ ou #F.

Exemple 7. Voici différentes familles d’éléments de cardinal fini :


◇ (1, 2, 3) est une famille de N de cardinal 3 ;
◇ (1, 2, 3) est une famille de Z de cardinal 3 ;
◇ ((1, 0), (0, 1)) est une famille de R2 de cardinal 2.

Exemple 8. L’ensemble des entiers pairs {2n, n ∈ N} est une collection


d’éléments de N : il s’agit donc d’une famille d’éléments de N. Elle possède
un nombre infini d’éléments : son cardinal est infini.

Faisons maintenant le lien avec les espaces vectoriels.

Définition 5. On considère un K-espace vectoriel E et une famille F de


vecteurs de E. Une combinaison linéaire de F est un élément x ∈ E qui
s’écrit :
n
x = ∑ λi xi ,
i=1

avec λi ∈ K et xi ∈ F, pour tout i ∈ J1, nK.

Exemple 9. Soit x, y ∈ R. Alors (x, y) = x (1, 0) + y (0, 1) est une combi-


naison linéaire de la famille ((1, 0), (0, 1)) de R2 .

Page 7/ 97
PARTIE 2 – Analyse Fonctionnelle

Démonstration. On remarque que :

(f + g)(a + h) = f (a + h) + g(a + h),


= f (a) + dfa (h) + o (∥h∥) + g(a) + dga (h) + o (∥h∥),
∥h∥→0 ∥h∥→0

= (f + g)(a) + (dfa + dga )(h) + o (∥h∥)


∥h∥→0

On conclut par unicité de la différentielle d’une fonction.

Proposition 42. Soit U ouvert de Rn et V ouvert de Rm . Soit f ∶ U → V


différentiable en a ∈ U et g ∶ V → Rp différentiable en f (a). Alors g ○ f est
différentiable en a, avec :

∀h ∈ Rn , d(g ○ f )a (h) = dgf (a) [dfa (h)].

Démonstration. On écrit d’abord que :

f (a + h) = f (a) + dfa (h) + o (∥h∥),


∥h∥→0

et g(f (a) + y) = g(f (a)) + dgf (a) (y) + o (∥y∥).


y→0

Ainsi, on a :

g(f (a + h)) = g (f (a) + dfa (h) + o (∥h∥)) ,


∥h∥→0

= g(f (a) + y), avec y = dfa (h) + o (∥h∥),


∥h∥→0

= g(f (a)) + dgf (a) (y) + o (∥y∥),


y→0

= g(f (a)) + dgf (a) (dfa (h)) + dgf (a) ( o (∥h∥)) + o (∥y∥).
∥h∥→0 y→0

Page 51/ 75
1.2 Famille de Vecteurs

Ainsi un nombre fini d’éléments regroupés dans une famille F nous permet
de construire une infinité de nouveaux éléments :

Définition 6. Soit E un K-espace vectoriel et F une famille de vecteurs de


E. Le sous-espace vectoriel engendré par F, noté V ect(F), est l’en-
semble des combinaisons linéaires d’éléments de F.

Exemple 10. On a vu que les combinaisons linéaires de la famille


((1, 0), (0, 1)) de R2 sont de la forme (x, y) avec x et y deux réels. Ainsi on
reconstruit tout R2 : Vect((1, 0), (0, 1)) = R2 .

⎛⎛ 1 ⎞ ⎛ 0 ⎞⎞
Exemple 11. Soit F = ⎜⎜ 0 ⎟ , ⎜ 1 ⎟⎟ famille de vecteurs de R3 . On a :
⎝⎝ 1 ⎠ ⎝ 1 ⎠⎠

⎧ 1 ⎫ ⎧ ⎫

⎪ ⎛ ⎞
⎪ ⎛0⎞ ⎪ ⎪

⎪ ⎪⎛

x ⎞ ⎪


Vect(F) = ⎨x ⎜ 0 ⎟ + y ⎜ 1 ⎟ , x, y ∈ R⎬ = ⎨⎜ y ⎟ , x, y ∈ R⎬ .

⎪ ⎪
⎪ ⎪
⎪⎝ ⎪

⎩ ⎝1⎠
⎪ ⎝1⎠ ⎭ ⎪
⎪ ⎩ x+y ⎠ ⎪

Proposition 3. Soit E un K-espace vectoriel et F une famille de vecteurs


de E. Le sous-espace vectoriel engendré par F est un K-espace vectoriel.

Remarque 1. V ect(F) est le plus petit sous-espace vectoriel de E conte-


nant F.

Nous pouvons voir ainsi l’espace VectF) comme étant l’ensemble des élé-
ments de E qui sont engendrés par des combinaisons linéaires de F : on dira
que F est une famille génératrice de Vect(F). Cependant, il arrive qu’on puisse
créer tout cet ensemble avec juste une sous-famille de F, et non avec F : on
dira que la famille F est liée, étant donné qu’on aura une condition (linéaire)
reliant les différents éléments de F.

Page 8/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Définition 7. On considère une famille (e1 , . . . , ep ) de vecteurs de E. On


dit alors que cette famille est :
◇ libre si pour tous éléments λ1 , . . . , λp de K tels que :
p
∑ λi ei = 0E ,
i=1

on a λ1 = ⋯ = λp = 0 ;
◇ liée si elle n’est pas libre ;
◇ génératrice si pour tout vecteur x de E, il existe des éléments
λ1 , . . . , λp de K tels que :
p
x = ∑ λi ei .
i=1

Définition 8. On dit qu’une famille (e1 , . . . , ep ) de E est une base (de


E) si elle est libre et génératrice.
De façon équivalente, une famille (e1 , . . . , ep ) de E est une base si tout
vecteur x de E admet une unique décomposition de la forme :
p
x = ∑ λi ei ,
i=1

où les λi sont des éléments de K, appelés coordonnées de x dans la base


(e1 , . . . , ep ).

Théorème 4. Équicardinalité des bases (admis)


Toutes les bases de E ont même cardinal, dim(E), appelé dimension de
E. En particulier, si (e1 , . . . , ep ) est une base de E, alors p = dim E.

Page 9/ 97
1.3 Exemple de Kn

Proposition 5. Soit p = dim E et (e1 , . . . , ep ) une famille de vecteurs de


E. Les assertions suivantes sont équivalentes :
◇ (e1 , . . . , ep ) est une base ;
◇ (e1 , . . . , ep ) est libre ;
◇ (e1 , . . . , ep ) est génératrice.

1.3 Exemple de Kn
On rappelle la notation Kn pour l’ensemble des n-uplets (x1 , . . . , xn ) où
chaque xi appartient à K. Pour x = (x1 , . . . , xn ) et y = (y1 , . . . , yn ) deux
n-uplets et pour un scalaire λ ∈ K, on définit la somme x + y par :

x + y = (x1 + y1 , . . . , xn + yn ),

et le produit par un scalaire λx par :

λx = (λx1 , . . . , λxn ).

Ces deux opérations font de Kn un K-espace vectoriel, dont le vecteur nul est
le n-uplet 0Kn = (0, . . . , 0), qu’on peut abréger en 0.

Proposition 6. La famille de vecteurs (ε1 , . . . , εn ) définis ci-dessous


forme une base de Kn , appelée base canonique de Kn :

i-ème coordonnée

εi = (0, . . . , 0, 1, 0, . . . , 0).

Par conséquent, la i-ème coordonnée de x = (x1 , . . . , xn ) dans la base


canonique est le scalaire xi et dim Kn = n.

Page 10/ 97
PARTIE 2 – Analyse Fonctionnelle

Résumons ce que nous avons montré à l’aide de l’égalité suivante :


g(h1 , h2 ) = h1 h2 ∂yx f (a1 + λ1 h1 , a2 + λ2 h2 ).
De la même façon, en commençant par l’étude de la fonction :
y ↦ f (a1 + h1 , y) − f (a1 , y),
on montrerait qu’il existe λ3 , λ4 ∈]0, 1[ tels que :
g(h1 , h2 ) = h1 h2 ∂xy f (a1 + λ3 h1 , a2 + λ4 h2 ).
Finalement, on a :
∂yx f (a1 + λ1 h1 , a2 + λ2 h2 ) = ∂xy f (a1 + λ3 h1 , a2 + λ4 h2 ).
En faisant tendre ∥h∥ vers 0 (avec h = (h1 , h2 )), on obtient bien le théorème
de Schwarz.

5.5 Gradient

Définition 20. Soit f ∶ U → R avec U ouvert de Rn . Si f est différentiable


en a, on définit le gradient de f en a ∈ U par :

∇f (a) = (∂x1 f (a), . . . , ∂xn f (a)).

Remarque 14. Si f est différentiable en a, on peut exprimer dfa (h) en


fonction de ∇f (a) :
n
dfa (h) = ∑ ∂xi f (a)hi = ⟨∇f (a), h⟩ .
i=1

Exemple 46. Considérons la fonction définie par f (x, y) = x2 + 2y. Son


gradient vaut :
∇f (x, y) = (2x, 2).
Ainsi dfa (h) = ⟨∇f (a), h⟩ = 2a1 h1 + 2h2 .

Page 55/ 75
5.6 Introduction aux Équations aux Dérivées Partielles

5.6 Introduction aux Équations aux Dérivées Partielles

Définition 21. Une équation aux dérivées partielles (abrégée en EDP)


est une équation reliant les dérivées partielles d’une fonction.

Nous allons voir certaines EDPs types, et les méthodes de résolutions as-
sociées.

5.6.1 Équation de Transport

Définition 22. On appelle équation de transport toute EDP s’écrivant


sous la forme :

∀t > 0, ∀x ∈ R, ∂t y(t, x) + c(t, x)∂x y(t, x) = f (t, x),


avec ∀x ∈ R, y(0, x) = y0 (x).

On appelle c célérité associée à l’équation.

L’idée pour résoudre de telles équations est de poser des fonctions auxi-
liaires. Tout d’abord, on va prendre un paramétrage spatial : on fixe T > 0
et x ∈ R, et on considère une fonction χ de classe C 1 (R+ , R) avec χ(T ) = x.
Cependant quel choix de paramétrage convienda-t-il le mieux ?
Pour le savoir, on définit la fonction : u(t) = y(t, χ(t)). Alors on obtient :

u′ (t) = ∂t y(t, χ(t)) + χ′ (t)∂x y(t, χ(t)).

Si χ′ (t) = c(t, χ(t)), on aurait :

u′ (t) = ∂t y(t, χ(t)) + c(t, χ(t))∂t y(t, χ(t)) = f (t, χ(t)).

Finalement, avec les deux équations vérifiées par u et χ on peut exprimer


y(T, x).

Page 56/ 75
PARTIE 2 – Analyse Fonctionnelle

Cas de vitesse constante, sans force extérieure


On suppose que c(t, x) = c ∈ R et que f (t, x) = 0. Dans ce cas, χ′ (t) = c
implique que :
χ(t) = ct + cste, avec χ(T ) = x.
Finalement, on peut exprimer la constante cste :

χ(t) = c(t − T ) + x.

Maintenant, on a u′ (t) = 0. Donc u est une fonction constante du temps :

y0 (x − cT ) = y(0, χ(0)) = u(0) = u(T ) = y(T, x).

Finalement, on a trouvé la solution de notre problème :

y(T, x) = y0 (x − cT ).

Remarque 15. Dès que c ou f ne vérifie pas de formules simples, il paraît


difficile d’expliciter la solution y. Nous verrons en TD d’autres cas.

5.6.2 Équation de la Chaleur

Définition 23. Soit D > 0. On appelle équation de la chaleur (ou équa-


tion de diffusion) une EDP qui s’écrit :

∀t > 0, ∀x ∈ Rn , ∂t y(t, x) − D∆x y(t, x) = f (t, x),


avec ∀x ∈ Rn , y(0, x) = y0 (x).

Le réel D est nommé coefficient de diffusion associé à l’équation.

Nous allons voir ici le cas unidimensionnel (n = 1). Pour cela, on va passer
par la transformée de Fourier spatiale :
+∞
e−ixξ y(t, x)dx.
1
∀ξ ∈ R, ŷ(t, ξ) = √ ∫
2π −∞

Page 57/ 75
5.6 Introduction aux Équations aux Dérivées Partielles

On applique la transformée de Fourier spatiale à l’EDP, ce qui implique (for-


mellement) que :
ŷ ′ (t, ξ) + Dξ 2 ŷ(t, ξ) = f̂(t, ξ),
d’après les propriétés de la transformée de Fourier. On est donc ramené à
trouver la solution du problème :

Y ′ (t) + Dξ 2 Y (t) = f̂(t, ξ), ∀t > 0,


{
Y (0) = ŷ0 (ξ),

où ξ est un paramètre. Une fois qu’on a cette solution, il suffit d’écrire que :

y(t, x) = F −1 (̂
y (t, ξ))(x).

Exemple 47. Supposons que f est nulle et que y0 (x) = e−ax , pour a > 0.
2

On étudie le problème :
⎧ ′
⎪ Y (t) = −Dξ Y (t), ∀t > 0,
2


⎪ Y (0) = ŷ0 (ξ) = √1 e−ξ /(4a) .
2

⎩ 2a

La solution est donnée par :

ξ2
ŷ(t, ξ) = Y (t) = √ exp [− ] e−Dξ t = √ exp [− ( + Dt) ξ 2 ] .
1 2 1 1
2a 4a 2a 4a

Ainsi la solution de l’équation de la chaleur est donnée par :



−1 b −1
y(t, x) = F (̂ y (t, ξ))(x) = F (gt )(x),
a

pour gt (ξ) = exp[−ξ 2 /(4b)] avec b = a/(1+4aDt). On a donc une transformée


de Fourier d’une gaussienne à trouver :

b 1 ax2
y(t, x) = exp [− bx2 ] = √ exp [− ].
a 1 + 4aDt 1 + 4aDt

Page 58/ 75
PARTIE 2 – Analyse Fonctionnelle

6 Intégrales Doubles et Triples

Dans cette dernière section, nous allons maintenant intégrer les fonctions
à plusieurs variables.

6.1 Fonctions en Escalier et Intégrale

Commenceons par généraliser les segments de R à des pavés de Rn :

Définition 24. Un pavé de Rn est un ensemble de la forme :

P = I1 × ⋯ × In ,

avec Ik étant un intervalle borné de R pour tout k ∈ J1, nK.

Exemple 48. L’ensemble P =]1, 2] × [1, 5] est un pavé de R2 .

Page 59/ 75
6.1 Fonctions en Escalier et Intégrale

Exemple 49. L’ensemble ci-dessous est un pavé de R3 :

P = [1, 2]×]1, 3[×]1, 4] = {(x, y, z) ∈ R3 , 1 ≤ x ≤ 2, 1 < y < 3, 1 < z ≤ 4} .

Définition 25. Soit P = I1 × ⋯ × In un pavé de Rn . On note lk la longueur


de chaque intervalle Ik (si I1 est borné par a et b, alors l1 = ∣b − a∣). La
mesure (n-dimensionnelle) de P est le réel :

mes(P ) = l1 ⋯ln .

Exemple 50. Le pavé P = [1, 2]×]1, 3[×]1, 4] de R3 est de mesure :

mes(P ) = (2 − 1) × (3 − 1) × (4 − 1) = 6.

Définition 26. Soit A un ensemble de Rn . La fonction caractéristique


de A est définie par :

1, si x ∈ A,
χP (x) = {
0, sinon.

Page 60/ 75
PARTIE 2 – Analyse Fonctionnelle

Exemple 51. Traçons le graphe de la fonction caractéristique de l’ensemble


A = [−1, 0[∪]1.5, 3] de R :

Définition 27. Une fonction en escalier est une application f ∶ Rn → R


qui peut se mettre sous la forme :
k
f (x) = ∑ λi χPi (x),
i=1

avec λ1 , . . . , λk des réels et P1 , . . . , Pk des pavés de Rn . Pour une telle


fonction, on appelle intégrale de f le réel :
k
I(f ) = ∑ λi mes(Pi ).
i=1

Exemple 52. On définit les trois pavés de R suivants :

P1 =] − 1, 0], P2 = [0, 1] P3 =]1, 2[,

puis la fonction en escalier f = 0.5χP1 + χP2 + 2χP3 .

Son intégrale vaut I(f ) = 1.

Page 61/ 75
6.2 Fonctions Intégrables

Exemple 53. On définit les pavés de R2 suivants :

P1 = [1, 2[×[0, 1], P2 =]0, 1[∪]1, 2].

La fonction en escalier définie par f = 0.5χP1 + χP2 admet une intégrale


valant I(f ) = 0.5.

6.2 Fonctions Intégrables

Définition 28. Un compact K de Rn est un ensemble borné de Rn et tel


que toute limite x, d’une suite (xn )n∈N d’éléments de K qui converge dans
Rn , est elle-même dans K.

Exemple 54. Le segment K = [−1, 1] est un compact de R. En effet, il est


borné. De plus, considérons une suite (xn )n∈N d’éléments de K, et sup-
posons qu’elle converge vers une limite x. Par définition de K, on a :
∀n ∈ N, −1 ≤ xn ≤ 1. En faisant tendre n vers +∞, on obtient bien que
−1 ≤ x ≤ 1 : x ∈ K.

Page 62/ 75
PARTIE 2 – Analyse Fonctionnelle

Exemple 55. Le segment I =]0, 1] n’est pas un compact de R. Définissons


la suite définie par xn = n1 . Les éléments de cette suite sont des éléments
de I. Elle converge dans R vers 0. Cependant 0 ∉ I : on a donc obtenu une
suite convergente d’éléments de I qui ne converge pas vers un élément de I.

Notation 2. Soit f ∶ Rn → R une fonction bornée, à support compact


(c’est-à-dire qu’elle est nulle en dehors d’un compact). On définit les deux
ensembles :
E − (f ) = {I(v), v ≤ f et v en escalier},
et,
E + (f ) = {I(w), f ≤ w et w en escalier}.

Comme f est bornée, il existe m ≤ M tel que pour tout x ∈ Rn , on ait


m ≤ f (x) ≤ M . Comme f est à support compact, il existe un pavé P de Rn
tel que f (x) = 0 pour tout x ∉ P . On peut alors définir les deux fonctions en
escaliers suivantes :

v = mχP , et w = M χP .

On a alors que v(x) ≤ f (x) ≤ w(x) : les ensembles E − (f ) et E + (f ) sont donc


non vides ! Ainsi on peut définir I − (f ) = sup(E − (f )) et I + (f ) = inf(E + (f )).

Remarque 16. Par définition de E − (f ) et de E + (f ), on a toujours :

I − (f ) ≤ I + (f ).

Définition 29. Si I − (f ) = I + (f ), on dit que f est Riemann-intégrable.


Son intégrale sur Rn est définie comme étant :

∫ ⋯∫ f (x1 , . . . , xn )dx1 ⋯ dxn = ∫ f (x)dx = I − (f ) = I + (f ).


Rn Rn

Page 63/ 75
6.2 Fonctions Intégrables

Remarque 17. Dans le cas où n = 1, on obtient bien la définition d’une


fonction intégrable sur R.

Remarque 18. Dans le cas où f est une fonction en escalier, on remarque


que :
I − (f ) = I(f ) = I + (f ).
Finalement, cette définition est cohérente avec l’intégrale d’une fonction en
escalier que nous avons vu précédemment.

Maintenant que nous avons défini l’intégrale d’une fonction sur Rn , nous
devons définir l’intégrale de f sur un ensemble A de Rn .

Définition 30. Une partie A bornée de Rn est mesurable si χA est


Riemann-intégrable. L’intégrale de χA est encore appelé mesure de A.
Dans le cas où n = 2, mes(A) est appelé l’aire de A, tandis que pour n = 3,
on l’appelle volume de A.

Exemple 56. Un pavé de Rn est mesurable. Les deux notions de mesure


pour un pavé sont cohérentes l’une avec l’autre.

Exemple 57. Le disque (fermée ou ouverte) A = B(0, R) est mesurable, et


on a mes(A) = πR2 .
La boule de A = B(0, R) de R3 est mesurable avec mes(A) = 43 πR3 .
Nous démontrerons ces formules plus tard dans le cours.

Proposition 45. (admis)


Si A et B sont mesurables, alors A ∪ B et A ∩ B sont mesurables.

Page 64/ 75
PARTIE 2 – Analyse Fonctionnelle

Définition 31. Soit A un compact de Rn , et f ∶ A → R une application


continue. On définit le prolongement g de f à Rn (entier) en posant :

f (x), si x ∈ A,
g(x) = {
0, sinon.

Cette fonction est Riemann-intégrable, et on appelle intégrale de f la quan-


tité :
∫ f (x)dx = ∫ n g(x)dx.
A R

On considère A = Rn ou un compact de Rn par la suite.

Proposition 46. Soit f, g ∶ A → R intégrables sur A, et λ ∈ R. Alors λf + g


est Riemann-intégrable et :

∫ (λf + g)(x)dx = λ ∫ f (x)dx + ∫ g(x)dx.


A A A

Démonstration. Traitons le cas A = Rn . Cette propriété est clairement vraie


pour des fonctions en escalier. En effet, posons :

k k′
f (x) = ∑ αi χPi (x), et g(x) = ∑ βj χQj (x).
i=1 j=1

Donc la fonction λf + g est en escalier avec :

k k′
(λf + g)(x) = ∑ λαi χPi (x) + ∑ βj χQj (x).
i=1 j=1

Son intégrale vaut dans ce cas :

k k′
∫ (λf + g)(x)dx = ∑ λαi mes(Pi ) + ∑ βj mes(Qj ) = λ ∫ f (x)dx + ∫ g(x)dx.
A i=1 j=1 A A

Passons donc aux cas de fonctions intégrables sur A = Rn .

Page 65/ 75
6.2 Fonctions Intégrables

Soit vf ∈ E − (f ) et vg ∈ E − (g). Alors la fonction v = λvf + vg est un élément


de E − (λf + g) et donc :

λ ∫ vf (x)dx + ∫ vg (x)dx = ∫ [λvf (x) + vg (x)]dx = ∫ v(x)dx ≤ I − (λf + g).


A A A A

Ainsi en prenant la borne supérieure sur les vf puis les vg , on a montré que :

λI − (f ) + I − (g) ≤ I − (λf + g).

Par intégrabilité des fonctions f et g, on a :

λ ∫ f (x)dx + ∫ g(x)dx = λI − (f ) + I − (g) ≤ I − (λf + g).


A A

Soit wf ∈ E + (f ) et vg ∈ E + (g). Alors la fonction w = λwf + wg est un


élément de E + (λf + g) et donc :

λ ∫ wf (x)dx + ∫ wg (x)dx = ∫ [λwf (x) + wg (x)]dx = ∫ w(x)dx ≥ I + (λf + g).


A A A A

Ainsi en prenant la borne inférieure sur les wf puis les wg , on a montré que :

λ ∫ f (x)dx + ∫ g(x)dx = λI + (f ) + I + (g) ≥ I + (λf + g).


A A

Finalement, nous avons obtenu que :

λ ∫ f (x)dx + ∫ g(x)dx ≤ I − (λf + g) ≤ I + (λf + g) ≤ λ ∫ f (x)dx + ∫ g(x)dx,


A A A A

ce qui force les inégalités précédentes à être des égalités :

I − (λf + g) = I + (λf + g) = λ ∫ f (x)dx + ∫ g(x)dx.


A A

Dans le cas où A est un compact, on applique le résultat précédent au


prolongement de f , de g et de λf + g (notés respectivement pf , pg et pλf +g ),
en remarquant que :
pλf +g = λpf + pg .

Page 66/ 75
PARTIE 2 – Analyse Fonctionnelle

Proposition 47. (Positivité)


Soit f ∶ A → R intégrable. Si f est positive, alors :

∫ f (x)dx ≥ 0.
A

Plus généralement, si f ≤ g avec f et g intégrables sur A, alors :

∫ f (x)dx ≤ ∫ g(x)dx.
A A

Démonstration. Comme précédemment, nous allons faire cela en trois temps :


◇ Si f est en escalier, on la décompose en :

k
f (x) = ∑ λi χPi (x).
i=1

Pour tout i, λi ≥ 1, étant donné que f est positive, implique que :


n
∫ f (x)dx = ∑ λi mes(Pi ).
A i=1

Or la mesure d’un ensemble est positive. On a bien montré que l’inté-


grale de f , étant une somme de termes positifs, est positive.
◇ Supposons que f est intégrable sur A = Rn . Soit v ∈ E − (f ). Comme
v ≤ f et que f est positive, on peut supposer v positive. Or le point
précédent nous informe que :

0 ≤ ∫ v(x)dx ≤ I − (f ) = ∫ f (x)dx.
A A

◇ Enfin, le dernier point est une conséquence du précédent, en l’appliquant


au prolongement de f

Page 67/ 75
6.2 Fonctions Intégrables

Proposition 48. Pour toute fonction f ∶ A → R intégrable telle que ∣f ∣ le


soit aussi, on a l’inégalité suivante :

∣∫ f (x)dx∣ ≤ ∫ ∣f (x)∣dx.
A A

Démonstration. On sait que f et que −f sont majorées par ∣f ∣. Ainsi par la


positivité de l’intégrale, nous obtenons :

∫ f (x)dx ≤ ∫ ∣f (x)∣dx, et ∫ −f (x)dx ≤ ∫ ∣f (x)∣dx.


A A A A

La linéarité de l’intégrale implique que :

− ∫ f (x)dx = ∫ −f (x)dx ≤ ∫ ∣f (x)∣dx,


A A A

ce qui termine la preuve.

Proposition 49. (Relation de Chasles)


Soit A et B deux compacts. Si A ∩ B = ∅, pour toute fonction continue sur
A ∪ B, on a :

∫ f (x)dx = ∫ f (x)dx + ∫ f (x)dx.


A∪B A B

Démonstration. Supposons que f est nulle en dehors ed A. Montrons que :

∫ f (x)dx = ∫ f (x)dx.
A A∪B

On pose p le prolongement de f∣A (restriction de f à A) sur Rn . Dans ce cas,


on a :
∫ f (x)dx = ∫ f∣A (x)dx = ∫ n p(x)dx.
A A R
On définit maintenant p̃ le prolongement de f∣A∪B sur Rn . On remarque que :

f (x), si x ∈ A,
p̃(x) = {
0, sinon,

Page 68/ 75
PARTIE 2 – Analyse Fonctionnelle

ce qui implique que p̃ est égal à p puis :

∫ f (x)dx = ∫ p(x)dx = ∫ p̃(x)dx = ∫ f∣A∪B (x)dx = ∫ f (x)dx.


A Rn Rn A∪B A∪B

Maintenant l’additivité de l’intégrale impose que :

∫ f (x)dx = ∫ [f (x)χA (x) + f (x)χB (x)]dx,


A∪B A∪B

=∫ f (x)χA (x)dx + ∫ f (x)χB (x)dx,


A∪B A∪B

= ∫ f (x)χA (x)dx + ∫ f (x)χB (x)dx = ∫ f (x)dx + ∫ f (x)dx.


A B A B

6.3 Théorème de Fubini et Intégration par Tranches

Théorème 50. Fubini (admis)


Soit P et Q deux pavés fermés de Rn et de Rm respectivement. Alors P × Q
est un pavé de Rn+m et toute fonction f ∶ P × Q → R continue vérifie :

∫ f (x, y)dxdy = ∫ (∫ f (x, y)dy) dx = ∫ (∫ f (x, y)dx) dy.


P ×Q P Q Q P

On peut maintenant calculer des intégrales sur des pavés :

Exemple 58. On a :
1 1
∫ (x2 + y 2 )dxdy = ∫ (∫ (x2 + y 2 )dx) dy,
[−1,1]×[−1,1] −1 −1
1
2
= ∫ ( + 2y 2 ) dy,
−1 3
4 1 8
= + 2 ∫ y 2 dy = .
3 −1 3

Page 69/ 75
6.4 Changements de Variables

Remarque 19. Dans le cadre du théorème de Fubini, si f (x, y) s’écrit sous


la forme g(x)h(y) avec g ∶ P → R et h ∶ Q → R continues, alors on obtient :

∫ g(x)h(y)dxdy = (∫ g(x)dx) (∫ h(y)dy) .


P ×Q P Q

Théorème 51. Intégration par Piles (admis)


Soit B ensemble mesurable fermé borné de Rn−1 et deux applications conti-
nues ϕ, ψ ∶ B → R avec ϕ ≤ ψ. Alors l’ensemble :

A = {(x, xn ) ∈ B × R, ϕ(x) ≤ xn ≤ ψ(x)} ,

est mesurable sur Rn et toute fonction continue f ∶ A → R vérifie :


ψ(x)
∫ f (x, xn )dxdxn = ∫ (∫ f (x, xn )dxn ) dx.
A B ϕ(x)

Théorème 52. Intégration par Tranches (admis)


Soit A un compact de Rn tel que pour tout (x, xn ) ∈ Rn−1 × R ∩ A, on ait
a ≤ xn ≤ b. Si pour tout xn ∈ [a, b], l’ensemble :

A(xn ) = {x ∈ Rn−1 , (x, xn ) ∈ A},

est mesurable dans Rn−1 , alors toute fonction continue f ∶ A → R vérifie :


b
∫ f (x, xn )dxdxn = ∫ (∫ f (x, xn )dx) dxn .
A a A(xn )

6.4 Changements de Variables


Nous avons déjà définies les dérivées partielles d’une fonction et son gradient
quand elle est à valeurs réelles. Passons au cas où f ∶ Rn → Rn :

Page 70/ 75
PARTIE 2 – Analyse Fonctionnelle

Définition 32. Soit U un ouvert de Rn et ϕ = (ϕ1 , . . . , ϕn ) une fonction


de classe C 1 (U, Rn ). Pour tout x ∈ U , la matrice jacobienne de ϕ en x
est donnée par :
[Jac(ϕ)(x)]ij = ∂xj ϕi (x).
Le déterminant de cette matrice, noté J(ϕ)(x), est appelé le jacobien de
ϕ en x.

À l’aide du jacobien, nous pouvons étendre la formule de changement de


variable pour des fonctions de plusieurs variables :

Théorème 53. Changement de Variables (admis)


Soit U un compact de Rn et ϕ une application différentiable sur U , inver-
sible et d’inverse différentiable sur ϕ(U ). Alors V = ϕ(U ) est un compact
mesurable et pour toute fonction continue f ∶ V → R, on a :

∫ f (v)dv = ∫ f (ϕ(u)) ∣J(ϕ)(u)∣ du.


V U

6.4.1 Coordonnées Polaires


Dans ce cas précis, nous avons :

ϕ ∶ R+ × [0, 2π[ → R2 ,
(r, θ) ↦ (r cos(θ), r sin(θ)).

Sa matrice jacobienne est :

cos(θ) −r sin(θ)
Jac(ϕ)(r, θ) = ( ),
sin(θ) r cos(θ)

tandis que le jacobien vaut :

J(ϕ)(r, θ) = r cos2 (θ) + r sin2 (θ) = r.

Page 71/ 75
PARTIE 3 – Algèbre Linéaire et Géométrie

Définition 28. Le mineur ∆i,j (A) est le déterminant calculé après avoir
ôté à A sa i-ème ligne et sa j-ème colonne.

Théorème 20. Développement par rapport à une ligne


Soit A ∈ Mn (K). De la même manière, on peut calculer le déterminant en
développant par rapport à la i-ème ligne :
n
det(A) = ∑ (−1)i+j ai,j ∆i,j (A).
j=1

Exemple 36. Calculons le déterminant de la matrice :

⎛ 2 1 0 4 ⎞
⎜ −1 3 2 1 ⎟
A=⎜
⎜ 1
⎟.
⎜ 5 0 −2 ⎟

⎝ 0 1 −1 3 ⎠

En développant d’abord par rapport à la troisième colonne, on a :


21 4 2 1 4
det(A) = −2 ∣ 1 5 −2 ∣ − (−1) ∣ −1 3 1 ∣.
01 3 1 5 −2

On développe le premier déterminant par rapport à la première colonne :

21 4 5 −2 1 4
∣ 1 5 −2 ∣ = 2 ∣ ∣−∣ ∣ = 2 × 17 − (−1) = 35.
01 3 1 3 1 3

Pour le dernier, on développe par rapport à la première colonne :

2 1 4 3 1 1 4 1 4
∣ −1 31 ∣ = 2∣ ∣ − (−1) ∣ ∣+∣ ∣ = −55.
1 5 −2 5 −2 5 −2 3 1

Ainsi on trouve que det(A) = −125.

Page 31/ 97
PARTIE 2 – Analyse Fonctionnelle

Exemple 61. Étudions le volume d’un cône dont la base est un disque de
rayon R > 0 et de hauteur H > 0. L’angle d’ouverture vaut alors α avec
tan(α) = R/H. Cette objet peut être représenté par l’ensemble des points
(x, y, z) avec (x, y) ∈ B(0, R) et z tel que :

x2 + y 2 ≤ z 2 tan2 (α), et 0 ≤ z ≤ H.

Finalement le volume du cône est donné par :


⎧ ¿ ⎫

⎪ Á x2 + y 2 ⎪

V = ∫ dxdydz, avec A = ⎨(x, y, z) ∈ B(0, R) × R, Á
À ≤ z ≤ H ⎬.
A ⎪
⎪ tan (α)
2 ⎪

⎩ ⎭

x2 +y 2
Posons ψ(x, y) = tan2 (α)
. On peut donc appliquer la formule d’intégration
par piles :
H
V = ∫ dxdydz = ∫ (∫ dz) dxdy,
A B(0,R) ψ(x,y)
⎡ ¿
R 2π ⎢ Á r2 ⎤⎥
=∫ [H − ψ(x, y)] dxdy = ∫ ∫ ⎢H − Á
À ⎥ dθrdr,
⎢ tan2 (α) ⎥⎥
B(0,R) 0 0 ⎢
⎣ ⎦
par changement de variables polaires. En faisant le calcul, on obtient :

2πR3 2πR3 H πHR2


V = πR2 H − = πR2 H − = .
3 tan(α) 3R 3

6.4.2 Coordonnées Cylindriques

Dans R3 , nous pouvons utiliser les coordonnées cylindriques :

ϕ(r, θ, z) = (r cos(θ), r sin(θ), z).

Le jacobien vaut toujours J(ϕ)(r, θ, z) = r.

Page 73/ 75
6.4 Changements de Variables

Proposition 55. Posons le cylindre :

C = {(x, y, z), (x, y) ∈ B(0, R), 0 ≤ z ≤ H},

avec R > 0 et H > 0. Soit f ∶ C → R continue. Dans ce cas on a :


R 2π H
∫ f (x, y, z)dxdydz = ∫ ∫ ∫ f (r cos(θ), r sin(θ), z)dzdθrdr.
C 0 0 0

Exemple 62. Le volume du cylindre C de rayon R et de hauteur H vaut :


R 2π H
∫ dxdydz = ∫ ∫ ∫ dzdθrdr = πR2 H.
C 0 0 0

6.4.3 Coordonnées Sphériques


Traitons les coordoonées sphériques avec :

ϕ(r, θ, γ) = (r cos(θ) cos(γ), r sin(θ) cos(γ), r sin(γ)),

pour r ≥ 0, θ ∈ [0, 2π[, et γ ∈ [− π2 , π2 ].

Proposition 56. Soit f ∶ B(0, R) → R continue, avec R > 0. Dans ce cas


on a :
R 2π π/2
∫ f (x, y, z)dxdydz = ∫ ∫ ∫ f (ϕ(r, θ, γ)) cos(γ)dγdθr2 dr,
B(0,R) 0 0 −π/2

avec ϕ(r, θ, γ) = (r cos(θ) cos(γ), r sin(θ) cos(γ), r sin(γ)).

En effet, la matrice jacobienne est :

⎛ cos(θ) cos(γ) −r sin(θ) cos(γ) −r cos(θ) sin(γ) ⎞


Jac(ϕ(r, θ, γ) = ⎜ sin(θ) cos(γ) r cos(θ) cos(γ) −r sin(θ) sin(γ) ⎟ .
⎝ sin(γ) 0 r cos(γ) ⎠

Page 74/ 75
3.6 Lien avec les applications linéaires

ATTENTION .! Quand on parle de matrice d’application linéaire,on


a forcément besoin de deux bases (départ et arrivée) : les espaces de départ
et d’arrivée n’ont a priori rien à voir entre eux.

x 2x+y
Exemple 42. Soit u ∈ L(R3 ) définie par ( yz ) ↦ ( z ). Cherchons sa
x+z
matrice A dans la base canonique B = (ε1 , ε2 , ε3 ) de R . 3

Etape 1. On calcule les images des vecteurs ε1 , ε2 et ε3 par u :


1 2 0 1 0 0
u(0) = (0) ; u(1) = (0) ; u(0) = (1).
0 1 0 0 1 1

Etape 2. On calcule les coordonnées de ces vecteurs images dans B :


2 1
( 0 ) = 2 × ε1 + 0 × ε 2 + 1 × ε3 ; ( 0 ) = 1 × ε 1 + 0 × ε2 + 0 × ε3 ;
1 0
0
(1) = 0 × ε 1 + 1 × ε2 + 1 × ε3 .
1

On obtient finalement :

⎛2 1 0⎞
MatB (u) = ⎜ 0 0 1 ⎟ .
⎝1 0 1⎠

Proposition 26. On considère E et F deux K-espaces vectoriels de dimen-


sion finie. Soit B = (e1 , . . . , en ) et B ′ = (f1 , . . . , fp ) bases respectives de
E et de F . Soit u une application linéaire de E dans F .
On peut alors reconstituer u à partir de A = MatB,B′ (u).

Démonstration. Soit x ∈ E de coordonnées λ1 , . . . , λn dans B. Alors on a :

⎛n ⎞ n n p p ⎛ n ⎞
u(x) = u ∑ λj ej = ∑ λj u(ej ) = ∑ λj (∑ aij fi ) = ∑ ∑ aij λj fi
⎝j=1 ⎠ j=1 j=1 i=1 i=1 ⎝j=1 ⎠

Page 36/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Proposition 27. Soit E et F deux K-espaces vectoriels. Soit B et B ′ des


bases respectives de E et F . Soit u une application linéaire de E dans F .
On a pour tout x de E :

MatB′ (u(x)) = MatB,B′ (u) ⋅ MatB (x).

Exemple 43. Soit u ∈ L(R2 ) tel que sa matrice dans la base canonique C
soit MatC (u) = ( 14 37 ). Dans ce cas, pour (x, y) ∈ R2 , on a :
x+3y
MatC (u(x, y)) = ( 14 32 ) ( xy ) = ( 4x+2y ).

Finalement, u(x, y) = (x + 3y, 4x + 2y).

Exemple 44. Soit u ∈ L(R2 ) tel que, dans la base B = ((1, 1), (1, −1)),
MatB (u) = ( 14 32 ). Soit (x, y) ∈ R2 . On cherche ses coordonnées (α, β) dans
la base B, c’est-à-dire α et β tels que (x, y) = α(1, 1) + β(1, −1). On doit
alors résoudre le système :
x+y
x = α + β, α= 2 ,
{ ⇐⇒ { x−y
y = α − β, β= 2 .

Dans ce cas, nous avons que :

(x + y)/2
MatB ((x, y)) = ( ).
(x − y)/2

Ainsi les coordonnées de u(x, y) dans la base B sont données par :

1 3 (x + y)/2 2x − y
MatB (u(x, y)) = ( )( )=( ).
4 2 (x − y)/2 3x + y

Finalement, en repassant à la base canonique, on trouve que :

u(x, y) = (2x − y)(1, 1) + (3x + y)(1, −1) = (5x, −x − 2y).

Page 37/ 97
4.1 Éléments Propres

0 0 0 1
Exemple 47. Soit A = ( ) et B = ( ). Si une matrice M est
0 0 0 0
semblable à A alors elle peut s’écrire :

M = P −1 AP.

Cependant, quand on multiplie A par une matrice, on obtient encore A : la


seule matrice semblable à A est A elle-même, et donc A et B ne sont pas
semblables.
On remarque facilement que la seule valeur propre de A est 0. Cherchons
les valeurs propres de B. Soit λ ∈ R valeur propre de B et X = (x, y) un
vecteur propre (donc NON NUL) associé à λ. En particulier, il vérifie :

BX = λX,

ce qui se réécrit y = λx et 0 = λy. Deux possibilités s’offrent à nous : soit


λ est nulle, soit y = 0. Supposons que λ ≠ 0. Alors y = 0 et en remplaceant
cette valeur dans la première égalité – à savoir 0 = λx – on obtiendrait que
x = 0 aussi, ce qui est contradictoire. Donc λ = 0 avec (1, 0) qui est un
vecteur propre qui lui est associé.
Finalement, on a deux matrices non semblables qui ont les mêmes valeurs
propres.

Définition 35. Soit A ∈ Mn (K) et λ une de ses valeurs propres. Le sous-


espace propre de A associé à λ est :

Eλ (A) = {X ∈ Kn , (A − λIn )X = 0}.

Proposition 31. Soit λ et µ deux valeurs propres DISTINCTES d’une


matrice A. Alors les deux sous-espaces propres Eλ (A) et Eµ (A) sont en
somme directe c’est-à-dire que :

Eλ (A) ∩ Eµ (A) = {0}.

Page 44/ 97
PARTIE 2 – Analyse Fonctionnelle (TD)

1 Fonctions Hyperboliques
Exercice 1.
Soit x ≠ 0. Exprimez en fonction de ch(x), sh(x), ch(1010x) et sh(1010x) :
2020
C = ∑ ch(2 + kx).
k=1

Correction ▼ [001]

Exercice 2.
Soit x ≠ 0. Exprimez en fonction de ch(x), sh(x), ch(1010x) et sh(1010x) :
2020
S = ∑ sh(2 + kx).
k=1

Correction ▼ [002]

Exercice 3.
Calculez la limite suivante :

lim e−x [ch3 (x) − sh3 (x)] .


x→+∞

Correction ▼ [003]

Exercice 4.
Étudiez et tracez le graphe de la fonction f définie pour tout x > 0 :

f (x) = x − log(sh(x)).

Correction ▼ [004]

Exercice 5.
1. Montrez que pour tous a et b on a :
th(a) + th(b)
th(a + b) = .
1 + th(a)th(b)

Page 3/ 45
1 - Fonctions Hyperboliques

2. Montrez que pour tout x ∈ R∗ , on a :


2 1
th(x) = − .
th(2x) th(x)

3. Pour tout n ∈ N et x ∈ R∗ , on pose :


n
un (x) = ∑ 2k th(2k x).
k=0

Simplifiez l’expression de un (x) (en fonction de n et de x) et en déduire


la limite de un (x) quand n tend vers +∞.
Correction ▼ [005]

Exercice 6.
Soit x ∈ R. Exprimez ch(y), sh(y) et th(y) en fonction de x, avec :
x π
y = log [tan ( + )] .
2 4
Correction ▼ [006]

Exercice 7.
Simplifiez les expressions suivantes :
√ √
A = log ( x2 + 1 + x) + log ( x2 + 1 − x) , B = sh2 (a) cos2 (b) + ch2 (a) sin2 (b).

Correction ▼ [007]

Exercice 8.
Donnez les solutions réelles de ch(x) = 2.
Correction ▼ [008]

Exercice 9.
Donnez les solutions réelles de sh(x) = 1/2.
Correction ▼ [009]

Page 4/ 45
7.4 Sous-Espaces Orthogonaux

Exemple 61. Soit D et D′ deux droites de R2 . Elles sont orthogonales


si et seulement si pour tout x ∈ D et y ∈ D′ , on a x ⊥ y, c’est-à-dire
cos(x, y) = π/2. Deux droites de R2 sont donc orthogonales si et seulement
si elles sont perpendiculaires.
La notion d’orthogonalité est une généralisation de la définition de droites
perpendiculaires, pour des ensembles autres que de simples droites.

Définition 51. Soit un ensemble non vide A ⊂ E. L’orthogonal de l’en-


semble A est noté A⊥ et est défini par :

A⊥ = {x ∈ E, ∀y ∈ A, x ⊥ y}.

Proposition 50. Soit un ensemble non vide A ⊂ E. Alors :


◇ A⊥ est un sous-espace vectoriel de E ;
◇ E ⊥ = {0E } ;
◇ A ∩ A⊥ ⊂ {0E }.

Démonstration. ◇ Montrons que A⊥ est un sous-espace vectoriel de E.


Soit deux éléments x et y de A⊥ et λ ∈ R. Alors pour z ∈ A, on a par
linéarité du produit scalaire φ par rapport à sa première variable :

φ(x + λy, z) = φ(x, z) + λφ(y, z) = 0,

car x ⊥ z et y ⊥ z.
◇ Soit x ∈ E ⊥ . En particulier, x ⊥ x, et comme φ est une forme définie, on
en déduit que x = 0E . Réciproquement, φ(0E , 0E ) = 0, donc le vecteur
nul est orthogonal à lui-même.
◇ Soit x ∈ A ∩ A⊥ . Alors φ(x, x) = 0 et donc x = 0E , car φ est une forme
définie.

Page 74/ 97
3 - Transformée de Fourier

1. Donnez la limite (en fonction de a) de f (x) quand x tend vers 0 ?


2. Déduisez-en que, pour un certain choix de a, la fonction définie par :

−1/2, si x ≠ 0,
g(x) = {
f (x), sinon,

est continue.
Correction ▼ [014]

Exercice 15.
Soit f une fonction de classe C 2 . Calculez la limite suivante :
f (x)−f (0)
f ′ (x) −
L = lim x
.
x→0 x
Correction ▼ [015]

3 Transformée de Fourier
Exercice 16. Transformée des fonctions portes
Soit T > 0. On définit la fonction porte suivante :

1, si − T ≤ x ≤ T,
ΠT (x) = {
0, sinon.

1. Montrez que ΠT ∈ L1 (R). Que vaut ∫−∞ ΠT (x)dx ?


+∞

2. Calculez la transformée de Fourier de ΠT .


Correction ▼ [016]

Exercice 17. Transformée de la fonction triangle


Soit T > 0. On définit la fonction triangle de paramètre T par :

⎪ 1+ x
, si − T ≤ x ≤ 0,



T
f (x) = ⎨ 1 − x
, si 0 ≤ x ≤ T,



T

⎩ 0, sinon.

1. Montrez que f ∈ L1 (R).

Page 6/ 45
PARTIE 3 – Algèbre Linéaire et Géométrie

Définition 55. Une matrice carrée réelle A de taille n est dite orthogonale
si et seulement si AT A = In .

Proposition 57. Soit A ∈ Mn (R). Les assertions suivantes sont équiva-


lentes :
1. A est orthogonale ;
2. AT est orthogonale ;
3. Les vecteurs colonnes de A forment une base orthonormée pour le
produit scalaire euclidien canonique de Rn ;
4. Les vecteurs lignes de A forment une base orthonormée pour le pro-
duit scalaire euclidien canonique de Rn .

Démonstration. 1 ⇔ 2 On remarque que A est orthogonale si et seulement


si A est inversible et que son inverse est AT . Comme l’inverse de la
transposée est la transposée de l’inverse, si A est orthogonale alors AT
est inversible avec :

(AT )−1 = (A−1 )T = (AT )T .

Si AT est orthogonale et inversible, alors A = (AT )T est aussi inversible.


De plus comme AT est orthogonale, on a

A−1 = ((A−1 )T )T = ((AT )−1 )T = ((AT )T )T = AT .

1 ⇔ 3 Notons par (C1 , . . . , Cn ) les colonnes de A. Le produit scalaire eu-


clidien canonique de Rn entre Cj et Ck est par définition :
n n
⟨Cj , Ck ⟩ = ∑(Cj )i (Ck )i = ∑ ai,j ai,k .
i=1 i=1

On reconnaît alors dans la formule de ce produit scalaire la composante


de ligne k et de colonne j du produit matriciel AT A. Ainsi, si A est
orthogonale, on a AT A = In et on en déduit que ⟨Cj , Ck ⟩ vaut 0 si j ≠ k
et 1 sinon, ce qui est exactement équivalent à dire que (C1 , . . . , Cn ) est

Page 81/ 97
7.8 Orientation

Tout d’abord, en utilisant le fait, que X soit un vecteur propre, on a :


s = (λX)T (λX) = λ2 X T X = λ∥X∥2 .
D’autre part, par simple calcul matriciel, on obtient que :
s = X T AT AX = X T In X = X T X = ∥X∥2 ,
en utilisant le fait que A soit orthogonale.
Ainsi on a λ2 ∥X∥2 = ∥X∥2 . Comme X est un vecteur propre, il est non
nul et ∥X∥ ≠ 0. En simplifiant par ∥X∥2 , on a λ2 = 1 puis λ = ±1.

Définition 56. Soit u une isométrie et A sa matrice. L’isométrie u est dite


directe lorsque det(A) = 1 et indirecte lorsque det(A) = −1.

Proposition 60. La composée de deux isométries est une isométrie.

Démonstration. Soit u et v deux isométries de E. Alors pour tout x ∈ E, on a


N (u(v(x))) = N (v(x)) = N (x), où on a utilisé le fait que u est une isométrie
puis que v est une isométrie.

7.8 Orientation

Définition 57. Soit B = (e1 , . . . , en ) une base de Rn . On dit que B est


une base directe si et seulement si le déterminant de la matrice de B dans
la base canonique est positif.
Dans le cas contraire, on dit que la base est indirecte.

Exemple 70. Soit B = ((1, 1), (1, 0)). La matrice de B dans la base
1 1
canonique de R2 est ( ), dont le déterminant vaut -1. La base B est
1 0
donc une base indirecte.

Page 84/ 97
PARTIE 2 – Analyse Fonctionnelle (TD)

4 Produit de Convolution
Exercice 21.
Soit a, b > 0. On pose :

Ga (x) = exp(−ax2 ), et Gb (x) = exp(−bx2 ).

1. Montrez que pour tous x, y ∈ R :

b 2 b2
ay 2 + b(x − y)2 = (σy + x) + bx2 − 2 x2 ,
σ σ

avec σ = a + b.
2. À l’aide de la question précédente, montrez que pour tout x ∈ R :
√ ab 2
Ga ∗ Gb (x) = π(a + b) exp [− x ].
a+b
On rappellera que :
+∞ 2 √
∫ e−z dz = π.
−∞

Correction ▼ [021]

Exercice 22.
Fixons T . On note ΠT la fonction porte définie dans l’exercice 16.
1. Que vaut ΠT ∗ ΠT (x) si x ∈ [−2T, 0] ? et si x ∈ [0, 2T ] ? et si x ∉ [−2T, 2T ] ?
2. À l’aide de la question précédente et de l’exercice 16, retrouvez le résultat
trouvé dans l’exercice 17.
Correction ▼ [022]

Exercice 23.
On va résoudre l’équation différentielle suivante y ′′ (x) − y(x) = E(x), avec E(x)
définie dans l’exercice 18 pour a = 1.
1. On suppose qu’une solution y admette une transformée de Fourier ŷ, tout
comme sa dérivée seconde y ′′ . Montrez que pour tout ξ ∈ R :

1 1 1
ŷ(ξ) = − √ .
2π 1 + iξ 1 + ξ2

Page 9/ 45
5 - Dérivées Partielles et Différentielles

2. Montrez qu’il existe deux fonctions f et g (à déterminer) telles que 1 :


1
y(x) = √ (f ∗ g)(x).

3. Déduisez-en y(x).
Correction ▼ [023]

5 Dérivées Partielles et Différentielles


Exercice 24.
Calculez les dérivées partielles par rapport à x et par rapport à y des fonctions :
◇ f (x, y) = y 2 x3 + x − y ;
◇ g(x, y) = x3 + y 2 ;
◇ h(x, y) = sin(x) + cos(y).
Correction ▼ [024]

Exercice 25.
Calculez les dérivées partielles par rapport à x, à y et à z des fonctions :
◇ f (x, y, z) = ex + ey − ez ;
◇ g(x, y, z) = (x + y)e−z ;
◇ h(x, y, z) = 1
1+x2 +y 2 +z 2
.
Correction ▼ [025]

Exercice 26.
Donnez les dérivées partielles par rapport à x et à y de la fonction :

f (x, y) = (x + y, x − y).

Correction ▼ [026]

1. Pensez aux différentes transformées de Fourier que nous avons déjà calculées dans les
précédents exercices.

Page 10/ 45
PARTIE 2 – Analyse Fonctionnelle (TD)

Exercice 27.
Donnez les différentielles des fonctions suivantes au point a = (1, −1) :
◇ f (x, y) = 2x − y ;
◇ g(x, y) = x2 + y 2 ;
◇ h(x, y) = xy.
Correction ▼ [027]

Exercice 28. Équation de Transport avec Force Extérieure


On cherche à résoudre l’équation de transport ∂t y(t, x) − ∂x y(t, x) = 1, avec
y(0, x) = exp(−x2 ). Supposons qu’elle admette une solution y.
1. On fixe x ∈ R et t > 0. On pose χ(t) la solution de :

χ′ (s) = −1,
{
χ(t) = x.

Vérifiez que la fonction définie par v(s) = y(s, χ(s)) satisfait v ′ (s) = 1.
2. Exprimez χ(s) et v(s) en fonction de t et de x.
3. Déduisez-en y(t, x) et vérifiez qu’elle est bien solution.
Correction ▼ [028]

Exercice 29. Équation de Burgers – n°1


On cherche à résoudre l’équation de transport ∂t y(t, x) + y(t, x)∂x y(t, x) = 0, avec
y(0, x) = x. Supposons qu’elle admette une solution y.
1. On fixe x ∈ R et t > 0. On pose χ(t) la solution de :

χ′ (s) = y(s, χ(s)),


{
χ(t) = x.

Vérifiez que la fonction définie par v(s) = y(s, χ(s)) est constante.
2. Exprimez χ(s) et v(s) en fonction de t et de x.
3. Déduisez-en y(t, x) et vérifiez que y est bien solution.
Correction ▼ [029]

Page 11/ 45
6 - Intégrales Doubles et Triples

Exercice 30. Équation de Burgers – n°2


On cherche à résoudre l’équation de transport :

∂t y(t, x) − y(t, x)∂x y(t, x) = 0,

avec y(0, x) = x. Supposons qu’elle admette une solution y.


1. On fixe x ∈ R et t ∈]0, 1[. On pose χ(t) la solution de :

χ′ (s) = −y(s, χ(s)),


{
χ(t) = x.

Vérifiez que la fonction définie par v(s) = y(s, χ(s)) est constante.
2. Exprimez χ(s) et v(s) en fonction de t et de x.
3. Déduisez-en y(t, x) et vérifiez que y et bien solution.
4. Que remarquez-vous ?
Correction ▼ [030]

6 Intégrales Doubles et Triples


Exercice 31.
Calculez les intégrales suivantes :
◇ I1 = ∫[−2,1]×[−1,2] xydxdy ;
◇ I2 = ∫[−1,1]×[−1,1] (x + y)dxdy ;
◇ I3 = ∫[0,1]×[0,2] yex dxdy.
◇ I4 = ∫[0,1]×[0,2] xey dxdy.
Correction ▼ [031]

Exercice 32.
Calculez l’intégrale suivante :

π(x + y)
I =∫ z 2 sin ( ) dxdydz.
[−1,2]×[−2,1]×[−1,1] 2
Correction ▼ [032]

Page 12/ 45
PARTIE 2 – Analyse Fonctionnelle (TD)

Exercice 33.
On pose D = {(x, y) ∈ [0, 1] × R, x2 ≤ y ≤ x}. Calculez ∫D xydxdy.
Correction ▼ [033]

Exercice 34.
On pose D = {(x, y) ∈ R2 , x ≥ 0, y ≥ 0, x + y ≤ 1}. Calculez ∫D xydxdy.
Correction ▼ [034]

Exercice 35.
On définit les deux ensembles :
◇ D1 = {(x, y) ∈ R2 , 0 ≤ x ≤ 1, 0 ≤ y − x ≤ 1} ;
◇ D2 = {(x, y) ∈ R2 , 0 ≤ x ≤ 1, x2 ≤ y ≤ 1}.
Calculez les intégrales ∫D1 xydxdy et ∫D2 xydxdy.
Correction ▼ [035]

Exercice 36. √
Calculez l’intégrale suivante I = ∫D(0,2π) y cos( x2 + y 2 )dxdy.
Correction ▼ [036]

Exercice 37.
Calculez I = ∫D xydxdy, avec D = {(x, y) ∈ R2 , x ≥ 0, y ≥ 0, x2 + y 2 ≤ 1}.
Correction ▼ [037]

Exercice 38.
Pour D = {(x, y, z) ∈ R3 , x ≥ 0, y ≥ 0, z ≥ 0, x2 + y 2 + z 2 ≤ 1}, calculez l’intégrale
I = ∫D xyz(x2 + y 2 + z 2 )dxdydz.
Correction ▼ [038]

Exercice 39.
Que vaut le volume de H = {(x, y, z) ∈ R3 , −4 ≤ z ≤ 4, x2 + y 2 ≤ z 2 + 1} ? 2
Correction ▼ [039]

2. Définissez la fonction f (x, y, z) = χH (x, y, z) la fonction caractéristique de H et remar-


quez que ∫H dxdydz = ∫R3 f (x, y, z)dxdydz.

Page 13/ 45
A - Fonctions Hyperboliques

A Fonctions Hyperboliques

Correction de l’exercice 1. ▲
On rappelle que :
ey + e−y
ch(y) = .
2
Nous allons utiliser cette formule pour y = 2 + kx :
2020
e2+kx + e−2−kx e2 2020 kx e−2 2020 −kx
C= ∑ = ∑ e + ∑ e ,
k=1 2 2 k=1 2 k=1
e2 2020 x k e−2 2020 −x k e2 x 1 − e2020x e−2 −x 1 − e−2020x
= ∑ (e ) + ∑ (e ) = e + e ,
2 k=1 2 k=1 2 1 − ex 2 1 − e−x
e2+x 1010x e−1010x − e1010x e−2−x −1010x e1010x − e−1010x
= e + e ,
1−e x 2 1 − e−x 2
1 1
= −e2+1011x sh(1010x) + e−2−1011x sh(1010x),
1 − ex 1 − e−x
sh(1010x)
= [e−2−1011x (1 − ex ) − e2+1011x (1 − e−x )] .
(1 − ex )(1 − e−x )

Remarquons que :

(1 − ex )(1 − e−x ) = 2 − e−x − ex = 2 − (e−x + ex ) = 2 − 2ch(x),

et que :
e−2−1011x (1 − ex ) − e2+1011x (1 − e−x ) = e−2−1011x − e2+1011x − e−2−1010x + e2+1010x ,
= −2sh(2 + 1011x) + 2sh(2 + 1010x).

Ainsi on a obtenu que :

sh(1010x)
C= [sh(2 + 1010x) − sh(2 + 1011x)] .
1 − ch(x)

Les formules de duplication impliquent que :

sh(2 + 1010x) − sh(2 + 1011x) = sh(2)ch(1010x) + ch(2)sh(1010x)


− sh(2)ch(1011x) − ch(2)sh(1011x).

Page 14/ 45
2 - Applications linéaires

2. Exprimez ker(u) et Im(u), sous forme de Vect.


3. Que valent dim(ker(u)) et dim(Im(u)) ?
Correction ▼ [027]

Exercice 28.
Nous allons découvrir dans cette exercice une autre utilisation du noyau
d’une application. Plus précisément, nous allons démontrer rapidement que
l’ensemble suivant est un espace vectoriel :

E = {(x, y, z) ∈ R3 , 2x + y − z = 0}.

1. On pose l’application u telle que :∀(x, y, z) ∈ R3 , u(x, y, z) = 2x + y − z.


Montrez que u est linéaire.
2. En faisant le lien entre E et u, déduisez-en que E est un R-espace
vectoriel.
Correction ▼ [028]

Exercice 29.
Montrez que l’ensemble ci-dessous est un R-espace vectoriel :

E = {(x, y, z, t) ∈ R4 , x − y + z − t = 0}.

Correction ▼ [029]

Exercice 30.
On définit u = (1, 1) et v = (1, −1), puis F = Vect(u) et G = Vect(v).
1. Montrez que F et G sont supplémentaires dans R2 .
2. Exprimez p1 (x, y), le projeté de (x, y) sur F parallèlement à G.
3. Exprimez p2 (x, y), le projeté de (x, y) sur G parallèlement à F .
4. Exprimez la symétrie s1 par rapport à F parallèlement à G.
5. Exprimez la symétrie s2 par rapport à G parallèlement à F .

Page 12/ 90
A - Fonctions Hyperboliques

On termine à l’aide des formules de duplication comme lors de l’exercice pré-


cédent.

Correction de l’exercice 3. ▲
À l’aide de la définition de ch, la formule du binôme de Newton nous donne :

ex + e−x 3 e3x + 3e2x e−x + 3ex e−2x + e−3x e3x + 3ex + 3e−x + e−3x
ch3 (x) = ( ) = = .
2 8 8
De la même manière, on trouve que :

ex − e−x 3 e3x − 3ex + 3e−x − e−3x


sh3 (x) = ( ) = .
2 8
Ainsi nous sommes ramener à étudier la limite quand x tend vers +∞ de la
fonction :

f (x) = e−x [ch3 (x) − sh3 (x)] ,


e3x + 3ex + 3e−x + e−3x e3x − 3ex + 3e−x − e−3x
= e−x [ − ],
8 8
3ex − e−3x 3 − e−4x
= e−x [ ]= .
4 4

Or exp(−4x) converge vers 0, quand x tend vers +∞. Cela implique donc que :

lim e−x [ch3 (x) − sh3 (x)] = .


3
x→+∞ 4

Correction de l’exercice 4. ▲

◇ La fonction f est continue et même dérivable sur R+ car sh et log le


sont.
◇ Dérivée de f : Calculons f ′ (x).
th(x) − 1
f ′ (x) = 1 −
ch(x) 1
=1− = < 0.
sh(x) th(x) th(x)

◇ Comme f ′ (x) < 0, on sait que f est une fonction décroissante.

Page 16/ 45
PARTIE 2 – Analyse Fonctionnelle (TD)

◇ Étudions les limites de la fonction f en 0 et en +∞ :


— En 0+ : On sait que lim+ sh(x) = 0+ et que lim+ log(y) = −∞. D’après
x→0 y→0
les règles de calculs sur les limites, on a :

lim f (x) = +∞.


x→0+

— En +∞ : On a une forme indéterminée ! Pour lever l’indétermination,


nous allons donc modifier l’écriture de f (x) :

ex − e−x
f (x) = x − log ( ) = x + log(2) − log(ex − e−x ),
2
= x + log(2) − log[ex (1 − e−2x )],
= x + log(2) − log(ex ) − log(1 − e−2x ),
= x + log(2) − x − log(1 − e−2x ) = log(2) − log(1 − e−2x ).

D’après le cours, on sait que lim log(1 − e−2x ) = 0. Finalement, on


x→+∞
trouve que :
lim f (x) = log(2).
x→+∞

Figure 1 – Graphe de f (x) (bleu) et de sa limite en +∞ (rouge).

Page 17/ 45
PARTIE 3 – Algèbre Linéaire (TD)

Exercice 41.
−1 0 1
Soit A = ( 1 −1 0 ). Calculez le produit suivant :
0 1 −1

a b c
A⋅(d e f ).
g h i

En raisonnant par l’absurde, déduisez-en que A n’est pas inversible.


Correction ▼ [041]

Exercice 42.
Dîtes si les propositions suivantes sont vraies ou fausses. Justifiez vos ré-
ponses.
1. Si A est inversible, alors A−1 l’est aussi et (A−1 )−1 = A ;
2. Si A est inversible et si λ ≠ 0, alors λA est inversible et (λA)−1 = λ−1 A−1 ;
3. Si A et B sont inversibles, alors A+B l’est aussi et (A+B)−1 = A−1 +B −1 ;
4. Si A et B sont inversibles, alors AB l’est aussi et (AB)−1 = B −1 A−1 ;
5. Si A et P sont inversibles, alors P AP −1 l’est aussi et :

(P AP −1 )−1 = P A−1 P −1 .

Correction ▼ [042]

Exercice 43.
Soit D une matrice diagonale. Montrez que :

D est inversible si et seulement si ∀i ∈ J1, nK, dii ≠ 0.

Dans ce cas, montrez que D−1 est diagonale et son coefficient diagonal d’ordre
i est d−1
ii .
Correction ▼ [043]

Page 17/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Exercice 47.
Calculez la trace et le déterminant de la matrice :

⎛ −1 0 1 ⎞
A = ⎜ 1 −1 0 ⎟ .
⎝ 0 1 −1 ⎠

Déduisez-en que A n’est pas inversible.


Correction ▼ [047]

Exercice 48.
Calculez le déterminant des matrices suivantes :

⎛1 0 1 0⎞ ⎛ 1 2 1 2 ⎞
⎜0 1 0 0⎟ ⎜ 2 1 2 1 ⎟
A=⎜
⎜1
⎟, B=⎜ ⎟
⎜ 0 −1 0⎟

⎜ 1
⎜ 2 −1 −2 ⎟

⎝1 2 3 4⎠ ⎝ −2 −1 2 1 ⎠

⎛1 0 1 0 1 ⎞ ⎛1 1 1 1 1 ⎞
⎜0 1 0 1 0 ⎟ ⎜1 1 1 1 −1 ⎟
⎜ ⎟ ⎜ ⎟
C=⎜
⎜1 0 1 0 −1 ⎟
⎟, et D=⎜
⎜1 1 1 −1 1 ⎟
⎟.
⎜ ⎟ ⎜ ⎟
⎜0 1 0 −1 0 ⎟ ⎜1 1 −1 1 1 ⎟
⎝1 0 −1 0 1 ⎠ ⎝1 −1 1 1 1 ⎠
Correction ▼ [048]

Exercice 49. Cours


Soit A ∈ Mn (K) telle qu’il existe B ∈ Mn (K) avec AB = In .
1. Montrez que det(A) ≠ 0 et que det(B) = 1/ det(A). Déduisez-en que A
est inversible.
2. Montrez que BA = In , puis B = A−1 .
Correction ▼ [049]

Page 19/ 90
A - Fonctions Hyperboliques

par les formules de duplication. On a finalement que :


1 1
ch(y) = = .
sin (x + 2 ) cos(x)
π

◇ Expression de sh(y) :
ey − e−y
sh(y) = ,
2
sin( x2 + π4 ) cos( x2 + π4 )
tan ( x2 − π4 ) − 1
tan( x2 + π4 ) cos( x2 + π4 )
− sin( x2 + π4 )
= = ,
2 2
sin2 ( x2 + π4 ) − cos2 ( x2 + π4 )cos [2 ( x2 + π4 )]
= =− ,
2 cos ( x2 + π4 ) sin ( x2 + π4 ) sin [2 ( x2 + π4 )]
par les formules de duplication. On a finalement que :
cos (x + π2 ) sin(x)
sh(y) = − = = tan(x).
sin (x + π
2
) cos(x)

◇ Expression de th(y) (à l’aide de ce que nous avons trouvé ci-dessus) :


sh(y) tan(x)
th(y) = = 1
= cos(x) tan(x) = sin(x).
ch(y) cos(x)

Correction de l’exercice 7. ▲
◇ Commençons par :
√ √
A = log ( x2 + 1 + x) + log ( x2 + 1 − x) .

Remarquons tout d’abord que pour tout x ∈ R, on a que x2 + 1 ≥ x2 , ce


qui implique que :
√ √
x2 + 1 > x, et x2 + 1 > −x.
Ainsi les deux termes en log ont bien un sens. Maintenant, à l’aide de
la propriété log(a) + log(b) = log(ab), on obtient que :
√ √
A = log [( x2 + 1 + x) ( x2 + 1 − x)] = log [x2 + 1 − x2 ] = log(1) = 0.

Page 20/ 45
3.5 Lien avec les Applications Linéaires

Exercice 55.
Soit f l’application linéaire définie par :

f (x, y, z) = (x + y, y − z).

1. Donnez la matrice de f dans les bases canoniques de R3 et R2 , notées


respectivement par C3 et C2 .
2. On suppose que B = ((1, 0, 0), (1, 1, 0), (1, 1, 1)) est une base de R3 .
Donnez la matrice de f dans les bases B et C2 .
3. On suppose que B ′ = ((1, 0), (1, −1)) est une base de R2 . Donnez la
matrice de f dans les bases C3 et B ′ .
4. Donnez la matrice de f dans les bases B et B ′ .
Correction ▼ [055]

Exercice 56.
Soit f l’endomorphisme défini par :

f (x, y) = (y, x).

1. Donnez la matrice de f dans la base canonique.


2. Déduisez-en que f est inversible. Donnez la matrice de f −1 dans la base
canonique.
3. Caractérisez géométriquement f .
4. Montrez que la famille B = ((1, 1), (1, −1)) est une base de R2 .
5. Donnez la matrice de f dans la base B.
Correction ▼ [056]

Page 22/ 90
4.1 Éléments Propres

Exercice 60.
Trouvez les valeurs propres (réelles et complexes) et les sous-espaces propres
des matrices suivantes :

0 1 1 1 ⎛0 0 1⎞
A=( ), B=( ), et C = ⎜ 0 1 0 ⎟.
−1 0 0 1 ⎝1 0 0⎠

Correction ▼ [060]

Exercice 61. Matrices Stochastiques


On considère une matrice A ∈ Mn (R) telle que :

n
∀i, j, aij ≥ 0, et ∀i, ∑ aij = 1.
j=1

1. Montrez que 1 est un vecteur propre de A.


2. Soit λ une valeur propre (complexe) de A.
(a) En considérant un vecteur propre X associé, montré que pour tout
indice i :
RRR n R
RRR a x RRRRR ≤ max ∣x ∣.
RRR ∑ ij j RRR k
RRj=1 RR k

(b) Déduisez-en que ∣λ∣ ≤ 1.


3. Application : Quelles sont les valeurs propres de la matrice :

1/2 1/2
S=( ).
1/4 3/4

Commentez.
Correction ▼ [061]

Page 24/ 90
4.2 Polynôme Caractéristique

Exercice 65.
Soit f l’endomorphisme de R3 dont la matrice dans la base canonique est :

⎛2 0 0⎞
A = ⎜ 0 4 2 ⎟.
⎝ 0 −1 1 ⎠

1. Calculez le polynôme caractéristique de f .


2. Donnez les valeurs propres de f et les sous-espaces propres associés.
3. Montrez qu’il existe une base de R3 constituée de vecteurs propres de
f.
4. Donnez la matrice de f dans cette base.
Correction ▼ [065]

Exercice 66.
Soit f l’endomorphisme de R3 dont la matrice dans la base canonique est :

⎛2 1 2⎞
A = ⎜ 0 4 2 ⎟.
⎝ 0 −1 1 ⎠

1. Calculez le polynôme caractéristique de f .


2. Donnez les valeurs propres de f et les sous-espaces propres associés.
3. Existe-t-il une base de R3 constituée de vecteurs propres de f ?
4. Comparez avec l’exercice précédent.
Correction ▼ [066]

Exercice 67.
Soit A la matrice :
⎛ 2 0 −1 ⎞
A = ⎜ −1 1 1 ⎟,
⎝ 0 −1 0 ⎠

et f l’endomorphisme de R3 associé.

Page 26/ 90
PARTIE 3 – Algèbre Linéaire (TD)

1. Factorisez le polynôme caractéristique de A.


2. Déterminez les sous-espaces propres de A.
3. Démontrez qu’il existe une base de R3 dans laquelle la matrice de f
est :
⎛1 1 0⎞
B = ⎜ 0 1 1 ⎟.
⎝0 0 1⎠
Correction ▼ [067]

4.3 Diagonalisation
Exercice 68.
Les matrices suivantes sont-elles diagonalisables dans R ?

⎛ 1 4 5 ⎞ ⎛ 1 0 0 ⎞ ⎛ 0 1 1 ⎞ ⎛ 2 0 0 ⎞
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
A=⎜ 0 2 6 ⎟, B=⎜ 1 2 0 ⎟, C=⎜ 0 0 0 ⎟, D=⎜ 1 2 0 ⎟.
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 0 0 7 ⎠ ⎝ 1 0 2 ⎠ ⎝ 0 0 0 ⎠ ⎝ 0 3 2 ⎠

Correction ▼ [068]

Exercice 69.
Soit f l’endomorphisme de R3 dont la matrice dans la base canonique est :

⎛ 0 5 −2 ⎞
A = ⎜ 0 −7 3 ⎟ .
⎝ −1 −16 7 ⎠

1. Exprimez χA (X) et étudiez la fonction x ↦ χA (x).


2. Déduisez-en que f est diagonalisable.
Correction ▼ [069]

Page 27/ 90
PARTIE 2 – Analyse Fonctionnelle (TD)

De plus, on a :
x3
+o(x4 )
esin(x) = ex− 6 ,
3 2 3
x 1 x3 1 x3
= 1 + (x − + o(x4 )) + (x − + o(x4 )) + (x − + o(x4 )) + o(x3 ),
6 2 6 6 6
x2
=1+x+ + o(x3 ),
2
et :
x3
+o(x4 )
etan(x) = ex+ 3 ,
2 3
x3 1 x3 1 x3
= 1 + (x + + o(x4 )) + (x + + o(x4 )) + (x + + o(x4 )) + o(x3 ),
3 2 3 6 3
x2 x3
=1+x+ + + o(x3 ).
2 2
Cela nous permet de trouver le développement limité suivant :
x3 x3
esin(x) − etan(x) = − + o(x3 ) ∼ − .
2 2
Donc l’équivalent de f au voisinage de 0 est :
−x3 /2
f (x) ∼ ,
−x3 /2
ce qui implique que :
lim f (x) = 1.
x→0

Correction de l’exercice 14. ▲

1. On utilise le développement limité de cos au voisinage de 0 :


x2
1− + o(x3 ) − a 1 − a 1
f (x) = 2
= 2 − + o(x).
x2 x 2
Ainsi si a ≠ 1, alors f (x) tend vers +∞ quand x tend vers 0, tandis que
si a = 1 :
1 1
lim f (x) = lim (− + o(x)) = − .
x→0 x→0 2 2

Page 25/ 45
B - Développements Limités

2. D’après la question précédente, si on prend a = 1, on a que :

1
lim g(x) = lim f (x) = − = g(0).
x→0 x→0 2

Donc g est continue en 0, dans ce cas (et elle est continue en tous les
autres points). Donc pour a = 1, g est continue.

Correction de l’exercice 15. ▲


D’après les formules de Taylor, comme f est de classe C 2 , on sait que :

f ′′ (0) 2
f (x) = f (0) + f ′ (0)x + x + o(x2 ),
2

ce qui implique que :

f ′′ (0)
′ f (x) − f (0) f ′ (0)x + 2 x2 + o(x2 )
f (x) − = f ′ (x) − ,
x x
f ′′ (0)
= f ′ (x) − f ′ (0) − x + o(x).
2

Or f ′ est aussi de classe C 1 . On peut donc appliquer les formules de Taylor à


la fonction f ′ :
f ′ (x) = f ′ (0) + f ′′ (0)x + o(x).

En mettant tout ça bout à bout, on obtient que :

f (x)−f (0)
f ′ (x) − f ′ (x) − f ′ (0) f ′′ (0)
x
= − + o(1),
x x 2
f ′′ (0) f ′′ (0)
= f ′′ (0) − + o(1) = + o(1).
2 2

Finalement, on a montré que :

f ′′ (0)
L= .
2

Page 26/ 45
A.1 Sous-Espaces Vectoriels


7. On a 2 ∈ E et 1 √1
= λ ⋅ x ∉ E : sinon, on aurait a ∈ N et
∈ Q. Or

2 2
b ∈ N∗ tels que 2
√ √
= ab , puis 2 = 2a
2 b impliquerait que 2 ∈ Q, ce qui
est faux. Donc E n’est pas stable par produit par un scalaire : ce n’est
pas un sous-R-espace vectoriel de R.

Correction de l’exercice 2. ▲
On sait que E ⊂ R3 . Montrons que E est un sous-R-espace vectoriel de R3 .
◇ On remarque tout d’abord que (0, 0, 0) ∈ E.
◇ Soit X = (x, y, z) et X ′ = (x′ , y ′ , z ′ ) des éléments de E et λ ∈ R. Posons
X ′′ = (x′′ , y ′′ , z ′′ ) = X + λX ′ qui vérifie :
2x′′ − y ′′ + z ′′ = 2(x + λx′ ) − (y + λy ′ ) + (z + λz ′ ) = (2x − y + z) + λ(2x′ − y ′ + z ′ ) = 0,

car X, X ′ ∈ E. Donc X ′′ est dans E : E est stable par combinaisons


linéaires.
◇ On a ainsi montré que E est un sous-R-espace vectoriel de R3 : c’est un
R-espace vectoriel.

Correction de l’exercice 3. ▲

1. On sait que R ⊂ C et 0 ∈ R. Comme R est un R-espace vectoriel, on sait


que R est stable par combinaisons linéaires : R est un sous-R-espace
vectoriel de C ;
2. L’ensemble E contient 0. Soit ix, iy ∈ E et λ ∈ R :

(ix) + λ(iy) = i(x + λy) ∈ E,

car x + λy ∈ R. Donc E est stable par combinaisons linéaires. On a


montré ainsi que E est un sous-R-espace vectoriel de C ;

3. On note z = (i + 2) pour simplifier les notations. On remarque que
0 ∈ E. De plus, si zx, zy ∈ E, et λ ∈ R, alors :

(zx) + λ(zy) = z(x + λy) ∈ E,

car x + λy ∈ R. Donc E est stable par combinaisons linéaires. On a


montré ainsi que E est un sous-R-espace vectoriel de C ;

Page 32/ 90
C - Transformée de Fourier

4. Pour ξ ∈ R, on a :
1
f̂(ξ) = √
+∞
∫ f (x)e−ixξ dx,
2π −∞

1 0 x −ixξ T x
=√ [∫ )e
(1 + dx + ∫ (1 − ) e−ixξ dx] ,
2π −T T 0 T
1 0 1 0 T 1 T
=√ [∫ e−ixξ dx + ∫ xe−ixξ dx + ∫ e−ixξ dx − ∫ xe−ixξ dx] ,
2π −T T −T 0 T 0
1 0 1 T 1
=√ [∫ e −ixξ
dx + JT (ξ) + ∫ e −ixξ
dx − IT (ξ)] ,
2π −T T 0 T
1 1 − eiT ξ 1 e−iT ξ − 1 1
=√ [ − IT (−ξ) + − IT (ξ)] ,
2π −iξ T −iξ T
1 eiT ξ − e−iT ξ 1
=√ [ − (IT (−ξ) + IT (ξ))] .
2π iξ T

Tout d’abord, remarquons que :

eiT ξ − e−iT ξ 2 sin(T ξ)


= .
iξ ξ
Ensuite, nous avons :

T eiT ξ eiT ξ − 1 T e−iT ξ e−iT ξ − 1


IT (−ξ) + IT (ξ) = + − + ,
iξ ξ2 iξ ξ2
2T sin(T ξ) cos(T ξ) − 1
= +2 .
ξ ξ2
Ainsi on obtient que :

1 − cos(T ξ)
f̂(ξ) = 2 √ .
T 2πξ 2
On peut aussi utiliser les formules de duplication pour réécrire cette
formule :
1 − [cos2 (T ξ/2) − sin2 (T ξ/2)] 4 sin2 (T ξ/2)]
f̂(ξ) = 2 √ = √ .
T 2πξ 2 T 2πξ 2

Page 28/ 45
PARTIE 2 – Analyse Fonctionnelle (TD)

Correction de l’exercice 18. ▲


1. On considère A et B avec A < 0 < B. On vérifie que :
B e−aB − 1
B
∫ ∣E(x)∣dx = ∫ e−ax dx =
.
A 0 −a
Cette quantité admet une limite quand A tend vers −∞ et quand B
tend vers +∞. Ainsi on a montré que E ∈ L1 (R) avec :
+∞ B e−aB − 1 1
∫ E(x)dx = lim ∫ f (x)dx = lim = .
−∞ A→−∞ A A→−∞ −a a
B→+∞ B→+∞

2. Pour ξ ∈ R, on a :
+∞ +∞
E(x)e−ixξ dx = √ ∫ e−(a+iξ)x dx,
̂ 1 1
E(ξ) =√ ∫
2π −∞ 2π 0
B 1 e−(a+iξ)B − 1
= lim √ ∫ e−(a+iξ)x dx = lim √
1
.
B→+∞ 2π 0 B→+∞ 2π −(a + iξ)
Cependant, ∣e−(a+iξ)B ∣ ≤ e−aB tend vers 0, quand B tend vers +∞. Ainsi
on a montré que :
̂ 1 1
E(ξ) =√ .
2π a + iξ

Correction de l’exercice 19. ▲


1. Le changement de variable y = x + c implique que :
+∞ +∞ +∞
∫ ∣fc (x)∣dx = ∫ ∣f (x + c)∣dx = ∫ ∣f (y)∣dy.
−∞ −∞ −∞

Cette dernière quantité est finie, par hypothèse d’intégrabilité de f sur


R : ainsi fc ∈ L1 (R).
2. Pour tout ξ ∈ R, on a :
+∞ +∞
fc (x)e−ixξ dx = √ ∫ f (x + c)e−ixξ dx,
1 1
f̂c (ξ) = √ ∫
2π −∞ 2π −∞
+∞ eicξ +∞
f (y)e−i(y−c)ξ dy = √ ∫ f (y)e−iyξ dy,
1
=√ ∫
2π −∞ 2π −∞

Page 29/ 45
C - Transformée de Fourier

à l’aide du changement de variable y = x + c. On a donc trouvé que :

f̂c (ξ) = eicξ f̂(ξ).

3. (a) On a déjà vu que :


̂ T (ξ) = 2 sin(T
Π √
ξ)
.
2πξ
Par la question 2, on obtient finalement que la transformée de Fou-
rier de la fonction g(x) = ΠT (x − T ) vaut :

g (ξ) = e−iT ξ √
2 sin(T ξ)
̂ .
2πξ

(b) On remarque que :



1
si − 2T ≤ x ≤ 0,

⎪ 2T ,
⎪ 1
f ′ (x) = ⎨ − 2T , si 0 ≤ x ≤ 2T,




⎩ 0, sinon.

Maintenant pour x ∈ [−2T, 0], on a x + T ∈ [−T, T ] et x − T ≤ −T , ce


qui implique que :

ΠT (x + T ) − ΠT (x − T ) = 1 − 0 = 1.

De même, pour x ∈ [0, 2T ], on a :

ΠT (x + T ) − ΠT (x − T ) = 0 − 1 = −1,

et si x ∉ [−2T, 2T ], ΠT (x + T ) − ΠT (x − T ) = 0. Cela nous permet de


conclure.
(c) De la même façon que dans la question 3.(a), la transformée de
Fourier de la fonction h(x) = ΠT (x + T ) est :

̂ 2 sin(T ξ)
h(ξ) = eiT ξ √ .
2πξ

Page 30/ 45
PARTIE 2 – Analyse Fonctionnelle (TD)

Ainsi par linéarité et d’après la question 3.(b), on a que :

− e−iT ξ √
1 ̂ 1 2 sin(T ξ) 2 sin(T ξ)
f̂′ (ξ) = [h(ξ) − ̂
g (ξ)] = [eiT ξ √ ],
2T 2T 2πξ 2πξ
sin(T ξ) 2i sin2 (T ξ)
(e − e−iT ξ ) √
1 iT ξ
= = √ .
T 2πξ T 2πξ

D’après le cours, on sait que f̂′ (ξ) = iξ f̂(ξ), ce qui nous permet
d’écrire que :
1 2 sin2 (T ξ)
f̂(ξ) = f̂′ (ξ) = √ .
iξ T 2πξ 2

Correction de l’exercice 20. ▲

1. On cherche b et c telles que :

1 b c b(ix − a′ ) − c(ix + a′ )
= − = ,
1 + a2 x2 ix + a′ ix − a′ (ix + a′ )(ix − a′ )
(b − c)ix − a′ (b + c) ′
2 (b − c)ix − a (b + c)
= = −a .
−x2 − a′2 a2 x2 + 1
Par identification, de telles constantes sont solutions de :

b − c = 0, 1 1
{ 2 ′
⇐⇒ b = c = ′
= .
a a (b + c) = 1, 2
2a a 2a

2. L’exercice 18 nous invite alors à définir la fonction g suivante :

exp(−a′ x), si x ≥ 0,
g(x) = {
0, sinon,

et nous donne que :

1 1 1
̂
g (ξ) = √ ′
= √ f1 (ξ).
2π iξ + a 2π

Page 31/ 45
D - Produit de Convolution

Ainsi on trouve que :

g(x) = F −1 ( √ f1 ) (x) = √ f̂1 (−x).


1 1
2π 2π
Finalement, on a que :

f̂1 (ξ) = 2πg(−ξ).

3. Par linéarité de la transformée de Fourier, on trouve bien que :



̂ ̂ ̂ 2π exp(−a′ ξ), si ξ > 0,
f (ξ) = bf1 (ξ) − cf2 (ξ) = {
2a exp(a′ ξ), si ξ < 0,
ce qui nous permet d’avoir la formule de l’énoncé.
4. La transformée de Fourier inverse de f est :

−1 2π
F (f )(x) = f̂(−x) = exp(−∣x∣/a).
2a

D Produit de Convolution

Correction de l’exercice 21. ▲

1. En développant le terme de droite on a :


b 2 b2
(σy + x) + bx2 − 2 x2 = σ 2 y 2 + 2byx + bx2 = ay 2 + b[x2 + 2xy + y 2 ] = ax2 + b(x − y)2 .
σ σ
2. Fixons x ∈ R On remarque que :
+∞
Ga ∗ Gb (x) = ∫ Ga (y)Gb (x − y)dy,
−∞
+∞
=∫ exp [− (ay 2 + b(x − y)2 )] dy,
−∞
+∞ b 2 b2
=∫ exp [− ((σy + x) + bx2 − 2 x2 )] dy,
−∞ σ σ
b2 +∞ b 2
= exp [− (b − ) x 2
] ∫ exp [− (σy + x) ] dy.
σ2 −∞ σ

Page 32/ 45
PARTIE 3 – Algèbre Linéaire (TD)

Correction de l’exercice 16. ▲

1. Comme E = Vect(u) avec u = (1, 0, 1) non nul, E est un R-espace


vectoriel de dimension 1. Si S est un supplémentaire de E, alors on
aurait :
dim(S) = dim(R3 ) − dim(E) = 3 − 1 = 2.
Il va donc falloir trouver deux vecteurs v et w tels que S = Vect(v, w).
2. On pose v = (1, 0, 0). Comme u et v ne sont pas colinéaires, il est clair
que v ∉ E.
3. On définit le R-espace vectoriel F = Vect(u, v). Soit α et β tels que
αu + βv = 0, ce qui est équivalent à :

α + β = 0,
{ puis α = β = 0.
α = 0,

Ainsi (u, v) est une famille libre et génératrice de F . On a donc que


dim(F ) = 2. Ainsi il reste encore des vecteurs de E à capturer !
4. On pose w = (0, 1, 0). On vérifie très rapidement qu’il est impossible
d’écrire w comme combinaison linéaire de u et v. Donc w ∉ F .
5. On pose S = Vect(v, w). Il est immédiat que (v, w) est une famille libre
(étant donné que v et w ne sont pas colinéaires). Donc dim(S) = 2.
Ensuite, prenons x ∈ E ∩ S. Il existe donc α, β et γ tels que :

x = αu = −βv + γw.

Si γ était non nul, on aurait que w = αγ u + βγ v serait dans F , ce qui est


impossible ! Donc γ = 0, puis αu + βv = 0. Or la famille (u, v) est libre :
cela implique que α = β = 0. Finalement on a montré que x = 0, et donc
que E ∩ S = {0}.
Comme dim(E) + dim(S) = dim(R3 ), S est bien un supplémentaire de
E dans R3 .

Correction de l’exercice 17. ▲


On pose u1 = (1, 0, 1, 0) et u2 = (1, 0, −1, 0).

Page 43/ 90
D - Produit de Convolution

◇ Si x ∈ [0, 2T ], dans ce cas on vérifie que −T ≤ x − T ≤ T ≤ x + T .


Ainsi le produit de convolution cherché vaut :
T
ΠT ∗ ΠT (x) = ∫ dy = 2T − x.
x−T

◇ Enfin, si x ∉ [−2T, 2T ], x − y ne sera pas dans l’intervalle [−2T, 2T ],


et donc ΠT ∗ ΠT (x) = 0.
Ainsi on a obtenu que :

⎪ 1 + 2T
x
, si − 2T ≤ x ≤ 0,



ΠT ∗ ΠT (x) = 2T ⎨ 1 − T ,
x
si 0 ≤ x ≤ 2T,




⎩ 0, sinon.

2. On définit la fonction f par :



⎪ 1+ x
si − 2T ≤ x ≤ 0,

⎪ 2T ,

f (x) = ⎨ 1 − x
2T , si 0 ≤ x ≤ 2T,




⎩ 0, sinon.

Par ce qu’on vient de faire on a montré que :


1
f (x) = ΠT ∗ ΠT (x).
2T
On rappelle que le produit de convolution "se comporte bien" avec la
transformée de Fourier :

̂ 1 ̂ 2π ̂ ̂ T (ξ),
f (ξ) = ΠT ∗ ΠT (ξ) = ΠT (ξ)Π
2T 2T
√ 2
2π 2 sin(T ξ) 2 sin2 (T ξ)
= ( √ ) = √ ,
2T 2πξ T 2πξ 2
d’après l’exercice 16.

Page 34/ 45
B - Applications Linéaires

aussi de la structure d’espace vectoriel. Ici, on dira que u est R-linéaire mais
pas C-linéaire.

Correction de l’exercice 23. ▲


On pose v = (1, 1) et w = (1, −1).
1. Comme v et w ne sont pas colinéaires, la famille (v, w) est donc libre. 7
Montrons qu’elle est génératrice. Soit (x, y) ∈ R2 . On cherche donc α et
β tels que (x, y) = αv + βw, ce qui est équivalent à :
x+y
x = α + β, α= 2 ,
{ ⇐⇒ { x−y
y =α−β β= 2 .

Ainsi (v, w) génère R2 et est libre : c’est une base de R2 .


2. Pour tout (x, y) ∈ R2 , on a (x, y) = xε1 + yε2 . Étant donné que f1 est
linéaire on trouve que :

f1 (x, y) = f1 (xε1 + yε2 ) = xf1 (ε1 ) + yf1 (ε2 ) = x(1, 3) + y(1, 1).

Finalement, on a obtenu :

f1 (x, y) = (x + y, 3x + y) .

3. Par la question 1, tout vecteur (x, y) de R2 se décompose sous la forme :

x+y x−y
(x, y) = v+ w.
2 2

La linéarité de f2 implique que :

x+y x−y x+y x−y


f2 (x, y) = f2 ( v+ w) = f2 (v) + f2 (w),
2 2 2 2
x+y x−y
= (1, 3) + (1, 1) = (x, x + y).
2 2
7. Comme la famille (v, w) est libre et que dim(R2 ) = 2, la famille (v, w) est une base de
2
R .

Page 46/ 90
B - Applications Linéaires

1. Pour tous (x, y) et (x′ , y ′ ) éléments de R2 et λ ∈ R, on a :

u[(x, y) + λ(x′ , y ′ )] = u(x + λx′ , y + λy ′ ) = x + λx′ − (y + λy ′ ),


= (x − y) + λ(x′ − y ′ ) = u(x, y) + λu(x′ , y ′ ).

On a donc montré la linéarité de u.


2. Soit (x, y) ∈ ker(u). On a alors que :

0 = u(x, y) = x − y ⇐⇒ x = y ⇐⇒ (x, y) = x(1, 1).

Cela nous permet d’écrire que ker(u) = Vect[(1, 1)].


Soit a ∈ Im(u). Il existe alors (x, y) ∈ R2 tel que u(x, y) = (x − y)1 = a.
En fait, on peut remarquer que u(a, 0) = a. Ainsi (1) génère Im(u) et
on peut écrire :
Im(u) = Vect(1) = R.

3. On a vu qu’un seul vecteur non nul engendre (ker(u)) :

dim(ker(u)) = 1,

et que Im(u) = R, ce qui revient à dim(Im(u)) = 1.

Correction de l’exercice 26. ▲


On définit l’application u sur R2 par :

∀(x, y) ∈ R2 , u(x, y) = (x + y, x − y).

1. Pour tous (x, y) et (x′ , y ′ ) éléments de R2 et λ ∈ R, on a :

u[(x, y) + λ(x′ , y ′ )] = u(x + λx′ , y + λy ′ ),


= (x + λx′ + y + λy ′ , x + λx′ − (y + λy ′ )),
= (x + y, x − y) + λ(x′ + y ′ , x′ − y ′ ),
= u(x, y) + λu(x′ , y ′ ).

Donc u est linéaire.

Page 48/ 90
PARTIE 2 – Analyse Fonctionnelle (TD)

◇ On pose ϕ(t) = sin(x) + cos(t). Ainsi on a :

∂y h(x, y) = ϕ′ (y) = − sin(y).

Correction de l’exercice 25. ▲


Calculons tout d’abord les dérivées partielles par rapport à x. On fixe
y, z ∈ R.
◇ On pose ϕ(t) = et + ey − ez . Ainsi on a :

∂x f (x, y, z) = ϕ′ (x) = ex .

◇ On pose ϕ(t) = (t + y)e−z . Ainsi on a :

∂x g(x, y, z) = ϕ′ (x) = e−z .

◇ On pose ϕ(t) = 1
1+t2 +y 2 +z 2
. Ainsi on a :

∂x h(x, y, z) = ϕ′ (x) = −
2x
.
(1 + x2 + y 2 + z 2 )2

Calculons les dérivées partielles par rapport à y. On fixe x, z ∈ R.


◇ On pose ϕ(t) = ex + et − ez . Ainsi on a :

∂y f (x, y, z) = ϕ′ (y) = ey .

◇ On pose ϕ(t) = (x + t)e−t . Ainsi on a :

∂y g(x, y, z) = ϕ′ (y) = e−z .

◇ On pose ϕ(t) = 1
1+x2 +t2 +z 2
. Ainsi on a :

∂y h(x, y, z) = ϕ′ (y) = −
2y
.
(1 + x2 + y 2 + z 2 )2

Enfin passons aux dérivées partielles par rapport à z. On fixe x, y ∈ R.

Page 37/ 45
PARTIE 3 – Algèbre Linéaire (TD)

1. Pour tous (x, y, z), (x′ , y ′ , z ′ ) ∈ R3 et λ ∈ R, on a :

u((x, y, z) + λ(x′ , y ′ , z ′ )) = u(x + λx′ , y + λy ′ , z + λz ′ ),


= 2(x + λx′ ) + (y + λy ′ ) − (z + λz ′ ),
= (2x + y − z) + λ(2x′ + y ′ − z ′ ),
= u(x, y, z) + λu(x′ , y ′ , z ′ ).

Ainsi u est linéaire.


2. On remarque que E = ker(u). D’après le cours, on sait que le noyau
d’une application linéaire est un espace vectoriel : E est donc bien un
R-espace vectoriel.

Correction de l’exercice 29. ▲


On définit l’application suivante :

∀(x, y, z, t) ∈ R4 , u(x, y, z, t) = x − y + z − t.

Elle est linéaire. En effet, pour tous (x, y, z, t) et (x′ , y ′ , z ′ , t′ ) éléments de R4


et λ ∈ R, on vérifie que :

u(x + λx′ , y + λy ′ , z + λz ′ , t + λt′ ) = x + λx′ − (y + λy ′ ) + z + λz ′ − (t + λt′ ),


= (x − y + z − t) + λ(x′ − y ′ + z ′ − t′ ),
= u(x, y, z, t) + λu(x′ , y ′ , z ′ , t′ ).

Finalement, E = ker(u) est bien un R-espace vectoriel.

Correction de l’exercice 30. ▲


On définit u = (1, 1) et v = (1, −1). Posons F = Vect(u) et G = Vect(v).
1. Tout d’abord considérons un élément (x, y) de F ∩ G. Il existe alors α
et β tels que :
(x, y) = αu = βv ⇐⇒ α = −β = β,
ce qui implique que α = β = 0. Il est immédiat que (0, 0) ∈ F ∩ G (étant
donné que F et G sont des espaces vectoriels). On a donc montré que

Page 51/ 90
PARTIE 3 – Algèbre Linéaire (TD)

1. D’après la correction de l’exercice 15, tout vecteur (x, y, z) ∈ R3 peut


s’écrire sous la forme (x, y, z) = λA + (x′ , y ′ , z ′ ), avec :

(x′ , y ′ , z ′ ) = (x, y, z) − λA = (
x+z x−z z−x
λ= , et , y, ).
2 2 2
Ainsi la projection p1 de (x, y, z) ∈ R3 s’écrit :
x+z x+z
p1 (x, y, z) = λA = ( , 0, ).
2 2
2. Par le biais de ce qu’on a fait précédemment, on obtient aussi que :

p2 (x, y, z) = (x′ , y ′ , z ′ ) = (
x−z z−x
, y, ).
2 2
3. Comme s1 = p1 − p2 , on trouve que :
x+z x+z x−z z−x
s1 (x, y, z) = ( , 0, )−( , y, ) = (z, −y, x) .
2 2 2 2
4. De la même manière que pour s1 , on vérifie que :

s2 (x, y, z) = p2 (x, y, z) − p1 (x, y, z) = (−z, y, −x).

Correction de l’exercice 32. ▲


On pose F = Vect((1, 0, 1, 0), (1, 0, −1, 0)) et G = Vect((0, 1, 0, 1), (0, 1, 0, −1)).
D’après l’exercice 17 on sait que E et F sont supplémentaires dans R4 .
La première étape va être de trouver α, β, γ et δ tels que :

(x, y, z, t) = α(1, 0, 1, 0) + β(1, 0, −1, 0) + γ(0, 1, 0, 1) + δ(0, 1, 0, −1),

ce qui est équivalent à :


x+z


⎪ α= 2 ,


⎪ x−z

⎪ β= 2 ,
⎨ y+t


⎪ γ= 2 ,


⎪ y−t

⎩ δ= 2 .

À partir de là, nous pouvons commencer à répondre aux questions de l’exercice.

Page 53/ 90
E - Dérivées Partielles et Différentielles

Correction de l’exercice 29. ▲

1. On vérifie que :

v ′ (s) = ∂t y(s, χ(s)) + χ′ (s)∂x y(s, χ(s)),


= ∂t y(x, χ(s)) + y(s, χ(s))∂x y(s, χ(s)) = 0.

Ainsi on a v(s) = v(0) pour tout s.


2. Comme χ′ (s) = y(s, χ(s)) = v(s) = v(0) et que :

v(0) = y(0, χ(0)) = χ(0),

on obtient que χ′ (s) = χ(0) et donc :

χ(s) = χ(0)s + χ(0) = χ(0)(s + 1).

D’après l’énoncé, χ(t) = x implique que :


x
χ(0) = .
1+t
La fonction v est constante :
x
v(s) = v(0) = y(0, χ(0)) = χ(0) = .
1+t

3. On applique la relation v(t) = y(t, χ(t)) = y(t, x) et donc :


x
y(t, x) = v(t) = .
1+t

On vérifie que :
x 1
∂t y(t, x) = − , et ∂x y(t, x) = .
(1 + t)2 1+t

Ainsi y est bien solution :


x x 1
∂t y(t, x) + y(t, x)∂x y(t, x) = − + = 0.
(1 + t) 2 1+t 1+t

Page 40/ 45
B - Applications Linéaires

◇ Commençons par calculer u24 (x, y, z) :

u24 (x, y, z) = u4 (u4 (x, y, z)),


= u4 (3x − 4z, 2x − y − 2z, 2x − 3z),
= [3(3x − 4z) − 4(2x − 3z), 2(3x − 4z) − (2x − y − 2z) − 2(2x − 3z),
2(3x − 4z) − 3(2x − 3z)],
= (x, y, z).

Cette fois-ci, l’application étudiée est une symétrie par rapport à un


espace F parallèlement à G. Déterminons ces deux paramètres :

(x, y, z) ∈ F ⇐⇒ (x, y, z) ∈ ker(u4 − id),


⇐⇒ u4 (x, y, z) − (x, y, z) = (0, 0, 0),


⎪ 3x − 4z = x,


⇐⇒ ⎨ 2x − y − 2z = y,



⎩ 2x − 3z = z,

⇐⇒ x = 2z et y = z,
⇐⇒ (x, y, z) = z(2, 1, 1),
⇐⇒ (x, y, z) ∈ Vect((2, 1, 1)),

et :

(x, y, z) ∈ G ⇐⇒ (x, y, z) ∈ ker(u4 + id),


⇐⇒ u4 (x, y, z) + (x, y, z) = (0, 0, 0),


⎪ 4x − 4z = 0,


⇐⇒ ⎨ 2x − 2z = 0,



⎩ 2x − 2z = 0,

⇐⇒ x = z,
⇐⇒ (x, y, z) = x(1, 0, 1) + y(0, 1, 0),
⇐⇒ (x, y, z) ∈ Vect((1, 0, 1), (0, 1, 0)).

On a donc obtenu que u4 était la symétrie par rapport à Vect((2, 1, 1))


parallèlement à Vect((1, 0, 1), (0, 1, 0)).

Page 56/ 90
F - Intégrales Doubles et Triples

F Intégrales Doubles et Triples

Correction de l’exercice 31. ▲


On applique le théorème de Fubini :
2 1
1 2 1 xy 2 1 3 3 x2 9
I1 = ∫ [∫ xydy] dx = ∫ [ ] dx = ∫ xdx = [ ] = − .
−2 −1 −2 2 −1 −2 2 2 2 −2 4

1
1 1 1 x2
I2 = ∫ [∫ (x + y)dy] dx = ∫ (2x + 0)dx = 2 [ ] = 0.
−1 −1 −1 2 −1

2
1 2 1 y 2 ex 1
I3 = ∫ [∫ yex dy] dx = ∫ [ ] dx = 2 ∫ ex dx = 2[e − 1].
0 0 0 2 0 0

1
1 2 1 x2 [e2 − 1] e2 − 1
I4 = ∫ [∫ xey dy] dx = ∫ x[e2 − 1]dx = [ ] = .
0 0 0 2 0
2

Correction de l’exercice 32. ▲


Le théorème de Fubini nous permet d’écrire :
2 1 1 π(x + y) 2 1 2 π(x + y)
I =∫ [∫ (∫ z 2 sin ( ) dz) dy] dx = ∫ [∫ sin ( ) dy] dx,
−1 −2 −1 2 −1 −2 3 2
1
2 2 π(x + y)
1 2 2 2 π(x + y)
= ∫ [∫ sin ( ) dy] dx = ∫ [− cos ( )] dx,
3 −1 −2 2 3 −1 π 2 −2
4 2 π(x + 1) 4 2 π(x − 2)
=− ∫ cos ( ) dx + ∫ cos ( ) dx,
3π −1 2 3π −1 2
2 2
4 2 π(x + 1) 4 2 π(x − 2)
=− [ sin ( )] + [ sin ( )] ,
3π π 2 −1
3π π 2 −1
8 3π 8 3π 2 8 8
=− [sin ( ) − sin (0)] + [sin (0) − sin (− )] = − = 0.
3π 2 2 3π 2 2 −1 3π 2 3π 2

Page 42/ 45
PARTIE 2 – Analyse Fonctionnelle (TD)

Correction de l’exercice 33. ▲


On reconnaît ici un ensemble mesurable similaire à celui de la méthode d’intégra-
tion par piles. Appliquons donc cette méthode :
x
1 xy 2
x 1
∫ xydxdy = ∫ [∫ xydy] dx = ∫
] dx, [
D 0 x2 0 2 x2
1 1 1 1 1 1
= ∫ [x3 − x5 ]dx = [ − ] = .
2 0 2 4 6 24

Correction de l’exercice 34. ▲


On vérifie que :

(x, y) ∈ D ssi 0 ≤ x ≤ 1 et 0 ≤ y ≤ 1 − x.

Ainsi on va utiliser la méthode d’intégration par tranches :


1 1−x
∫ xydxdy = ∫ [∫ xydy] dx,
D 0 0
1−x
1 xy 2 x(1 − x)2 1
=∫ [ ] dx = ∫
dx,
0 2 0
0 2
1 1 1 1 2 1 1
= ∫ [x − 2x2 + x3 ]dx = [ − + ] = .
2 0 2 2 3 4 24

Correction de l’exercice 35. ▲

◇ On va appliquer la méthode d’intégration par tranches :


1 1 11+x
xydxdy = ∫ ∫ [x(1 + x) − x ] dx,
xydydx =
2 3
∫ ∫
D1 0 x 2 0
1 1 1 1 2 7
= ∫ [x + 2x2 ] dx = [ + ] = .
2 0 2 2 3 12

◇ On va appliquer la méthode d’intégration par piles :


1 1 1 1 1 1 1 1
xydxdy = ∫ xydydx = ∫ [x − x ] dx = [ − ] = .
5
∫ ∫
D2 0 x2 2 0 2 2 6 6

Page 43/ 45
C.2 Inverse d’une matrice

Finalement, nous avons que A est inversible si et seulement si ad − bc = −bc ≠ 0


et :
d/∆ −b/∆ d −b
A−1 = (
1
)= ( ).
−c/∆ a/∆ ad − bc −c a

Correction de l’exercice 40. ▲


123
Soit A = ( 3 1 2 ). On vérifie que :
231

⎛ −5 7 1 ⎞ ⎛ 18 0 0 ⎞
A ⋅ ⎜ 1 −5 7 ⎟ = ⎜ 0 18 0 ⎟ = 18I3 .
⎝ 7 1 −5 ⎠ ⎝ 0 0 18 ⎠
On définit alors la matrice :
−5 7 1 ⎞
1 ⎛
B= ⎜ 1 −5 7 ⎟ .
18 ⎝
7 1 −5 ⎠
Par ce qui précède on a que :
1 1
AB = × [A(18B)] = × 18I3 = I3 .
18 18
De la même façon, on montre que BA = I3 . Ainsi A est inversible et A−1 = B. 11

Correction de l’exercice 41. ▲


−1 0 1
Soit A = ( 1 −1 0 ). On a :
0 1 −1

⎛ a b c ⎞ ⎛ g−a h−b i−c ⎞


A × ⎜ d e f ⎟ = ⎜ a − d b − e c − f ⎟.
⎝ g h i ⎠ ⎝ d−g e−h f −i ⎠
Supposons par l’absurde que A soit inversible. Il existe alors une matrice, dont
les coefficients seront notés par les 9 premières lettres de l’alphabet, telle que :
⎛a b c ⎞ ⎛a b c ⎞
A ⋅ ⎜ d e f ⎟ = I3 = ⎜ d e f ⎟ ⋅ A.
⎝g h i ⎠ ⎝g h i ⎠

11. En fait, si AB = I3 , on n’a pas besoin de vérifier que BA = I3 , pour montrer que A soit
inversible et savoir que A−1 = B. Nous le verrons dans un autre exercice.

Page 62/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Correction de l’exercice 45. ▲

1. On pose C = AT . Alors pour tout (i, j), on a :

(C T )ij = cji = (AT )ji = aij .

Donc par unicité des coordonnées on a bien le résultat voulu.


2. On pose C = (A + B)T . Alors pour tout (i, j), on a :

(C T )ij = cji = (A + B)ji = aji + bji = (AT )ij + (B T )ij = (AT + B T )ij .

Ainsi par unicité des coordonnées on a bien (A + B)T = AT + B T .


3. On pose C = (λA)T . Alors pour tout (i, j), on a :

(C T )ij = cji = (λA)ji = λaji = (λAT )ij .

L’unicité des coordonnées nous permet de conclure.


4. On pose C = (AB)T . Alors pour tout (i, j), on a :
n n
(C T )ij = cji = (AB)ji = ∑ ajk bki = ∑ (B T )ik (AT )kj = (B T AT )ij .
k=1 k=1

On termine la preuve à l’aide de l’unicité des coordonnées.


5. Comme A est inversible, on sait que :

AA−1 = In = A−1 A.

On applique la transposée à ces deux égalités :

(AA−1 )T = InT = In = (A−1 A)T .

Par la proposition précédente, on peut simplifier cette égalité en :

(A−1 )T AT = In = AT (A−1 )T .

La définition d’une matrice inversible nous permet d’affirmer que AT


est inversible et que :
(AT )−1 = (A−1 )T .

Page 65/ 90
C.4 Trace et Déterminant

C.4 Trace et Déterminant

Correction de l’exercice 46. ▲


On a d’après les formules du cours :
◇ Tr(A) = (−1) + (−1) = −2 et det(A) = (−1)(−1) − 1 × 0 = 1 ;
◇ Tr(B) = (−1) + (−1) = −2 et det(B) = (−1)(−1) − 1 × 2 = −1 ;
◇ Tr(C) = (−1) + (−2) = −3 et det(C) = (−1)(−2) − 1 × 2 = 0.

Correction de l’exercice 47. ▲


On a :
Tr(A) = (−1) + (−1) + (−1) = −3,
et, par la formule de Sarrus :
det(A) = (−1)3 + 03 + 13 − [0 × (−1) × 1 + 1 × 0 × (−1) + (−1) × 1 × 0] = 0.
Comme det(A) = 0, on sait que A n’est pas inversible.

Correction de l’exercice 48. ▲

◇ En développant par rapport à la dernière colonne, on obtient que :


RRR 1 0 1 RRR
RR RR 1 1
det(A) = (−1)4+4 4 × RRRR 0 1 0 RRRR = 4 × (−1)2+2 × 1 ∣ ∣,
RRR RRR 1 −1
RR 1 0 −1 RR
en développant ensuite par rapport à la deuxième ligne (ou colonne).
Enfin, en appliquant la formule du déterminant d’une matrice 2 × 2, on
trouve que :
det(A) = 4 × (−1 − 1) = −8.
◇ Grâce aux opérations successives C3 ← C3 +C1 , puis C4 ← C4 +C2 −2C3 ,
on obtient que :
RRR 1 2 2 2 RRR RRR 1 2 2 0 RRR
RRR RRR RRR RR
RRR 2 1 4 1 RRR RRR 2 1 4 −6 RRRR
det(B) = RR R = R R.
C3 ←C3 +C1 RRR 1 2 0 −2 RRRR C4 ←C4 +C2 −2C3 RRRR 1 2 0 0 RRRR
RRR RRR RRR RR
RR −2 −1 0 1 RR RR −2 −1 0 0 RRR

Page 66/ 90
C.4 Trace et Déterminant

Cela implique que :

⎛ det(A) 0 ⋯ 0 ⎞
⎜ .. .. .. ⎟
⎜ 0 . . . ⎟
AB T = ⎜ .. .. .. ⎟ = det(A)In .
⎜ . . ⎟
⎜ . 0 ⎟
⎝ 0 ⋯ 0 det(A) ⎠

2. On a donc montré que :

1 1
A( BT ) = AB T = In .
det(A) det(A)

D’après la proposition de l’exercice 49, on sait que :

A−1 =
1
BT .
det(A)

3. En développant det(A) par rapport à la deuxième ligne, on obtient que :

1 1
det(A) = ∣ ∣ = −2.
1 −1

Comme det(A) est non nul, A est inversible. On doit maintenant cal-
culer les différents mineurs de A :
◇ (i, j) = (1, 1) : ∆11 (A) = ∣ 10 −1
0 ∣ = −1 ;

◇ (i, j) = (1, 2) : ∆12 (A) = ∣ 01 −1


0 ∣ = 0;

◇ (i, j) = (1, 3) : ∆13 (A) = ∣ 01 10 ∣ = −1 ;


◇ (i, j) = (2, 1) : ∆21 (A) = ∣ 00 −1
1 ∣ = 0;

◇ (i, j) = (2, 2) : ∆22 (A) = ∣ 11 −1


1 ∣ = −2 ;

◇ (i, j) = (2, 3) : ∆23 (A) = ∣ 11 00 ∣ = 0 ;


◇ (i, j) = (3, 1) : ∆31 (A) = ∣ 01 10 ∣ = −1 ;
◇ (i, j) = (3, 2) : ∆32 (A) = ∣ 10 10 ∣ = 0 ;
◇ (i, j) = (3, 3) : ∆33 (A) = ∣ 10 01 ∣ = 1.

Page 72/ 90
PARTIE 3 – Algèbre Linéaire et Géométrie

7 Application à la Géométrie Euclidienne 61


7.1 Rappels sur le Produit Scalaire . . . . . . . . . . . . . . . . . . . 61
7.2 Angle entre deux vecteurs . . . . . . . . . . . . . . . . . . . . . . . 67
7.3 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
7.4 Sous-Espaces Orthogonaux . . . . . . . . . . . . . . . . . . . . . . 73
7.5 Projections et Symétries Orthogonales . . . . . . . . . . . . . . . 75
7.6 Matrice dans une base orthonormée . . . . . . . . . . . . . . . . . 77
7.7 Isométries et Matrices Orthogonales : Généralités . . . . . . . . 78
7.8 Orientation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.9 Isométrie dans R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
7.10 Isométries dans R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

Page 3/ 97
1 - Espaces Vectoriels

Par la suite, nous noterons K l’ensemble des réels R ou des complexes


C. Le but de ce chapitre est d’introduire de nouveaux objets mathématiques,
utiles pour résoudre pas mal de problèmes : résolution de systèmes linéaires ou
différentiels, étude d’applications de R2 ou R3 , etc.
Pour cela, nous allons nous baser sur la notion d’espaces vectoriels. Cet outil
est une généralisation des espaces Rn (ou encore Cn ), sur lesquels on peut faire
des opérations particulières comme additionner deux éléments, multiplier par
un réel (ou un complexe), etc.

1 Espaces Vectoriels
Voici une définition générale des espaces vectoriels, qui ne fait pas partie
du programme, mais qui est bon d’avoir dans un coin de la tête.

Définition 1. Un ensemble E est un K-espace vectoriel (ou simplement


espace vectoriel) s’il existe deux applications + ∶ E×E → E et ⋅ ∶ K×E → E,
appelées respectivement lois interne et externe, si :
◇ ∃ e ∈ E, ∀ x ∈ E, x + e = x (on appelle e élément neutre de E et on
le note usuellement 0 ou 0E ) ;
◇ ∀ x ∈ E, ∃ y ∈ E, x + y = 0E (on appelle y inverse de x et on le note
traditionnellement −x) ;
◇ ∀ x, y, z ∈ E, x + (y + z) = (x + y) + z (on dit que + est associative) ;
◇ ∀ x, y ∈ E, x + y = y + x (on dit que + est commutative) ;
◇ ∀ λ ∈ K, ∀ x, y ∈ E, λ⋅(x+y) = λ⋅x+λ⋅y (on dit que ⋅ est distributive
par rapport à +) ;
◇ ∀ λ, µ ∈ K, ∀ x ∈ E, (λ + µ) ⋅ x = λ ⋅ x + µ ⋅ x ;
◇ ∀ λ, µ ∈ K, ∀ x ∈ E, (λ × µ) ⋅ x = λ ⋅ (µ ⋅ x) ;
◇ ∀ x ∈ E, 1 ⋅ x = x.
Parfois au lieu de dire que E est un K-espace vectoriel, on préfèrera préciser
les lois et ainsi dire que (E, +, ⋅) est un K-espace vectoriel.

Ce qui suit de cette proposition fait par contre partie du programme.

Page 4/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Définition 2. Soit E un K-espace vectoriel. On appellera vecteur de E


tout élément de E. De plus, les éléments de K seront nommés scalaires.

Exemple 1. (R, +, ×) est un R-espace vectoriel : son élément neutre est 0.

Exemple 2. (C, +, ×) est un R-espace vectoriel. Ici l’élément neutre est 0.

Les C-espaces vectoriels sont aussi des R-espaces vectoriels, étant donné
que R est inclus dans C. Cependant, la réciproque est fausse !

Exemple 3. (C, +, ×) est un C-espace vectoriel. Cependant, (R, +, ×) n’est


pas un C-espace vectoriel. En effet, si on prend λ = i ∈ C et x = 1 ∈ R, on a
λ ⋅ x = i ∈ C ∖ R. Ainsi R n’est pas stable par multiplication par un complexe.

Proposition 1. Si E est un K-espace vectoriel, alors l’ensemble :

E n ∶= {(x1 , . . . , xn ), ∀ i ∈ J1, nK, xi ∈ E},

muni des lois usuelles (voir Section 1.3 pour plus de détails), est aussi un
K-espace vectoriel.

Exemple 4. Rn et Cn sont des R-espaces vectoriels.


Cn est un C-espace vectoriel.

Dans ce cours, nous ne considérons que les cas où K est soit R soit C.
Cependant, on peut définir des K-espaces vectoriels pour d’autres choix de K.
Par exemple, il existe des Q-espace vectoriels, mais qui sont bien trop complexes
à étudier.

Page 5/ 97
1.1 Sous-Espaces Vectoriels

1.1 Sous-Espaces Vectoriels

En mathématiques, quand on a une structure algébrique comme les espaces


vectoriels, il est naturel de définir la sous-structure associée : un tel sous-
ensemble héritera de cette structure algébrique.

Définition 3. Soit (E, +, ⋅) un K-espace vectoriel. Soit F une partie de


E. On dit que F est un sous-K-espace vectoriel (ou simplement sous-
espace vectoriel quand il n’y a pas de confusion possible) de E si :
◇ F ≠ ∅;
◇ ∀ λ, x ∈ K × F, λ ⋅ x ∈ F ;
◇ ∀ x, y ∈ F, x + y ∈ F .

Proposition 2. Soit E un K-espace vectoriel. Alors un sous-K-espace vec-


toriel de E est un K-espace vectoriel.

Exemple 5. Soit E = {ix, x ∈ R}. On sait que E est un sous-ensemble de


C qui est un R-espace vectoriel. De plus, pour ix ∈ E, et λ ∈ R, on a :

λ ⋅ (ix) = i (λx) ∈ E.

De même, si ix ∈ E et si iy ∈ E, alors (ix) + (iy) = i (x + y) ∈ E.


On vient donc de montrer que E est un sous-R-espace vectoriel de C et donc
un R-espace vectoriel.

Exemple 6. Soit E = {(a, b) ∈ R2 , a2 +b2 = 1} le cercle unité. Alors E n’est


pas un R-espace vectoriel.
En effet, (0, 1) ∈ E et 2 ∈ R, mais 2 ⋅ (0, 1) = (0, 2) ∉ E.

Page 6/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

1.2 Famille de Vecteurs


Faisons un aparte sur une notion portant sur les ensembles.

Définition 4. Une famille d’éléments F d’un ensemble X est une col-


lection d’éléments de X.
Le nombre d’éléments dans cette collection est appelé cardinal de la famille,
et on le note card(F), ∣F∣ ou #F.

Exemple 7. Voici différentes familles d’éléments de cardinal fini :


◇ (1, 2, 3) est une famille de N de cardinal 3 ;
◇ (1, 2, 3) est une famille de Z de cardinal 3 ;
◇ ((1, 0), (0, 1)) est une famille de R2 de cardinal 2.

Exemple 8. L’ensemble des entiers pairs {2n, n ∈ N} est une collection


d’éléments de N : il s’agit donc d’une famille d’éléments de N. Elle possède
un nombre infini d’éléments : son cardinal est infini.

Faisons maintenant le lien avec les espaces vectoriels.

Définition 5. On considère un K-espace vectoriel E et une famille F de


vecteurs de E. Une combinaison linéaire de F est un élément x ∈ E qui
s’écrit :
n
x = ∑ λi xi ,
i=1

avec λi ∈ K et xi ∈ F, pour tout i ∈ J1, nK.

Exemple 9. Soit x, y ∈ R. Alors (x, y) = x (1, 0) + y (0, 1) est une combi-


naison linéaire de la famille ((1, 0), (0, 1)) de R2 .

Page 7/ 97
1.2 Famille de Vecteurs

Ainsi un nombre fini d’éléments regroupés dans une famille F nous permet
de construire une infinité de nouveaux éléments :

Définition 6. Soit E un K-espace vectoriel et F une famille de vecteurs de


E. Le sous-espace vectoriel engendré par F, noté V ect(F), est l’en-
semble des combinaisons linéaires d’éléments de F.

Exemple 10. On a vu que les combinaisons linéaires de la famille


((1, 0), (0, 1)) de R2 sont de la forme (x, y) avec x et y deux réels. Ainsi on
reconstruit tout R2 : Vect((1, 0), (0, 1)) = R2 .

⎛⎛ 1 ⎞ ⎛ 0 ⎞⎞
Exemple 11. Soit F = ⎜⎜ 0 ⎟ , ⎜ 1 ⎟⎟ famille de vecteurs de R3 . On a :
⎝⎝ 1 ⎠ ⎝ 1 ⎠⎠

⎧ 1 ⎫ ⎧ ⎫

⎪ ⎛ ⎞
⎪ ⎛0⎞ ⎪ ⎪

⎪ ⎪⎛

x ⎞ ⎪


Vect(F) = ⎨x ⎜ 0 ⎟ + y ⎜ 1 ⎟ , x, y ∈ R⎬ = ⎨⎜ y ⎟ , x, y ∈ R⎬ .

⎪ ⎪
⎪ ⎪
⎪⎝ ⎪

⎩ ⎝1⎠
⎪ ⎝1⎠ ⎭ ⎪
⎪ ⎩ x+y ⎠ ⎪

Proposition 3. Soit E un K-espace vectoriel et F une famille de vecteurs


de E. Le sous-espace vectoriel engendré par F est un K-espace vectoriel.

Remarque 1. V ect(F) est le plus petit sous-espace vectoriel de E conte-


nant F.

Nous pouvons voir ainsi l’espace VectF) comme étant l’ensemble des élé-
ments de E qui sont engendrés par des combinaisons linéaires de F : on dira
que F est une famille génératrice de Vect(F). Cependant, il arrive qu’on puisse
créer tout cet ensemble avec juste une sous-famille de F, et non avec F : on
dira que la famille F est liée, étant donné qu’on aura une condition (linéaire)
reliant les différents éléments de F.

Page 8/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Définition 7. On considère une famille (e1 , . . . , ep ) de vecteurs de E. On


dit alors que cette famille est :
◇ libre si pour tous éléments λ1 , . . . , λp de K tels que :
p
∑ λi ei = 0E ,
i=1

on a λ1 = ⋯ = λp = 0 ;
◇ liée si elle n’est pas libre ;
◇ génératrice si pour tout vecteur x de E, il existe des éléments
λ1 , . . . , λp de K tels que :
p
x = ∑ λi ei .
i=1

Définition 8. On dit qu’une famille (e1 , . . . , ep ) de E est une base (de


E) si elle est libre et génératrice.
De façon équivalente, une famille (e1 , . . . , ep ) de E est une base si tout
vecteur x de E admet une unique décomposition de la forme :
p
x = ∑ λi ei ,
i=1

où les λi sont des éléments de K, appelés coordonnées de x dans la base


(e1 , . . . , ep ).

Théorème 4. Équicardinalité des bases (admis)


Toutes les bases de E ont même cardinal, dim(E), appelé dimension de
E. En particulier, si (e1 , . . . , ep ) est une base de E, alors p = dim E.

Page 9/ 97
1.3 Exemple de Kn

Proposition 5. Soit p = dim E et (e1 , . . . , ep ) une famille de vecteurs de


E. Les assertions suivantes sont équivalentes :
◇ (e1 , . . . , ep ) est une base ;
◇ (e1 , . . . , ep ) est libre ;
◇ (e1 , . . . , ep ) est génératrice.

1.3 Exemple de Kn
On rappelle la notation Kn pour l’ensemble des n-uplets (x1 , . . . , xn ) où
chaque xi appartient à K. Pour x = (x1 , . . . , xn ) et y = (y1 , . . . , yn ) deux
n-uplets et pour un scalaire λ ∈ K, on définit la somme x + y par :

x + y = (x1 + y1 , . . . , xn + yn ),

et le produit par un scalaire λx par :

λx = (λx1 , . . . , λxn ).

Ces deux opérations font de Kn un K-espace vectoriel, dont le vecteur nul est
le n-uplet 0Kn = (0, . . . , 0), qu’on peut abréger en 0.

Proposition 6. La famille de vecteurs (ε1 , . . . , εn ) définis ci-dessous


forme une base de Kn , appelée base canonique de Kn :

i-ème coordonnée

εi = (0, . . . , 0, 1, 0, . . . , 0).

Par conséquent, la i-ème coordonnée de x = (x1 , . . . , xn ) dans la base


canonique est le scalaire xi et dim Kn = n.

Page 10/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Démonstration. Montrons que cette famille est génératrice. Soit x = (x1 , . . . , xn )


un vecteur de Kn . Alors on a, par les règles de calculs dans Kn :
x = (x1 , 0, . . . , 0) + ⋯ + (0, . . . , 0, xn ),
= x1 (1, 0, ⋯, 0) + ⋯ + xn (0, ⋯, 0, 1);
n
= ∑ x i εi .
i=1

Ainsi la famille (ε1 , . . . , εn ) est génératrice.


Montrons que cette famille est libre. Considérons n scalaires λ1 , . . . , λn
vivant dans K tels que :
n
0Kn = ∑ λi εi .
i=1
Par les règles de calculs dans K et par définition du zéro de Kn , on peut
n

réécrire cette dernière égalité comme étant :


(0, . . . , 0) = (λ1 , . . . , λn ).
Cependant, deux vecteurs de Kn sont égaux si et seulement si leurs compo-
santes sont égales : on dit qu’il y a unicité des composantes. Cela implique que
tous les λi sont nuls, et donc la famille (ε1 , . . . , εn ) est libre.
On a donc montré que la famille (ε1 , . . . , εn ) est libre et génératrice : il
s’agit donc bien d’une base.
On pourra confondre coordonnées et composantes d’un élément x de Kn ,
tant qu’on travaille dans la base canonique.

1.4 Somme Directe


À partir de maintenant nous nous concentrerons sur les espaces vectoriels
de dimension finie.

Définition 9. La somme de deux sous-espaces vectoriels F et G est


un sous-espace vectoriel, noté F + G. Il est défini comme étant composé de
toutes les combinaisons linéaires d’éléments de F et de G, ou bien comme
l’ensemble de tous les éléments de E qui peuvent s’écrire xF + xG avec xF
dans F et xG dans G.

Page 11/ 97
1.4 Somme Directe

Définition 10. On dit que deux sous-espaces vectoriels F et G de E sont


en somme directe si et seulement si F ∩ G = {0E }.

Définition 11. On dit qu’un sous-espace vectoriel H de E est la somme


directe de F et G si on a H = F + G et F ∩ G = {0E }. On note alors
H = F ⊕ G.
Lorsqu’on a E = F ⊕ G, on dit que F et G sont supplémentaires ou que
F est un supplémentaire de G.

1 1
Exemple 12. Dans E = R2 , on pose F = Vect {( )} et G = Vect {( )}.
0 1
Montrons que F et G sont supplémentaires.
x
Si ( ) ∈ F ∩ G, alors il existe par définition deux scalaires λ et µ tel que :
y

x 1 x 1
( ) = λ( ), et ( ) = µ( ).
y 0 y 1

On en déduit que λ = µ = x et µ = y = 0, ce qui entraîne x = 0. Ainsi F ∩ G


0
est réduit au singleton {( )} et donc F et G sont en somme directe.
0
x
Soit maintenant ( ) un vecteur quelconque de R2 . Montrons qu’on peut
y
écrire x = xF +xG avec xF ∈ F et xG ∈ G. Pour cela on cherche deux scalaires
λ µ
λ et µ tels que xF = ( ) et xG = ( ). On cherche donc à montrer qu’il
0 µ
existe λ et µ qui vérifient le système :

λ + µ = x,
{
µ = y.

Ce système est inversible et on trouve λ = x − y et µ = y. Ainsi on a que


E = F ⊕ G.

Page 12/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Proposition 7. Soit E = F ⊕ G. Alors on a les propositions suivantes :


1. Pour tout x de E, il existe un unique couple (xF , xG ) ∈ F × G tel
que x = xF + xG ;
2. Si (f1 , . . . , fp ) est une base de F et (g1 , . . . , gq ) est une base de G,
alors p + q est égal à la dimension de E et (f1 , . . . , fp , g1 , . . . , gq )
est une base de E. Une telle base est dite adaptée à la décomposition
en E = F ⊕ G.

Démonstration. 1. L’existence d’un tel couple vient de la définition de


F + G. Montrons qu’un tel couple est unique grâce au fait que F et G
soient en somme directe.
Soit x un élément de E et supposons qu’il existe deux couples (xF , xG )
et (x′F , x′G ) de F × G tels que :

x = xF + xG = x′F + x′G .

Alors on a également que xF −x′F = x′G −xG . Notons y cet élément de E.


Puisque F est un sous-espace vectoriel de E et que xF et x′F sont dans
F , la combinaison linéaire xF − x′F est aussi dans F . Donc y ∈ F . De la
même manière, on montre que y ∈ G. Ainsi y appartient à l’intersection
de F avec G. Comme F et G sont en somme directe, on a F ∩ G = {0E }
et donc nécessairement y = 0E . La définition de y nous informe alors
que xF = x′F et xG = x′G .
2. Soit x dans E. On peut décomposer x en x = xF + xG avec xF ∈ F et
xG ∈ G. Puisque (f1 , . . . , fp ) est une base de F , xF = λ1 f1 +⋯+λp fp , où
les λi sont les coordonnées de xF dans la base (f1 , . . . , fp ). De même
xG = µ1 g1 + ⋯ + µq gq , où les µj sont les coordonées de xG dans la base
(g1 , . . . , gq ). Alors on a :

x = λ1 f1 + ⋯ + λp fp + µ1 g1 + ⋯ + µq gq ,

ce qui implique que (f1 , . . . , fp , g1 , . . . , gq ) est génératrice dans E.


Supposons qu’il existe des scalaires (λ1 , . . . , λp , µ1 , . . . , µq ) tels que :

0E = λ1 f1 + ⋯ + λp fp + µ1 g1 + ⋯ + µq gq .

Page 13/ 97
1.4 Somme Directe

Comme F et G sont des sous-espaces vectoriels de E, on a 0E qui appar-


tient à F et qui appartient à G. De plus, on a évidemment 0E = 0E +0E .
Donc (0E , 0E ) est l’unique (par le point précédent) décomposition
de 0E en 0E = xF + xG avec xF ∈ F et xG ∈ G. Par hypothèse sur
λ1 , . . . , λp , µ1 , . . . , µq , on a aussi :

0E = λ1 f1 + ⋯ + λp fp + µ1 g1 + ⋯ + µq gq .
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¶ ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶
xF xG

L’unicité de cette décomposition nous donne donc le système :

0E = λ1 f1 + ⋯ + λp fp ,
{
0E = µ1 g1 + ⋯ + µq gq .

Comme (f1 , . . . , fp ) est une base de F et donc une famille libre, les
coefficients λi sont donc nuls. De la même façon les µi sont nuls. On
vient alors de montrer que la famille (f1 , . . . , fp , g1 , . . . , gq ) est libre.
Finalement la famille (f1 , . . . , fp , g1 , . . . , gq ) est une base.

Proposition 8. Si E = F ⊕ G, alors on a dim E = dim F + dim G. Récipro-


quement, si F ∩ G = {0E } et si dim E = dim F + dim G, alors E = F ⊕ G.

Démonstration. L’égalité sur les dimensions dans le cas E = F ⊕ G est une


conséquence de la proposition précédente. En effet, si (f1 , . . . , fp ) est une base
de F et (g1 , . . . , gq ) de G, alors (f1 , . . . , fp , g1 , . . . , gq ) est une base de E.
Cette famille a p+q éléments. Donc la dimension de E est p+q = dim F +dim G.
Réciproquement, si F ∩ G = {0E } et dim E = dim F + dim G, alors comme
F et G sont en somme directe, on a dim(F ⊕ G) = dim F + dim G = dim E. Par
égalité des dimensions et comme F ⊕ G est un sous-espace vectoriel de E, on
en déduit qu’on a égalité entre ces espaces : E = F ⊕ G.

Page 14/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

1 1
Exemple 13. Reprenons F = Vect {( )} et G = Vect {( )}. On a déjà
0 1
vu que F et G sont supplémentaires dans R2 : R2 = F ⊕ G.
De plus, dim R2 vaut 2. On peut montrer rapidement que dim F = dim G = 1.
On a donc bien :
dim R2 = dim F + dim G.

2 Applications Linéaires
Passons maintenant à l’étude de fonctions particulières définies sur les es-
paces vectoriels.

Définition 12. Soit E et F deux K-espaces vectoriels et soit f une fonction


de E dans F . On dit que f est une application linéaire si :

∀λ ∈ K, ∀x, y ∈ E, f (x + λy) = f (x) + λf (y).

Si E = F , on dira que f est un endomorphisme de E. L’ensemble des


endomorphismes de E est, quant à lui, noté L(E).

Exemple 14. On définit l’endomorphisme identité idE (x) = x. Parfois,


on peut simplifier le nom de cette application par id.

Exemple 15. La symétrie par rapport à 0 est définie par s(x) = −x.

Exemple 16. Une homothétie de rapport λ est l’application linéaire dé-


finie sur E par x ↦ λ x.
En particulier, l’identité est l’homothétie de rapport 1, tout comme la sy-
métrie par rapport à 0 est l’homothétie de rapport -1.

Page 15/ 97
2 - Applications Linéaires

Remarque 2. Soit f une application linéaire de E dans F . Fixons une base


B = (e1 , . . . , en ) de E. Alors f est entièrement déterminée par l’image des
vecteurs e1 , . . . , en .
En effet, pour tout vecteur x de E, il existe une unique décomposition de la
forme x = λ1 e1 + ⋯ + λn en (par définition d’une base). En particulier, on a :

f (x) = λ1 f (e1 ) + ⋯ + λn f (en ).

Réciproquement, il est clair que si on connaît f (x) pour tout élément x de


E, on connait a fortiori les f (ei ). Pour connaître f , il suffit donc de
connaître l’image des vecteurs d’une base quelconque B de E.

Proposition 9. Soit E et F deux K-espaces vectoriels. Soit u une applica-


tion linéaire de E dans F . Alors u(0E ) = 0F .

Démonstration. Par définition du vecteur nul dans un K-espace vectoriel, on a


pour tout x de E, x + 0E = x, et en particulier, 0E + 0E = 0E . Ainsi la linéarité
de u nous donne :
u(0E ) = u(0E + 0E ) = u(0E ) + u(0E ) = 2 × u(0E ),
ce qui nous permet de conclure.

Proposition 10. Soit E et F deux K-espaces vectoriels. Soit u une appli-


cation linéaire de E dans F . Alors :
◇ Le sous-ensemble de E défini par ker(u) = {x ∈ E, u(x) = 0F } est
un sous-espace vectoriel de E, appelé noyau de u.
◇ Le sous-ensemble de F défini par Im(u) = {u(x), x ∈ E} est un
sous-espace vectoriel de F , appelé image de u.

Démonstration. D’après la Proposition 9, 0E appartient à ker(u). Soit deux


éléments x et y de ker(u) et soit λ un scalaire. Alors par linéarité de u on a :
u(x + λy) = u(x) + λu(y) = 0F + λ0F = 0F .

Page 16/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Donc x + λy ∈ ker(u) : on a bien vérifié que ker(u) est un sous-espace vectoriel


de E.
D’après la Proposition 9, 0F = u(0E ) appartient bien à Im(u). Soit X et
Y deux vecteurs de Im(u) et un scalaire λ de K. Par définition de Im(u), il
existe deux éléments x et y de E tels que :

X = u(x) et Y = u(y).

Ainsi la linéarité de u nous permet d’écrire que :

X + λY = u(x) + λu(y) = u(x + λy).

Donc X + λY ∈ Im(u) : Im(u) est bien un sous-espace vectoriel de F .

Projections et Symétries

Définition 13. Lorsque E = F ⊕ G, on appelle projection sur F pa-


rallèlement à G l’application de E dans lui-même qui à x associe xF
(x = xF + xG , avec xF ∈ F et xG ∈ G).
Si on note p la projection sur F parallèlement à G, et q la projection sur G
parallèlement à F , on dit que p et q sont des projections complémen-
taires et on a p + q = idE .

1 1
Exemple 17. Rappelons que F = Vect {( )} et G = Vect {( )} sont
0 1
2
supplémentaires dans R . La projection sur F parallèlement à G est l’ap-
x x−y
plication ( ) ↦ ( ) tandis que la projection sur G parallèlement à F
y 0
x y
est l’application ( ) ↦ ( ).
y y

Page 17/ 97
2 - Applications Linéaires

Proposition 11. 1. Les projections sont des applications linéaires de


E dans E. Si p est la projection sur F parallèlement à G, on a :
Im(p) = F et ker(p) = G.
2. Une projection p vérifie p2 = p (au sens des endomorphismes). Réci-
proquement, si u est un endomorphisme de E vérifiant u2 = u, alors
il existe F et G deux sous-espaces supplémentaires tels que u soit la
projection sur F parallèlement à G. En fait on a :
F = ker(u − id) et G = ker(u).

Démonstration. 1. Soit p la projection sur F parallèlement à G.


◇ Montrons que p est linéaire. Soit x et y deux éléments de E et soit
λ ∈ K. On décompose x = xF + xG et y = yF + yG , avec xF , yF ∈ F et
xG , yG ∈ G. Alors on a x + λy = (xF + λyF ) + (xG + λyG ). Comme F
et G sont des espaces vectoriels, on a xF + λyF ∈ F et xG + λyG ∈ G.
Par définition, la projection de x + λy sur F parallèlement à G est
donc xF + λyF soit :

p(x + λy) = p(x) + λp(y).

◇ Montrons que ker(p) = G. Pour tout élément x ∈ G, on a la décom-


position x = xF +xG avec xF = 0E et xG = x. Par définition de p, on a
alors p(x) = xF = 0E donc x ∈ ker(p) : G est inclus dans le noyau de
p. Réciproquement si x est dans le noyau de p, on a p(x) = 0E . Cela
signifie par définition de p que x à la décomposition x = 0E + xG ,
avec xG ∈ G. Ainsi x = xG et x ∈ G. Donc le noyau de p est inclus
dans G. Par double inclusion, on a :

G = ker(p).

◇ Montrons que Im(p) = F . Pour tout élément x ∈ E, p(x) = xF et


donc p(x) appartient à F . Ainsi Im(p) est inclus dans F . Récipro-
quement, soit y ∈ F . Alors sa décomposition est y = y + 0E , et on
en déduit que p(y) = y. Ainsi y est l’image d’un élément de E (en
l’occurence de lui-même) par p : il est donc bien dans l’image de p.
Par double inclusion F = Im(p).

Page 18/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

2. Soit p la projection sur F parallèlement à G. Soit x un élément quel-


conque de E et écrivons x = xF +xG . Alors par définition p(x) = xF . Soit
y = p(x). On a y qui appartient à F donc sa décomposition est y = y+0E .
Ainsi p(y) = y. En résumé, p2 (x) = p(p(x)) = p(y) = y = p(x). Puisque
pour tout x ∈ E, on a p2 (x) = p(x), on a l’égalité entre les endomor-
phismes p2 = p.
Réciproquement, soit u un endomorphisme tel que u2 = u. Posons alors
F = Im(u) et G = ker(u). Montrons que F ∩ G = {0E }. Puisque F et
G sont des sous-espaces vectoriels, on a toujours 0E dans F et dans G,
donc dans F ∩ G. Soit maintenant un élément x ∈ F ∩ G. Le vecteur
x est donc dans F = Im(u), ce qui veut dire qu’il existe x′ ∈ E tel
que x = u(x′ ). Le vecteur x est également dans G = ker(u), ce qui
nous donne que u(x) = 0E . Grâce à ces deux égalités, on en déduit que
u2 (x′ ) = 0E . Cependant par hypothèse, u2 = u, donc u2 (x′ ) = u(x′ ) = x.
Finalement on trouve que :

0E = u2 (x′ ) = x.

On a ainsi prouvé que F ∩ G est inclus dans {0E }. Par double inclusion,
on a F ∩ G = {0E }.
Montrons maintenant que E = F + G. Soit x ∈ E et cherchons une
décomposition x = xF + xG , avec xF ∈ F et xG ∈ G. Or F = Im(u) et
G = ker(u) : on veut écrire x = u(x′ ) + xG , avec u(xG ) = 0E . Si une telle
décomposition existe, alors en prenant l’image de x par u on a :

u(x) = u(u(x′ ) + xG ) = u(u(x′ )) + u(xG ) = u2 (x′ ) + 0E = u(x′ ).

On en conclut qu’on doit alors avoir u(x) = u(x′ ) = x − xG , donc néces-


sairement :
xG = x − u(x).
Si on connaît xG et qu’une décomposition existe, alors xF doit valoir
x − xG = u(x).
De la précédente analyse on fait la synthèse suivante. Soit x ∈ E. On
définit xG = x − u(x) et :

xF = x − (x − u(x)) = u(x).

Page 19/ 97
2 - Applications Linéaires

On a clairement x = xF + xG . De plus on a également clairement que xF


appartient à l’image de u c’est-à-dire à F . Reste à prouver que xG ∈ G.
Pour cela, on calcule :

u(xG ) = u(x − u(x)) = u(x) − u(u(x)) = u(x) − u2 (x) = u(x) − u(x) = 0E .

Donc xG est bien dans ker(u) = G.


On vient donc de montrer que E = F ⊕ G. De plus, on a par le calcul
précédent que u(x) est la composante xF dans la décomposition de x
en x = xF + xG , donc u est bien la projection sur F parallèlement à G.
Vérifions que F = ker(u − id). Soit y ∈ F . Comme F est l’image de u,
alors il existe x ∈ E tel que y = u(x). Ainsi :

(u − id)(y) = u(y) − y = u(u(x)) − u(x) = u2 (x) − u(x) = u(x) − u(x) = 0.

On a donc montré que F ⊂ ker(u−id). Récriproquement si y ∈ ker(u−id),


on remarque alors que y = u(y) et donc y ∈ F . Par double inclusion on
a bien F = ker(u − id).

Définition 14. Supposons que E = F ⊕ G. L’application qui a x = xF + xG


associe l’élément xF − xG est appelée symétrie par rapport à F paral-
lèment à G.

1 1
Exemple 18. Reprenons F = Vect {( )} et G = Vect {( )} supplémen-
0 1
taires dans R2 . La symétrie par rapport à F parallèlement à G est alors
l’application :
x x−y y x − 2y
( )↦( )−( )=( ).
y 0 y −y

Page 20/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Proposition 12. 1. Les symétries sont des endomorphismes de E. Si


s est la symétrie par rapport à F parallèlement à G et si p est la
projection sur F parallèlement à G et q celle sur G parallèlement à
F , on a :
s = p − q = 2p − idE = idE − 2q.

2. Une symétrie s vérifie s2 = idE . C’est donc un endomorphisme inver-


sible qui vérifie s−1 = s. Réciproquement, si u est un endomorphisme
de E qui vérifie u2 = idE , alors il existe F et G tels que u soit la
symétrie par rapport à F parallèlement à G. En fait on a :

F = ker(u − id) et G = ker(u + id).

Démonstration. La preuve est similaire que dans le cas des projections.

3 Matrices

Définition 15. Une matrice de taille (ou de dimension ou d’ordre) n ×


m est un tableau de nombres réels ou complexes (appelés coefficients ou
termes) comportant n lignes et m colonnes.
Si on désigne par aij le coefficient se trouvant à l’intersection entre la i-ème
ligne et la j-ème colonne, on écrira la matrice comme ci-dessous :

⎛ a11 a12 ⋯ a1m ⎞


⎜ a21 a22 ⋯ a2m ⎟
⎜ ⎟
A=⎜ . .. ⎟ .
⎜ .. . . . ⎟
⎜ . ⎟
⎝ an1 ⋯ an,m−1 anm ⎠

Notation 1. On notera par Mn,m (K) l’ensemble des matrices à coefficients


dans K de taille n × m.

Page 21/ 97
3.1 Règles de calculs

1 2 3
Exemple 19. La matrice A = ( ) est une matrice de taille 2 × 3.
4 5 6
Ces coefficients sont réels (mais aussi complexes). Donc A est un élément
de M2,3 (R) et de M2,3 (C).

i 2i
Exemple 20. La matrice A = ( ) est une matrice de taille 2 × 2. Ces
3 0
coefficients sont complexes. Donc A est un élément de M2,2 (C).

3.1 Règles de calculs

Nous pouvons effectuer certains calculs avec ces nouveaux objets. Ces opé-
rations sont une extension des opérations élémentaires que nous connaissons
dans R (et dans C).

Définition 16. Soit deux matrices A, B de Mn,m (K). La somme des


matrices A et B est la matrice A + B définie par :

∀1 ≤ i ≤ n, ∀1 ≤ j ≤ m, (A + B)ij = Aij + Bij .

1 0 1 0 −1 0
Exemple 21. Soit A = ( ) et B = ( ). Alors on a :
0 1 0 −1 0 −1

1 −1 1
A+B =( ).
−1 1 −1

Page 22/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Définition 17. Soit une matrice A de Mn,m (K) un scalaire λ ∈ K. Le


produit de la matrice A par le scalaire λ est la matrice λA définie par :

∀1 ≤ i ≤ n, ∀1 ≤ j ≤ m, (λA)ij = λ Aij .

1 0 1
Exemple 22. Soit A = ( ) et λ = 2. Alors on a :
0 1 0

2 0 2
λA = ( ).
0 2 0

Définition 18. La matrice nulle de taille n × m, notée 0n,m ∈ Mn,m (K),


est la matrice dont tous les coefficients sont nuls.

Remarquons que pour toute matrice A ∈ Mn,m (K), on a A + 0n,m = A.

Proposition 13. L’ensemble Mn,m (K), muni de ces deux opérations et de


la matrice nulle, est un espace vectoriel de dimension n × m. Une base est
donnée par les matrices coordonnées définie par :

j-ème colonne

0 ... 0 0 0 ... 0
⎛ .. .. .. .. .. ⎞
⎜ 0. . . . .
... 0 ⎟
Eij = ⎜0 ... 0 0 0
... 0 ⎟ ← i-ème ligne
⎜0 ... 0 1 0
... 0 ⎟
⎜. ... 0
..
0
..
0
.. ..

⎝ .. . . . .⎠
0 ... 0 0 0 ... 0

En particulier, une matrice A ∈ Mn,m (K) s’écrira de façon unique sous la


forme :
n m
A = ∑ ∑ aij Eij .
i=1 j=1

Page 23/ 97
3.1 Règles de calculs

On peut définir une autre opération sur les ensembles de matrices : le


produit. Cependant, on ne peut pas faire n’importe quoi comme produit. Pour
cela on doit considérer une matrice A ∈ Mn,m (K) et B ∈ Mm,p (K) (il faut que
le nombre de colonnes de A soit égal au nombre de lignes de B).

Définition 19. Soit A ∈ Mn,m (K) et A ∈ Mm,p (K). La matrice produit


A × B (ou simplement A B) dans Mn,p (K) est donnée par :
m
∀1 ≤ i ≤ n, ∀1 ≤ j ≤ p, (A × B)ij = ∑ Aik Bkj .
k=1

−1 1 1 ⎛1 2⎞
Exemple 23. Soit A = ( ) et B = ⎜ 0 1 ⎟. Ici n = 2, m = 3 et
0 −1 1 ⎝1 0⎠
p = 2. On utilise le schéma suivant pour faire le produit A B :

On obtient alors que :

0 −1
A B=( ) ∈ M2,2 (K).
1 −1

Page 24/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

1 0 1 2 3
Exemple 24. Considérons A = ( ) et B = ( ) . On obtient que :
1 0 4 5 6

1 2 3
A B=( ).
1 2 3

Comme pour la somme de deux matrices, il existe une matrice particulière,


qui possède une propriété associée au produit :

Définition 20. Dans Mn,n (K), la matrice identité est :

⎛1 0 ⋯ 0⎞
⎜0 . . . . .. ⎟
⎜ . . .⎟
In = ⎜ . ⎟.
⎜ .. . . 0⎟
.. ..
⎜ ⎟
⎝0 ⋯ 0 1⎠

Remarquons que pour toute matrice A ∈ Mn,n (K), on a :

A In = In A = A.

ATTENTION .! Le produit matriciel dans Mn (K) n’est (en général)


pas commutatif : Il existe des matrices telles que A B ≠ B A.

Exemple 25. On peut vérifier que :

1 0 1 2 1 2 1 0
( ) ( )≠( ) ( ).
0 0 3 4 3 4 0 0

3.2 Inverse d’une matrice


Nous avons vu comment additionner, soustraire et multiplier deux matrices
entre-elles (tant qu’elles ont la bonne taille). Maintenant passons à la généra-

Page 25/ 97
3.3 Quelques matrices particulières

tion du quotient ... qu’on appelle aussi inverse.

Définition 21. Une matrice P ∈ Mn,n (K) est dite inversible s’il existe
une matrice Q ∈ Mn,n (K) (appelée inverse de P et notée P −1 ) telle que :

P Q = Q P = In .

Notation 2. On note GLn (K) l’ensemble des matrices inversibles de


Mn,n (K).

1 1
Exemple 26. La matrice P = ( ) est inversible et :
0 2

1 2 −1
P −1 = ( ).
2 0 1

Nous verrons plus tard comment caractériser si une matrice est inverisble
ou non, plus facilement.

3.3 Quelques matrices particulières

Définition 22. Une matrice A de Mn,1 (K) (ne possédant qu’une seule
colonne) est dite matrice colonne.
Une matrice A de M1,n (K) (ne possédant qu’une seule ligne) est dite ma-
trice ligne.

Exemple 27. La matrice A = (1 2) est une matrice ligne.


1
La matrice B = ( ) est une matrice colonne.
2

Page 26/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Par la suite, si aucune ambiguïté n’a lieu, nous confondrons Mn,1 (K) et
M1,n (K) avec Kn .

Définition 23. Une matrice A de Mn,n (K) est dite matrice carrée.

Exemple 28. La matrice In est une matrice carrée.

Notation 3. On notera Mn (K) au lieu de Mn,n (K) par la suite.

Définition 24. Une matrice A de Mn (K) est dite diagonale, si tous les
coefficients aij sont nuls pour i ≠ j.

Notation 4. On notera Diagn (K) l’ensemble des matrices diagonales de


taille n × n à coefficients dans K.

Exemple 29. Les matrices 0n,n (abrégée en 0n ) et In sont des matrices


diagonales.

3.4 Transposée
Nous pouvons interchanger les lignes et les colonnes d’une matrice. On
construit alors une nouvelle matrice et donc une nouvelle opération sur Mn,m (K).

Définition 25. Soit A ∈ Mn,m (K). La transposée de A est la matrice


AT ∈ Mm,n (K) telle que :

∀1 ≤ i ≤ m, ∀1 ≤ j ≤ n, (AT )ij = Aji .

Page 27/ 97
3.4 Transposée

1 2 3
Exemple 30. La transposée de A = ( ) est :
4 5 6

⎛1 4⎞
A = ⎜ 2 5 ⎟.
T
⎝3 6⎠

Proposition 14. La transposée d’une matrice ligne est une matrice co-
lonne, dont les coefficients sont rangés dans le même ordre.
La transposée d’une matrice colonne est une matrice ligne, dont les coeffi-
cients sont rangés dans le même ordre.

Exemple 31. La transposée de A = ( 1 2 3 ) est :

⎛1⎞
A = ⎜ 2 ⎟.
T
⎝3⎠

Proposition 15. La transposée d’une matrice diagonale est égale à la ma-


trice diagonale de départ.

Exemple 32. On a :
T
1 0 1 0
( ) =( ).
0 2 0 2

Enfin, grâce aux exemples précédents, on peut rapidement énoncer la pro-


priété suivante :

Proposition 16. Soit A ∈ Mn,m (K) et B = AT ∈ Mm,n (K). Alors B T = A.

Page 28/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

3.5 Trace et Déterminant


Dans cette section, nous allons aborder deux notions importantes pour les
matrices carrées : la trace et le déterminant.

Définition 26. La trace d’une matrice A ∈ Mn (K) est égal à la somme


de ses coefficients diagonaux :
n
Tr(A) = ∑ aii .
i=1

1 2
Exemple 33. Soit A = ( ). La trace de A vaut :
17 −1

Tr(A) = 1 + (−1) = 0.

Exemple 34. La trace de la matrice nulle vaut 0.

Exemple 35. La trace de In vaut n.

Proposition 17. Soit deux matrices A, B ∈ Mn (K) et un scalaire λ ∈ K.


Nous avons alors que :

Tr(A + B) = Tr(A) + Tr(B), Tr(AB) = Tr(BA),


et Tr(λA) = λTr(A).

De plus, étant donné que la transposée ne change pas les termes diagonaux,
nous avons :

Proposition 18. Soit A ∈ Mn (K). Alors on a Tr(AT ) = Tr(A).

Page 29/ 97
3.5 Trace et Déterminant

Passons à la notion clef de ce chapitre : le déterminant.

a b
Définition 27. Soit A = ( ) ∈ M2 (K). Le déterminant de A vaut :
c d

det(A) = ad − bc.

Nous noterons aussi det(A) le déterminant d’une matrice A ∈ Mn (K).

Notation 5. Pour alléger les notations, on peut aussi noter le déterminant


de A par ∣A∣.

Étant donné que la formule générale du déterminant est complexe, nous


nous pencherons que sur ses propriétés, nous permettant de le calculer plus
simplement.

Théorème 19. Développement par rapport à une colonne


Soit A ∈ Mn (K). Le développement par rapport à la j-ème colonne de det M
nous donne :
RRR a11 ⋯ a1,j ⋯ a1,n RRR
RRR RRR n
det(A) = RRRR ... ..
.
..
.
RRR = ∑(−1)i+j a ∆ (A),
RRR i,j i,j
RRR
RRR an,1 ⋯ an,j ⋯ an,n RRRR i=1

où ∆i,j (A) est défini par :


RRR a11 ⋯ a1,j−1 a1,j+1 ⋯ a1,n RRR
RRR RRR
RRR .. .. .. .. RRR
RRR . . . . RRR
RRR RRR
⋯ ai−1,j−1 ai−1,j+1 ⋯ ai−1,n
∆i,j (A) = RRRRR RRR .
ai−1,1
RRR i+1,1 a ⋯ ai+1,j−1 ai+1,j+1 ⋯ ai+1,n RRR
RRR . RRR
RRR .. .. .. .. RRR
RRR . . . RRR
RRR an,1 RRR
⋯ an,j−1 an,j+1 ⋯ an,n RR

Page 30/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Définition 28. Le mineur ∆i,j (A) est le déterminant calculé après avoir
ôté à A sa i-ème ligne et sa j-ème colonne.

Théorème 20. Développement par rapport à une ligne


Soit A ∈ Mn (K). De la même manière, on peut calculer le déterminant en
développant par rapport à la i-ème ligne :
n
det(A) = ∑ (−1)i+j ai,j ∆i,j (A).
j=1

Exemple 36. Calculons le déterminant de la matrice :

⎛ 2 1 0 4 ⎞
⎜ −1 3 2 1 ⎟
A=⎜
⎜ 1
⎟.
⎜ 5 0 −2 ⎟

⎝ 0 1 −1 3 ⎠

En développant d’abord par rapport à la troisième colonne, on a :


21 4 2 1 4
det(A) = −2 ∣ 1 5 −2 ∣ − (−1) ∣ −1 3 1 ∣.
01 3 1 5 −2

On développe le premier déterminant par rapport à la première colonne :

21 4 5 −2 1 4
∣ 1 5 −2 ∣ = 2 ∣ ∣−∣ ∣ = 2 × 17 − (−1) = 35.
01 3 1 3 1 3

Pour le dernier, on développe par rapport à la première colonne :

2 1 4 3 1 1 4 1 4
∣ −1 31 ∣ = 2∣ ∣ − (−1) ∣ ∣+∣ ∣ = −55.
1 5 −2 5 −2 5 −2 3 1

Ainsi on trouve que det(A) = −125.

Page 31/ 97
3.5 Trace et Déterminant

Exemple 37. En développant par rapport à la première ligne, on obtient


que :
RRR 1 0 −2 RRR
RRR R −1 3 −1 2
RRR −1 2 3 RRRRR = 1 × ∣
2 3
∣−0×∣ ∣ + (−2) × ∣ ∣,
RRR RRR 4 −5 1 −5 1 4
RR 1 4 −5 RR
= (−10 − 12) − 2 × (−4 − 2) = −10.

Il existe tout de même des formules "simples" pour le déterminant, si on


fixe la taille de la matrice. Voici la formule du déterminant pour une matrice
M3 (K) :

Théorème 21. Formule de Sarrus


⎛a b c ⎞
Soit A = ⎜ d e f ⎟ ∈ M3 (K). Alors on a :
⎝g h i ⎠

det(A) = aei + bf g + cdh − gec − hf a − idb.

Exemple 38. Reprenons la matrice de l’Exemple 37 :


RRR 1 0 −2 RRR
RRR R
RRR −1 2 3 RRRRR = 1 × 2 × (−5) + 0 × 3 × 1 + (−2) × (−1) × 4
RRR R
RR 1 4 −5 RRRR
− 1 × 2 × (−2) − 4 × 3 × 1 − (−5) × (−1) × 0,
= −10 + 8 + 4 − 12 = −10.

Le déterminant possède une propriété très utile avec le produit matriciel,


contrairement à la trace :

Proposition 22. Pour A, B ∈ Mn (K), on a det(AB) = (det A) × (det B).

Page 32/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Théorème 23. Caractérisation des matrices inversibles (admis)


Soit A ∈ Mn (K). La matrice A est inversible si et seulement si det A ≠ 0.

1 0
Exemple 39. La matrice A = ( ) a un déterminant nul : elle n’est pas
0 0
inversible.

Proposition 24. Le déterminant d’une matrice A diagonale est égal au


produit de ses coefficients diagonaux :
RRR a11 0 ⋯ 0 RRR
RRR RRR
RRR ..
.
.. RRR n
RRR 0 a22 . RRR = a × a × ⋯ × a =
RRR . . RR 11 22 nn ∏ aii .
. 0 RRRR
RRR .. .. .. i=1
RRR RRR
RR 0 ⋯ 0 ann RR

Démonstration. Ce genre de preuve se fait par récurrence sur la dimension n :


◇ Initialisation - n = 1 : On a A = (a11 ) et on a donc bien det A = a11 .
◇ Hérédité - n → n + 1 : Supposons que pour toute matrice carrée de
taille n, son déterminant soit le produit de ses coefficients diagonaux.
Considérons une matrice A ∈ Mn+1 (K). On l’écrit comme ci-dessous :

⎛ a11 0 ⋯ 0 ⎞
⎜ 0 a .. .. ⎟
⎜ 22 . . ⎟
A=⎜ . . ⎟.
⎜ . .. .. ⎟
⎜ . . 0 ⎟
⎝ 0 ⋯ 0 an+1,n+1 ⎠

En développant par rapport à la dernière colonne, on obtient :


RRR a11 0 ⋯ 0 RR
RR . RR
a22 . . .. RRR
.
det(A) = mn+1,n+1 RRRR 0. RR .
RRR .. . . 0 RRR
.. ..
RR 0 ⋯ 0 ann RR

Page 33/ 97
3.5 Trace et Déterminant

Le nouveau déterminant est celui d’une matrice diagonale de taille n×n.


Ainsi par hypothèse de récurrence, on trouve que :
n n+1
det(A) = an+1,n+1 × ∏ aii = ∏ aii .
i=1 i=1

◇ Conclusion : Par récurrence, on a montré la formule annoncée dans la


propriété.

Opérations élémentaires
Certaines opérations matricielles permettent de simplifier les calculs de
déterminants :

Définition 29. Soit A une matrice de Mn (K). On notera Li la i-ème


ligne et Ci la i-ème colonne de A. On définit les opérations élémentaires
suivantes :
◇ Echanges de lignes (resp. de colonnes) de A : Li ↔ Lj (resp.
Ci ↔ Cj ) ;
◇ Multiplication d’une ligne (resp. d’une colonne) par un sca-
laire non nul de A : pour λ ∈ K, λ ≠ 0, Li ← λLi (resp. Ci ← λCi ) ;
◇ Addition d’une ligne (resp. d’une colonne) à une autre de A :
Li ← Li + λLj (resp. Ci ← Ci + λCj ).

Proposition 25. Soit A une matrice dont on note Li la i-ème ligne et Ci la


i-ème colonne. Soit A′ obtenue par une opération élémentaire sur les lignes
où les colonnes de A. Alors suivant l’opération en question on a :
◇ Li ← Li + λLj ⇒ det(A′ ) = det(A) ;
◇ Ci ← Ci + λCj ⇒ det(A′ ) = det(A) ;
◇ Li ↔ Lj ⇒ det(A′ ) = − det(A) ;
◇ Ci ↔ Cj ⇒ det(A′ ) = − det(A) ;
◇ Li ← λLi ⇒ det(A′ ) = λ det(A) ;
◇ Ci ← λCi ⇒ det(A′ ) = λ det(A).

Page 34/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

3.6 Lien avec les applications linéaires

Définition 30. Considérons B = (e1 , . . . , en ) une base de E. Soit


v1 , . . . , vp des vecteurs de E. Chaque vecteurs vj a un unique jeu de co-
ordonnées dans la base B. On note aij la coordonnée du vecteur vj suivant
ei . La matrice A ainsi construite est appelée matrice de la famille de
vecteur (v1 , . . . , vp ) dans la base B. On la note MatB (v1 , . . . , vp ).
Si la famille (v1 , . . . , vp ) est réduite à un unique vecteur v (cas où p = 1),
on parle alors de matrice du vecteur v dans la base B.

Exemple 40. Soit v1 = (1, 1) et v2 = (0, 2). On note C = (ε1 , ε2 ) la base


canonique de R2 . Ainsi on a v1 = 1ε1 + 1ε2 et v2 = 0ε1 + 2ε2 , ce qui implique
que MatC (v1 , v2 ) = ( 11 02 ).

Exemple 41. Soit v1 = (1, 1) et v2 = (0, 2). On considère B = (e1 , e2 ), avec


e1 = (1, 1) et e2 = (1, −1), qui est une base de R2 . Ainsi on a v1 = 1e1 + 0e2
et v2 = 1e1 + (−1)e2 , ce qui implique que MatB (v1 , v2 ) = ( 10 −1
1 ).

Définition 31. Soit E et F deux K-espaces vectoriels et u une appli-


cation linéaire de E dans F . Fixons B = (e1 , . . . , en ) base de E et
B ′ = (f1 , . . . , fp ) base de F . On décompose les u(ej ) sous la forme :
p
u(ej ) = ∑ aij fi .
i=1

La matrice A de coefficients les aij est appelée matrice de l’application


linéaire u dans les bases B et B ′ . On la note alors MatB,B′ (u) ou MatB,B′ u.
Si E est un K-espace vectoriel de dimension finie et u un endomorphisme de
E, on appelle matrice de l’endomorphisme u dans la base B la matrice
MatB,B (u). On la note MatB (u) ou MatB u.

Page 35/ 97
3.6 Lien avec les applications linéaires

ATTENTION .! Quand on parle de matrice d’application linéaire,on


a forcément besoin de deux bases (départ et arrivée) : les espaces de départ
et d’arrivée n’ont a priori rien à voir entre eux.

x 2x+y
Exemple 42. Soit u ∈ L(R3 ) définie par ( yz ) ↦ ( z ). Cherchons sa
x+z
matrice A dans la base canonique B = (ε1 , ε2 , ε3 ) de R . 3

Etape 1. On calcule les images des vecteurs ε1 , ε2 et ε3 par u :


1 2 0 1 0 0
u(0) = (0) ; u(1) = (0) ; u(0) = (1).
0 1 0 0 1 1

Etape 2. On calcule les coordonnées de ces vecteurs images dans B :


2 1
( 0 ) = 2 × ε1 + 0 × ε 2 + 1 × ε3 ; ( 0 ) = 1 × ε 1 + 0 × ε2 + 0 × ε3 ;
1 0
0
(1) = 0 × ε 1 + 1 × ε2 + 1 × ε3 .
1

On obtient finalement :

⎛2 1 0⎞
MatB (u) = ⎜ 0 0 1 ⎟ .
⎝1 0 1⎠

Proposition 26. On considère E et F deux K-espaces vectoriels de dimen-


sion finie. Soit B = (e1 , . . . , en ) et B ′ = (f1 , . . . , fp ) bases respectives de
E et de F . Soit u une application linéaire de E dans F .
On peut alors reconstituer u à partir de A = MatB,B′ (u).

Démonstration. Soit x ∈ E de coordonnées λ1 , . . . , λn dans B. Alors on a :

⎛n ⎞ n n p p ⎛ n ⎞
u(x) = u ∑ λj ej = ∑ λj u(ej ) = ∑ λj (∑ aij fi ) = ∑ ∑ aij λj fi
⎝j=1 ⎠ j=1 j=1 i=1 i=1 ⎝j=1 ⎠

Page 36/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Proposition 27. Soit E et F deux K-espaces vectoriels. Soit B et B ′ des


bases respectives de E et F . Soit u une application linéaire de E dans F .
On a pour tout x de E :

MatB′ (u(x)) = MatB,B′ (u) ⋅ MatB (x).

Exemple 43. Soit u ∈ L(R2 ) tel que sa matrice dans la base canonique C
soit MatC (u) = ( 14 37 ). Dans ce cas, pour (x, y) ∈ R2 , on a :
x+3y
MatC (u(x, y)) = ( 14 32 ) ( xy ) = ( 4x+2y ).

Finalement, u(x, y) = (x + 3y, 4x + 2y).

Exemple 44. Soit u ∈ L(R2 ) tel que, dans la base B = ((1, 1), (1, −1)),
MatB (u) = ( 14 32 ). Soit (x, y) ∈ R2 . On cherche ses coordonnées (α, β) dans
la base B, c’est-à-dire α et β tels que (x, y) = α(1, 1) + β(1, −1). On doit
alors résoudre le système :
x+y
x = α + β, α= 2 ,
{ ⇐⇒ { x−y
y = α − β, β= 2 .

Dans ce cas, nous avons que :

(x + y)/2
MatB ((x, y)) = ( ).
(x − y)/2

Ainsi les coordonnées de u(x, y) dans la base B sont données par :

1 3 (x + y)/2 2x − y
MatB (u(x, y)) = ( )( )=( ).
4 2 (x − y)/2 3x + y

Finalement, en repassant à la base canonique, on trouve que :

u(x, y) = (2x − y)(1, 1) + (3x + y)(1, −1) = (5x, −x − 2y).

Page 37/ 97
3.6 Lien avec les applications linéaires

Remarque 3. Pour deux endomorphismes f et g de E, l’application f ○ g


est aussi un endomorphisme (Vérifier que vous savez le faire !).

Proposition 28. Soit f, g ∈ L(E) et B une base de E. Alors :

MatB (f ○ g) = (MatB (f )) × (MatB (g)).

Démonstration. Posons B = (e1 , . . . , en ), puis A = MatB (f ), B = MatB (g) et


C = MatB (f ○g). Il suffit de montrer que cij = (AB)ij pour tout couple d’indices
(i, j). Cependant, on a, pour 1 ≤ j ≤ n :
n n
(f ○ g)(ej ) = f (g(ej )) = f (∑ bij ei ) = ∑ bij f (ei ) , par linéarité de f ,
i=1 i=1
n n n⎛ n⎞
= ∑ bij ( ∑ aki ek ) = ∑ ∑ aki bij ek ,
i=1 k=1 k=1 ⎝j=1 ⎠
n
= ∑ (AB)kj ek ,
k=1

par définition du produit entre matrices. De plus on sait que :


n
(f ○ g)(ej ) = ∑ ckj ek .
k=1

Par unicité de la décomposition dans une base, on a bien que ckj = (AB)kj
pour tous 1 ≤ k, j ≤ n.

Proposition 29. Soit u ∈ L(E). Alors u est inversible si et seulement si


MatB (u) est inversible. De plus, on a :

MatB (u−1 ) = (MatB (u))−1 .

Page 38/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

3.7 Application aux systèmes linéaires

Définition 32. Un système linéaire de n équations à p inconnues


x1 , . . . , xp dans K est de la forme :


⎪ a11 x1 + ⋯ + a1p xp = y1 ,


⎪ .
(S) ⎨ .. .. ..
⎪ . .



⎩ an1 x1 + ⋯ + anp xp = yn ,

où les (ai,j ) 1≤i≤n et les (yi )1≤i≤n sont des coefficients de K.


1≤j≤p

Le système (S) est équivalent à l’équation matricielle AX = Y, d’inconnue


X ∈ Kp avec la matrice :

⎛ a11 ⋯ a1p ⎞ ⎛ y1 ⎞
A=⎜ .
⎜ ..
..
.
⎟,
⎟ et Y =⎜ .
⎜ ..
⎟.

⎝a ⋯ a ⎠ ⎝y ⎠
n1 np n

Ainsi si la matrice A est inversible on a une unique solution donnée par :

X = A−1 Y.

On rappelle qu’il y a trois cas possibles : soit le système n’a aucune solution,
soit le système a une unique solution, soit le système a une infinité de solutions.
Plus précisément, considérons E l’ensemble des solutions du système. Il n’y a
alors que trois cas :
◇ E est vide : E = ∅ ;
◇ E est réduit à un élément : E = {(x1 , . . . , xp )} ;
◇ E est infini. Dans ce cas, il existe un entier 1 ≤ d ≤ p, (u1 , . . . , ud ) une
famille libre de Kp et x = (x1 , . . . , xp ) ∈ Kp tels que :

E = {z ∈ Kp , ∃ (λ1 , . . . , λd ) ∈ Kd , z = x + λ1 u1 + ⋯ + λd ud }.

Page 39/ 97
4 - Diagonalisation

On allègera la notation en utilisant l’une des notations suivantes :

E = x + Ku1 + ⋯ + Kud ,
= x + Ku1 ⊕ ⋯ ⊕ Kud ,
= x + Vect(u1 , . . . , ud ).

En fait on a ker(A) = Vect(u1 , . . . , ud ).

4 Diagonalisation
Considèrons un système linéaire AX = Y . Si A est diagonale, alors on sait
résoudre facilement ce système :
yi
xi = ,
aii

où les yi sont les coordonnées de Y et aii sont les termes diagonaux de A.


Supposons maintenant qu’il existe une matrice P ∈ GLn (K) telle que la
matrice D = P −1 AP soit diagonale. Ainsi le système AX = Y est équivalent
à D(P −1 X) = (P −1 Y ). Par ce qui précède on peut exprimer X̃ solution de
DX̃ = (P −1 Y ). Alors la solution de AX = Y vaudra :

X = P X̃.

Le but de cette partie est de savoir si une matrice A admet une décompo-
sition en P DP −1 avec P inversible et D diagonale : on dira alors que A est
diagonalisable.
Remarquons que la matrice P −1 qui est présente dans ce type de décom-
position est la matrice de passage de la base canonique – notée (ε1 , . . . , εn ) –
vers une base B c’est-à-dire que εi = P −1 ei . Il faut donc chercher à comprendre
cette nouvelle base B = (e1 , . . . , en ) (Quels sont ces éléments ?). On calcule :

Aei = A(P εi ) = (AP )εi = (P D)εi = P (Dεi ) = P (λi εi ) = λi (P εi ) = λi ei ,

où λi est le i-ème terme diagonal de D.

Page 40/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

4.1 Éléments Propres


Nous avons vu ci-dessus l’importance des vecteurs X ∈ Kn tels que AX =
λX, pour un certain λ ∈ K. Il est clair que le vecteur nul vérifie cette propriété
pour tout λ ∈ K. C’est pourquoi nous allons nous intéresser aux objets suivants :

Définition 33. Soit A ∈ Mn (K).


◇ On dit que λ ∈ K est une valeur propre de A si et seulement s’il
existe un vecteur X NON NUL de Kn tel que AX = λX.
◇ Si λ est une valeur propre de A et si X est un vecteur NON NUL
de Kn pour lequel on a AX = λX (puisque λ est valeur propre, il
en existe au moins un), on dit que X est un vecteur propre de A
associé à la valeur propre λ.
◇ Plus généralement, X ∈ Kn est un vecteur propre de A si d’une
part X ≠ 0n,1 et si d’autre part il existe λ ∈ K tel que AX = λX.

On peut aussi définir les éléments propre d’un endomorphisme :

Définition 34. Soit u ∈ L(E).


◇ On dit que λ ∈ K est une valeur propre de u si et seulement s’il
existe un vecteur x NON NUL de E tel que u(x) = λx.
◇ Si λ est une valeur propre de u et si x est un vecteur NON NUL
de E pour lequel on a u(x) = λx (puisque λ est valeur propre, il
en existe au moins un), on dit que x est un vecteur propre de u
associé à la valeur propre λ.
◇ Plus généralement, x ∈ E est un vecteur propre de A si d’une part
x ≠ 0E et si d’autre part il existe λ ∈ K tel que u(x)λx.

Cependant, pour une base B de E, on peut remarquer que λ est valeur


propre de u si et seulement si λ est valeur propre de MatB (u). C’est pourquoi
nous nous intéresserons par la suite qu’à l’étude des matrices. Cependant, on
peut appliquer toutes les définitions qui suivent aux endomorphismes, grâce à
ce lien.

Page 41/ 97
4.1 Éléments Propres

1 2
Exemple 45. Soit A la matrice A = ( ) vue à coefficients réels. Pour
−1 4
trouver quelles sont ses valeurs propres et ses veteurs propres, on doit cher-
cher les λ réels et les vecteurs NON NULS X de R2 , pour lesquels on a
une relation AX = λX. On cherche X sous la forme (x, y). Si on a une
relation de vecteurs propres, x et y sont solutions du système à paramètre
λ suivant :
x + 2y = λx, (1 − λ)x + 2y = 0,
{ ⇔{
−x + 4y = λy, −x + (4 − λ)y = 0.
Pour éviter les disjonctions de cas, on échange les lignes :

−x + (4 − λ)y = 0, −x + (4 − λ)y = 0,
{ ⇔ {
(1 − λ)x + 2y = 0, L2 ←L2 +(1−λ)L1 [(4 − λ)(1 − λ) + 2]y = 0.

La seconde équation est satisfaite dans deux cas :


◇ soit y = 0 : avec le système, on obtient x = 0 et donc la solution est
X = (0, 0), qui ne nous intéresse pas ;
◇ soit [(4 − λ)(1 − λ) + 2] = λ2 − 5λ + 6 = 0 : cela ne peut se produire que
si λ = 2 ou λ = 3. Les seules valeurs propres possibles sont donc 2 et
3. Examinons cas par cas :
— si λ = 2, le système se réduit à une équation à deux inconnues −x+
2y = 0. L’ensemble des solutions de ce système est Vect((2, 1)),
qui contient bien des éléments non nuls. Ainsi 2 est une valeur
propre de A.
— si λ = 3, le système se réduit également à l’équation −x + y = 0
dont l’ensemble des solutions est Vect((1, 1)), qui n’est pas réduit
à (0, 0). Donc 3 est bien une valeur propre.

Proposition 30. Soit A et B deux matrices semblables :

∃P ∈ GLn (K), A = P −1 BP.

Alors elles ont les mêmes valeurs propres.

Page 42/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Démonstration. Soit A et B semblables. On note P ∈ GLn (K) telle que :

A = P −1 BP.

Soit λ ∈ K valeur propre de B. Il existe X vecteur non nul tel que BX = λX.
Posons Y = P −1 X. Nous avons alors que :

AY = P −1 BP P −1 X = P −1 BX = P −1 (λX) = λP −1 X = λY.

Comme X est non nul, Y est un vecteur non nul : λ est aussi une valeur propre
de A.
On remarque ensuite que B = Q−1 AQ avec Q = P −1 ∈ GLn (K) : on peut
donc appliquer le raisonnement précédent, ce qui nous permet de conclure.

Exemple 46. On considère les matrices :

⎛ 4 2 −1 ⎞ ⎛1 1 1⎞
A = ⎜ 0 5 0 ⎟, et P = ⎜ 0 1 0 ⎟.
⎝2 2 1 ⎠ ⎝2 1 1⎠

On peut alors montrer que la matrice P est inversible et que B = P −1 AP


avec :
⎛2 0 0⎞
B = ⎜ 0 5 0 ⎟.
⎝0 0 3⎠
Les matrices A et B ont donc les mêmes valeurs propres. On verra plus tard
que les valeurs propres de B sont extrêmement simples à déterminer.

ATTENTION .! La réciproque de la Proposition 30 est fausse !

Page 43/ 97
4.1 Éléments Propres

0 0 0 1
Exemple 47. Soit A = ( ) et B = ( ). Si une matrice M est
0 0 0 0
semblable à A alors elle peut s’écrire :

M = P −1 AP.

Cependant, quand on multiplie A par une matrice, on obtient encore A : la


seule matrice semblable à A est A elle-même, et donc A et B ne sont pas
semblables.
On remarque facilement que la seule valeur propre de A est 0. Cherchons
les valeurs propres de B. Soit λ ∈ R valeur propre de B et X = (x, y) un
vecteur propre (donc NON NUL) associé à λ. En particulier, il vérifie :

BX = λX,

ce qui se réécrit y = λx et 0 = λy. Deux possibilités s’offrent à nous : soit


λ est nulle, soit y = 0. Supposons que λ ≠ 0. Alors y = 0 et en remplaceant
cette valeur dans la première égalité – à savoir 0 = λx – on obtiendrait que
x = 0 aussi, ce qui est contradictoire. Donc λ = 0 avec (1, 0) qui est un
vecteur propre qui lui est associé.
Finalement, on a deux matrices non semblables qui ont les mêmes valeurs
propres.

Définition 35. Soit A ∈ Mn (K) et λ une de ses valeurs propres. Le sous-


espace propre de A associé à λ est :

Eλ (A) = {X ∈ Kn , (A − λIn )X = 0}.

Proposition 31. Soit λ et µ deux valeurs propres DISTINCTES d’une


matrice A. Alors les deux sous-espaces propres Eλ (A) et Eµ (A) sont en
somme directe c’est-à-dire que :

Eλ (A) ∩ Eµ (A) = {0}.

Page 44/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Démonstration. Soit X ∈ Eλ (A) ∩ Eµ (A). En particulier, on a :

λX, car X ∈ Eλ (A),


AX = {
µX, car X ∈ Eµ (A).

Cela implique que (λ − µ)X = 0. Si X est non nul, il existerait une coordonnée
de X, notée xi , qui est donc non nulle. En particulier, on aurait que (λ−µ)xi = 0
avec xi ≠ 0 : forcément λ−µ = 0, ce qui est impossible par hypothèse. On vérifie
rapidement que 0 ∈ Eλ (A) ∩ Eµ (A), ce qui termine la preuve.

4.2 Polynôme Caractéristique

Définition 36. Soit A une matrice carrée de taille n. On appelle polynôme


caractéristique de A le polynôme en l’indéterminée X défini par :

χA (X) = det(A − XIn ).

On peut voir la matrice A − XIn comme une matrice de taille n dont les
coeffcients sont des polynômes de degré inférieur ou égal à 1 par rapport à la
variable X. Comme le calcul du déterminant consiste à faire des sommes de
termes constitués de produits des coefficients de la matrice, on en déduit que
χA (X) est une somme de produits de polynômes en X : c’est donc bel et bien
un polynôme en X.

Proposition 32. (admise) Soit χA (X) le polynôme caractéristique d’une


matrice A. Son degré est n, son terme dominant (−1)n X n , son terme
constant det(M ) et le terme d’ordre n − 1 est (−1)n−1 Tr(M )X n−1 .

Remarque 4. En particulier, pour une matrice A de taille 2, le polynôme


caractéristique est :

χA (X) = X 2 − Tr(A)X + det(A).

Page 45/ 97
4.2 Polynôme Caractéristique

Remarque 5. Pour une matrice A de taille 3, le polynôme caractéristique


est de la forme :

χA (X) = −X 3 + Tr(A)X 2 + cX + det(A),

pour un certain c ∈ K. En pratique ce résultat est très utile pour détecter des
erreurs de calculs.

Théorème 33.
Les valeurs propres d’une matrice A sont les racines du polynôme caracté-
ristique χA (X).

Démonstration. On sait que λ est une valeur propre de A si et seulement s’il


existe X ∈ Kn non nul avec (A − λIn )X = 0. Cette dernière propriété revient à
dire que la matrice (A − λIn ) n’est pas inversible. Nous avons déjà vu que cela
revenait à χA (λ) = det(A − λIn ) = 0.

On trouve les valeurs propres d’une matrice en trouvant les racines de son
polynôme caractéristique. C’est pourquoi on essaiera AU MAXIMUM de
calculer et de garder au cours des calculs le polynôme sous forme FACTORI-
SÉE lorsque c’est possible.

Définition 37. Soit λ ∈ K valeur propre de A. On appelera multiplicité


(algébrique) de λ sa multiplicité vue comme racine de χA (X). On la notera
α(λ).

Proposition 34. Soit A une matrice carrée de taille n ≥ 1. Alors A a au


plus n valeurs propres, comptées avec leur multiplicité.

Démonstration. Cela vient du fait que les valeurs sont exactement les racines
de χA (X) qui est de degré n.

Page 46/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

⎛1 0 1⎞
Exemple 48. Considérons le cas de la matrice A = ⎜ 0 2 0 ⎟. Son poly-
⎝2 0 0⎠
nôme caractéristique se calcule par le déterminant :

RRR 1 − X 0 1 RRR
R
R
χA (X) = RRR 0 2−X 0 RRR.
RRR RRR
2 0 −X RR

Puisqu’on calcule un déterminant, toutes les opérations usuelles sur le déter-


minant sont autorisées. Ici on développe par rapport à la deuxième colonne
car elle ne contient qu’un seul coefficient non nul, et ceci permettra d’obtenir
directement une forme factorisée :

RRR 1 − X 0 1 RRR
χA (X) = RRRRR 0 2−X 0 RRR = (2 − X)∣ 1 − X 1 ∣,
RRR RRR 2 −X
2 0 −X RR

= (2 − X)[−X(1 − X) − 2] = (2 − X)(X 2 − X − 2).

On peut factoriser le polynôme caractéristique



en étudiant X 2 − X − 2 : son
discriminant valant 9, ses racines sont 1±2 9 c’est-à-dire -1 et 2. Ainsi on
a:
χA (X) = −(X − 2)2 (X + 1).
Le polynôme caractéristique est ici scindé et les valeurs propres de A sont
2 avec multiplicité α(2) = 2 et -1 avec multiplicité α(−1) = 1.

Proposition 35. (admise)


Soit A ∈ Mn (K) et λ une valeur propre de A. Alors :

1 ≤ dim(Eλ (A)) ≤ α(λ).

Page 47/ 97
4.3 Diagonalisation

4.3 Diagonalisation
Pour certaines matrices, dont les matrices diagonales, on sait effectuer des
calculs liés aux matrices, comme des calculs de puissances ou des résolutions
d’équations différentielles (cf. Section 5). C’est pourquoi nous allons nous y
ramener.

Définition 38. Soit A une matrice de taille n. On dit que A est dia-
gonalisable si et seulement s’il existe une matrice P inversible telle que
D = P −1 AP soit diagonale.

Remarque 6. Si A et B sont semblables et si B est diagonalisable, alors


A est aussi diagonalisable.

Grâce à cette dernière remarque, faisons un petit aparte sur les endomor-
phismes u d’un espace vectoriel E de dimension finie. Tout d’abord énonçons
le résultat suivant :

Proposition 36. (admise)


Soit u ∈ L(E). Soit B et B ′ deux bases de E. Alors les matrices MatB (u) et
MatB′ (u) sont semblables.

Ainsi si MatB (u) est diagonalisable pour une certaine base B elle l’est pour
n’importe qu’elle autre base aussi. On peut alors définir correctement la notion
de diagonalisabilité d’un endomorphisme u :

Définition 39. Un endomorphisme u de E est diagonalisable, s’il existe


une base B de E telle que MatB (u) soit diagonalisable.

Définition 40. Soit A une matrice de taille n. Diagonaliser la matrice A


signifie donner une matrice inversible P et une matrice D diagonale telles
qu’on ait D = P −1 AP (si de telles matrices existent !).

Page 48/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Théorème 37. Diagonalisation (admis)


Soit A une matrice carrée de taille n. Les propositions suivantes sont équi-
valentes :
1. A est diagonalisable ;
2. Il existe une base B de Kn formée de vecteurs propres de A ;
3. Kn est somme directe des sous-espaces propres de A ;
4. χA (X) est scindé et pour toute valeur propre λ de A, la dimension
de Eλ (A) est égale à α(λ).

Ce théorème fournit une méthode pratique pour déterminer si une matrice


est diagonalisable ou pas (cf. Figure 1).

ATTENTION .! L’algorithme présenté par la Figure 1 ne permet QUE


de déterminer si la matrice est diagonalisable.

Après avoir vérifié qu’une matrice est diagonalisable, si on demande de la


diagonaliser, il faut :
◇ Calculer les sous-espaces propres (en en donnant une base) associées
aux valeurs propres restantes (celles qui sont de multiplicité 1) ;
◇ Ordonner les valeurs propres dans un ordre quelconque λ1 , . . . , λs ;
◇ Mettre dans une matrice P en colonne, d’abord les vecteurs d’une base
B1 de Eλ1 (A), puis ceux d’une base B2 de Eλ2 (A), et ainsi de suite ;
◇ Fournir P avec la matrice D = diag(λ1 , . . . , λ1 , . . . , λs , . . . , λs ).
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¸¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶ ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶
α(λ1 ) fois α(λs ) fois

Proposition 38. Soit A une matrice carrée de taille n. Si A admet n


valeurs propres distinctes alors A est diagonalisable.

Démonstration. Dans ce cas, comme χA (X) est de degré n et admet n ra-


cines distinctes (qui sont les valeurs propres de A), χA (X) est scindé à racines
simples : il n’y a aucune valeur propre multiple !

Page 49/ 97
4.4 Exemples

Peut-on diagonaliser une matrice A ?

Calcul de χA (X) χA (X) non scindé

Non
χA (X) scindé Non diagonalisable

Est-ce que pour tout λ valeur propre


Diagonalisable
MULTIPLE dim(Eλ (M )) = α(λ) ? Oui

Figure 1 – Algorithme de diagonalisabilité.

4.4 Exemples
4.4.1 Matrice non diagonalisable dans R

Considérons le cas de la matrice :

⎛ 7 3 −4 ⎞
A = ⎜ −6 −2 5 ⎟ .
⎝ 4 2 −1 ⎠

Est-elle diagonalisable sur R ? On commence par calculer son polynôme carac-


téristique :
RRRR 7 − X 3 −4 RR
RRR
R
χA (X) = RRR −6 −2 − X 5 RRR.
RRR R
4 2 −1 − X RR
Encore une fois, le polynôme carctéristique n’est rien d’autre qu’un détermi-
nant, on peut donc le calculer en utilisant toutes les opérations permises pour
le déterminant, pour faire apparaître un maximum de 0, afin de simplifier le
développement. Cette méthode est recommandée, car elle permet en général
de factoriser le polynôme caractéristique au cours du calcul.

Page 50/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Par exemple, on peut ici effectuer l’opération C1 ← C1 − 2C2 . Cette opéra-


tion ne change pas la valeur du déterminant et on a :

RRR 7−X −6 3 −4 RRR


R
R
χA (X) = RRR −6 − 2(−2 − X) −2 − X RRR,
RRR
5 RRR
0 2 −1 − X RR
RRR 1 − X 3 −4 RRR
= RRRRR −2(1 − X) −2 − X 5 RRR.
RRR
RRR
0 2 −1 − X RR

On peut alors factoriser par 1−X dans la première colonne. On effectue ensuite
l’opération L2 ← L2 + 2L1 , ce qui permet d’obtenir :

RRR 1 − X 3 −4 RR
RRR RRR 1 3 −4 RRR
R
R
χA (X) = RRR −2(1 − X) −2 − X R
R
RRR = (1 − X)RRR −2 −2 − X RRR,
RRR
5
RRR RRR
5 RRR
0 2 −1 − X 0 2 −1 − X RR
RRR 1 3 −4 RRR
= (1 − X)RRRRR 0 4 − X −3 RRRRR = (1 − X)[(4 − X)(−1 − X) + 6],
RRR R
0 2 −1 − X RR
= (1 − X)(X 2 − 3X + 2) = (1 − X)(X − 1)(X − 2) = −(1 − X)2 (X − 2).

Les valeurs propres de A sont 1 (avec multiplicité 2) et 2 (avec multiplicité


1). Pour déterminer si la matice est diagonalisable, il nous suffit de calculer la
dimension de E1 (A) : si c’est 2, alors A est diagonalisable, si c’est 1 (et ce sont
les deux seules possibilités), alors A n’est pas diagonalisable.
Le vecteur X = (x, y, z) appartient à E1 (A) si et seulement si ses coor-
données vérifient le système :


⎪ 6x + 3y − 4z = 0, ⎧
⎪ 6x + 3y − 4z = 0,


⎪ ⎪

⎪ 2x + y = 0,
⎨ −6x − 3y + 5z = 0, ⇔ ⎨ z = 0, ⇔{


⎪ L2 ←L2 +L1 ⎪

⎪ z = 0.

⎩ 4x + 2y − 2z = 0, L3 ←L3 − 23 L1 ⎪
⎩ (−2 + 3 )z = 0,
8

Par conséquent, une base de E1 (A) est donnée par le vecteur (1, −2, 0).
Comme E1 (A) est de dimension 1, la matrice A n’est pas diagonalisable dans
R (ni dans C).

Page 51/ 97
4.4 Exemples

4.4.2 Diagonalisation d’une matrice dans R

⎛2 0 0⎞
Soit B = ⎜ 3 −1 4 ⎟. On calcule son polynôme caractéristique :
⎝ 2 −2 5 ⎠

RRR 2 − X 0 0 RRR R RRR


R
R
χB (X) = RRR 3 −1 − X RRR = (2 − X)RRRRR −1 − X 4 RRR,
RRR
4 RRRR RRR −2
RR 5−X RRR
RR
2 −2 5−X R
= (2 − X)[(−1 − X)(5 − X) + 8] = (2 − X)(X 2 − 4X + 3),
= (2 − X)(X − 1)(X − 3) = −(X − 1)(X − 2)(X − 3).

Les valeurs propres de B sont 1, 2 et 3. La matrice B de taille 3 ayant trois


valeurs propres distinctes est diagonalisable sur R. Si on veut en plus diagona-
liser cette matrice, on calcule tous les sous-espaces propres. On vérifie dans ce
cas (le faire) que :
◇ E1 (B) = Vect((0, 2, 1)) ;
◇ E2 (B) = Vect((1, 1, 0)) ;
◇ E3 (B) = Vect((0, 1, 1)).
⎛0 1 0⎞
On diagonalise la matrice en fournissant la matrice P = ⎜ 2 1 1 ⎟ (on a mis
⎝1 0 1⎠
en colonne les vecteurs formant des bases de chacun des sous-espaces propres)
⎛1 0 0⎞
ET la matrice D = ⎜ 0 2 0 ⎟. On sait déjà, par construction des matrices P et
⎝0 0 3⎠
D, qu’on a la relation D = P −1 BP . On peut le revérifier par un calcul matriciel
pour s’assurer qu’on a pas fait d’erreur.

ATTENTION .! Il est indispensable de donner en même temps la matrice


P et la matrice D, car elles ne sont PAS indépendantes ! En effet, dans la
j-ème colonne de D on trouve la valeur propre associée au vecteur d’indice
j dans la matrice P . Si on met les vecteurs de base dans un ordre différent
dans la matrice P on obtient éventuellement une autre matrice D associée.

Page 52/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

⎛1 0 0⎞
Exemple 49. Ici, on aurait très bien pu prendre P = ⎜ 1 2 1 ⎟ et dans ce
⎝0 1 1⎠
⎛2 0 0⎞
cas la matrice D qu’il faut fournir est D = ⎜ 0 1 0 ⎟.
⎝0 0 3⎠

4.4.3 Diagonalisation d’une matrice dans C

Remarque 7. Si K = C, le polynôme caractéristique est toujours scindé


MAIS on ne peut pas toujours diagonaliser les matrices complexes.

0 1
La matrice C = ( ) est-elle diagonalisable sur C ? Si oui, la diagona-
−1 0
liser.
On calcule le polynôme caractéristique de C :

χC (X) = X 2 + 1 = (X − i)(X + i).

Le polynôme caractéristique est scindé sur C et admet deux racines simples :


i et −i, donc C est diagonalisable sur C (mais pas sur R car χC (X) n’est pas
scindé sur R).
Calculons les sous-espaces propres associés, en résolvant les deux systèmes
linéaires CX = iX et CX = −iX. On trouve ainsi que Ei (C) = Vect((1, i))
i 0
et E−i = Vect((i, 1)). On a alors P −1 CP = D avec la matrice D = ( )
0 −i
1 i
diagonale et la matrice de passage P = ( ).
i 1

Page 53/ 97
5 - Premières applications

4.4.4 Matrice non diagonalisable dans C


⎛ 0 1 0 1⎞
⎜ −1 0 0 0 ⎟
La matrice C = ⎜ ⎟
⎜ 0 0 0 1 ⎟ est-elle diagonalisable sur C ? Si oui, la
⎜ ⎟
⎝ 0 0 −1 0 ⎠
diagonaliser.
On vérifie que le polynôme caractéristique de C est
χC (X) = (X 2 + 1)2 = (X + i)2 (X − i)2 .
Le polynôme caractéristique de C est scindé et admet deux racines mul-
tiples à savoir ±i (toutes deux de multiplicité 2).
Calculons la dimension du sous-espace propre Ei (C). Soit X = (x, y, z, t)
vecteur propre associé à i. Ses coordonnées vérifient donc le système :

⎪ y + t = ix, ⎧
⎪ y + t = y,


⎪ ⎪

⎪ ⎧
⎪ t = 0,


⎪ −x = iy, ⎪

⎪ −x = iy, ⎪


⎨ ⇔ ⎨ ⇔ ⎨ −x = iy,


⎪ t = iz, L1 ←L1 −iL2 ⎪

⎪ t = iz, ⎪




⎪ L4 ←L4 −iL3 ⎪

⎪ ⎪
⎩ z = 0.

⎩ −z = it, ⎪
⎩ 0 = 0,
Ainsi Ei (C) = Vect((1, i, 0, 0)) est de dimension 1, alors que la multiplicité
de la racine i de χC (X) est 2 : la matrice C n’est pas diagonalisable.

5 Premières applications
5.1 Puissance d’une matrice
Quand une matrice est diagonalisable, on peut calculer très simplement ses
puissances. Si la matrice A est diagonalisable, on peut calculer une matrice P
inversible et une matrice D diagonale telle que D = P −1 AP . Par conséquent
on a A = P DP −1 et Ak = (P DP −1 )k . Par une récurrence simple, on montre
que (P DP −1 )k = P Dk P −1 :
◇ Pour k = 1, on a bien (P DP −1 )k = P Dk P −1 ;
◇ Soit k un entier supérieur à 1 et supposons que (P DP −1 )k = P Dk P −1 .
On a alors par hypothèse de récurrence :
(P DP −1 )k+1 = (P DP −1 )k P DP −1 = (P Dk P −1 )P DP −1 = P Dk+1 P −1 ;

Page 54/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

◇ On a donc montré par récurrence que pour tout k ≥ 1,


(P DP −1 )k = P Dk P −1 .
Maintenant si D = diag(λ1 , . . . , λn ) une récurrence immédiate montre que
Dk = diag(λk1 , . . . , λkn ) (on utilise le fait que le produit de deux matrices
diagonales A et B est encore une matrice diagonale dont les coefficients sont
les aii bii ) :
◇ Pour k = 1 on a bien Dk = diag(λk1 , . . . , λkn ) ;
◇ Supposons le résultat vrai pour k ≥ 1. On a alors par hypothèse de
récurrence :

1 , . . . , λn ),
Dk+1 = Dk D = diag(λk1 , . . . , λkn )D = diag(λk+1 k+1

car il s’agit d’un produit de deux matrices diagonales ;


◇ On a donc montré le résultat pour tout entier k ≥ 1 par récurrence.

5.2 Systèmes Différentiels


Une application extrêment importante de la diagonalisabilité des matrices
se trouve dans l’analyse des systèmes d’équations différentielles linéaires, que
l’on rencontre dans plein de domaines en sciences. Considérons le système
(abstrait) suivant :
x′ (t) = −3x(t) + 4y(t),
{ ′
y (t) = −2x(t) + 3y(t).
On peut supposer par exemple que ce système décrit la trajectoire d’un point
matériel dans le plan, repéré à chaque instant t par ses coordonnées (x(t), y(t)).
On suppose qu’on connaît la position initiale du point qui est (x0 , y0 ). On peut
par exemple se demander si au cours du temps le point va partir à l’infini ou si
sa trajectoire restera confinée dans une zone. Il ne semble pas simple a priori de
répondre à cette question étant donné que sous la forme du système précédent,
on ne sait pas résoudre les équations différentielles immédiatement.
Si on introduit le vecteur dépendant du temps X(t) = (x(t), y(t)) le sys-
tème précédent peut se réécrire sous forme compacte X ′ (t) = AX(t) avec A la
−3 4
matrice ( ). Le polynôme caractéristique de cette matrice est
−2 3
χA (X) = X 2 + (−3 ⋅ 3 − (−2) ⋅ 4) = X 2 − 1 = (X − 1)(X + 1).

Page 55/ 97
5.2 Systèmes Différentiels

La matrice A ayant ses deux valeurs propres (-1 et 1) distinctes et simples


on sait que la matrice est diagonalisable. On peut alors dérouler la procédure
2 1
et vérifier par exemple qu’en posant P = ( ) et D = diag(−1, 1), on a
1 1
1 −1
A = P DP −1 . On calcule aisément P −1 = ( ).
−1 2
Regardons le système après un changement de base : définissons, pour tout
t, le vecteur Y (t) = P −1 X(t). Écrivons-le comme étant Y (t) = (α(t), β(t)).
On a :
α(t) = x(t) − y(t),
{
β(t) = −x(t) + 2y(t).
Si on dérive ces deux équations, on obtient également par linéarité de la déri-
vée :
α′ (t) = x′ (t) − y ′ (t),
{ ′
β (t) = −x′ (t) + 2y ′ (t).
Cela signifie que Y vérifie l’équation différentielle Y ′ (t) = DY (t). Puisque
maintenant D est diagonale, l’équation Y ′ (t) = DY (t) se réécrit composante
par composante sous la forme du système :

α′ (t) = −α(t),
{
β ′ (t) = β(t).

Ce système est maintenant facile à résoudre car on a deux équations différen-


tielles indépendantes. On obtient α(t) = α(0)e−t et β(t) = β(0)et .
Notons que, par définition, (α(0), β(0)) est donné par Y (0) = P −1 X(0).
On a donc :
α(0) = x(0) − y(0) = x0 − y0 ,
{
β(0) = −x(0) + 2y(0) = −x0 + 2y0 .
Il ne reste plus alors qu’à utiliser la relation X(t) = P Y (t), pour trouver

x(t) = 2α(t) + β(t) = 2α(0)e−t + β(0)et = 2(x0 − y0 )e−t + (2y0 − x0 )et ,


{
y(t) = α(t) + β(t) = α(0)e−t + β(0)et = (x0 − y0 )e−t + (2y0 − x0 )et .

On a réussi à calculer les solutions du système. On peut maintenant en parti-


culier répondre à la question initiale. Lorsque le temps t tend vers +∞, il y a

Page 56/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

deux possibilités : ou bien la position initale du point vérifie x0 = 2y0 et dans


ce cas là on a x(t) et y(t) qui tendent vers 0 (dans ce cas là, le point matériel
reste confiné et tend à se rapprocher de l’origine), ou bien la position initiale
vérifie x0 ≠ 2y0 et dans ce cas là x(t) et y(t) tendent vers l’infini et le point
matériel part à l’infini (cf. Figures 2 et 3)

Figure 2 – Tracé de l’évolution de (x(t), y(t)) dans le cas où (x0 , y0 ) = (2, 1).

Figure 3 – Tracé de l’évolution de (x(t), y(t)) dans le cas où (x0 , y0 ) = (2, 0).

Page 57/ 97
6 - Quelques astuces pour se corriger

6 Quelques astuces pour se corriger


Dans cette partie, sont énoncés plusieurs résultats hors programme sur la
diagonalisation de matrice. Bien que vous ne pouvez pas les utiliser dans un
devoir, il est toujours bon de les avoir en tête pour vérifier vos résultats au
brouillon.

Proposition 39. Soit A ∈ Mn (C). On note λ1 , . . . , λn ses valeurs propres.


◇ La trace de A est égale à la somme des valeurs propres de A.
n n
Tr(A) ∶= ∑ aii = ∑ λj .
i=1 j=1

◇ Le déterminant de A est égal au produit des valeurs propres de A.


n
det(A) = ∏ λj .
j=1

Démonstration. Il s’agit d’une conséquence immédiate des relations coeffi-


cients/racines d’un polynôme, appliqué à χA (X), en se rappelant que les ra-
cines de χA (X) sont exactement les valeurs propres de A.

Proposition 40. Soit A une matrice.


◇ Si det(A) = 0, alors 0 est valeur propre.
◇ Si la somme des coefficients de chaque ligne est égale, alors 1 est une
valeur propre et (1, . . . , 1) est un vecteur propre associé.

Démonstration. Le premier point est une conséquence immédiate de la Propo-


sition 39. Justifions donc le second. Soit s la somme des coefficients d’une ligne
de A. Par hypothèse, pour une ligne i, on a s = ∑nj=1 aij . Notons X le vecteur

Page 58/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

(1, . . . , 1). Dans ce cas, on voit que pour tout indice i :


n n
(AX)i = ∑ aij xj = ∑ aij = s = s Xi .
j=1 j=1

On a donc montré que AX = sX, pour X un vecteur non nul. Donc s est valeur
propre de A et X est bien un vecteur propre associé.

Remarque 8. L’intérêt est de ne pas avoir à calculer le polynôme carac-


téristique, ni de trouver ses racines (tout en évitant des erreurs de calculs
possibles), grâce à ces deux remarques.

⎛ 0 2 −1 ⎞
Étudions la matrice A = ⎜ 1 0 0 ⎟. On remarque que la somme sur
⎝ −1 4 −2 ⎠
chaque ligne vaut 1 : 1 est une valeur propre et (1, 1, 1) est un vecteur propre
associé. De plus, on peut calculer le déterminant de A (par la formule de
Sarrus par exemple) : on trouve que det(A) = 0. Ainsi 0 est une valeur propre.
Utilisons enfin la dernière propriété, pour déterminer la dernière valeur propre
(complexe) de A, notée λ :

1 + 0 + λ = Tr(A) = −2.

Ainsi −3 est une autre valeur propre. Pour utiliser ce genre de raisonnement
(très rapide) nous ne pouvons pas appliquer directement les résultats ci-dessus :
nous allons tout simplement faire une astuce littéraire, en donnant des vecteurs
propres associés. Voici un exemple de rédaction de réponse :

Exemple 50. Notons X1 = (1, 1, 1). On voit que M X1 = X1 . Comme X1


n’est pas le vecteur nul, on sait que 1 est valeur propre de A. De la même
façon, on peut vérifier que les vecteurs X0 = (0, 1, 2) et X−3 = (−3, 1, −7)
sont des vecteurs propres de la matrice A, associés respectivement à 0 et à
-3. La matrice A possède exactement 3 valeurs propres réelles distinctes :
elle est donc diagonalisable dans R.

Page 59/ 97
6 - Quelques astuces pour se corriger

Proposition 41. Si A ∈ Mn (R), et si λ ∈ C est une valeur propre de A,


alors λ est une valeur propre de A.

Démonstration. Le polynôme caractéristique χA (X) de A est à coefficients


réels (car A est à coefficients réels). On sait que les racines de χA (X) sont
exactement les valeurs propres de A. Donc χA (λ) = 0, ce qui implique que
χA (λ) = χA (λ) = 0. Finalement λ est bien une valeur propre de A.

Théorème 42. (admis)


Une matrice symétrique réelle est diagonalisable dans R.

⎛1 2 3⎞
Exemple 51. La matrice ⎜ 2 2 4 ⎟ est symétrique, donc diagonalisable.
⎝3 4 4⎠

ATTENTION .! Une matrice symétrique complexe n’est pas forcé-


ment diagonalisable.

Exemple 52. La matrice ( 1i −1 i ) est symétrique complexe, pourtant elle

n’est pas diagonalisable dans C.

Page 60/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

7 Application à la Géométrie Euclidienne


7.1 Rappels sur le Produit Scalaire

Définition 41. On appelle forme bilinéaire symétrique sur E toute


application φ définie sur le produit E × E à valeurs dans R satisfaisant les
propriétés suivantes :
(i) bilinéarité : pour tout x ∈ E, φ(x, ⋅) ∶ E → R est linéaire ce qui, on
le rappelle veut dire que :

∀y, y ′ ∈ E, ∀α ∈ R, φ(x, αy + y ′ ) = αφ(x, y) + φ(x, y ′ ) ;

et pour tout y ∈ E, φ(⋅, y) ∶ E → R est aussi linéaire :

∀x, x′ ∈ E, ∀α ∈ R, φ(αx + x′ , y) = αφ(x, y) + φ(x′ , y).

(ii) symétrie : ∀x, y ∈ E, φ(x, y) = φ(y, x).

Proposition 43. Si φ ∶ E × E → R est linéaire par rapport à la première


variable et symétrique, alors elle est bilinéaire.

Démonstration. Soit x, y et y ′ trois vecteurs de E et α un réel. Calculons


φ(x, y + αy ′ ). On a par symétrie que φ(x, y + αy ′ ) = φ(y + αy ′ , x). On peut
maintenant utiliser la linéarité par rapport à la première variable :

φ(y + αy ′ , x) = φ(y, x) + αφ(y ′ , x).

En utilisant la symétrie deux fois, on obtient finalement que :

φ(y, x) + αφ(y ′ , x) = φ(x, y) + αφ(x, y ′ ).

On a donc que φ(x, y + αy ′ ) = φ(x, y) + αφ(x, y ′ ), ce qui permet d’avoir la


linéarité par rapport à la seconde variable (propriété qui manquait à φ pour
être bilinéaire).

Page 61/ 97
7.1 Rappels sur le Produit Scalaire

De même, on peut montrer que si φ est symétrique et linéaire par rapport


à la deuxième variable, alors elle est bilinéaire.

Exemple 53. On prend E = R2 . L’application définie ci-dessous est une


forme bilinéaire symétrique :

φ ∶ E×E → R,
x1 x2
(( ),( )) ↦ x1 y2 + x2 y1 .
y1 y2

x1 x2 x3
En effet, on a pour tout X1 = ( ), X2 = ( ) et X3 = ( ) vecteurs de
y1 y2 y3
R2 et pour tout réel α,

x1 αx2 + x3
φ(X1 , αX2 + X3 ) = φ (( ),( )) ,
y1 αy2 + y3
= x1 (αy2 + y3 ) + y1 (αx2 + x3 ),
= α(x1 y2 + y1 x2 ) + (x1 y3 + y1 x3 ),
= αφ(X1 , X2 ) + φ(X1 , X3 ).

Montrons maintenant la symétrie :

φ(X1 , X2 ) = x1 y2 + x2 y1 = x2 y1 + x1 y2 = φ(X2 , X1 ).

Définition 42. Un produit scalaire sur E, φ ∶ E × E → R, est une appli-


cation qui vérifie les propriétés suivantes :
◇ φ est une forme bilinéaire symétrique ;
◇ Positivité : ∀x ∈ E, φ(x, x) ≥ 0 ;
◇ Forme définie : φ(x, x) = 0 ⇒ x = 0E .

Page 62/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Exemple 54. On prend E = R2 . L’application :

φ ∶ E×E → R,
(x, y) ↦ x1 y1 + x2 y2 ,

est un produit scalaire sur R2 .

Plus généralement, sur E = Rn , l’application :


φ ∶ E×E → R,
⎛⎛ x1 ⎞ ⎛ y1 ⎞⎞ n
⎜⎜ ... ⎟ , ⎜ .. ⎟⎟ ↦ ∑ xi yi ,
⎜⎜ ⎟ ⎜ . ⎟⎟
⎝⎝ xn ⎠ ⎝ y ⎠⎠ i=1
n

est un produit scalaire. En effet, on a pour tous éléments (x1 , . . . , xn ),


(y1 , . . . , yn ) et (y1′ , . . . , yn′ ) de Rn et α un réel :
′ ′
⎛⎛ x1 ⎞ ⎛ y1 ⎞ ⎛ y1 ⎞⎞ ⎛⎛ x1 ⎞ ⎛ αy1 + y1 ⎞⎞
φ⎜⎜ .
⎜⎜ ..
⎟ , α ⎜ ..
⎟ ⎜ .
⎟ + ⎜ ..
⎟ ⎜ .
⎟⎟ = φ ⎜⎜ ...
⎟⎟ ⎜⎜
⎟,⎜
⎟ ⎜
..
.
⎟⎟ ,
⎟⎟
⎝⎝ xn ⎠ ⎝ yn ⎠ ⎝ y′ ⎠⎠ ⎝⎝ xn ⎠ ⎝ αy + y ′ ⎠⎠
n n n
n
= ∑ xi (αyi + yi′ ),
i=1
n n
=α ∑ xi yi + ∑ xi yi′ ,
i=1 i=1

⎛⎛ x1 ⎞ ⎛ y1 ⎞⎞ ⎛⎛ x1 ⎞ ⎛ y1 ⎞⎞
=αφ ⎜ ⎜ .
⎜⎜ ..
⎟ , ⎜ ..
⎟ ⎜ .
⎟⎟ + φ ⎜⎜ ...
⎟⎟ ⎜⎜
⎟ , ⎜ ..
⎟ ⎜ .
⎟⎟ .
⎟⎟
⎝⎝ xn ⎠ ⎝y ⎠⎠ ⎝⎝ xn ⎠ ⎝ y′ ⎠⎠
n n

Montrons la symétrie :

φ((x1 , . . . , xn ), (y1 , . . . , yn )) = x1 y1 + ⋯ + xn yn ,
= y1 x1 + ⋯ + yn xn ,
= φ((y1 , . . . , yn ), (x1 , . . . , xn )).

Donc φ est bilinéaire symétrique.

Page 63/ 97
7.1 Rappels sur le Produit Scalaire

Montrons maintenant que φ est positive. On a :

φ((x1 , . . . , , xn ), (x1 , . . . , xn )) = x21 + ⋯ + x2n .

Comme on a une somme de nombres positifs ou nuls (car ce sont des carrés
de réels), le résultat est lui-même positif ou nul. Enfin φ est bien une forme
définie. En effet, si φ((x1 , . . . , xn ), (x1 , . . . , xn )) = 0, comme c’est une somme
de nombres positifs, cela veut dire que chaque terme de la somme est en fait
nul. On en déduit que :
x21 = x22 = ⋯ = x2n = 0.

Finalement pour tout i ∈ J1, nK, xi = 0 et ainsi (x1 , . . . , xn ) = 0.

Définition 43. Le produit scalaire canonique de Rn est défini par :

φ ∶ E×E → R,
⎛⎛ x1 ⎞ ⎛ y1 ⎞⎞ n
⎜⎜ ... ⎟ , ⎜ .. ⎟⎟ ↦ ∑ xi yi .
⎜⎜ ⎟ ⎜ . ⎟⎟
⎝⎝ xn ⎠ ⎝ yn ⎠⎠ i=1

Dans ce cours on le notera ⟨x, y⟩ (mais il existe d’autres notations possibles


comme x ⋅ y, (x, y), etc.).

Dans toute la suite de ce cours, φ sera un produit scalaire associé à E (on


dit que (E, φ) est un espace euclidien).

Définition 44. L’application définie par :

N ∶ E → R+ ,

x ↦ φ(x, x),

est appelée norme euclidienne associée au produit scalaire φ sur E.

L’application N est bien définie grâce à la positivité du produit scalaire φ.

Page 64/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Proposition 44. La norme euclidienne N vérifie les propriétés suivantes :


◇ ∀x ∈ E, ∀λ ∈ R, N (λx) = ∣λ∣ N (x) ;
◇ N (x) = 0 ⇔ x = 0E ;
◇ ∀x, y ∈ E, [N (x + y)]2 = [N (x)]2 + [N (y)]2 + 2φ(x, y).

Démonstration. ◇ En utilisant la définition de N et la bilinéarité de φ, on


a pour tout réel λ et pour tout x ∈ E :
√ √ √ √
N (λx) = φ(λx, λx) = λφ(x, λx) = λ2 φ(x, x) = ∣λ∣ φ(x, x) = ∣λ∣N (x).

◇ Si x = 0E , alors par propriété du produit scalaire φ(x, x) = 0 et donc


N (x) = 0. Réciproquement, si N (x) = 0, on a φ(x, x) = 0 et comme φ
est définie positive, cela implique que x = 0E .
◇ En utilisant la définition de N , la bilinéarité de φ et le fait que φ soit
symétrique, on a pour tout x, y ∈ E :

[N (x + y)]2 = φ(x + y, x + y) = φ(x, x + y) + φ(y, x + y),


= φ(x, x) + φ(x, y) + φ(y, x) + φ(y, y),
= [N (x)]2 + [N (y)]2 + 2φ(x, y).

√ √ n
Exemple 55. Dans Rn , on pose ∥x∥2 = ⟨x, x⟩ = ∑i=1 ∣xi ∣2 : c’est la
norme euclidienne canonique de Rn .

Théorème 45. Inégalité de Cauchy-Schwarz


Soit x et y deux vecteurs de E. On a alors :

∣φ(x, y)∣ ≤ N (x)N (y).

De plus, l’inégalité est une égalité si et seulement si les deux vecteurs x et


y sont colinéaires.

Page 65/ 97
7.1 Rappels sur le Produit Scalaire

Démonstration. Supposons d’abord que x = 0E . Alors la linéarité par rapport


à la première variable de φ entraîne que φ(0E , y) et N (0E ) = φ(0E , 0E ) sont
nuls. L’inégalité est donc vérifiée, et c’est une égalité. On a bien x = 0E = 0 × y
et donc x et y sont colinéaires.
Supposons maintenant que x ≠ 0E . Soit t ∈ R. Posons la fonction :

P (t) = [N (tx + y)]2 = φ(tx + y, tx + y).

Par positivité de φ, P (t) est positif pour tout t réel. De plus la bilinéarité et
la symétrie nous donnent :

P (t) = t2 [N (x)]2 + 2tφ(x, y) + [N (y)]2 .

La fonction P est donc polynomiale de degré exactemnt 2 (φ(x, x) ≠ 0, car φ


est une forme définie, et x est par hypothèse non nul), à coefficients réels, et
reste positif sur R. Donc son discriminant :

∆ = 4 φ(x, y)2 − 4 [N (x)]2 [N (y)]2 ,

est nécessairement négatif ou nul. Cette condition donne directement l’inégalité


demandée.
Le discriminant ∆ s’annule si et seulement si φ(x, y)2 = [N (x)]2 [N (y)]2 .
Sous cette condition, P (t) s’annule pour une unique racine t0 . Cependant
P (t0 ) = 0 équivaut à t0 x + y = 0E , car le produit scalaire φ est une forme
définie. Si le discriminant ne s’annule pas, alors P ne s’annule jamais et x et y
ne peuvent pas être liés.

Théorème 46. Inégalité de Minkowski ou Inégalité triangulaire


Soit deux vecteurs x et y de E. On a alors :

N (x + y) ≤ N (x) + N (y).

De plus, l’inégalité ne peut être une égalité que si les deux vecteurs x et y
sont colinéaires.

Page 66/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Démonstration. En utilisant l’inégalité de Cauchy-Schwarz, on obtient que :

∣φ(x, y)∣ ≤ N (x)N (y).

On fait alors le calcul :

N (x + y)2 = φ(x + y, x + y) = φ(x, x) + 2φ(x, y) + φ(y, y),


≤ [N (x)]2 + 2N (x)N (y) + [N (y)]2 = [N (x) + N (y)]2 .

D’où l’inégalité de Minkowski. S’il y a égalité, alors nécessairement les deux


vecteurs x et y satisfont l’égalité dans l’inégalité de Cauchy-Schwarz. Donc ils
sont colinéaires.

7.2 Angle entre deux vecteurs

Définition 45. Soit x, y ∈ E non nuls. En conséquence de l’inégalité de


Cauchy-Schwarz, on a que :

φ(x, y)
−1 ≤ ≤ 1.
N (x)N (y)

Par conséquent, il existe un angle unique θ ∈ [0, π] tel que :

φ(x, y)
cos θ = .
N (x)N (y)

Le nombre θ est appelé angle non orienté entre les deux vecteurs x et y.

Cette définition permet de généraliser la relation connue dans R2 : on a


⟨u, v⟩ = ∥u∥ ∥v∥ cos θ, où θ est l’angle entre les vecteurs u et v.

Page 67/ 97
7.3 Orthogonalité


Exemple 56. Si on considère les vecteurs u = (1, −1, 0) et v = (−1, 1, 2)
et qu’on munit R3 du produit scalaire canonique, on a ⟨u, v⟩ = −2, ⟨u, u⟩ = 2
et ⟨v, v⟩ = 4. L’angle non-orienté θ entre u et v est défini par :

−2 2
cos θ = √ √ = − .
2 4 2

Comme θ est par définition entre 0 et π, on en déduit θ = 3π/4.

7.3 Orthogonalité

Définition 46. Soit x, y ∈ E. On dit qu’ils sont orthogonaux (entre eux)


lorsqu’ils satisfont la relation φ(x, y) = 0. On écrit alors x ⊥ y.

Remarque 9. Le seul vecteur orthogonal à lui-même est le vecteur nul


0E car φ est une forme définie. En conséquence, 0E est le seul vecteur
orthogonal à tous les autres.

Deux vecteurs non nuls sont orthogonaux si et seulement si leur angle non
orienté est π/2 ("angle droit").

Théorème 47. Pythagore


Soit x, y ∈ E. Alors x et y sont orthogonaux si et seulement si :

[N (x + y)]2 = [N (x)]2 + [N (y)]2 .

Démonstration. On a vu que :

[N (x + y)]2 = [N (x)]2 + [N (y)]2 + 2φ(x, y).

Donc φ(x, y) = 0 si et seulement si on a [N (x + y)]2 = [N (x)]2 + [N (y)]2 .

Page 68/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Définition 47. On dit qu’un vecteur x de E est unitaire lorsque N (x) = 1.


Si x ∈ E est non nul, on dira qu’on normalise x quand on le remplace par
le vecteur x′ = N x(x) , qui lui est colinéaire et est unitaire.

Exemple 57. Le vecteur


√ (1, 0) est de norme 1 : il est unitaire. Le vecteur
(1, 1) est de norme 2 : son normalisé est √1 (1, 1).
2

Définition 48. On dit qu’une famille de vecteurs (v1 , . . . , vp ) de l’espace


euclidien E est orthogonale, lorsque φ(vi , vj ) = 0 pour tout couple (i, j)
tel que i ≠ j
Si de plus les vecteurs de cette famille sont tous unitaires, on dit alors que
la famille est orthonormée.

Exemple 58. Soit u et v deux vecteurs de même norme pour un produit


scalaire φ, non nuls et distincts. Alors la famille (u+v, u−v) est une famille
orthogonale pour φ. En effet, on a par bilinéarité :

φ(u + v, u − v) = φ(u, u − v) + φ(v, u − v) = φ(u, u) − φ(u, v) + φ(v, u) − φ(v, v).

Par symétrie de φ, on a φ(u, v) = φ(v, u), ce qui


implique que :

φ(u+v, u−v) = φ(u, u)−φ(v, v) = N (u)2 −N (v)2 .

Comme u et v sont de même norme, on a


N (u) = N (v), ce qui nous permet de montrer
que φ(u + v, u − v) = 0.
On vient de montrer que les diagonales d’un lo-
sange se coupent, en formant un angle droit,
comme le montre la figure de gauche.

Page 69/ 97
7.3 Orthogonalité

Théorème 48. Pyhtagore généralisé


Soit (v1 , . . . , vn ) une famille orthogonale de E. Alors on a :

n 2 n
[N (∑ vi )] = ∑[N (vi )]2 .
i=1 i=1

Démonstration. On le montre par récurrence. Pour n = 1, le résultat est immé-


diat. Supposons la propriété vraie pour les familles orthogonales de n vecteurs
et considérons une famille orthogonale de n + 1 vecteurs (v1 , . . . , vn+1 ). Alors
d’après le théorème de Pythagore, on a :

n+1 2 n 2 n 2
[N ( ∑ vi )] = [N (∑ vi + vn+1 )] = [N (∑ vi )] + [N (vn+1 )]2 ,
i=1 i=1 i=1

n
car ∑ vi et vn+1 sont orthogonaux. En effet,
i=1

n n
φ (∑ vi , vn+1 ) = ∑ φ(vi , vn+1 ) = 0.
i=1 i=1

On conclut grâce à l’hypothèse de récurrence.

Définition 49. On dit qu’une famille (e1 , . . . , en ) de E constitue une


base orthogonale si et seulement si c’est une base de E et si de plus la
famille (e1 , . . . , en ) est une famille orthogonale.
Si, de plus, les vecteurs ej sont unitaires, on dit que cette base est ortho-
normée (ou orthonormale).

Exemple 59. La base canonique de Rn est orthonormée pour le produit sca-


laire canonique de Rn . En effet, si on note (ε1 , . . . , εn ) la base canonique,
on a bien ⟨εi , εj ⟩ = 0 si i ≠ j et ⟨εi , εi ⟩ = 1.

Page 70/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Théorème 49. Procédé d’orthonormalisation de Gram-Schmidt


Soit (v1 , . . . , vn ) une base de E. Le procédé d’orthonormalisation de Gram-
Schmidt est le procédé de construction suivant :
◇ En premier lieu, on pose e1 = v1 /N (v1 ) ;
◇ Supposons avoir construit les vecteurs e1 , . . . , ej pour un certain
j < n. On construit le vecteur :
j
fj+1 = vj+1 − ∑ φ(vj+1 , ei ) ei .
i=1

f
On pose finalement ej+1 = N (fj+1j+1 )
.
La famille (e1 , . . . , en ) de E ainsi construite est une base orthonormée
pour φ. De plus, on a

∀j ∈ J1, nK, Vect(e1 , . . . , ej ) = Vect(v1 , . . . , vj )

et φ(ej , vj ) > 0 pour tout j.

Démonstration. La preuve se fait par récurrence. Posons la propriété Pj sui-


vante :
La famille (e1 , . . . , ej ) est orthonormée et vérifie
Vect(e1 , . . . , ej ) = Vect(v1 , . . . , vj ) et φ(ej , vj ) > 0.
Pour j = 1, on a bien que (e1 ) est une famille orthonormée car e1 est unitaire.
De plus Vect(e1 ) = Vect(v1 ) car e1 et v1 sont colinéaires (et tous les deux non
φ(v , v )
nuls). Finalement, φ(e1 , v1 ) = N 1(v1 )1 = N (v1 ) > 0. On a donc montré que P1
est vérifiée.
j
Soit j ∈ J1, n − 1K. Supposons Pj vraie. On pose fj+1 = vj+1 − ∑ λi ei , avec
i=1
λi = φ(vj+1 , ei ). On vérifie que le vecteur fj+1 ainsi construit est orthogonal
aux vecteurs e1 , . . . , ej . Pour cela, on calcule pour k ∈ J1, jK la valeur de :

j
φ(fj+1 , ek ) = φ(vj+1 , ek ) − ∑ λi φ(ei , ek ) = φ(vj+1 , ek ) − λk = 0.
i=1

Page 71/ 97
7.3 Orthogonalité

Après avoir construit le vecteur fj+1 , l’étape suivante consiste à normaliser


ce vecteur, mais pour que ce soit possible, il faut s’assurer que fj+1 ne soit
pas le vecteur nul. Raisonnons par l’absurde : si fj+1 = 0, alors on obtient
j
par définition de fj+1 que vj+1 = ∑ λi ei . Donc vj+1 serait une combinaison
i=1
linéaire de e1 , . . . , ej . Cependant, par hypothèse de récurrence, on sait que
Vect(e1 , . . . , ej ) = Vect(v1 , . . . , vj ). Donc vj+1 serait une combinaison linéaire
de v1 , . . . , vj , ce qui est absurde car on sait que la famille (v1 , . . . , vn ) est
une base de E (en particulier une famille libre de E). Aucun des vecteurs de
cette famille ne peut donc être combinaison linéaire des autres vecteurs de la
famille.
f
On pose ej+1 = N (fj+1 j+1 )
. La famille (e1 , . . . , en ) est donc une famille or-
thonormée. On a pour tout 1 ≤ i ≤ j le fait que vi ∈ Vect(e1 , . . . , ei ) par
hypothèse de récurrence. Donc en particulier, vi ∈ Vect(e1 , . . . , ej+1 ). De
j
plus par construction des vecteurs, on a vj+1 = ∑ λi ei + N (fj+1 )ej+1 . Donc
i=1
vj+1 ∈ Vect(e1 , . . . , ej+1 ). Ainsi Vect(v1 , . . . , vj+1 ) ⊂ Vect(e1 , . . . , ej+1 ).
Comme ces deux sous-espaces vectoriels ont la même dimension à savoir j + 1 :
ils sont égaux.
N (v )2
Enfin φ(ej+1 , vj+1 ) = N (fj+1
j+1 )
> 0. La propriété Pj+1 est donc satisfaite.

Remarque 10. Si la base (v1 , . . . , vn ) de E est orthormée pour le produit


scalaire φ, le procédé de Gram-Schmidt peut s’appliquer ... mais rendra la
même famille : ∀i ∈ J1, nK, ei = fi = vi .

Remarque 11. Si la base (v1 , . . . , vn ) de E est orthogonale pour le produit


scalaire φ, le procédé de Gram-Schmidt peut s’appliquer. Dans ce cas, nous
aurons pour tout i ∈ J1, nK, fi = vi , puis ei sera le normalisé de vi .
Ainsi, si on a une famille orthogonale, nous pouvons tout simplement nor-
maliser chacun des vecteurs directement pour obtenir une famille orthonor-
mée : le procédé de Gram-Schmidt rendra le même résultat.

Page 72/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Exemple 60. On considère la base B = (v1 , v2 , v3 ) de R3 avec v1 = (1, 2, 1),


v2 = (2, 3, 2) et v3 = (1, 7, 0). Cette base n’est pas orthonormée pour le
produit scalaire canonique : ⟨v1 , v2 ⟩ = 2 + 6 + 2 = 10
√ ≠ 0. Appliquons lui le
procédé de Gram-Schmidt. D’abord, comme ∥v1 ∥ = 6, on construit :

1 2 1
e1 = ( √ , √ , √ ) .
6 6 6
On définit maintenant le vecteur intermédiaire f2 sous la forme f2 = v2 −λe1
avec λ = ⟨v2 , e1 ⟩. Comme λ = √
10
, on a :
6

1 1 1 1
f2 = v2 − λe1 = ( , − , ) , avec ∥f2 ∥ = √ .
3 3 3 3
On pose ensuite le normalisé de f2 :

f2 1 1 1
e2 = = (√ , − √ , √ ) .
∥f2 ∥ 3 3 3

De même, on définit f3 = v3 − ⟨v3 , e1 ⟩ e1 − ⟨v3 , e2 ⟩ e2 = ( 21 , 0, − 12 ) de norme



∥f3 ∥ = 1/ 2. Son normalisé est e3 = ( √1 , 0 − √1 ) . La base orthonormée
2 2
obtenue par le procédé de Gram-Schmidt à partir de B est (e1 , e2 , e3 ).

Remarque 12. En appliquant ce procédé à une base, on voit que tout espace
vectoriel E admet une base orthonormée.

7.4 Sous-Espaces Orthogonaux

Définition 50. Soit A et B deux sous-ensembles de E. On dit que A et B


sont orthogonaux et on écrit A ⊥ B lorsqu’ils satisfont :

∀(x, y) ∈ A × B, x ⊥ y.

Page 73/ 97
7.4 Sous-Espaces Orthogonaux

Exemple 61. Soit D et D′ deux droites de R2 . Elles sont orthogonales


si et seulement si pour tout x ∈ D et y ∈ D′ , on a x ⊥ y, c’est-à-dire
cos(x, y) = π/2. Deux droites de R2 sont donc orthogonales si et seulement
si elles sont perpendiculaires.
La notion d’orthogonalité est une généralisation de la définition de droites
perpendiculaires, pour des ensembles autres que de simples droites.

Définition 51. Soit un ensemble non vide A ⊂ E. L’orthogonal de l’en-


semble A est noté A⊥ et est défini par :

A⊥ = {x ∈ E, ∀y ∈ A, x ⊥ y}.

Proposition 50. Soit un ensemble non vide A ⊂ E. Alors :


◇ A⊥ est un sous-espace vectoriel de E ;
◇ E ⊥ = {0E } ;
◇ A ∩ A⊥ ⊂ {0E }.

Démonstration. ◇ Montrons que A⊥ est un sous-espace vectoriel de E.


Soit deux éléments x et y de A⊥ et λ ∈ R. Alors pour z ∈ A, on a par
linéarité du produit scalaire φ par rapport à sa première variable :

φ(x + λy, z) = φ(x, z) + λφ(y, z) = 0,

car x ⊥ z et y ⊥ z.
◇ Soit x ∈ E ⊥ . En particulier, x ⊥ x, et comme φ est une forme définie, on
en déduit que x = 0E . Réciproquement, φ(0E , 0E ) = 0, donc le vecteur
nul est orthogonal à lui-même.
◇ Soit x ∈ A ∩ A⊥ . Alors φ(x, x) = 0 et donc x = 0E , car φ est une forme
définie.

Page 74/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Calcul pratique de l’orthogonal d’un sous-espace vectoriel


En général, il n’y a pas d’autre solution que de prendre une base (f1 , . . . , fp )
de F . On a alors que x ∈ F ⊥ si et seulement s’il est solution du système d’équa-
tions linéaires :

⎪ φ(f1 , x) = 0,



⎪ .
⎨ ..





⎩ φ(fp , x) = 0.
On peut alors éventuellement en déduire une base de F ⊥ .

Exemple 62. Soit D = Vect((a, b)) avec a ≠ 0. Le vecteur (x, y) est dans
D⊥ si et seulement s’il est orthogonal à (a, b). Cela revient à être solution
de l’équation :
ax + by = 0.
Donc D⊥ = {(− ab y, y) , y ∈ R} = Vect((−b, a)).

7.5 Projections et Symétries Orthogonales


Le procédé de Gram-Schmidt a plusieurs conséquences.

Théorème 51.
Soit F un sous-espace vectoriel de E. Alors E = F ⊕ F ⊥ .

Démonstration. On sait déjà que F ∩ F ⊥ = {0E }, il reste à montrer que la


somme directe est l’espace tout entier.
Soit x ∈ E. Essayons d’écrire x = xF + xF ⊥ où xF ∈ F et xF ⊥ ∈ F ⊥ . On note
C = (f1 , . . . , fp ) une base orthonormée de F . Puisque C est une base de F ,
p
l’élément y = ∑ φ(x, fi )fi appartient à F . Considérons z = x − y. On a :
i=1
p
φ(z, fj ) = φ(x, fj ) − φ(y, fj ) = φ(x, fj ) − ∑ φ(x, fi )φ(fi , fj ) = φ(x, fj ) − φ(x, fj ) = 0.
i=1

Page 75/ 97
7.5 Projections et Symétries Orthogonales

Par conséquent, z est orthogonal à tous les éléments de C. On sait alors que
z est orthogonal à l’espace engendré par la famille C qui par construction est
F tout entier. Ainsi z ∈ F ⊥ . On a donc x = y + z avec y ∈ F et z ∈ F ⊥ , ce qui
prouve le résultat annoncé.

Exemple 63. Dans R2 , muni du produit scalaire canonique, on considère


la droite D d’équation x + 2y = 0. On a alors D = e⊥ où e est le vecteur de
coordonnées (1, 2) et D⊥ = Vect(e).

Définition 52. On appelle projection orthogonale sur F la projection


sur F parallèlement à F ⊥ . Pour tout x ∈ E, la projection orthogonale de x
sur F , notée pF (x), est donc l’unique élément y de F tel que x − y ∈ F ⊥ .
La démonstration du théorème prouve que la projection orthogonale pF sur
F s’écrit :
p
pF (x) = ∑ φ(x, fi )fi ,
i=1

si C = (f1 , . . . , fp ) est une base orthonormée de F .

Exemple 64. Dans E = R2 muni de la structure euclidienne canonique, on


considère F = Vect((1, 1)). Notons (f1 ) une base orthonormée de F : comme
F est de dimension 1, une base orthonormée de F est simplement√ constituée

d’un vecteur de norme 1. Dans la suite, on choisira f1 = (1/ 2, 1/ 2). La
projection orthogonale pF du vecteur x = (a, b) sur F est donnée par :
√ a+b
a b 1/ 2
pF (x) = φ(x, f1 )f1 = ( √ + √ ) ( √ ) = ( a+b 2
).
2 2 1/ 2 2

Proposition 52. Soit p une projection orthogonale. Il existe une base or-
thonormée de diagonalisation de p.

Page 76/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Démonstration. Si p est la projection orthogonale sur F , on obtient une telle


base B de diagonalisation en concaténant une base orthonormée de F et une
base orthonormée de F ⊥ . La matrice est alors :

MatB (p) = diag( 1, . . . , 1 , 0, . . . , 0 ).


´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¶ ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¶
dim(F ) fois dim(F ⊥ ) fois

Définition 53. On appelle symétrie orthogonale par rapport à F la sy-


métrie associée à la décomposition E = F ⊕ F ⊥ , c’est-à-dire la symétrie par
rapport à F parallèlement à F ⊥ .
Si F est un hyperplan (c’est-à-dire dim F = dim E − 1), la symétrie ortho-
gonale par rapport à F est appelée réflexion par rapport à F .
Si au contraire F est une droite, la symétrie orthogonale par rapport à F
est parfois appelée retournement ou demi-tour d’axe F .

7.6 Matrice dans une base orthonormée


Nous allons voir que les bases orthonormées simplifient grandement les
calculs.

Théorème 53.
Soit (e1 , . . . , en ) base othonormée de E. Tout vecteur x ∈ E se décompose
de la façon suivante :
n
x = ∑ φ(x, ei ) ei .
i=1

On en déduit notamment que :


n n
φ(x, y) = ∑ φ(x, ei )φ(ei , y), et ∥x∥2 = ∑ φ(x, ei )2 .
i=1 i=1

Page 77/ 97
7.7 Isométries et Matrices Orthogonales : Généralités

Remarque 13. Cela signifie que la coordonnée de x selon ei peut être cal-
culée à l’aide d’un produit scalaire (alors que pour une base quelconque
il faut résoudre un système linéaire !).

Proposition 54. Soit u ∈ L(E). Alors le coefficient (i, j) de sa matrice


dans une base orthonormée B(e1 , . . . , en ) est donnée par φ(ei , u(ej )).

Démonstration. Si u est un endomorphisme, par définition, le coefficient mi,j


de la matrice de u dans la base B est la i-ème coordonnée du vecteur u(ej ).
D’après ce qui précède, la i-ème coordonnée du vecteur u(ej ) dans la base B
est φ(u(ej ), ei ). On conclut grâce à la symétrie de φ.

7.7 Isométries et Matrices Orthogonales : Généralités

Définition 54. On appelle isométrie vectorielle un endomorphisme u


de E qui vérifie : ∀x ∈ E, N (u(x)) = N (x).

Exemple 65. Soit s la symétrie orthogonale par rapport à F . On peut


décomposer tout vecteur x de E en x = xF + xF ⊥ , avec xF ∈ F et xF ⊥ ∈ F ⊥ .
On a par définition de la symétrie :

s(x) = xF − xF ⊥ = xF + (−xF ⊥ ), avec − xF ⊥ ∈ F ⊥ .

Par le théorème de Pythagore, on peut écrire que :

N (s(x))2 = N (xF )2 + N (−xF ⊥ )2 = N (xF )2 + N (xF ⊥ )2 = N (x)2 .

Ainsi toutes les symétries orthogonales sont des isométries.

Page 78/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Proposition 55. Les propositions suivantes sont équivalentes :


1. u est une isométrie ;
2. u préserve le produit scalaire : ∀x, y ∈ E, φ(u(x), u(y)) = φ(x, y) ;
3. Pour toute base orthonormée B, l’image par u de B est une base
orthonormée ;
4. Il existe une base orthonormée B telle que l’image par u de B soit
une base orthonormée.

Démonstration. 1. ⇒ 2. On remarque que pour tout x, y ∈ E on a :

1
φ(x, y) = [N (x + y)2 − N (x)2 − N (y)2 ] .
2
On en déduit que u préserve le produit scalaire :

1
φ(u(x), u(y)) = [N (u(x) + u(y))2 − N (u(x))2 − N (u(y))2 ] ,
2
1
= [N (u(x + y))2 − N (u(x))2 − N (u(y))2 ] ,
2
1
= [N (x + y)2 − N (x)2 − N (y)2 ] = φ(x, y).
2
2. ⇒ 1. Immédiat par la définition de la norme et d’une isométrie.
2. ⇒ 3. Considérons B = (e1 , . . . , en ) une base orthonormée de E. On note
fi = u(ei ). Montrons que B ′ = (f1 , . . . , fn ) est une base orthonormée
de E. On a pour tout i et j,

φ(fi , fj ) = φ(u(ei ), u(ej )) = φ(ei , ej ),

car φ préserve le produit scalaire. Comme B est une base orthonormée,


on en déduit que φ(fi , fj ) = 0 si i ≠ j et φ(fi , fi ) = 1. Ainsi B ′ est
une famille orthonormée. On en déduit qu’elle est libre. Comme cette
famille a autant d’éléments que la dimension de l’espace, c’est bien une
base orthonormée de E.
3. ⇒ 4. Immédiat.

Page 79/ 97
7.7 Isométries et Matrices Orthogonales : Généralités

4. ⇒ 2. Soit x, y ∈ E. Décomposons x et y dans la base B :


n n
x = ∑ λi ei et y = ∑ µi ei .
i=1 i=1
n n
On a alors u(x) = ∑ λi u(ei ) et u(y) = ∑ µi u(ei ). Donc la famille
i=1 i=1
(λ1 , . . . , λn ) est aussi la famille des coordonnées de u(x) dans la base
B ′ (de même (µ1 , . . . , µn ) est la famille des coordonnées de u(y) dans
B ′ ). Comme B et B ′ sont des bases orthonormées, on a :
n n
φ(u(x), u(y)) = ∑ λi µi φ(u(ei ), u(ej )) = ∑ λi µi = φ(x, y).
i=1 i=1

Exemple 66. Une projection orthogonale sur un sous-espace strict F (c’est-


à-dire F ≠ E) n’est pas une isométrie. En effet, pour x ∈ F ⊥ ∖ {0E }, on a :

N (p(x)) = 0 < N (x).

Proposition 56. La matrice A d’une symétrie orthogonale dans une base


orthonormée est symétrique :

AT = A.

Démonstration. Soit s une symétrie orthogonale et B = (e1 , . . . , en ) une base


orthonormée. Soit A = MatB (s). On sait que aij = φ(ei , s(ej )) pour tous indices
1 ≤ i, j ≤ n. On doit donc montrer que, pour tout i ≠ j, on a aij = aji , ce qui
revient à :
φ(ei , s(ej )) = φ(ej , s(ei )).
En utilisant le fait que s soit une isométrie et que φ soit symétrique, on a :
φ(ei , s(ej )) = φ(s(ei ), s(s(ej ))) = φ(s(ei ), s2 (ej )) = φ(s2 (ej ), s(ei )).
Comme s est une symétrie, on a s2 = idE , puis φ(ei , s(ej )) = φ(ej , s(ei )).

Page 80/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Définition 55. Une matrice carrée réelle A de taille n est dite orthogonale
si et seulement si AT A = In .

Proposition 57. Soit A ∈ Mn (R). Les assertions suivantes sont équiva-


lentes :
1. A est orthogonale ;
2. AT est orthogonale ;
3. Les vecteurs colonnes de A forment une base orthonormée pour le
produit scalaire euclidien canonique de Rn ;
4. Les vecteurs lignes de A forment une base orthonormée pour le pro-
duit scalaire euclidien canonique de Rn .

Démonstration. 1 ⇔ 2 On remarque que A est orthogonale si et seulement


si A est inversible et que son inverse est AT . Comme l’inverse de la
transposée est la transposée de l’inverse, si A est orthogonale alors AT
est inversible avec :

(AT )−1 = (A−1 )T = (AT )T .

Si AT est orthogonale et inversible, alors A = (AT )T est aussi inversible.


De plus comme AT est orthogonale, on a

A−1 = ((A−1 )T )T = ((AT )−1 )T = ((AT )T )T = AT .

1 ⇔ 3 Notons par (C1 , . . . , Cn ) les colonnes de A. Le produit scalaire eu-


clidien canonique de Rn entre Cj et Ck est par définition :
n n
⟨Cj , Ck ⟩ = ∑(Cj )i (Ck )i = ∑ ai,j ai,k .
i=1 i=1

On reconnaît alors dans la formule de ce produit scalaire la composante


de ligne k et de colonne j du produit matriciel AT A. Ainsi, si A est
orthogonale, on a AT A = In et on en déduit que ⟨Cj , Ck ⟩ vaut 0 si j ≠ k
et 1 sinon, ce qui est exactement équivalent à dire que (C1 , . . . , Cn ) est

Page 81/ 97
7.7 Isométries et Matrices Orthogonales : Généralités

une famille orthonormée de Rn . Comme elle a n éléments, c’est bien


une base orthonormée de Rn .
Réciproquement, si (C1 , . . . , Cn ) est une base orthonormée de Rn , alors
⟨Cj , Ck ⟩ vaut 0 si j ≠ k et 1 si j = k, ce qui revient à dire que AT A = In
et donc que la matrice A est orthogonale.
1 ⇔ 4 Immédiat d’après les équivalences déjà montrées.

Remarque 14. En pratique pour savoir si une matrice est orthogonale, ou


bien on calcule AT A, ou bien on regarde si les vecteurs colonnes forment
une base orthonormée (ou les vecteurs lignes).

0 1
Exemple 67. La matrice ( ) est une matrice orthogonale de taille 2.
1 0

√ √ √
⎛ 1/√3 1/ 3 1/ √3 ⎞
Exemple 68. La matrice ⎜ ⎜ 1/√2 −1/ 2 ⎟
√ ⎟
0 est une matrice ortho-

⎝ 1/ 6 −2/ 6 1/ 6 ⎠
gonale de taille 3. Pour le montrer on vérifie que AT A = I3 , ou que les
vecteurs colonnes/lignes forment une base orthonormée pour le produit sca-
laire canonique.

Théorème 58.
Soit u une isométrie de E, muni d’un produit scalaire φ. La matrice de u
dans une base orthonormée est une matrice orthogonale. Réciproquement, si
la matrice d’une application linéaire u dans une base orthonormale est une
matrice orthogonale, alors u est une isométrie de E.

Page 82/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Démonstration. Notons B = (e1 , . . . , en ) une base orthonormée de E et A


la matrice de u dans la base B. La colonne Cj de A contient les coordonnées
du vecteur u(ej ) dans la base B. De plus on a déjà vu, dans une preuve que,
comme B est orthonormée, φ(u(ej ), u(ek )) = ⟨Cj , Ck ⟩ .
Ainsi, si u est isométrie, on sait que l’image par u de la base B est une base
orthonormée de E. On en déduit que (C1 , . . . , Cn ) est une base orthonormée
de Rn euclidien canonique, et la matrice A est orthogonale par la proposition
précédente.
Réciproquement, si A est orthogonale, on sait que les colonnes de A forment
une base de Rn euclidien canonique. On en déduit queφ(u(ej ), u(ek )) est égal
à 0 si j ≠ k et 1 sinon. Ainsi (u(e1 ), . . . , u(en )) est une base orthonormée de
E, ce qui caractérise le fait que u soit une isométrie.

Exemple 69. Soit s une symétrie orthogonale et A sa matrice dans une


base orthonormée. Nous avons vu que A est une matrice symétrique. Nous
savons que A est une matrice orthogonale car s est une isométrie. En fait
cela caractérise les symétries orthogonales.

Théorème 59.
On a les propriétés suivantes :
◇ Le déterminant d’une matrice orthogonale est 1 ou -1.
◇ Les valeurs propres possibles d’une matrices orthogonale sont ±1.

Démonstration. Soit A ∈ Mn (R) orthogonale.


◇ C’est une conséquence directe de :

1 = det(In ) = det(AT A) = [det(AT )][det(A)] = [det(A)]2 .

◇ Soit λ ∈ R une valeur propre de A et X ∈ Rn un vecteur propre associé.


On calcule alors le produit scalaire s = (AX)T (AX) de deux manières
différentes.

Page 83/ 97
7.8 Orientation

Tout d’abord, en utilisant le fait, que X soit un vecteur propre, on a :


s = (λX)T (λX) = λ2 X T X = λ∥X∥2 .
D’autre part, par simple calcul matriciel, on obtient que :
s = X T AT AX = X T In X = X T X = ∥X∥2 ,
en utilisant le fait que A soit orthogonale.
Ainsi on a λ2 ∥X∥2 = ∥X∥2 . Comme X est un vecteur propre, il est non
nul et ∥X∥ ≠ 0. En simplifiant par ∥X∥2 , on a λ2 = 1 puis λ = ±1.

Définition 56. Soit u une isométrie et A sa matrice. L’isométrie u est dite


directe lorsque det(A) = 1 et indirecte lorsque det(A) = −1.

Proposition 60. La composée de deux isométries est une isométrie.

Démonstration. Soit u et v deux isométries de E. Alors pour tout x ∈ E, on a


N (u(v(x))) = N (v(x)) = N (x), où on a utilisé le fait que u est une isométrie
puis que v est une isométrie.

7.8 Orientation

Définition 57. Soit B = (e1 , . . . , en ) une base de Rn . On dit que B est


une base directe si et seulement si le déterminant de la matrice de B dans
la base canonique est positif.
Dans le cas contraire, on dit que la base est indirecte.

Exemple 70. Soit B = ((1, 1), (1, 0)). La matrice de B dans la base
1 1
canonique de R2 est ( ), dont le déterminant vaut -1. La base B est
1 0
donc une base indirecte.

Page 84/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Définition 58. Soit u et v deux vecteurs de R2 non nuls. On appelle angle


orienté entre u et v le réel θ ∈] − π, π] modulo 2π défini comme suit.
⟨u,v⟩
Soit θ̃ l’angle non orienté défini dans [0, π] par cos θ̃ = ∥u∥∥v∥ :
◇ si θ̃ vaut 0 ou π, alors θ = θ̃ ;
◇ sinon ∣θ∣ = θ̃ et le signe de θ est le signe du déterminant dans la base
canonique de R2 de la base (u, v).

Exemple 71. Reprenons l’exemple avec u = (1, 1) et v = (1, 0). L’angle non
orienté entre u et v est donné par :

⟨u, v⟩ 1×1+1×0 1 π
θ̃ = arccos ( ) = arccos ( √ √ ) = arccos ( √ ) = .
∥u∥∥v∥ 1 +1 × 1 +0
2 2 2 2 2 4

L’angle non orienté est π/4 modulo 2π. De plus la base (u, v) est indirecte.
L’angle orienté entre les deux vecteurs est donc −π/4 modulo 2π.

Définition 59. Soit u une isométrie de Rn . On dit que u est une isométrie
directe de Rn si u est une isométrie et si l’image de la base canonique par
u est une base orthonormée directe.
Si l’image de la base canonique est une base orthonormée indirecte, on dira
que u est une isométrie indirecte.

Proposition 61. Soit u une isométrie de Rn . Alors u est une isométrie


directe de Rn si et seulement si sa matrice dans la base canonique est une
matrice orthogonale de déterminant 1.

Démonstration. Supposons que u soit une isométrie directe. Soit A la matrice


de u dans la base canonique. Puisque u est une isométrie, A est une matrice
orthogonale et son déterminant vaut -1 ou 1. La matrice A est également la
matrice dans la base canonique (ε1 , . . . , εn ) de la base (u(ε1 ), . . . , u(εn )).
Par hypothèse, comme u est directe, cette base est une base directe, donc la

Page 85/ 97
7.9 Isométrie dans R2

matrice de (u(ε1 ), . . . , u(εn )) a un déterminant positif. Ainsi le déterminant


de A vaut 1.
Réciproquement, si A est une matrice orthogonale de déterminant 1, alors
u est une isométrie et le déterminant de la matrice dans la base canonique de
la famille de vecteurs (u(ε1 ), . . . , u(εn )) est strictement positif, donc c’est
par définition une base directe de Rn . Ainsi u est une isométrie directe.

7.9 Isométrie dans R2

Définition 60. Une rotation de R2 d’angle (orienté) θ est l’application f


qui au vecteur u associe le vecteur f (u) de même norme que u et tel que
l’angle (orienté) entre u et f (u) vaut θ.

Proposition 62. Soit f ∈ L(R2 ) une rotation d’angle θ. Alors


◇ Pour toute base orthonormée directe B, on a

cos θ − sin θ
MatB (f ) = ( ) ;
sin θ cos θ

◇ f est une isométrie directe ;


◇ Si θ ∉ {kπ, k ∈ Z} = πZ, alors f n’a pas de valeur propre ;
◇ Si θ ∈ {2kπ, k ∈ Z} = 2πZ, alors f admet 1 comme unique valeur
propre : on a alors E1 = R2 et f est l’identité ;
◇ Si θ ∈ {2kπ + π, k ∈ Z} = π + 2πZ, alors f admet -1 comme unique
valeur propre : on a alors E−1 = R2 et f est une symétrie centrale
c’est-à-dire f = −idE ;
◇ f est diagonalisable si et seulement si θ ∈ πZ.

Démonstration. ◇ Soit B = (e1 , e2 ) une base orthonormée directe de R2 .


Notons u = f (e1 ) = αe1 + βe2 et v = f (e2 ) = γe1 + δe2 . Le vecteur u
a la même norme que e1 et v la même norme que e2 . Comme la base
(e1 , e2 ) est orthonormée, on en déduit que :
∥u∥2 = α2 + β 2 = 1 et ∥v∥2 = γ 2 + δ 2 = 1.

Page 86/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

De plus on sait que l’angle orienté entre u et e1 est θ (puisque f est la


rotation d’angle θ) et qu’il en est de même entre v et e2 . On a donc :

cos θ = ⟨u, e1 ⟩ = α = ⟨v, e2 ⟩ = δ.

Notons θ̃ l’angle compris entre 0 et π tel que cos θ̃ = cos θ. On a alors :

β 2 = 1 − α2 = 1 − cos2 θ̃ = sin2 θ̃,

et de même γ 2 = sin2 θ̃. Ainsi β = ± sin θ̃ et γ = ± sin θ̃.


Regardons la matrice de (e1 , u) dans la base (e1 , e2 ) qui est directe.
On a alors :
1 α
( ),
0 β
dont le déterminant est β. Le signe de β est alors le même que le signe de
l’angle θ, puisque f est la rotation d’angle orienté θ. Or nous remarquons
que, puisque θ̃ ∈ [0, π], sin θ̃ ≥ 0. On peut en déduire que :
— si β < 0, alors l’angle θ est compris entre −π et 0 et vaut donc −θ̃ par
définition. L’imparité de sin implique que β = − sin θ̃ = sin −θ̃ = sin θ.
— Si β > 0, alors l’angle θ est compris entre 0 et π et vaut donc θ̃ par
définition. On a ainsi β = sin θ̃ = sin θ.
— si β = 0, alors θ ∈ {0, π} et β = sin θ.
Dans tous les cas on a β = sin θ. De même si on regarde la matrice
de la famille de vecteurs (e2 , v) dans la base (e1 , e2 ), on trouve que
γ = − sin θ puis que la matrice de f dans une base orthonormée directe
est :
cos θ − sin θ
( ).
sin θ cos θ
◇ Par définition d’une rotation, f préserve la norme donc c’est une isomé-
trie. D’après ce qui précède, dans la base canonique qui est orthonormée
et directe (par définition), la matrice de f est :

cos θ − sin θ
( ),
sin θ cos θ

dont le déterminant vaut 1. C’est donc une isométrie directe.

Page 87/ 97
7.9 Isométrie dans R2

◇ Si θ ∉ πZ, alors l’angle entre l’image de n’importe quel vecteur x non


nul par f et x est θ qui n’est pas égal à 0 ou π modulo 2π. Donc un
vecteur non nul et son image ne sont jamais colinéaires : f ne peut pas
avoir de vecteurs propres.
◇ Si θ ∈ 2πZ, la matrice de f dans la base canonique est I2 : f est alors
diagonalisable dans n’importe quelle base avec comme unique valeur
propre 1.
◇ Si θ ∈ π + 2πZ, la matrice de f dans la base canonique est −I2 : f
est alors diagonalisable dans n’importe quelle base avec comme unique
valeur propre -1.
◇ Le dernier point n’est qu’un bilan des trois précédents.

Proposition 63. Soit f ∈ L(R2 ) une symétrie orthogonale par rapport à


une droite D. Alors :
◇ f est une isométrie indirecte ;
◇ f possède deux valeurs propres simples : 1 et -1 ;
◇ On a E1 = D et E−1 = D⊥ . On en déduit que R2 = E1 ⊕ E−1 : f est
diagonalisable ;
◇ f est diagonalisable dans une base orthonormée : plus précisément,
si u et v sont unitaires avec u ∈ E1 = D et v ∈ E−1 = D⊥ , alors (u, v)
est une base orthonormée dans laquelle :

1 0
Mat(u,v) (f ) = ( ).
0 −1

Démonstration. On a déjà vu que f était une isométrie. Soit A = MatC (f )


(pour C base canonique de R2 ). On sait que les valeurs propres de A sont 1 et
-1 (par définition d’une symétrie) et que A est diagonalisable. Il existe donc P
0 ) = P AP −1 . Ainsi det(D) = det(P AP −1 ) = det(A)
inversible telle que D = ( 10 −1
implique que det(A) = −1. L’application f est donc une isométrie indirecte. De
plus, les valeurs propres de D (et donc de A puis de f ) sont simples. Le reste de
la preuve vient des propriétés des symétries et du procédé d’orthonormalisation
de Gram-Schmidt.

Page 88/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Théorème 64. Classification dans R2


Soit f une isométrie de R2 . Alors :
◇ si f est une isométrie directe, c’est une rotation et donc sa matrice
A dans une base orthonormée est de la forme vue ci-dessus, ce qui
permet de déterminer l’angle θ en trouvant l’unique réel θ de ]−π, π]
tel que a11 = cos θ et a21 = sin θ ;
◇ si f est une isométrie indirecte, c’est une symétrie orthogonale par
rapport à la droite D = E1 . Il suffit donc de calculer le sous-espace
propre associé à la valeur propre 1.

Exemple 72. On considère l’endomorphisme de R2 dont la matrice dans


la base canonique est :

1/2 − 3/2
A=(√ ).
3/2 1/2

On vérifie que A est une matrice orthogonale. On a det A = 1 : c’est donc la


matrice d’une rotation. Son √ angle est un réel θ (défini modulo 2π) qui doit
vérifier cos θ = 1/2 et sin θ = 3/2. On reconnaît θ = π/3 modulo 2π.

Exemple 73. On considère l’endomorphisme de R2 dont la matrice dans


la base canonique est :
3/5 4/5
B=( ).
4/5 −3/5
La matrice B est bien orthogonale (en exercice). Son déterminant vaut -1 :
c’est donc la matrice d’une symétrie orthogonale. L’axe de cette symétrie
est :
x
E1 = {( ) , −x + 2y = 0} = Vect((2, 1)).
y

Page 89/ 97
7.9 Isométrie dans R2

... d’un endomorphisme


Classification ...
u ∈ L(R2 )

... d’une matrice Choisir une base B


A ∈ M2 (R) A = MatB (u) orthonormée de R2

Calcul de det(A) det A = 1

Trouver θ tel que


det A = −1
a11 = cos θ et a21 = sin θ

u est une symétrie orthogonale u est une rotation


par rapport à E1 d’angle θ

Figure 4 – Caractérisation géométrique des isométries en dimension 2.

4/5 3/5
Exemple 74. Si on considère C = ( ), c’est une matrice orthogo-
−3/5 4/5
nale de déterminant 1 : c’est la matrice d’une rotation. L’angle θ de la rota-
tion est déterminée modulo 2π par les contraintes cos θ = 4/5 et sin θ = −3/5.
Ce n’est pas un angle connu ! Donnons la valeur de l’angle qui est comprise
entre −π et π. Puisque sin θ < 0, l’angle θ est dans ]−π, 0[. Ainsi −θ ∈]0, π[
et vérifie cos(−θ) = cos θ = 4/5. On a alors par définition −θ = arccos(4/5)
et au final :
θ = − arccos(4/5).

Page 90/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

7.10 Isométries dans R3

Définition 61. Soit D une droite de R3 . On dit qu’on a orienté D si on


a choisi et fixé un vecteur k unitaire de D.

Remarque 15. Si k0 est un vecteur unitaire de D, D n’a que deux orien-


tations possibles : celle fixée par k0 et celle fixée par −k0 .

Exemple 75. Considérons √ D = Vect((1,


√ la droite √ −3, 2)). On peut orienter
D par le vecteur k = (1/ √14, −3/ √14, 2/ 14).
√ On peut également orienter
D par le vecteur k̃ = (−1/ 14, 3/ 14, −2/ 14).

Proposition 65. Soit D un axe orienté par k. Soit i un vecteur unitaire de


D⊥ . Alors il existe un vecteur j de D⊥ qui est unitaire, et tel que (k, i, j)
soit une base orthonormée directe de R3 : on l’obtient par le produit vectoriel
de k et de i.

Démonstration. Notons k = (k1 , k2 , k3 ) et i = (i1 , i2 , i3 ) et posons j le produit


vectoriel de k et de i (dans cet ordre) :

j = k ∧ i = (k2 i3 − k3 i2 , k3 i1 − k1 i3 , k1 i2 − k2 i1 ).

Soit u = (u1 , u2 , u3 ) un vecteur quelconque de R3 . Calculons le déterminant


de la matrice de la famille (k, i, u) dans la base canonique en développant par
rapport à la troisième colonne :
k1 i1 u1
∣ k2 i2 u2 ∣ = u1 (k2 i3 − k3 i2 ) + u2 (k3 i1 − k1 i3 ) + u3 (k1 i2 − k2 i1 ) = ⟨u, j⟩ .
k3 i3 u3

Si on remplace u par k ou par i, on obtient le déterminant d’une matrice avec


deux colonnes identiques qui est égal à 0. On en déduit que j est orthogonal à
k donc il est dans D⊥ et est orthogonal à i. On peut montrer que j est unitaire

Page 91/ 97
7.10 Isométries dans R3

(à vérifier !). Donc (k, i, j) est orthonormée. Enfin en remplaçant u par j on


obtient que le déterminant de la matrice de (k, i, j) dans la base canonique a
pour déterminant ∥j∥2 = 1. C’est donc une base orthonormée directe : ainsi j
répond au problème.

Proposition 66. Soit f ∈ L(R3 ) une symétrie orthogonale par rapport à


un plan P . Alors :
◇ f est une isométrie indirecte ;
◇ Les valeurs propres de f sont 1 (double) et -1 (simple) ;
◇ E = E1 ⊕ E−1 avec E1 = P et E−1 = P ⊥ et donc f est diagonalisable ;
◇ Soit B une base orthonormée adaptée à cette somme directe, alors :

⎛1 0 0 ⎞
MatB (f ) = ⎜ 0 1 0 ⎟ .
⎝ 0 0 −1 ⎠

Démonstration. On sait déjà que c’est une isométrie, et qu’elle est diagonali-
sable avec pour valeurs propres 1 et -1. De plus, les propriétés sur les symétries
impliquent que E1 = P et E−1 = P ⊥ . Soit (e1 , e2 ) une base orthonormée de P et
e3 un vecteur unitaire de P ⊥ . L’une des bases B = (e1 , e2 , e3 ) ou B ′ = (e2 , e1 , e3 )
est orthonormée directe. Dans n’importe laquelle de ces deux bases de diago-
nalisation la matrice de f est la matrice annoncée, de déterminant clairement
égal à -1. C’est donc une isométrie indirecte.

Définition 62. Une rotation d’axe D orienté par k et d’angle θ apparte-


nant à ] − π, π] modulo 2π est définie par f (x) = p(x) + r(q(x)), où p est
la projection orthogonale sur D, q la projection orthogonale sur D⊥ et r la
rotation d’angle θ dans le plan D⊥ (ce plan est orienté d’après l’orientation
de D par un vecteur i de D⊥ et j = k ∧ i).

Page 92/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Figure 5 – Exemple de rotation dans R3 .

Proposition 67. Soit f ∈ L(R3 ) une rotation d’axe D orienté par k et


d’angle θ. Alors :
◇ f est une isométrie directe ;
◇ 1 est valeur propre de f (et D ⊂ E1 ) ;
◇ Il existe une base orthonormée directe B telle que :

⎛1 0 0 ⎞
MatB (f ) = ⎜ 0 cos θ − sin θ ⎟ ;
⎝ 0 sin θ cos θ ⎠

◇ Si θ ∈ 2πZ, alors f = id et R3 = E1 ;
◇ Si θ ∉ 2πZ, alors E1 = D et :
— soit θ ∈ π +2πZ et α(−1) = 2 avec E−1 = D⊥ : dans ce cas f est un
retournement, c’est-à-dire une symétrie orthogonale par rapport
à la droite D. Donc f est diagonalisable, car R3 = E1 ⊕ E−1 ;
— soit θ ∉ πZ et 1 est la seule valeur propre de f avec E1 = D et
donc f n’est pas diagonalisable.

Page 93/ 97
7.10 Isométries dans R3

Démonstration. ◇ La rotation f est une isométrie car pour tout x ∈ R3 :


∥f (x)∥2 = ∥p(x)∥2 + ∥r(q(x))∥2 = ∥p(x)∥2 + ∥q(x)∥2 = ∥x∥2 .
◇ Soit x ∈ D. Alors f (x) = x et donc 1 est valeur propre avec D ⊂ E1 .
◇ D⊥ est stable par f : si x ∈ D⊥ , alors f (x) ∈ D⊥ . On définit la restriction
f˜ de f à D⊥ par f˜(x) = f (x) pour x ∈ D⊥ . Ainsi f˜ est une rotation du
plan D⊥ , et donc en identifiant D⊥ à R2 on applique les résultats sur
les rotations de R2 . On prend alors B = (k, i, j) où i ∈ D⊥ et j = k ∧ i.
◇ En utilisant la matrice de f dans B, on en déduit que det f = 1 et donc
que f est une isométrie directe.

Théorème 68. Classification dans R3


Soit u une isométrie de R3 euclidien canonique.
◇ si u est une isométrie directe, alors u est une rotation d’axe E1 et
d’angle θ avec Tr(u) = 1 + 2 cos θ ;
◇ si u est une isométrie indirecte, alors ou bien u est une symétrie
orthogonale par rapport au plan E1 (éventuellement triviale dans le
sens u = ±idR3 ), ou bien u est la composée de la symétrie par rapport

au plan E−1 et d’une rotation autour de l’axe E−1 (dans ce cas −u
est une rotation).

Remarque 16. Contrairement à ce qu’on pourrait penser, l’angle de la


rotation n’est pas intrinsèquement défini par la matrice A. Pour s’en
convaincre, on peut considérer dans R3 une rotation d’axe ε1 . On sait que
dans le plan orthogonal à ε1 (c’est-à-dire le plan engendré par ε2 et ε3 ),
l’endomorphisme induit une rotation du plan. Cependant, si on regarde ce
plan "par au-dessus" ou si on l’observe "par en-dessous", on observera deux
rotations dans le plan, avec des angles de rotations opposés, et ce bien que ce
soit le même endomorphisme. Dans l’espace, une rotation n’est bien définie
qu’autour d’un axe orienté : ceci impose de regarder le plan orthogonal
d’une manière bien définie (avec la pointe du vecteur directeur dans l’œil).

Page 94/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Classification de A = I3 est
A ∈ M3 (R) l’identité

A ≠ I3

Orienter l’axe E1 selon k

Calcul de i ⊥ k
A est la rotation
Calcul de w = k ⋅ (i ∧ Ai) d’angle θ d’axe
E1 orienté par k

Trouver θ tel que


Tr(A)−1
cos θ = 2
et w sin(θ) > 0

Figure 6 – Caractérisation géométrique des isométries directes (det A > 0) de


R3 .

Page 95/ 97
7.10 Isométries dans R3

Classification de A = −I3 est une


A ∈ M3 (R) symétrie centrale

A ≠ −I3

A est la symétrie
A est-elle
orthogonale
symétrique ? Oui
par rapport à E1
Non

Orienter l’axe E−1 selon k

A est la composée
Calcul de i ⊥ k
de -Id avec la
rotation d’angle θ
Calcul de
d’axe E−1
w = k ⋅ (i ∧ (−Ai))
orienté par k

Trouver θ tel que


Tr(−A)−1
cos θ = 2
et w sin(θ) > 0

Figure 7 – Caractérisation géométrique des isométries indirectes (det A < 0)


de R3 .

Page 96/ 97
PARTIE 3 – Algèbre Linéaire et Géométrie

Exemple 76. Prenons la matrice suivante :


√ √ √ √ √
⎛ 1+ 2 −1+ √2+ 3 −1+ √2− 3 ⎞
3 3 2 3 2
⎜ √ √ √ √ √ ⎟
⎜ −1+ √2− 3 −1+ √2+ 3 ⎟
A=⎜ 1+ 2
⎟.
⎜ 3 2
√ √
3
√ √
3 2


⎜ ⎟
−1+ √2+ 3 −1+ √2− 3 1+ 2
⎝ 3 2 3 2 3 ⎠

En faisant le calcul AT A, on trouve bien I3 donc A est une matrice or-


thogonale. On voit tout de suite que A n’est pas symétrique. Le calcul du
déterminant donne 1. On sait donc que A est une matrice de rotation, dont
on va maintenant déterminer les caractéristiques.
On commence par calculer l’axe grâce à E1 = ker(A − I3 ). On peut vérifier
que E1√(A) = Vect((1,
√ √1, 1)). On oriente l’axe de la rotation par le vecteur
k = (1/ 3, 1/ 3, 1/ 3). On calcule maintenant l’angle de la rotation. On
a d’abord : √
Tr(A) − 1 1 + 2 − 1 1
cos θ = = =√ .
2 2 2
Il s’agit alors d’un angle connu : ∣θ∣ = π/4 modulo 2π. On détermine main-
tenant le signe de θ. On choisit i = (1, −1, 0) un vecteur orthogonal à k.
On calcule : √
⎛ √3−1 ⎞
⎜ √6 ⎟
⎜ ⎟
j = Ai = ⎜ − √3−1 ⎟ .
⎜ √6 ⎟
⎜ ⎟
⎝ √23 ⎠
On vérifie bien que i ∧ j est colinéaire à k. Enfin on calcule le produit mixte
k ⋅ (i ∧ j). On obtient la valeur :

k ⋅ (i ∧ j) = − 2 < 0.
√ √ √
Alors A est la matrice de rotation d’axe orienté par (1/ 3, 1/ 3, 1/ 3)
et d’angle −π/4 autour de cet axe orienté.

Page 97/ 97
Année
2020 – 2021
Universitaire

DUT Génie Electrique et Informatique Industrielle


UE33 - Mathématiques - module Ma3
UE43 - Probabilités & Statistiques - module M 4306 C

PARTIE 3 – Algèbre Linéaire (TD)

UNIVERSITÉ POLYTECHNIQUE HAUTS DE FRANCE


INSTITUT UNIVERSITAIRE DE TECHNOLOGIE
DÉPARTEMENT GÉNIE ÉLECTRIQUE ET INFORMATIQUE INDUSTRIELLE
TABLE DES MATIÈRES

Table des matières


1 Espaces Vectoriels 4
1.1 Sous-Espaces Vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Famille de Vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Somme Directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Applications linéaires 9

3 Matrices 14
3.1 Règles de Calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2 Inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3 Transposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.4 Trace et Déterminant . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.5 Lien avec les Applications Linéaires . . . . . . . . . . . . . . . . . 21

4 Diagonalisation 23
4.1 Éléments Propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2 Polynôme Caractéristique . . . . . . . . . . . . . . . . . . . . . . . 25
4.3 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

5 Applications 28

Correction 31

A Espaces Vectoriels 31
A.1 Sous-Espaces Vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 31
A.2 Famille de Vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . 33
A.3 Somme Directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

B Applications Linéaires 44

C Matrices 57
C.1 Règles de Calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
C.2 Inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 60
C.3 Transposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

Page 2/ 90
PARTIE 3 – Algèbre Linéaire (TD)

C.4 Trace et Déterminant . . . . . . . . . . . . . . . . . . . . . . . . . 66


C.5 Lien avec les Applications Linéaires . . . . . . . . . . . . . . . . . 73

D Diagonalisation 79
D.1 Éléments Propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
D.2 Polynôme Caractéristique . . . . . . . . . . . . . . . . . . . . . . . 83
D.3 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

Page 3/ 90
1 - Espaces Vectoriels

1 Espaces Vectoriels
1.1 Sous-Espaces Vectoriels
Exercice 1.
Est-ce que ces ensembles sont des sous-R-espaces vectoriels de R ? Justifiez.
1. E = [1, 2] ;
2. E = R∗ ;
3. E l’ensemble des nombres pairs ;
4. E l’ensemble des nombres impairs ;
5. E = Q ;

6. E = {x 2, x ∈ R} ;

7. E = {x 2, x ∈ Q}.
Correction ▼ [001]

Exercice 2.
Est-ce que l’ensemble ci-dessous est un R-espace vectoriel ? Justifiez.

E = {(x, y, z) ∈ R3 , 2x − y + z = 0}.

Correction ▼ [002]

Exercice 3.
Est-ce que ces ensembles sont des sous-R-espaces vectoriels de C ? Justifiez.
1. E = R ;
2. E = iR = {ix, x ∈ R} ;
√ √
3. E = (i + 2)R = {(i + 2)x, x ∈ R} ;
4. E = S(0, 1) = {z ∈ C, ∣z∣ = 1} ;
5. E = D(0, 1) = {z ∈ C, ∣z∣ ≤ 1}.
Correction ▼ [003]

Page 4/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Exercice 4.
On pose E = {(z, z ′ ) ∈ C2 , 2z − z ′ = 0}. Est-ce que E est un R-espace
vectoriel ? un C-espace vectoriel ?
Correction ▼ [004]

1.2 Famille de Vecteurs


Exercice 5.
On pose E = Vect(v1 , v2 ) avec v1 = (1, 2, 0) et v2 = (1, −1, 0). Montrez que
E = Vect(ε1 , ε2 ), où εi est le i-ème vecteur de la base canonique de R3 .
Correction ▼ [005]

Exercice 6.
Soit E = {(x, y, z) ∈ R3 , 2x − y + z = 0}.
1. Montrez que tout (x, y, z) ∈ E s’écrit sous la forme :

⎛x⎞ ⎛1⎞ ⎛0⎞


⎜ y ⎟ = xv1 + zv2 , avec v1 = ⎜ 2 ⎟ , v2 = ⎜ 1 ⎟ ,
⎝z⎠ ⎝0⎠ ⎝1⎠

puis que E = Vect(v1 , v2 ).


2. Montrez que (v1 , v2 ) est une famille libre.
3. Déduisez-en que E est un R-espace vectoriel de dimension 2.
Correction ▼ [006]

Exercice 7.
Soit E = {(x, y, z, t) ∈ R4 , x + y + z + t = 0}.
1. Montrez que tout P = (x, y, z, t) ∈ E s’écrit sous la forme :

P = xv1 + yv2 + zv3 , avec


⎛ 1 ⎞ ⎛ 0 ⎞ ⎛ 0 ⎞
⎜ 0 ⎟ ⎜ 1 ⎟ ⎜ 0 ⎟
v1 = ⎜ ⎟
⎜ 0 ⎟, v2 = ⎜ ⎟
⎜ 0 ⎟, et v3 = ⎜ ⎟
⎜ 1 ⎟,
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ −1 ⎠ ⎝ −1 ⎠ ⎝ −1 ⎠

Page 5/ 90
1.2 Famille de Vecteurs

puis que E = Vect(v1 , v2 , v3 ).


2. Montrez que (v1 , v2 , v3 ) est une famille libre.
3. Déduisez-en que E est un R-espace vectoriel de dimension 3.
Correction ▼ [007]

Exercice 8.
On note (ε1 , . . . , εn ) la base canonique de Rn , et définit :
n
E = {(x1 , . . . , xn ) ∈ Rn , ∑ xi = 0} .
i=1

1. Pour tout i ∈ J1, n − 1K, on définit le vecteur ei = εi − εn . Montrez que la


famille (e1 , . . . , en−1 ) génère E. 1
2. Montrez que (e1 , . . . , en−1 ) est une famille libre.
3. Déduisez-en que E est un R-espace vectoriel de dimension (n − 1).
Correction ▼ [008]

Exercice 9.
Montrez que E = {(x, y) ∈ R2 , x − y = 0} est un R-espace vectoriel, trouvez
en une base, et déduisez-en que sa dimension vaut 1.
Correction ▼ [009]

Exercice 10.
Montrez que E = {(x, y, z) ∈ R3 , x − y = 0, z − 2y = 0} est un R-espace
vectoriel de dimension 1.
Correction ▼ [010]

Exercice 11. Dimension d’un sous-espace vectoriel (Cours)


On considère E un espace vectoriel de dimension n, et F un sous-espace
vectoriel de E, de base B = (e1 , . . . , ek ). En considérant les cas où B génère
ou non E entièrement, montrez qu’on peut ajouter des éléments de E pour
1. On pourra montrer que pour tout P = (x1 , . . . , xn ) ∈ Rn , P ∈ E si et seulement si
P = x1 e1 + ⋯ + xn−1 en−1 .

Page 6/ 90
PARTIE 3 – Algèbre Linéaire (TD)

compléter B en une base de E. Déduisez-en que dim(F ) ≤ n, et que dim(F ) = n


si et seulement si E = F .
Correction ▼ [011]

1.3 Somme Directe


Exercice 12.
On définit E = Vect(v1 , v2 ) avec les vecteurs v1 = (1, 1, 0) et v2 = (1, 0, 1).
1. Montrez que E est un sous-R-espace vectoriel de R3 de dimension 2.
2. Montrez que v3 = (0, 1, 1) n’appartient pas à E.
3. On pose F = Vect(v3 ). Montrez que F est un supplémentaire de E.
4. Donnez un vecteur v4 ∉ E autre que v3 . Montrez que G = Vect(v4 ) est
un supplémentaire de E.
Correction ▼ [012]

Exercice 13.
On définit E = Vect(v1 ) avec v1 = (1, 0, 0). On note (ε1 , ε2 , ε3 ) la base
canonique de R3 .
1. Montrez que E est un sous-R-espace vectoriel de R3 de dimension 1.
2. Soit v2 = (0, 1, 1) et v3 = (0, 1, −1). Montrez que F = Vect(v2 , v3 ) est un
R-espace vectoriel de dimension 2.
3. Pour v2′ = ε2 et v3′ = ε3 , montrez que (v2′ , v3′ ) est une base de F .
4. Montrez E et F sont supplémentaires dans R3 .
Correction ▼ [013]

Exercice 14.
On définit E = Vect(v) avec v = (a, b) non nul et b ≠ 0.
1. Montrez que E est un R-espace vectoriel de R2 de dimension 1.
2. Soit w = (−b, a). On admet que F = Vect(w) est un R-espace vectoriel
de dimension 1. Montrez que E et F sont supplémentaires dans R2 .

Page 7/ 90
1.3 Somme Directe

3. Trouvez un supplémentaire de E dans le cas où v = (a, 0) pour a ≠ 0.


4. Application 1 : Donnez un supplémentaire de Vect((1, 2)) dans R2 .
5. Application 2 : Donnez un supplémentaire de {(x, y) ∈ R2 , x + y = 0}
dans R2 .
Correction ▼ [014]

Exercice 15.
Soit A = (a1 , . . . , an ) ∈ Rn un point non nul. On note A⊥ l’ensemble des
(x1 , . . . , xn ) tels que :
n
∑ ai xi = 0.
i=1

1. Vérifiez que A ∉ A⊥ . Montrez que A⊥ est un R-espace vectoriel.


2. Soit E = Vect(A). On peut vérifier que E est un R-espace vectoriel de
dimension 1. Montrez que E et A⊥ sont supplémentaires dans Rn .
3. Que vaut la dimension de A⊥ .
4. Application 1 : Donnez un supplémentaire de Vect((1, 2, 3)) dans R3 .
5. Application 2 : Donnez un supplémentaire dans R4 de l’ensemble
défini par {(x, y, z, t) ∈ R4 , x − y + 2t = 0}.
Correction ▼ [015]

Exercice 16.
On pose E = Vect(u) avec u = (1, 0, 1). Dans cet exercice, on va voir
comment construire un supplémentaire S de E dans R3 .
1. Que vaut la dimension de E ? Que vaudra alors dim(S) ?
2. Donnez un vecteur v ∉ E.
3. On pose F = Vect(u, v). Donnez la dimension de F . Justifiez.
4. Donnez un vecteur w ∉ F .
5. Montrez que S = Vect(v, w) est un supplémentaire de E dans R3 .
Correction ▼ [016]

Page 8/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Exercice 17.
On pose u1 = (1, 0, 1, 0) et u2 = (1, 0, −1, 0).
1. Donnez la dimension de E = Vect(u1 , u2 ). Justifiez votre réponse.
2. Donnez un supplémentaire S de E dans R4 .
Correction ▼ [017]

2 Applications linéaires
Exercice 18.
Montrez que l’application suivante est linéaire :

∀(x, y) ∈ R2 , u(x, y) = 2x − y.

Correction ▼ [018]

Exercice 19.
Montrez que l’application définie par : ∀x ∈ R, u(x) = (x, 2x) ; est linéaire.
Correction ▼ [019]

Exercice 20.
Est-ce que l’application u définie ci-dessous est linéaire ?

∀(x, y, z, t) ∈ R4 , u(x, y, z, t) = (x − y, y − z, z − t, t − x).

Correction ▼ [020]

Exercice 21.
On rappelle que C2 est un R-espace vectoriel. Montrez que l’application
définie par : ∀(z1 , z2 ) ∈ C2 , u(z1 , z2 ) = 2z1 + z2 ; est linéaire.
Correction ▼ [021]

Page 9/ 90
2 - Applications linéaires

Exercice 22.
Ici, C2 sera vu comme un C-espace vectoriel. Est-ce que l’application définie
ci-dessous est linéaire ?

∀(z1 , z2 ) ∈ C2 , u(z1 , z2 ) = 2z1 + z2 ,

Correction ▼ [022]

Exercice 23.
On note (ε1 , ε2 ) la base canonique de R2 . On définit les vecteurs v = (1, 1)
et w = (1, −1).
1. Montrez que (v, w) est une base de R2 .
2. On définit la fonction f1 linéaire par :

f1 (ε1 ) = (1, 3), et f1 (ε2 ) = (1, 1).

Exprimez f1 (x, y) pour tout (x, y) ∈ R2 .


3. On définit la fonction f2 linéaire par :

f2 (v) = (1, 3), et f2 (w) = (1, 1).

Exprimez f2 (x, y) pour tout (x, y) ∈ R2 .


Correction ▼ [023]

Exercice 24.
On définit les vecteurs suivants :

e1 = (1, 0), e2 = (1, 1),

f1 = (1, 0, 0), f2 = (1, 1, 0), et f3 = (1, 1, 1).


2
1. Montrez que (e1 , e2 ) est une base de R .
2. On définit une fonction linéaire u avec :

u(e1 ) = f1 , et u(e2 ) = f2 .

Exprimez u(x, y) en fonction de x et y.

Page 10/ 90
PARTIE 3 – Algèbre Linéaire (TD)

3. Montrez que (f1 , f2 , f3 ) est une base de R3 .


4. On définit une fonction linéaire v avec :

v(f1 ) = e1 , v(f2 ) = e2 , et v(f3 ) = e2 − e1 .

Exprimez v(x, y, z) en fonction de x, y et z.


Correction ▼ [024]

Exercice 25.
On définit l’application u sur R2 par :

∀(x, y) ∈ R2 , u(x, y) = x − y.

1. Montrez que u est une application linéaire.


2. Exprimez ker(u) et Im(u), sous forme de Vect.
3. Que valent dim(ker(u)) et dim(Im(u)) ?
Correction ▼ [025]

Exercice 26.
On définit l’application u sur R2 par :

∀(x, y) ∈ R2 , u(x, y) = (x + y, x − y).

1. Montrez que u est une application linéaire.


2. Exprimez ker(u) et Im(u), sous forme de Vect.
3. Que valent dim(ker(u)) et dim(Im(u)) ?
Correction ▼ [026]

Exercice 27.
On définit l’application u sur R4 par :

u(x, y, z, t) = (x − y, x + z, t − y).

1. Montrez que u est une application linéaire.

Page 11/ 90
2 - Applications linéaires

2. Exprimez ker(u) et Im(u), sous forme de Vect.


3. Que valent dim(ker(u)) et dim(Im(u)) ?
Correction ▼ [027]

Exercice 28.
Nous allons découvrir dans cette exercice une autre utilisation du noyau
d’une application. Plus précisément, nous allons démontrer rapidement que
l’ensemble suivant est un espace vectoriel :

E = {(x, y, z) ∈ R3 , 2x + y − z = 0}.

1. On pose l’application u telle que :∀(x, y, z) ∈ R3 , u(x, y, z) = 2x + y − z.


Montrez que u est linéaire.
2. En faisant le lien entre E et u, déduisez-en que E est un R-espace
vectoriel.
Correction ▼ [028]

Exercice 29.
Montrez que l’ensemble ci-dessous est un R-espace vectoriel :

E = {(x, y, z, t) ∈ R4 , x − y + z − t = 0}.

Correction ▼ [029]

Exercice 30.
On définit u = (1, 1) et v = (1, −1), puis F = Vect(u) et G = Vect(v).
1. Montrez que F et G sont supplémentaires dans R2 .
2. Exprimez p1 (x, y), le projeté de (x, y) sur F parallèlement à G.
3. Exprimez p2 (x, y), le projeté de (x, y) sur G parallèlement à F .
4. Exprimez la symétrie s1 par rapport à F parallèlement à G.
5. Exprimez la symétrie s2 par rapport à G parallèlement à F .

Page 12/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Correction ▼ [030]

Exercice 31.
On définit A = (1, 0, 1), F = Vect(A) et A⊥ = {(x, y, z) ∈ R3 , x + z = 0}. À
l’aide de l’exercice 15, on sait que F et A⊥ sont supplémentaires dans R3
1. Exprimez la projection p1 sur F parallèlement à A⊥ .
2. Exprimez la projection p2 sur A⊥ parallèlement à F .
3. Exprimez la symétrie s1 par rapport à F parallèlement à A⊥ .
4. Exprimez la symétrie s2 par rapport à A⊥ parallèlement à F .
Correction ▼ [031]

Exercice 32.
On définit les sous-R-espaces vectoriels de R2 suivants :

F = Vect((1, 0, 1, 0), (1, 0, −1, 0)) et G = Vect((0, 1, 0, 1), (0, 1, 0, −1)).

D’après l’exercice 17 on sait que F et G sont supplémentaires dans R4 .


1. Exprimez la projection p1 sur F parallèlement à G.
2. Exprimez la projection p2 sur G parallèlement à F .
3. Exprimez la symétrie s1 par rapport à F parallèlement à G.
4. Exprimez la symétrie s2 par rapport à G parallèlement à F .
Correction ▼ [032]

Exercice 33. Caractérisation géométrique


Caractériser géométriquement une application u revient à dire (pour le
moment en tout cas) si u est une homothétie (et donner son rapport λ), une
projection ou une symétrie (et expliciter les espaces vectoriels associés F et
G). Caractérisez géométriquement les applications suivantes :
◇ u1 (x, y, z) = (2x − 2z, x − z, x − z) ;
◇ u2 (x, y, z) = (3x, 3y, 3z) ;
◇ u3 (x, y, z) = (4x − 2y, 6x − 3y, z) ;

Page 13/ 90
3 - Matrices

◇ u4 (x, y, z) = (3x − 4z, 2x − y − 2z, 2x − 3z) ;


◇ u5 (x, y, z) = (2z − x, y, z).
Correction ▼ [033]

3 Matrices
3.1 Règles de Calculs
Exercice 34.
Calculez les sommes matricielles si possible :

⎛ 1 2 3 ⎞ ⎛ −1 0 1 ⎞ ⎛ −2 −1 ⎞ ⎛ 3 2 ⎞
⎜ 4 5 4 ⎟ + ⎜ 1 −1 0 ⎟ , ⎜ 0 1 ⎟ + ⎜ 1 0 ⎟,
⎝ 3 2 1 ⎠ ⎝ 0 1 −1 ⎠ ⎝ 2 3 ⎠ ⎝ −1 −2 ⎠

1 2 3 ⎛ −1 0 ⎞ 1 −1 1 1 2 3
( ) + ⎜ 1 −1 ⎟ , ( )+( ).
4 5 6 ⎝ 0 1 ⎠ −1 1 −1 4 5 6

Correction ▼ [034]

Exercice 35.
Calculez les produits matriciels suivants si possible :

⎛ 1 2 3 ⎞ ⎛ −1 0 1 ⎞ ⎛ −2 −1 ⎞ ⎛ 3 2 ⎞
⎜ 4 5 4 ⎟ ⋅ ⎜ 1 −1 0 ⎟ , ⎜ 0 1 ⎟ ⋅ ⎜ 1 0 ⎟,
⎝ 3 2 1 ⎠ ⎝ 0 1 −1 ⎠ ⎝ 2 3 ⎠ ⎝ −1 −2 ⎠

−1 0 ⎞
1 2 3 ⎛ 1 −1 1 1 2 3
( ) ⋅ ⎜ 1 −1 ⎟ , ( )⋅( ).
4 5 6 ⎝ −1 1 −1 4 5 6
0 1 ⎠
Correction ▼ [035]

Exercice 36. Produit avec une matrice diagonale

Page 14/ 90
PARTIE 3 – Algèbre Linéaire (TD)

On considère une matrice D ∈ Mn (K) diagonale et A ∈ Mn (K). Montrez


que les lignes de B = DA sont égales aux lignes de A multipliées chacune par
un coefficient diagonal bien précis de D. Trouvez un résultat similaire sur les
colonnes de C = AD.
Correction ▼ [036]

Page 15/ 90
3.2 Inverse d’une matrice

Exercice 37.
Dîtes si ces égalités sont vraies. Justifiez votre réponse.
1. A(B + C) = AB + AC ;
2. (A + B)(A − B) = A2 − B 2 ;
3. (A − B)2 = A2 − 2AB + B 2 ;
4. (A + B)2 = A2 + 2AB + B 2 .
Correction ▼ [037]

3.2 Inverse d’une matrice


Exercice 38.
Calculez les produits AB et BA avec :

A = ( 57 23 ) , et 3 −2 ) .
B = ( −7 5

Déduisez-en que A et B sont inversibles et que A−1 = B.


Correction ▼ [038]

Exercice 39.
On considère deux matrices 2 × 2 générales qu’on écrit sous la forme :
′ b′ ) .
A = ( ac db ) et B = ( ac′ d′

Explicitez les produits AB et BA. Déduisez-en que A est inversible si et seule-


ment si ad − bc ≠ 0 et exprimez son inverse, en fonction de a, b, c et d (Faîtes
d’abord le cas d = 0, puis le cas d ≠ 0).
Correction ▼ [039]

Exercice 40.
123 −5 7 1
Soit A = ( 3 1 2 ). Calculez le produit A ⋅ ( 1 −5 7 ) . Déduisez-en que A est
231 7 1 −5
inversible et donnez son inverse.
Correction ▼ [040]

Page 16/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Exercice 41.
−1 0 1
Soit A = ( 1 −1 0 ). Calculez le produit suivant :
0 1 −1

a b c
A⋅(d e f ).
g h i

En raisonnant par l’absurde, déduisez-en que A n’est pas inversible.


Correction ▼ [041]

Exercice 42.
Dîtes si les propositions suivantes sont vraies ou fausses. Justifiez vos ré-
ponses.
1. Si A est inversible, alors A−1 l’est aussi et (A−1 )−1 = A ;
2. Si A est inversible et si λ ≠ 0, alors λA est inversible et (λA)−1 = λ−1 A−1 ;
3. Si A et B sont inversibles, alors A+B l’est aussi et (A+B)−1 = A−1 +B −1 ;
4. Si A et B sont inversibles, alors AB l’est aussi et (AB)−1 = B −1 A−1 ;
5. Si A et P sont inversibles, alors P AP −1 l’est aussi et :

(P AP −1 )−1 = P A−1 P −1 .

Correction ▼ [042]

Exercice 43.
Soit D une matrice diagonale. Montrez que :

D est inversible si et seulement si ∀i ∈ J1, nK, dii ≠ 0.

Dans ce cas, montrez que D−1 est diagonale et son coefficient diagonal d’ordre
i est d−1
ii .
Correction ▼ [043]

Page 17/ 90
3.3 Transposée

3.3 Transposée
Exercice 44.
Donnez la transposée des matrices suivantes :

1 0 1 0 1 ⎛ −1 1 −1 ⎞
A=( ), B=( ), et C = ⎜ 0 −1 0 ⎟ .
0 1 0 1 0 ⎝ −1 1 −1 ⎠

Correction ▼ [044]

Exercice 45.
Montrez les propositions suivantes :
1. (AT )T = A ;
2. (A + B)T = AT + B T ;
3. (λA)T = λAT ;
4. (AB)T = B T AT ;
5. Si A est inversible alors AT l’est aussi avec :

(AT )−1 = (A−1 )T .

Correction ▼ [045]

3.4 Trace et Déterminant


Exercice 46.
Calculez la trace et le déterminant des matrices :
−1 0 −1 2 −1 2
A=( ), B=( ), et C=( ).
1 −1 1 −1 1 −2
Correction ▼ [046]

Page 18/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Exercice 47.
Calculez la trace et le déterminant de la matrice :

⎛ −1 0 1 ⎞
A = ⎜ 1 −1 0 ⎟ .
⎝ 0 1 −1 ⎠

Déduisez-en que A n’est pas inversible.


Correction ▼ [047]

Exercice 48.
Calculez le déterminant des matrices suivantes :

⎛1 0 1 0⎞ ⎛ 1 2 1 2 ⎞
⎜0 1 0 0⎟ ⎜ 2 1 2 1 ⎟
A=⎜
⎜1
⎟, B=⎜ ⎟
⎜ 0 −1 0⎟

⎜ 1
⎜ 2 −1 −2 ⎟

⎝1 2 3 4⎠ ⎝ −2 −1 2 1 ⎠

⎛1 0 1 0 1 ⎞ ⎛1 1 1 1 1 ⎞
⎜0 1 0 1 0 ⎟ ⎜1 1 1 1 −1 ⎟
⎜ ⎟ ⎜ ⎟
C=⎜
⎜1 0 1 0 −1 ⎟
⎟, et D=⎜
⎜1 1 1 −1 1 ⎟
⎟.
⎜ ⎟ ⎜ ⎟
⎜0 1 0 −1 0 ⎟ ⎜1 1 −1 1 1 ⎟
⎝1 0 −1 0 1 ⎠ ⎝1 −1 1 1 1 ⎠
Correction ▼ [048]

Exercice 49. Cours


Soit A ∈ Mn (K) telle qu’il existe B ∈ Mn (K) avec AB = In .
1. Montrez que det(A) ≠ 0 et que det(B) = 1/ det(A). Déduisez-en que A
est inversible.
2. Montrez que BA = In , puis B = A−1 .
Correction ▼ [049]

Page 19/ 90
3.4 Trace et Déterminant

Exercice 50. Cours


Soit A ∈ Mn (K). On va montrer ici la propriété :
A est inversible si et seulement si AX = 0 admet
une unique solution (à savoir X = 0).
1. Montrez que si A est inversible, alors AX = 0 admet une unique solution.
2. Supposons que si AX = 0, alors X = 0. On pose (ε1 , . . . , εn ) la base
canonique de Rn .
(a) On pose f (X) = AX. Montrez que f est une application linéaire.
(b) Étudiez le noyau de f .
(c) On pose fi = f (εi ). Montrez que (f1 , . . . , fn ) est une base de Rn .
Déduisez-en que Im(f ) = Rn .
(d) Montrez que pour tout i, il existe Vi tel que AVi = εi .
3. Démontrez alors la proposition de l’énoncé.
Correction ▼ [050]

Exercice 51. Formule de l’inverse (Cours)


On considère A une matrice inversible. On définit la comatrice B de A
par :
∀i, j, bij = (−1)i+j ∆ij (A).
1. Fixons i et j deux indices, puis définissons la matrice C par :
alk , si l ≠ j,
clk = {
aik , si l = j.
Montrez que (AB T )ij = det(C) puis que AB T = det(A)In .
2. Déduisez-en l’expression de A−1 en fonction de B.
3. Application : Montrez que la matrice suivante est inversible puis cal-
culez son inverse.
⎛1 0 1 ⎞
A = ⎜ 0 1 0 ⎟.
⎝ 1 0 −1 ⎠
Correction ▼ [051]

Page 20/ 90
PARTIE 3 – Algèbre Linéaire (TD)

3.5 Lien avec les Applications Linéaires


Exercice 52.
1. Donnez la matrice de la famille B = ((1, 0), (2, 1)) dans la base cano-
nique C de R2 .
2. Montrez que B est une base de R2 .
3. Donnez la matrice de B dans elle-même.
4. Donnez la matrice de C dans B.
Correction ▼ [052]

Exercice 53. Cours


1. Soit E = (e1 , . . . , en ) une famille de Rn . On pose A = MatC (e1 , . . . , en ).
Montrez que A est inversible si et seulement si E est une base de Rn .
2. Application : Montrez que les vecteurs (1, 0) et (2, 1) forment une
base de R2 .
Correction ▼ [053]

Exercice 54.
On considère e1 = (1, 0, 0), e2 = (1, −1, 0), e3 = (1, −1, 1), f1 = (1, 2, 3),
f2 = (1, 0, −1) et f3 = (1, 0, 1).
1. Montrez que E = (e1 , e2 , e3 ) est une base de R3 .
2. Montrez que F = (f1 , f2 , f3 ) est une base de R3 .
3. Donnez la matrice M1 de E dans F.
4. Donnez la matrice M2 de F dans E.
5. Que remarquez-vous entre M1 et M2 ?
Correction ▼ [054]

Page 21/ 90
3.5 Lien avec les Applications Linéaires

Exercice 55.
Soit f l’application linéaire définie par :

f (x, y, z) = (x + y, y − z).

1. Donnez la matrice de f dans les bases canoniques de R3 et R2 , notées


respectivement par C3 et C2 .
2. On suppose que B = ((1, 0, 0), (1, 1, 0), (1, 1, 1)) est une base de R3 .
Donnez la matrice de f dans les bases B et C2 .
3. On suppose que B ′ = ((1, 0), (1, −1)) est une base de R2 . Donnez la
matrice de f dans les bases C3 et B ′ .
4. Donnez la matrice de f dans les bases B et B ′ .
Correction ▼ [055]

Exercice 56.
Soit f l’endomorphisme défini par :

f (x, y) = (y, x).

1. Donnez la matrice de f dans la base canonique.


2. Déduisez-en que f est inversible. Donnez la matrice de f −1 dans la base
canonique.
3. Caractérisez géométriquement f .
4. Montrez que la famille B = ((1, 1), (1, −1)) est une base de R2 .
5. Donnez la matrice de f dans la base B.
Correction ▼ [056]

Page 22/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Exercice 57.
Soit f l’endomorphisme défini par :
2x − y + t −x + 2y + t x + y + 2t
f (x, y, z, t) = ( , , 0, ).
3 3 3
1. Donnez la matrice M de f dans la base canonique.
2. Que vaut M 2 ?
3. Trouvez les vecteurs X tels que M X = X.
4. Trouvez les vecteurs X tels que M X = 0.
5. Caracatérisez géométriquement f .
Correction ▼ [057]

Exercice 58.
Donnez la matrice d’une homothétie h de rapport λ.
Correction ▼ [058]

4 Diagonalisation
4.1 Éléments Propres
Exercice 59.
On définit la matrice :

⎛ 1 2 −1 ⎞
A = ⎜ 0 1 1 ⎟.
⎝ −1 0 3 ⎠

1. Montrez que 2 est une valeur propre de A et déterminez son sous-espace


propre.
2. Donnez toutes les valeurs propres de A et leur sous-espaces propres.
Correction ▼ [059]

Page 23/ 90
4.1 Éléments Propres

Exercice 60.
Trouvez les valeurs propres (réelles et complexes) et les sous-espaces propres
des matrices suivantes :

0 1 1 1 ⎛0 0 1⎞
A=( ), B=( ), et C = ⎜ 0 1 0 ⎟.
−1 0 0 1 ⎝1 0 0⎠

Correction ▼ [060]

Exercice 61. Matrices Stochastiques


On considère une matrice A ∈ Mn (R) telle que :

n
∀i, j, aij ≥ 0, et ∀i, ∑ aij = 1.
j=1

1. Montrez que 1 est un vecteur propre de A.


2. Soit λ une valeur propre (complexe) de A.
(a) En considérant un vecteur propre X associé, montré que pour tout
indice i :
RRR n R
RRR a x RRRRR ≤ max ∣x ∣.
RRR ∑ ij j RRR k
RRj=1 RR k

(b) Déduisez-en que ∣λ∣ ≤ 1.


3. Application : Quelles sont les valeurs propres de la matrice :

1/2 1/2
S=( ).
1/4 3/4

Commentez.
Correction ▼ [061]

Page 24/ 90
PARTIE 3 – Algèbre Linéaire (TD)

4.2 Polynôme Caractéristique


Exercice 62.
On considère la matrice :
1 2
A=( ).
3 4

1. Calculez le polynôme caractéristique χA (X) de A.


2. Calculez χA (A). Que remarquez-vous ?
Correction ▼ [062]

Exercice 63.
On considère la matrice :

⎛ 0 3 −2 ⎞
A = ⎜ 1 0 1 ⎟.
⎝ 3 −5 5 ⎠

1. Calculez le polynôme caractéristique χA (X) de A.


2. Calculez χA (A). Que remarquez-vous ?
Correction ▼ [063]

Exercice 64.
On considère la matrice :

⎛0 3 −2 1⎞
⎜1 0 1 1⎟
A=⎜
⎜3
⎟.
⎜ −5 5 0⎟

⎝0 1 0 1⎠

Calculez le polynôme caractéristique χA (X) de A.


Correction ▼ [064]

Page 25/ 90
4.2 Polynôme Caractéristique

Exercice 65.
Soit f l’endomorphisme de R3 dont la matrice dans la base canonique est :

⎛2 0 0⎞
A = ⎜ 0 4 2 ⎟.
⎝ 0 −1 1 ⎠

1. Calculez le polynôme caractéristique de f .


2. Donnez les valeurs propres de f et les sous-espaces propres associés.
3. Montrez qu’il existe une base de R3 constituée de vecteurs propres de
f.
4. Donnez la matrice de f dans cette base.
Correction ▼ [065]

Exercice 66.
Soit f l’endomorphisme de R3 dont la matrice dans la base canonique est :

⎛2 1 2⎞
A = ⎜ 0 4 2 ⎟.
⎝ 0 −1 1 ⎠

1. Calculez le polynôme caractéristique de f .


2. Donnez les valeurs propres de f et les sous-espaces propres associés.
3. Existe-t-il une base de R3 constituée de vecteurs propres de f ?
4. Comparez avec l’exercice précédent.
Correction ▼ [066]

Exercice 67.
Soit A la matrice :
⎛ 2 0 −1 ⎞
A = ⎜ −1 1 1 ⎟,
⎝ 0 −1 0 ⎠

et f l’endomorphisme de R3 associé.

Page 26/ 90
PARTIE 3 – Algèbre Linéaire (TD)

1. Factorisez le polynôme caractéristique de A.


2. Déterminez les sous-espaces propres de A.
3. Démontrez qu’il existe une base de R3 dans laquelle la matrice de f
est :
⎛1 1 0⎞
B = ⎜ 0 1 1 ⎟.
⎝0 0 1⎠
Correction ▼ [067]

4.3 Diagonalisation
Exercice 68.
Les matrices suivantes sont-elles diagonalisables dans R ?

⎛ 1 4 5 ⎞ ⎛ 1 0 0 ⎞ ⎛ 0 1 1 ⎞ ⎛ 2 0 0 ⎞
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
A=⎜ 0 2 6 ⎟, B=⎜ 1 2 0 ⎟, C=⎜ 0 0 0 ⎟, D=⎜ 1 2 0 ⎟.
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ 0 0 7 ⎠ ⎝ 1 0 2 ⎠ ⎝ 0 0 0 ⎠ ⎝ 0 3 2 ⎠

Correction ▼ [068]

Exercice 69.
Soit f l’endomorphisme de R3 dont la matrice dans la base canonique est :

⎛ 0 5 −2 ⎞
A = ⎜ 0 −7 3 ⎟ .
⎝ −1 −16 7 ⎠

1. Exprimez χA (X) et étudiez la fonction x ↦ χA (x).


2. Déduisez-en que f est diagonalisable.
Correction ▼ [069]

Page 27/ 90
5 - Applications

Exercice 70.
Soit :

−1 ⎛ 2 0 1 0 ⎞
⎛ 2 2 0 ⎞ ⎛ 0 0 1 ⎞ ⎛ 0 0 ⎞

⎜ −1 1 ⎟
1 ⎟ ⎜ 0 ⎟ ⎜ 0 ⎟ ⎜ ⎟
0 0
A=⎜ 1 2 ⎟, B=⎜ 1 0 ⎟, C = ⎜ −1 0 ⎟, D=⎜ ⎟.
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ 0 ⎟
⎝ 0 2 2 ⎠ ⎝ 0 1 0 ⎠ ⎝ 0 0 1 ⎠ ⎜ 1 0 2 ⎟
⎝ 0 1 0 −1 ⎠

1. Diagonalisez les matrices dans R lorsque cela est possible.


2. Si la matrice est diagonalisable, calculez ses puissances.
Correction ▼ [070]

Exercice 71.
Les matrices suivantes sont-elles diagonalisables dans C ? Si oui, diagonalisez-
les.

⎛ 3 −2 ⎞ ⎛ 0 i ⎞ ⎛ 1 3 ⎞ ⎛ i 0 ⎞
A= , B= , C= , D= .
⎝ 3 1 ⎠ ⎝ −i 0 ⎠ ⎝ −1 −2 ⎠ ⎝ 1 i ⎠

Correction ▼ [071]

5 Applications
Exercice 72. Puissances de matrice
On définit la matrice :
1 0 0
A = (0 0 1).
0 −1 0
1. Est-ce que A est diagonalisable dans R ? dans C ? Si oui, diagonalisez-la.
2. Calculez Ak pour tout k ∈ N.
101
3. Répondez aux mêmes questions pour la matrice S = ( 0 2 0 ) .
103
Correction ▼ [072]

Page 28/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Exercice 73. Suites récurrentes


On définit la suite (un )n∈N , grâce à la récurrence :



⎪ u0 = 0,


⎨ u1 = 1,



⎩ un+2 = un+1 − un , ∀n ∈ N.

Le but de cet exercice est de trouver un en fonction de n.


un
1. On pose Vn = ( ). Vérifiez qu’il existe une matrice A (à donner)
un+1
telle que Vn+1 = AVn .
2. Montrez par récurrence que :

Vn = An V0 .

3. Montrez que A est diagonalisable dans C.


4. Calculez An pour tout n.
5. Déduisez-en Vn puis un pour tout n.
Correction ▼ [073]

Exercice 74. Système Différentiel


On suppose que deux fonctions x(t) et y(t) sont reliées à l’aide de :



⎪ x′ (t) = x(t) + y(t),
y ′ (t) = x(t) − y(t).








⎪ x(0) = 1,




⎩ y(0) = 1.

1. On pose V (t) = (x(t), y(t)). Montrez que V ′ (t) = AV (t) avec A une
matrice qu’on exprimera.
2. Montrez que A est diagonalisable dans R et exprimez les matrices P
inversible et D diagonale telles que A = P DP −1 .
3. Que vaut P −1 ?

Page 29/ 90
5 - Applications

4. On pose W (t) = P −1 V (t). Vérifiez que W ′ (t) = DW (t) et explicitez


W (0). On décompose W (t) en (w1 (t), w2 (t)). Vérifiez que w1 et w2 sont
des solutions d’équations différentielles faciles à résoudre et exprimez
donc w1 (t) et w2 (t) en fonction de t.
5. Donnez V (t) en fonction de t, puis exprimez les fonctions x(t) et y(t)
en fonction de t.
Correction ▼ [074]

Exercice 75. Équation Différentielle


On cherche à résoudre une équation différentielle de la forme :


⎪ y ′′ (t) + by ′ (t) + cy(t) = 0,


⎨ y(0) = y0 ,
′ ′



⎩ y (0) = y0 .

Le but de cet exercice est d’exprimer y(t), dans certains cas particuliers.
y(t)
1. On pose V (t) = ( ′ ). Vérifiez qu’il existe une matrice A (à donner)
y (t)
telle que V ′ (t) = AV (t).
2. Exemple 1 : On étudie ici le cas b = 0 et c = −1, avec y0 = 1 et y0′ = 0.
(a) Montrez que A est diagonalisable dans C et trouvez P (inversible)
et D diagonale avec A = P DP −1 .
(b) On pose W (t) = P −1 V (t). Montrez qu’il existe une matrice diago-
nale Dw telle que W ′ (t) = Dw W (t).
(c) On décompose W (t) en (w1 (t), w2 (t)). Déduisez-en que w1 (resp.
w2 ) vérifie une équation différentielle simple, qu’on résoudra. Expli-
citez ainsi W (t) puis V (t). Que vaut y(t) ? 2
3. Exemple 2 : On étudie ici le cas b = 0 et c = −1, avec y0 = 0 et y0′ = 1.
Que vaut y(t) ? 3
Correction ▼ [075]

2. Cette fonction s’appelle cosinus hyperbolique.


3. Cette fonction s’appelle sinus hyperbolique.

Page 30/ 90
PARTIE 3 – Algèbre Linéaire (TD)

A Espaces Vectoriels
A.1 Sous-Espaces Vectoriels

Correction de l’exercice 1. ▲

1. L’élément 0 n’appartient pas à E : ce n’est pas un sous-R-espace vec-


toriel de R ;
2. L’élément 0 n’appartient pas à E : ce n’est pas un sous-R-espace vec-
toriel de R ;
3. On sait que x = 2 ∈ E et λ = 32 ∈ R. Si E était un (sous-)R-espace
vectoriel (de R), alors λ ⋅ x serait un élément de E. Or λ ⋅ x = 3 n’est pas
un nombre pair : E n’est pas un sous-R-espace vectoriel de R ;
4. L’élément 0 n’appartient pas à E : ce n’est pas un sous-R-espace vec-
toriel de R ;

5. On remarque que x = 1 ∈ E, et λ√= 2 ∈ R. Si E est un (sous-)R-espace
vectoriel (de R), on aurait que 2 = λ ⋅ x ∈ E : cependant c’est faux 4 ,
et donc E n’est pas un sous-R-espace vectoriel de E ;

6. Tout d’abord 0 = 0 2, avec 0 ∈ R, est bien un élément de E.
√ √
Soit x, y, λ ∈ R. Montrons que α = x 2 + λ(y 2) ∈ E. On remarque
que : √
α = (x + λy) 2.
On sait que R est un R-espace vectoriel : comme x et y sont des éléments
de R, on a bien que x′ = x + λy ∈ R. On a donc écrit α comme le produit
entre le réel x′ et 2 : α ∈ E.

On a ainsi montré que E est un sous-R-espace vectoriel de R 5 ;




4. Supposons que 2 ∈ Q : cela veut dire qu’il existe a ∈ N et b ∈ N∗ premiers entre eux
tels que 2 = b . En particulier, on aurait a2 = 2b2 , ce qui implique que a2 est pair. En fait,
a

2 divise forcément a, étant donné que 2 est un nombre premier. Ainsi on peut écrire a sous
la forme 2k, ce qu’on peut réinjecter dans a2 = 2b2 , pour avoir 2k2 = b2 . Finalement, soit 2
soit k diviserait b. Cela impliquerait que 2√ou k diviserait a et b : cela contredit l’hypothèse
que a et b sont premiers entre eux. Ainsi 2 n’est pas un élément √ de Q.
5. En fait, on remarque que si α ∈ R, on peut écrire α = x 2, avec x = √α2 ∈ R : donc
α ∈ E, puis R ⊂ E. On a clairement E ⊂ R : finalement E = R donne que E est bien un
R-espace vectoriel.

Page 31/ 90
A.1 Sous-Espaces Vectoriels


7. On a 2 ∈ E et 1 √1
= λ ⋅ x ∉ E : sinon, on aurait a ∈ N et
∈ Q. Or

2 2
b ∈ N∗ tels que 2
√ √
= ab , puis 2 = 2a
2 b impliquerait que 2 ∈ Q, ce qui
est faux. Donc E n’est pas stable par produit par un scalaire : ce n’est
pas un sous-R-espace vectoriel de R.

Correction de l’exercice 2. ▲
On sait que E ⊂ R3 . Montrons que E est un sous-R-espace vectoriel de R3 .
◇ On remarque tout d’abord que (0, 0, 0) ∈ E.
◇ Soit X = (x, y, z) et X ′ = (x′ , y ′ , z ′ ) des éléments de E et λ ∈ R. Posons
X ′′ = (x′′ , y ′′ , z ′′ ) = X + λX ′ qui vérifie :
2x′′ − y ′′ + z ′′ = 2(x + λx′ ) − (y + λy ′ ) + (z + λz ′ ) = (2x − y + z) + λ(2x′ − y ′ + z ′ ) = 0,

car X, X ′ ∈ E. Donc X ′′ est dans E : E est stable par combinaisons


linéaires.
◇ On a ainsi montré que E est un sous-R-espace vectoriel de R3 : c’est un
R-espace vectoriel.

Correction de l’exercice 3. ▲

1. On sait que R ⊂ C et 0 ∈ R. Comme R est un R-espace vectoriel, on sait


que R est stable par combinaisons linéaires : R est un sous-R-espace
vectoriel de C ;
2. L’ensemble E contient 0. Soit ix, iy ∈ E et λ ∈ R :

(ix) + λ(iy) = i(x + λy) ∈ E,

car x + λy ∈ R. Donc E est stable par combinaisons linéaires. On a


montré ainsi que E est un sous-R-espace vectoriel de C ;

3. On note z = (i + 2) pour simplifier les notations. On remarque que
0 ∈ E. De plus, si zx, zy ∈ E, et λ ∈ R, alors :

(zx) + λ(zy) = z(x + λy) ∈ E,

car x + λy ∈ R. Donc E est stable par combinaisons linéaires. On a


montré ainsi que E est un sous-R-espace vectoriel de C ;

Page 32/ 90
PARTIE 3 – Algèbre Linéaire (TD)

4. E ne contient pas l’élément 0 : ce n’est donc pas un sous-R-espace


vectoriel de C ;
5. On sait que 1 ∈ E. Or 2 ⋅ 1 = 2 ∉ E, étant donné que ∣2∣ = 2 > 1 : E n’est
pas un sous-R-espace vectoriel.

Correction de l’exercice 4. ▲
Notons que E ⊂ C2 avec C2 étant un K-espace vectoriel (pour K = R ou
C). Montrons que E est un sous-K-espace vectoriel de C2 .
◇ Tout d’abord (0, 0) ∈ E ;
◇ Soit Z1 = (z1 , z1′ ), Z2 = (z2 , z2′ ) ∈ E et λ ∈ K. Que K soit R ou C, on a
bien Z3 = Z1 + λZ2 ∈ C2 et :

2(z1 + λz2 ) − (z1′ + λz2′ ) = (2z1 − z1′ ) + λ(2z2 − z2′ ) = 0,

comme Z1 , Z2 ∈ E. Donc Z3 ∈ E montre que E est stable par combinai-


sons linéaires.
◇ Ainsi on a montré que E est un sous-K-espace vectoriel de C2 pour
K = R ou C : c’est donc bien un R-espace vectoriel et un C-espace
vectoriel.

A.2 Famille de Vecteurs

Correction de l’exercice 5. ▲
On remarque tout d’abord que v1 = ε1 + 2ε2 et v2 = ε1 − ε2 . Cela implique
que E ⊂ Vect(ε1 , ε2 ). En effet, on peut écrire x ∈ E sous la forme αv1 + βv2 ,
avec α et β deux réels. On vérifie alors que :

x = αv1 + βv2 = α(ε1 + 2ε2 ) + β(ε1 − ε2 ) = (α + β)ε1 + (2α − β)ε2 .

De plus, si x s’écrit sous la forme aε1 + bε2 , on remarque que :

1 2 1 1 a+b 2a − b
x = aε1 + bε2 = a ( v1 + v2 ) + b ( v1 − v2 ) = v1 + v2 ,
3 3 3 3 3 3

Page 33/ 90
A.2 Famille de Vecteurs

car ε1 = 13 v1 + 23 v2 et ε2 = 13 v1 − 31 v2 . On a alors monté que Vect(ε1 , ε2 ) ⊂ E :


par double inclusion on a obtenu E = Vect(ε1 , ε2 ).

Correction de l’exercice 6. ▲
Soit E = {(x, y, z) ∈ R3 , 2x − y + z = 0}. On définit les vecteurs :

⎛1⎞ ⎛0⎞
v1 = ⎜ 2 ⎟ , et v2 = ⎜ 1 ⎟ .
⎝0⎠ ⎝1⎠

1. Soit (x, y, z) ∈ R3 . On note que :

⎛x⎞ ⎛x⎞ ⎛ x ⎞ ⎛x⎞ ⎛ x ⎞ ⎛0⎞


⎜ y ⎟ ∈ E ⇐⇒ y = 2x + z ⇐⇒ ⎜ y ⎟ = ⎜ 2x + z ⎟ ⇐⇒ ⎜ y ⎟ = ⎜ 2x ⎟ + ⎜ z ⎟ ,
⎝z⎠ ⎝z⎠ ⎝ z ⎠ ⎝z⎠ ⎝ 0 ⎠ ⎝z⎠

⎛x⎞
⇐⇒ ⎜ y ⎟ = xv1 + zv2 .
⎝z⎠

Par définition de l’espace vectoriel engendré, on a que E = Vect(v1 , v2 ).


2. Soit α et β avec αv1 + βv2 = 0. Montrons que (α, β) = (0, 0). On a :

⎛ α ⎞
0 = αv1 + βv2 = ⎜ 2α + β ⎟ .
⎝ β ⎠

Par unicité de l’écriture vectorielle, on a bien que α = β = 0.


3. Comme E = Vect(v1 , v2 ), on sait que E est un R-espace vectoriel et
que (v1 v2 ) est une famille génératrice de E. On a aussi vu qu’elle était
libre : il s’agit donc d’une base de E, puis dim(E) = #(v1 , v2 ) = 2.

Correction de l’exercice 7. ▲
Soit E = {(x, y, z, t) ∈ R4 , x + y + z + t = 0}. On définit les vecteurs :

⎛ 1 ⎞ ⎛ 0 ⎞ ⎛ 0 ⎞
⎜ 0 ⎟ ⎜ 1 ⎟ ⎜ 0 ⎟
v1 = ⎜ ⎟
⎜ 0 ⎟, v2 = ⎜ ⎟
⎜ 0 ⎟, et v3 = ⎜ ⎟
⎜ 1 ⎟.
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ −1 ⎠ ⎝ −1 ⎠ ⎝ −1 ⎠

Page 34/ 90
PARTIE 3 – Algèbre Linéaire (TD)

1. Pour tout P = (x, y, z, t) ∈ R4 , on a :

⎛x⎞ ⎛ x ⎞
⎜y⎟ ⎜ y ⎟
P ∈ E ⇐⇒ t = −x − y − z ⇐⇒ ⎜ ⎟ ⎜
⎜z ⎟=⎜
⎟ = xv1 + yv2 + zv3 .

⎜ ⎟ ⎜ z ⎟
⎝ t ⎠ ⎝ −x − y − z ⎠

Cela implique bien que E = Vect(v1 , v2 , v3 ).


2. Pour α, β, γ ∈ R tels que αv1 + βv2 + γv3 = 0, on a :

⎛ α ⎞
⎜ β ⎟
0 = αv1 + βv2 + γv3 = ⎜

⎟,

⎜ γ ⎟
⎝ −α − β − γ ⎠

puis α = β = γ = 0 : la famille (v1 , v2 , v3 ) est libre.


3. Comme E = Vect(v1 , v2 , v3 ), E est bien un R-espace vectoriel. De plus,
(v1 , v2 , v3 ) génère E et est libre (par la question précédente) : c’est une
base de E et dim(E) = 3.

Correction de l’exercice 8. ▲
On note (ε1 , . . . , εn ) la base canonique de Rn , et définit :
n
E = {(x1 , . . . , xn ) ∈ Rn , ∑ xi = 0} .
i=1

n
1. Soit P = (x1 , . . . , xn ) = ∑ xi ei ∈ Rn . Alors on vérifie que :
i=1

P ∈ E ⇐⇒ xn = −x1 − ⋯ − xn−1 ,
n−1
⇐⇒ P = ∑ xi εi + (−x1 − ⋯ − xn−1 )εn = x1 e1 + ⋯ + xn−1 en−1 .
i=1

On a donc montré que (e1 , . . . , en−1 ) génère E : E = Vect(e1 , . . . , en−1 ).

Page 35/ 90
A.2 Famille de Vecteurs

2. Considérons des réels λ1 , . . . , λn−1 tels que :

⎛ λ1 ⎞
⎜ .. ⎟

0 = λ1 e1 + ⋯ + λn−1 en−1 = ⎜ . ⎟
⎟.
⎜ λ ⎟
⎜ n−1 ⎟
⎝ −λ1 − ⋯ − λn−1 ⎠

Par unicité de l’écriture vectorielle, on en déduit que λ1 = ⋯ = λn−1 ,


puis que (e1 , . . . , en−1 ) est libre.
3. On a vu que E = Vect(e1 , . . . , en−1 ) : ainsi E est un R-espace vecto-
riel, engendré par la famille (e1 , . . . , en−1 ). Celle-ci est aussi libre par la
question précédente : c’est une base, possédant (n − 1) éléments. On a
ainsi montré que dim(E) = n − 1.

Correction de l’exercice 9. ▲
On peut montrer que E est un sous-R-espace vectoriel de R2 . Cependant,
nous allons utiliser la méthode vue ci-dessus pour montrer que E est un R-
espace vectoriel et trouver une famille génératrice en même temps !
Soit (x, y) ∈ R2 . Nous avons alors que :

(x, y) ∈ E ⇐Ô x = y ⇐⇒ (x, y) = x(1, 1).

Ainsi on a montré que E = Vect(v) avec v = (1, 1), ce qui implique que E est
un R-espace vectoriel.
Montrons que la famille (v) est libre. Soit λ ∈ R tel que λv = 0. Alors (λ, λ)
est le vecteur nul, puis λ = 0 : on a donc montré que (v) est une famille libre.
Ainsi (v) est une famille libre et génératrice de E : c’est une base de E.
Elle ne possède qu’un seul élément, ce qui implique que dim(E) = 1.

Correction de l’exercice 10. ▲


Soit (x, y, z) ∈ R3 . On remarque que :

(x, y, z) ∈ E ⇐⇒ y = x et z = 2y = 2x ⇐⇒ (x, y, z) = (x, x, 2x) = x(1, 1, 2).

On a donc montré que E est l’espace vectoriel engendré par v = (1, 1, 2).

Page 36/ 90
PARTIE 3 – Algèbre Linéaire (TD)

La famille (v) est libre. En effet, si λ ∈ R vérifie λv = 0, on voit que


(λ, λ, 2λ) = 0 puis λ = 0.
Ainsi on a montré que (v) est une famille libre et génératrice de E : c’est
une base de E, de cardinal 1. Finalement, on a que dim(E) = 1.

Correction de l’exercice 11. ▲


Soit F sous-espace vectoriel de E. On pose (e1 , . . . , ek ) une base B de F .
En particulier, il s’agit d’une famille libre de F , et donc de E.
◇ Si B est une famille génératrice de E, alors c’est une base de E. Ainsi
k = n implique que dim(F ) = n, par définition de la dimension.
◇ Sinon, il existe ek+1 ∈ E tel que ek+1 ∉ F . Montrons que B ′ = (e1 , . . . , ek+1 )
est libre. Soit λ1 , . . . , λk+1 ∈ R tels que :

λ1 e1 + ⋯ + λk ek − λk+1 ek+1 = 0.

Si λk+1 ≠ 0, on aurait que :

λ1 λk
ek+1 = e1 + ⋯ + ek ,
λk+1 λk+1

puis que ek+1 ∈ F , car F est un espace vectoriel. Cela est impossible par
définition de ek+1 . Donc λk+1 = 0. On est donc ramené à :

λ1 e1 + ⋯ + λk ek = 0.

Comme la famille (e1 , . . . , ek ) est une famille libre, on a forcément que


λ1 = ⋯ = λk = 0 : on a donc montré que B est une famille libre. Ainsi on
refait cette disjonction de cas sur la nouvelle famille B ′ .
Cette boucle se termine car dim(E) est finie : forcément, on ajoutera au
plus n éléments !
Finalement, en ajoutant de nouveaux éléments de E à B, on construit une
base de E : par définition, on a bien que dim(F ) = k ≤ n.
Par ailleurs, si k = n, alors B est une famille libre de E et #B = dim(E) :
elle génère E, puis E = Vect(e1 , . . . , en ) = F . Le sens réciproque est évident.

Page 37/ 90
A.3 Somme Directe

A.3 Somme Directe

Correction de l’exercice 12. ▲


On définit E = Vect(v1 , v2 ) avec les vecteurs v1 = (1, 1, 0) et v2 = (1, 0, 1).
1. Par définition d’un espace vectoriel engendré, on sait que E est un
sous-R-espace vectoriel de R3 , qui est engendré par les vecteurs v1 et
v2 . Montrons que (v1 , v2 ) est libre. Soit α et β tels que αv1 + βv2 = 0,
ce qui est équivalent à :
(α + β, α, β) = (0, 0, 0).
Par unicité des coordonnées vectorielles, on obtient que α = β = 0 : la
famille (v1 , v2 ) est libre.
Finalement, (v1 , v2 ) est une famille libre et génératrice de E : c’est une
base de E qui est donc de dimension 2.
2. Supposons que v3 ∈ E. On cherche alors α et β tel que :


⎪ α + β = 0,


(0, 1, 1) = αv1 + βv2 = (α + β, α, β) ⇐⇒ ⎨ α = 1,



⎩ β = 1.

Cependant, ce système n’a pas de solutions. Donc v3 ∉ E.
3. On pose F = Vect(v3 ).
◇ Soit v = (x, y, z) ∈ E ∩ F . Il existe alors α, β et γ des réels tels que :
(x, y, z) = αv1 + βv2 = γv3 ,
ce qui est équivalent à :


⎪ α + β = 0,


⎨ α = γ, ⇐⇒ α = β = γ = 0.



⎩ β = γ,

Finalement, v = (0, 0, 0). Or (0, 0, 0) ∈ E ∩ F étant donné que E et


F sont des (sous-)R-espaces vectoriels (de R3 ). On a ainsi montré
que :
E ∩ F = {(0, 0, 0)}.

Page 38/ 90
PARTIE 3 – Algèbre Linéaire (TD)

◇ Soit v = (x, y, z) ∈ R3 . On va chercher à l’écrire comme une combi-


naison linéaire de v1 , v2 et v3 . On doit donc trouver α, β et γ tels
que :
(x, y, z) = αv1 + βv2 + γv3 = (α + β, α + γ, β + γ).
Ainsi, en résolvant ce système, on trouve que :
x+y−z x−y+z y+z−x
α= , β= , et γ= .
2 2 2
Finalement, on a montré que :

R3 = E + F,

puis que E et F sont supplémentaires. 6


4. Posons v4 = (0, 0, 1). Supposons que v4 ∈ E. Alors il existerait α et β
tels que v4 = αv1 + βv2 , ce qui reviendrait à :


⎪ 0 = α + β,


⎨ 0 = α,



⎩ 1 = β.

Cela est impossible : on a donc bien que v4 ∉ E.


Montrons que G = Vect(v4 ) est un supplémentaire de E. Considérons
(x, y, z) ∈ R3 . On cherche α, β et γ tels que (x, y, z) = αv1 + βv2 + γv4 ,
ce qui est équivalent à :


⎪ x = α + β, ⎧

⎪ α = y,

⎪ ⎪

⎨ y = α, ⇐⇒ ⎨ β = x − y,


⎪ ⎪


⎩ z = β + γ,
⎪ ⎩ γ = z + y − x.

Ainsi il existe une unique solution à ce problème : E et G sont supplé-


mentaires.
6. On a montré que pour tout (x, y, z) ∈ R3 , il existait un unique triplet (α, β, γ) tel
que (x, y, z) = αv1 + βv2 + γv3 : ce sont les coordonnées de (x, y, z) dans la base (v1 , v2 , v3 ).
L’unicité de cette écriture implique que E et F sont en somme directe, mais aussi que E et
F sont supplémentaires.

Page 39/ 90
A.3 Somme Directe

Correction de l’exercice 13. ▲


On définit E = Vect(v1 ) avec v1 = (1, 0, 0).
1. Par définition de E, il s’agit d’un R-espace vectoriel, engendré par la
famille (v1 ). Soit λ ∈ R avec λv1 = 0. On remarque que forcément λ = 0,
puis que (v1 ) est une famille libre : on a trouvé une base de E avec un
seul élément. Ainsi E est de dimension 1.
2. Par définition de F , on sait que F est un R-espace vectoriel.
Soit v2 = (0, 1, 1) et v3 = (0, 1, −1). Montrons que (v2 , v3 ) est une famille
libre. Soit α et β tels que αv2 + βv3 = 0, ce qui est équivalent à :

α + β = 0,
{ ⇐⇒ α = β = 0.
α − β = 0,

La famille (v2 , v3 ) est donc une famille libre, et génère F : c’est une
base de F . Donc la dimension de F est 2.
3. Par définition, on sait que v2 = v2′ + v3′ et v3 = v2′ − v3′ . Ainsi on a
E ⊂ Vect(v2′ , v3′ ). On remarque que v2′ = 21 v2 + 12 v3 et v3′ = 12 v2 − 12 v3 ,
ce qui nous donne enfin que F = Vect(v2′ , v3′ ). On a dons montré que
(v2′ , v3′ ) est une famille génératrice de F avec deux éléments. Comme
dim(F ) = 2, on sait que (v2′ , v3′ ) est une base de F .
4. Par la question précédente, on sait que F = Vect(v2′ , v3′ ). Considérons
(x, y, z) ∈ E ∩ F. Comme (x, y, z) ∈ E, on sait que y = z = 0. Ensuite,
comme (x, y, z) ∈ F , on sait qu’il existe α, β tels que (x, y, z) = αv2′ +βv3′ .
En particulier, on obtient que x = 0. On a ainsi montré que E ∩ F = {0}.
De plus, on sait que dim(E) + dim(F ) = 3 = dim(R3 ) : E et F sont
supplémentaires dans R3 .

Correction de l’exercice 14. ▲


On définit E = Vect(v) avec v = (a, b) non nul et b ≠ 0.
1. Par définition, E est un sous-R-espace vectoriel de R2 , engendré par
(v). Soit λ ∈ R tel que λv = 0. En particulier, on a λb = 0. Comme b est
non nul, on peut diviser par b, ce qui donne λ = 0. Donc E admet (v)
pour base : sa dimension vaut 1.

Page 40/ 90
PARTIE 3 – Algèbre Linéaire (TD)

2. Considérons (x, y) ∈ E ∩ F . En particulier il existe α et β tels que


(x, y) = αv = βw. Cela implique que :

αa = −βb, β(a2 + b2 ) = 0,
{ ⇐⇒ {
αb = βa, α = βa/b.

Comme b ≠ 0, on sait que a2 + b2 > 0, puis β = 0. Finalement, α est nul


et on a montré que E ∩ F = {0}.
On sait que dim(E) + dim(F ) = 2 = dim(R2 ) et E ∩ F = {0} : E et F
sont supplémentaires.
3. On pose w = (c, d) avec c = b = 0 et d = −a. Ici, d est non nul. Par ce
qui précède on sait que Vect(v) est un supplémentaire de Vect(w) dans
R2 . On a ainsi que Vect(w) est un supplémentaire de E dans R2 .
4. Par ce qui précède, on sait que Vect(w) avec w = (−2, 1) est un supplé-
mentaire de Vect((1, 2)) dans R2 .
5. On note E = {(x, y) ∈ R2 , x + y = 0}. Pour tout (x, y) ∈ R2 , on a :

(x, y) ∈ E ⇐⇒ x = −y ⇐⇒ (x, y) = y(−1, 1).

Ainsi le vecteur v = (1, −1) génère E. Par ce qui précède, on sait que
dim(E) = 1, et que Vect(w) avec w = (1, 1) est un supplémentaire de E
dans R2 .

Correction de l’exercice 15. ▲


Soit A = (a1 , . . . , an ) ∈ Rn un point non nul. On note A⊥ l’ensemble des
(x1 , . . . , xn ) tels que :
n
∑ ai xi = 0.
i=1

1. On remarque que :
n n
2
∑ ai ai = ∑ ai > 0,
i=1 i=1

car A n’est pas le vecteur nul. Montrons maintenant que A⊥ est un


espace vectoriel. Tout d’abord 0 ∈ A⊥ . Pour tous x = (x1 , . . . , xn ) et

Page 41/ 90
A.3 Somme Directe

y = (y1 , . . . , yn ) éléments de A⊥ et tout λ ∈ R, on a :


n n n
∑ ai (xi + λyi ) = (∑ ai xi ) + λ (∑ ai yi ) = 0.
i=1 i=1 i=1

Ainsi A⊥ est stable par combinaisons linéaires. On a ainsi montré que


A⊥ est un sous-R-espace vectoriel de Rn .
2. Soit x ∈ E ∩ A⊥ . En particulier, il existe λ ∈ R tel que x = λA. Si λ ≠ 0,
on aurait que A = λ1 x ∈ A⊥ , ce qui est faux d’après la question 1. Ainsi
λ = 0 implique que E ∩ A⊥ = {0}.
Soit x ∈ Rn . On cherche λ ∈ R et y ∈ A⊥ tel que x = λA+y. En particulier,
nous aurions y = x − λA ∈ A⊥ . Or on a :
n n n
0 = ∑ ai (xi − λai ) = ∑ ai xi − λ ∑ a2i .
i=1 i=1 i=1

On a vu que ∑ni=1 a2i ≠ 0, dans la question 1. On définit donc :

∑ni=1 ai xi
λ= , puis y = x − λA.
∑ni=1 a2i

On a donc vu que x = λA + y avec y ∈ A⊥ , par construction.


Finalement, on a montré que Rn = E ⊕ A⊥ .
3. Comme E et A⊥ sont supplémentaires dans Rn , on a :

dim(E) = dim(Rn ) − dim(A⊥ ) = n − 1.

4. D’après ce qui précède, on a vu que E = {(x, y, z) ∈ R3 , x + 2y + 3z = 0}


est un supplémentaire de Vect((1, 2, 3)) dans R3 .
5. On pose E = {(x, y, z, t) ∈ R4 , x − y + 2t = 0} et A = (1, −1, 0, 2). Par
construction, on remarque que E = A⊥ . Par ce qui précède, on a donc
que Vect((1, −1, 0, 2)) est un supplémentaire de E dans R4 .

Page 42/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Correction de l’exercice 16. ▲

1. Comme E = Vect(u) avec u = (1, 0, 1) non nul, E est un R-espace


vectoriel de dimension 1. Si S est un supplémentaire de E, alors on
aurait :
dim(S) = dim(R3 ) − dim(E) = 3 − 1 = 2.
Il va donc falloir trouver deux vecteurs v et w tels que S = Vect(v, w).
2. On pose v = (1, 0, 0). Comme u et v ne sont pas colinéaires, il est clair
que v ∉ E.
3. On définit le R-espace vectoriel F = Vect(u, v). Soit α et β tels que
αu + βv = 0, ce qui est équivalent à :

α + β = 0,
{ puis α = β = 0.
α = 0,

Ainsi (u, v) est une famille libre et génératrice de F . On a donc que


dim(F ) = 2. Ainsi il reste encore des vecteurs de E à capturer !
4. On pose w = (0, 1, 0). On vérifie très rapidement qu’il est impossible
d’écrire w comme combinaison linéaire de u et v. Donc w ∉ F .
5. On pose S = Vect(v, w). Il est immédiat que (v, w) est une famille libre
(étant donné que v et w ne sont pas colinéaires). Donc dim(S) = 2.
Ensuite, prenons x ∈ E ∩ S. Il existe donc α, β et γ tels que :

x = αu = −βv + γw.

Si γ était non nul, on aurait que w = αγ u + βγ v serait dans F , ce qui est


impossible ! Donc γ = 0, puis αu + βv = 0. Or la famille (u, v) est libre :
cela implique que α = β = 0. Finalement on a montré que x = 0, et donc
que E ∩ S = {0}.
Comme dim(E) + dim(S) = dim(R3 ), S est bien un supplémentaire de
E dans R3 .

Correction de l’exercice 17. ▲


On pose u1 = (1, 0, 1, 0) et u2 = (1, 0, −1, 0).

Page 43/ 90
B - Applications Linéaires

1. Les vecteurs u1 et u2 sont non colinéaires : ils forment une famille


libre de cardinal 2. Ainsi E = Vect(u1 , u2 ) est un R-espace vectoriel
de dimension 2.
2. On pose v1 = (0, 1, 0, 1).
Montrons que F = Vect(u1 , u2 , v1 ) est de dimension 3. Pour cela, on
considère α, β et γ tels que :


⎪ α + β = 0,


αu1 + βu2 + γv1 = 0 ⇐⇒ ⎨ γ = 0, ⇐⇒ α = β = γ = 0.



⎩ α − β = 0,

Donc (u1 , u2 , v1 ) est libre et génère F : dim(F ) = 3.


On pose v2 = (0, 1, 0, −1) et S = Vect(v1 , v2 ). Comme v1 et v2 sont non
colinéaires, (v1 , v2 ) est libre et dim(S) = 2.
Soit p ∈ E ∩ S. Il existe alors α, β, γ et µ tels que :


⎪ α + β = 0,




⎪ γ + µ = 0,
p = αu1 + βu2 = γv1 + µv2 ⇐⇒ ⎨ ⇐⇒ α = β = γ = µ = 0.


⎪ α − β = 0,




⎩ γ − µ = 0,

Donc E ∩ S est réduit à {0}. Comme dim(E) + dim(S) = 4 = dim(R4 ),


on a finalement montré que S est un supplémentaire de E dans R4 .

B Applications Linéaires

Correction de l’exercice 18. ▲


L’application u est linéaire. En effet, pour tous (x, y), (x′ , y ′ ) ∈ R2 et λ ∈ R :

u((x, y) + λ(x′ , y ′ )) = u(x + λx′ , y + λy ′ ) = 2(x + λx′ ) − (y + λy ′ ),


= (2x − y) + λ(2x′ − y ′ ) = u(x, y) + λu(x′ , y ′ ).

Page 44/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Correction de l’exercice 19. ▲


L’application u est linéaire. En effet, pour tous x, x′ ∈ R et λ ∈ R, on a :

u(x + λx′ ) = (x + λx′ , 2(x + λx′ )) = (x, 2x) + λ(x′ , 2x′ ) = u(x) + λu(x′ ).

Correction de l’exercice 20. ▲


L’application u est linéaire. Pour tous X = (x, y, z, t) et X ′ = (x′ , y ′ , z ′ , t′ )
et λ ∈ R, on a :

u(X + λX ′ ) = u(x + λx′ , y + λy ′ , z + λz ′ , t + λt′ ),


= ((x + λx′ ) − (y + λy ′ ), (y + λy ′ ) − (z + λz ′ ),
(z + λz ′ ) − (t + λt′ ), (t + λt′ ) − (x + λx′ )),
= (x − y, y − z, z − t, t − x) + λ(x′ − y ′ , y ′ − z ′ , z ′ − t′ , t′ − x′ ),
= u(x, y, z, t) + λu(x′ , y ′ , z ′ , t′ ).

Correction de l’exercice 21. ▲


Soit (z1 , z2 ) et (z1′ , z2′ ) deux éléments de C2 et λ ∈ R. On a :

u((z1 , z2 ) + λ(z1′ , z2′ )) = u(z1 + λz1′ , z2 + λz2′ ),


= 2(z1 + λz1′ ) + z2 + λz2′ = (2z1 + z2 ) + λ(2z1′ + z2′ ),
= u(z1 , z2 ) + λu(z1′ , z2′ ).

Ainsi l’application u est linéaire.

Correction de l’exercice 22. ▲


On remarque que pour Z = (0, 1) ∈ C2 et λ = i ∈ C on a :

u(λZ) = u(0, i) = i = −i ≠ λu(Z).

Donc l’application n’est pas linéaire, si C2 est considéré comme un C-espace


vectoriel.
On a vu dans l’exercice précédent, que si C2 est vu comme un R-espace
vectoriel, l’application est linéaire. Ainsi la linéarité d’une application dépend

Page 45/ 90
B - Applications Linéaires

aussi de la structure d’espace vectoriel. Ici, on dira que u est R-linéaire mais
pas C-linéaire.

Correction de l’exercice 23. ▲


On pose v = (1, 1) et w = (1, −1).
1. Comme v et w ne sont pas colinéaires, la famille (v, w) est donc libre. 7
Montrons qu’elle est génératrice. Soit (x, y) ∈ R2 . On cherche donc α et
β tels que (x, y) = αv + βw, ce qui est équivalent à :
x+y
x = α + β, α= 2 ,
{ ⇐⇒ { x−y
y =α−β β= 2 .

Ainsi (v, w) génère R2 et est libre : c’est une base de R2 .


2. Pour tout (x, y) ∈ R2 , on a (x, y) = xε1 + yε2 . Étant donné que f1 est
linéaire on trouve que :

f1 (x, y) = f1 (xε1 + yε2 ) = xf1 (ε1 ) + yf1 (ε2 ) = x(1, 3) + y(1, 1).

Finalement, on a obtenu :

f1 (x, y) = (x + y, 3x + y) .

3. Par la question 1, tout vecteur (x, y) de R2 se décompose sous la forme :

x+y x−y
(x, y) = v+ w.
2 2

La linéarité de f2 implique que :

x+y x−y x+y x−y


f2 (x, y) = f2 ( v+ w) = f2 (v) + f2 (w),
2 2 2 2
x+y x−y
= (1, 3) + (1, 1) = (x, x + y).
2 2
7. Comme la famille (v, w) est libre et que dim(R2 ) = 2, la famille (v, w) est une base de
2
R .

Page 46/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Correction de l’exercice 24. ▲


On définit les vecteurs suivants :

e1 = (1, 0), e2 = (1, 1),

f1 = (1, 0, 0), f2 = (1, 1, 0), et f3 = (1, 1, 1).


1. On remarque que, pour tout (x, y) ∈ R2 , on a :

(x, y) = (x − y)e1 + ye2 .

Donc la famille (e1 , e2 ) génère R2 . De plus, elle possède deux éléments


avec dim(R2 ) = 2 : c’est donc une base de R2 .
2. Tout vecteur (x, y) ∈ R2 vérifie par linéarité de u :

u(x, y) = u[(x − y)e1 + ye2 ] = (x − y)u(e1 ) + yu(e2 ),


= (x − y)(1, 0, 0) + y(1, 1, 0) = (x, y, 0).

3. Pour tout (x, y, z) ∈ R3 , on cherche α, β et γ tels que :




⎪ x = α + β + γ, ⎧

⎪ α = x − y,

⎪ ⎪

(x, y, z) = αf1 + βf2 + γf3 ⇐⇒ ⎨ y = β + γ, ⇐⇒ ⎨ β = y − z,


⎪ ⎪


⎩ z = γ,
⎪ ⎩ γ = z,

Tout vecteur de R3 admet une unique écriture sous forme de combinai-


son linéaire de f1 , f2 et f3 : c’est donc bien une base de R3 .
4. La linéarité de v implique que tout vecteur (x, y, z) vérifie :

v(x, y, z) = v [(x − y)f1 + (y − z)f2 + zf3 ] ,


= (x − y)v(f1 ) + (y − z)v(f2 ) + zv(f3 ),
= (x − y)(1, 0) + (y − z)(1, 1) + z(0, 1),
= (x − z, y).

Correction de l’exercice 25. ▲


On définit l’application u sur R2 par :

∀(x, y) ∈ R2 , u(x, y) = x − y.

Page 47/ 90
B - Applications Linéaires

1. Pour tous (x, y) et (x′ , y ′ ) éléments de R2 et λ ∈ R, on a :

u[(x, y) + λ(x′ , y ′ )] = u(x + λx′ , y + λy ′ ) = x + λx′ − (y + λy ′ ),


= (x − y) + λ(x′ − y ′ ) = u(x, y) + λu(x′ , y ′ ).

On a donc montré la linéarité de u.


2. Soit (x, y) ∈ ker(u). On a alors que :

0 = u(x, y) = x − y ⇐⇒ x = y ⇐⇒ (x, y) = x(1, 1).

Cela nous permet d’écrire que ker(u) = Vect[(1, 1)].


Soit a ∈ Im(u). Il existe alors (x, y) ∈ R2 tel que u(x, y) = (x − y)1 = a.
En fait, on peut remarquer que u(a, 0) = a. Ainsi (1) génère Im(u) et
on peut écrire :
Im(u) = Vect(1) = R.

3. On a vu qu’un seul vecteur non nul engendre (ker(u)) :

dim(ker(u)) = 1,

et que Im(u) = R, ce qui revient à dim(Im(u)) = 1.

Correction de l’exercice 26. ▲


On définit l’application u sur R2 par :

∀(x, y) ∈ R2 , u(x, y) = (x + y, x − y).

1. Pour tous (x, y) et (x′ , y ′ ) éléments de R2 et λ ∈ R, on a :

u[(x, y) + λ(x′ , y ′ )] = u(x + λx′ , y + λy ′ ),


= (x + λx′ + y + λy ′ , x + λx′ − (y + λy ′ )),
= (x + y, x − y) + λ(x′ + y ′ , x′ − y ′ ),
= u(x, y) + λu(x′ , y ′ ).

Donc u est linéaire.

Page 48/ 90
PARTIE 3 – Algèbre Linéaire (TD)

2. Décrivons ker(u). Tout vecteur (x, y) ∈ R2 vérifie :


0 = u(x, y) = (x + y, x − y) ⇐⇒ x = y = −y ⇐⇒ (x, y) = (0, 0).
Cela nous permet d’écrire que ker(u) = {0}.
Passons à la description de Im(u). Soit (a, b) ∈ Im(u). Il existe alors
(x, y) ∈ R2 tel que :
⎧ a+b
⎪ x=
⎪ 2 ,
(a, b) = u(x, y) = (x + y, x − y) ⇐⇒ ⎨ a−b
⎩ y= 2 .

Donc pour tout vecteur (a, b) ∈ R2 , on a trouvé un couple (x, y) tel que
u(x, y) = (a, b). Cela implique que Im(u) = R2 .
3. Comme ker(u) = {0}, on obtient que dim(ker(u)) = 0, tandis que
Im(u) = R2 implique que dim(Im(u)) = 2.

Correction de l’exercice 27. ▲


On définit l’application u sur R4 par :
u(x, y, z, t) = (x − y, x + z, t − y).
1. Soit (x, y, z, t) et (x,′ , y ′ , z ′ , t′ ) deux vecteurs de R4 et λ ∈ R. On a bien
que :
u[(x, y, z, t)+λ(x′ , y ′ , z ′ , t′ )] = u(x + λx′ , y + λy ′ , z + λz ′ , t + λt′ ),
= (x + λx′ − (y + λy ′ ), x + λx′ + z + λz ′ , t + λt′ − (y + λy ′ )),
= (x − y, x + z, t − y) + λ(x′ − y ′ , x′ + z ′ , t′ − y ′ ),
= u(x, y, z, t) + λu(x′ , y ′ , z ′ , t′ ).

L’application u est donc bien linéaire.


2. Commençons par exprimer ker(u). Considérons donc (x, y, z, t) élément
de ker(u) c’est-à-dire que :


⎪ x = y,


0 = u(x, y, z, t) = (x − y, x + z, t − y) ⇐⇒ ⎨ z = −x = −y,



⎩ t = y,

⇐⇒ (x, y, z, t) = y(1, 1, −1, 1).

Page 49/ 90
B - Applications Linéaires

On a donc montré que ker(u) = Vect((1, 1, −1, 1)).


Passons maintenant à Im(u). Soit (a, b, c) ∈ Im(u). Il existe alors (x, y, z, t)
tels que :

(a, b, c) = (x − y, x + z, t − y) = x(1, 1, 0) + y(−1, 0, 1) + z(0, 1, 0) + t(0, 0, 1).

Ainsi on a obtenu que :

Im(u) = Vect[(1, 1, 0), (−1, 0, 1), (0, 1, 0), (0, 0, 1)].

On remarque que (−1, 0, 1) = (−1)(1, 1, 0) + (0, 1, 0) + (0, 0, 1), ce qui


implique finalement que :

Im(u) = Vect[(1, 1, 0), (0, 1, 0), (0, 0, 1)]. 8

3. On a vu dans la question précédente que :

ker(u) = Vect((1, 1, −1, 1)).

Or le vecteur (1, 1, −1, 1) est non nul : il forme donc à lui seul une base
de ker(u). La dimension de ker(u) vaut donc 1.
Passons à l’ensemble image :

Im(u) = Vect[(1, 1, 0), (0, 1, 0), (0, 0, 1)].

Montrons que famille B = ((1, 1, 0), (0, 1, 0), (0, 0, 1)) est libre. Soit
α, β, λ tels que :

0 = α(1, 1, 0) + β(0, 1, 0) + λ(0, 0, 1).

Cette relation est équivalente à α = β = γ = 0. Ainsi on a montré la


liberté de B.
On a donc trouvé une famille libre générant Im(u) : c’est une base de
Im(u). Elle possède 3 éléments : d’où dim(Im(u)) = 3.

Correction de l’exercice 28. ▲

8. On peut même aller plus loin. En effet, on remarque que (1, 1, 0) = (1, 0, 0) + (0, 1, 0).
On obtient donc que Im(u) = Vect[(1, 0, 0), (0, 1, 0), (0, 0, 1)] = R3 .

Page 50/ 90
PARTIE 3 – Algèbre Linéaire (TD)

1. Pour tous (x, y, z), (x′ , y ′ , z ′ ) ∈ R3 et λ ∈ R, on a :

u((x, y, z) + λ(x′ , y ′ , z ′ )) = u(x + λx′ , y + λy ′ , z + λz ′ ),


= 2(x + λx′ ) + (y + λy ′ ) − (z + λz ′ ),
= (2x + y − z) + λ(2x′ + y ′ − z ′ ),
= u(x, y, z) + λu(x′ , y ′ , z ′ ).

Ainsi u est linéaire.


2. On remarque que E = ker(u). D’après le cours, on sait que le noyau
d’une application linéaire est un espace vectoriel : E est donc bien un
R-espace vectoriel.

Correction de l’exercice 29. ▲


On définit l’application suivante :

∀(x, y, z, t) ∈ R4 , u(x, y, z, t) = x − y + z − t.

Elle est linéaire. En effet, pour tous (x, y, z, t) et (x′ , y ′ , z ′ , t′ ) éléments de R4


et λ ∈ R, on vérifie que :

u(x + λx′ , y + λy ′ , z + λz ′ , t + λt′ ) = x + λx′ − (y + λy ′ ) + z + λz ′ − (t + λt′ ),


= (x − y + z − t) + λ(x′ − y ′ + z ′ − t′ ),
= u(x, y, z, t) + λu(x′ , y ′ , z ′ , t′ ).

Finalement, E = ker(u) est bien un R-espace vectoriel.

Correction de l’exercice 30. ▲


On définit u = (1, 1) et v = (1, −1). Posons F = Vect(u) et G = Vect(v).
1. Tout d’abord considérons un élément (x, y) de F ∩ G. Il existe alors α
et β tels que :
(x, y) = αu = βv ⇐⇒ α = −β = β,
ce qui implique que α = β = 0. Il est immédiat que (0, 0) ∈ F ∩ G (étant
donné que F et G sont des espaces vectoriels). On a donc montré que

Page 51/ 90
B - Applications Linéaires

F ∩ G = {0} 9 . Ensuite, pour tout (x, y) ∈ R2 , on cherche α et β tels


que :
α = x+y
2 ,
(x, y) = αu + βv ⇐⇒ { x−y
β= 2 ,
Ainsi on a que F + G = R2 . Finalement, ils sont bien supplémentaires.
2. On a vu que :
x+y x−y
(x, y) = u+ v.
2 2
Ainsi, par définition, la projection sur F parallèlement à G est :
x+y x+y x+y
p1 (x, y) = u=( , ).
2 2 2
3. La définition de la projection implique que :
x−y x−y y−x
p2 (x, y) = v=( , ).
2 2 2
4. La définition de la symétrie nous permet d’écrire que :
x+y x−y x+y x+y x−y y−x
s1 (x, y) = u− v=( , )−( , ) = (y, x).
2 2 2 2 2 2
On remarque que s1 (x, y) = p1 (x, y) − p2 (x, y).
5. Nous pourrions utiliser la même méthode que pour s1 mais nous allons
plutôt remarquer que :

s2 (x, y) = p2 (x, y) − p1 (x, y) = −s1 (x, y) = (−y, −x).

Correction de l’exercice 31. ▲


Dans R3 , on définit A = (1, 0, 1), F = Vect(A) et :

A⊥ = {(x, y, z) ∈ R3 , x + z = 0}.

Nous avons déjà étudié l’ensemble A⊥ dans l’exercice 15.


9. Comme dim(F ) + dim(G) = 2 = dim(R2 ), on peut directement conclure ici que F et G
sont supplémentaires.

Page 52/ 90
PARTIE 3 – Algèbre Linéaire (TD)

1. D’après la correction de l’exercice 15, tout vecteur (x, y, z) ∈ R3 peut


s’écrire sous la forme (x, y, z) = λA + (x′ , y ′ , z ′ ), avec :

(x′ , y ′ , z ′ ) = (x, y, z) − λA = (
x+z x−z z−x
λ= , et , y, ).
2 2 2
Ainsi la projection p1 de (x, y, z) ∈ R3 s’écrit :
x+z x+z
p1 (x, y, z) = λA = ( , 0, ).
2 2
2. Par le biais de ce qu’on a fait précédemment, on obtient aussi que :

p2 (x, y, z) = (x′ , y ′ , z ′ ) = (
x−z z−x
, y, ).
2 2
3. Comme s1 = p1 − p2 , on trouve que :
x+z x+z x−z z−x
s1 (x, y, z) = ( , 0, )−( , y, ) = (z, −y, x) .
2 2 2 2
4. De la même manière que pour s1 , on vérifie que :

s2 (x, y, z) = p2 (x, y, z) − p1 (x, y, z) = (−z, y, −x).

Correction de l’exercice 32. ▲


On pose F = Vect((1, 0, 1, 0), (1, 0, −1, 0)) et G = Vect((0, 1, 0, 1), (0, 1, 0, −1)).
D’après l’exercice 17 on sait que E et F sont supplémentaires dans R4 .
La première étape va être de trouver α, β, γ et δ tels que :

(x, y, z, t) = α(1, 0, 1, 0) + β(1, 0, −1, 0) + γ(0, 1, 0, 1) + δ(0, 1, 0, −1),

ce qui est équivalent à :


x+z


⎪ α= 2 ,


⎪ x−z

⎪ β= 2 ,
⎨ y+t


⎪ γ= 2 ,


⎪ y−t

⎩ δ= 2 .

À partir de là, nous pouvons commencer à répondre aux questions de l’exercice.

Page 53/ 90
B - Applications Linéaires

1. Par définition, on a :

p1 (x, y, z, t) = α(1, 0, 1, 0) + β(1, 0, −1, 0) = (x, 0, z, 0).

2. La définition d’une projection implique que :

p2 (x, y, z, t) = γ(0, 1, 0, 1) + δ(0, 1, 0, −1) = (0, y, 0, t).

3. Comme s1 = p1 − p2 , on trouve que :

s1 (x, y, z, t) = (x, −y, z, −t).

4. De la même façon, on obtient que :

s2 (x, y, z, t) = p2 (x, y, z, t) − p1 (x, y, z, t) = (−x, y, −z, t).

Correction de l’exercice 33. ▲


Tout le long de la correction, on considère un vecteur (x, y, z) ∈ R3 .
◇ On remarque que :

u21 (x, y, z) = u1 (u1 (x, y, z)),


= u1 (2x − 2z, x − z, x − z),
= [2(2x − 2z) − 2(x − z), (2x − 2z) − (x − z), (2x − 2z) − (x − z)],
= (2x − 2z, x − z, x − z).

Donc u1 est une projection sur un ensemble F parallèlement à G. Dé-


terminons maintenant F et G. On sait par le cours que :

(x, y, z) ∈ F ⇐⇒ (x, y, z) ∈ ker(u1 − id),


⇐⇒ u1 (x, y, z) − (x, y, z) = (0, 0, 0),
⇐⇒ x = 2z et y = z,
⇐⇒ (x, y, z) = z(2, 1, 1),
⇐⇒ (x, y, z) ∈ Vect((2, 1, 1)).

Page 54/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Ainsi on a montré que F = Vect((2, 1, 1)). Passons à l’étude de G :

(x, y, z) ∈ G ⇐⇒ (x, y, z) ∈ ker(u1 ),


⇐⇒ u1 (x, y, z) = (0, 0, 0),
⇐⇒ x = z,
⇐⇒ (x, y, z) = x(1, 0, 1) + y(0, 1, 0),
⇐⇒ (x, y, z) ∈ Vect((1, 0, 1), (0, 1, 0)).

Finalement, G est l’espace vectoriel engendré Vect((1, 0, 1), (0, 1, 0)).


◇ On remarque que u2 = 3id : il s’agit donc de l’homothétie de rapport 3
dans R3 ;
◇ On vérifie que :
u23 (x, y, z) = u3 (u3 (x, y, z)),
= u3 (4x − 2y, 6x − 3y, z),
= [4(4x − 2y) − 2(6x − 3y), 6(4x − 2y) − 3(6x − 3y), z],
= (4x − 2y, 6x − 3y, z).

On a donc affaire à une projection sur un ensemble F parallèlement à


G, tout deux à déterminer. On sait que :
(x, y, z) ∈ F ⇐⇒ (x, y, z) ∈ ker(u3 − id),
⇐⇒ u3 (x, y, z) = (x, y, z),
⇐⇒ 3x = 2y,
3
⇐⇒ (x, y, z) = x (1, , 0) + z(0, 0, 1),
2
3
⇐⇒ (x, y, z) ∈ Vect ((1, , 0) , (0, 0, 1)) ,
2

avec Vect ((1, 23 , 0) , (0, 0, 1)) = Vect((2, 3, 0), (0, 0, 1)), tandis que :

(x, y, z) ∈ G ⇐⇒ (x, y, z) ∈ ker(u3 ),


⇐⇒ u3 (x, y, z) = (0, 0, 0),
⇐⇒ y = 2x et z = 0,
⇐⇒ (x, y, z) = x(1, 2, 0),
⇐⇒ (x, y, z) ∈ Vect((1, 2, 0)).

Page 55/ 90
B - Applications Linéaires

◇ Commençons par calculer u24 (x, y, z) :

u24 (x, y, z) = u4 (u4 (x, y, z)),


= u4 (3x − 4z, 2x − y − 2z, 2x − 3z),
= [3(3x − 4z) − 4(2x − 3z), 2(3x − 4z) − (2x − y − 2z) − 2(2x − 3z),
2(3x − 4z) − 3(2x − 3z)],
= (x, y, z).

Cette fois-ci, l’application étudiée est une symétrie par rapport à un


espace F parallèlement à G. Déterminons ces deux paramètres :

(x, y, z) ∈ F ⇐⇒ (x, y, z) ∈ ker(u4 − id),


⇐⇒ u4 (x, y, z) − (x, y, z) = (0, 0, 0),


⎪ 3x − 4z = x,


⇐⇒ ⎨ 2x − y − 2z = y,



⎩ 2x − 3z = z,

⇐⇒ x = 2z et y = z,
⇐⇒ (x, y, z) = z(2, 1, 1),
⇐⇒ (x, y, z) ∈ Vect((2, 1, 1)),

et :

(x, y, z) ∈ G ⇐⇒ (x, y, z) ∈ ker(u4 + id),


⇐⇒ u4 (x, y, z) + (x, y, z) = (0, 0, 0),


⎪ 4x − 4z = 0,


⇐⇒ ⎨ 2x − 2z = 0,



⎩ 2x − 2z = 0,

⇐⇒ x = z,
⇐⇒ (x, y, z) = x(1, 0, 1) + y(0, 1, 0),
⇐⇒ (x, y, z) ∈ Vect((1, 0, 1), (0, 1, 0)).

On a donc obtenu que u4 était la symétrie par rapport à Vect((2, 1, 1))


parallèlement à Vect((1, 0, 1), (0, 1, 0)).

Page 56/ 90
PARTIE 3 – Algèbre Linéaire (TD)

◇ On voit que :

u25 (x, y, z) = u5 (u5 (x, y, z)),


= u5 (2z − x, y, z),
= [2z − (2z − x), y, z] = (x, y, z).

Il s’agit donc d’une symétrie. Exprimons les ensembles F = ker(u5 − id)


et G = ker(u5 + id) :

(x, y, z) ∈ F ⇐⇒ u5 (x, y, z) = (x, y, z),


⇐⇒ x = z,
⇐⇒ (x, y, z) = x(1, 0, 1) + y(0, 1, 0),
⇐⇒ F = Vect((1, 0, 1), (0, 1, 0)).

(x, y, z) ∈ G ⇐⇒ u5 (x, y, z) + (x, y, z) = 0,


⇐⇒ y = z = 0,
⇐⇒ (x, y, z) = x(1, 0, 0),
⇐⇒ F = Vect((1, 0, 0)).

D’après le cours, u5 est la symétrie par rapport à Vect((1, 0, 1), (0, 1, 0))
parallèlement à Vect((1, 0, 0)).

C Matrices
C.1 Règles de Calculs

Correction de l’exercice 34. ▲


On rappelle qu’une somme de deux matrices A et B n’est valide que si A
et B sont de même taille : ainsi seule la troisième n’est pas valide !

⎛ 1 2 3 ⎞ ⎛ −1 0 1 ⎞ ⎛ 1 − 1 2 + 0 3 + 1 ⎞ ⎛ 0 2 4 ⎞
⎜ 4 5 4 ⎟ + ⎜ 1 −1 0 ⎟ = ⎜ 4 + 1 5 − 1 4 + 0 ⎟ = ⎜ 5 4 4 ⎟ ,
⎝ 3 2 1 ⎠ ⎝ 0 1 −1 ⎠ ⎝ 3 + 0 2 + 1 1 − 1 ⎠ ⎝ 3 3 0 ⎠

Page 57/ 90
C.1 Règles de Calculs

⎛ −2 −1 ⎞ ⎛ 3 2 ⎞ ⎛ −2 + 3 −1 + 2 ⎞ ⎛ 1 1 ⎞
⎜ 0 1 ⎟ + ⎜ 1 0 ⎟ = ⎜ 0 + 1 1 + 0 ⎟ = ⎜ 1 1 ⎟,
⎝ 2 3 ⎠ ⎝ −1 −2 ⎠ ⎝ 2 − 1 3 − 2 ⎠ ⎝ 1 1 ⎠

1 −1 1 1 2 3 1 + 1 −1 + 2 1 + 3 2 1 4
( )+( )=( )=( ).
−1 1 −1 4 5 6 −1 + 4 1 + 5 −1 + 6 3 6 5

Correction de l’exercice 35. ▲


On rappelle qu’un produit de deux matrices A et B n’est valide que si le
nombre de colonnes de A est égal au nombre de lignes de B : ainsi les deux
produits de droites ne sont pas valides !

⎛ 1 2 3 ⎞ ⎛ −1 0 1 ⎞
⎜ 4 5 4 ⎟ ⋅ ⎜ 1 −1 0 ⎟
⎝ 3 2 1 ⎠ ⎝ 0 1 −1 ⎠

⎛ 1 × (−1) + 2 × 1 + 3 × 0 1 × 0 + 2 × (−1) + 3 × 1 1 × 1 + 2 × 0 + 3 × (−1) ⎞


= ⎜ 4 × (−1) + 5 × 1 + 4 × 0 4 × 0 + 5 × (−1) + 4 × 1 4 × 1 + 5 × 0 + 4 × (−1) ⎟ ,
⎝ 3 × (−1) + 2 × 1 + 1 × 0 3 × 0 + 2 × (−1) + 1 × 1 3 × 1 + 2 × 0 + 1 × (−1) ⎠

⎛ 1 1 −2 ⎞
= ⎜ 1 −1 0 ⎟ .
⎝ −1 −1 2 ⎠

−1 0 ⎞
1 2 3 ⎛ 1 × (−1) + 2 × 1 + 3 × 0 1 × 0 + 2 × (−1) + 3 × 1
( ) ⋅ ⎜ 1 −1 ⎟ = ( )
4 5 6 ⎝ 4 × (−1) + 5 × 1 + 6 × 0 4 × 0 + 5 × (−1) + 6 × 1
0 1 ⎠
1 1
=( ).
1 1

Correction de l’exercice 36. ▲


On considère une matrice D ∈ Mn (K) diagonale et A ∈ Mn (K). On pose
B = DA et C = AD.
◇ Soit i, j ∈ J1, nK. On remarque que :
n
bij = (DA)ij = ∑ dik akj = dii aij .
k=1

Page 58/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Ainsi la i-ème ligne de B est égale à la i-ème ligne de A multipliée par


dii .
◇ Soit i, j ∈ J1, nK. On remarque que :
n
cij = (AD)ij = ∑ aik dkj = djj aij .
k=1

Ainsi la j-ème colonne de C est égale à la j-ème colonne de A multipliée


par djj .

Correction de l’exercice 37. ▲

1. VRAI. En effet, pour tout i, j ∈ J1, nK, on a :


n n
[A(B + C)]ij = ∑ aik (B + C)kj = ∑ aik (bkj + ckj ),
k=1 k=1
n n
= ∑ aik bkj + ∑ aik ckj = (AB)ij + (AC)ij ,
k=1 k=1
= (AB + AC)ij .

2. FAUX. En effet, on a :

(A + B)(A − B) = (A + B)A − (A + B)B = A2 + BA − AB − B 2 .

Or AB ≠ BA pour toutes matrices A et B : le produit matriciel n’est


pas commutatif ! On ne peut donc pas simplifier ! !
3. FAUX. En effet, on a :

(A − B)2 = (A − B)A − (A − B)B = A2 − BA − AB + B 2 .

Or AB ≠ BA pour toutes matrices A et B : le produit matriciel n’est


pas commutatif ! On ne peut donc pas simplifier ! !
4. FAUX. En effet, on a :

(A + B)2 = (A + B)A + (A + B)B = A2 + BA + AB + B 2 .

Or AB ≠ BA pour toutes matrices A et B : le produit matriciel n’est


pas commutatif ! On ne peut donc pas simplifier ! !

Page 59/ 90
C.2 Inverse d’une matrice

C.2 Inverse d’une matrice

Correction de l’exercice 38. ▲


On a que :

3 −2 ) = (
( 57 23 ) ( −7
5×3+2×(−7) 5×(−2)+2×5
) = ( 10 01 ) ,
5 7×3+3×(−7) 7×(−2)+3×5

et :
3 −2 ) ( 5 2 ) = (
( −7
3×5+(−2)×7 3×2+(−2)×3
) = ( 10 01 ) ,
5 73 (−7)×5+5×7 (−7)×2+5×3

Ainsi on a montré que AB = BA = I2 . Cela implique par définition que A et B


sont inversibles et que A−1 = B.

Correction de l’exercice 39. ▲


On vérifie que :

aa′ + bc′ ab′ + bd′ a′ a + b′ c a′ b + b′ d


AB = ( et BA = ( ).
ca′ + dc′ cb′ + dd′ c′ a + d′ c c′ b + d′ d
)

Ainsi une matrice A est inversible si et seulement s’il existe (a′ , b′ , c′ , d′ ) ∈ R4


tel que :


⎪ aa′ + bc′ = a′ a + b′ c = 1,
′ ′ ′ ′



⎪ ab + bd = a b + b d = 0,

⎨ ′


⎪ ca + dc′ = c′ a + d′ c = 0,
′ ′ ′ ′



⎩ cb + dd = c b + d d = 1.

Nous sommes donc ramené à étudier un système.

1er cas : d = 0. Le système se réécrit :



⎪ aa′ + bc′ = a′ a + b′ c = 1,
ab′ + bd′ = a′ b = 0,





ca′ = c′ a + d′ c = 0,




cb′ = c′ b = 1.




Page 60/ 90
PARTIE 3 – Algèbre Linéaire (TD)

La dernière équation nous impose donc que b et c sont non nuls, puis :


⎪ a′ = 0,
d′ = −a/(bc),





b′ = 1/c,




c′ = 1/b.





Finalement, si A est inversible si et seulement si ad − bc = −bc ≠ 0 et :

0 1/c d −b
A−1 = (
1
)= ( ).
1/b −a/(bc) ad − bc −c a
Le sens réciproque est immédiat.

2e cas : d ≠ 0. Ce cas-là est plus complexe. C’est pour cela que nous n’uti-
liserons que très rarement cette méthode pour savoir si une matrice est inver-
sible 10 . Le système se réécrit :


⎪ bc′ = b′ c,
a′ a + b′ c = 1,






ab′ + bd′ = a′ b + b′ d = 0,



ca′ + dc′ = c′ a + d′ c = 0,






c′ b + d′ d = 1.





Comme d est non nul, en multipliant la deuxième ligne par d, on trouve que :

d = ada′ + cb′ d = ada′ − c(−a′ b) = a′ (ad − bc).

On pose ∆ = ad − bc. Donc ce système admet une solution si et seulement si


∆ ≠ 0. On est donc ramené à :


⎪ a′ = d/∆,
b′ = −b/∆,





c′ = −c/∆,




d′ = a/∆.





10. Il existe aussi des formules générales pour déterminer l’inverse d’une matrice !

Page 61/ 90
C.2 Inverse d’une matrice

Finalement, nous avons que A est inversible si et seulement si ad − bc = −bc ≠ 0


et :
d/∆ −b/∆ d −b
A−1 = (
1
)= ( ).
−c/∆ a/∆ ad − bc −c a

Correction de l’exercice 40. ▲


123
Soit A = ( 3 1 2 ). On vérifie que :
231

⎛ −5 7 1 ⎞ ⎛ 18 0 0 ⎞
A ⋅ ⎜ 1 −5 7 ⎟ = ⎜ 0 18 0 ⎟ = 18I3 .
⎝ 7 1 −5 ⎠ ⎝ 0 0 18 ⎠
On définit alors la matrice :
−5 7 1 ⎞
1 ⎛
B= ⎜ 1 −5 7 ⎟ .
18 ⎝
7 1 −5 ⎠
Par ce qui précède on a que :
1 1
AB = × [A(18B)] = × 18I3 = I3 .
18 18
De la même façon, on montre que BA = I3 . Ainsi A est inversible et A−1 = B. 11

Correction de l’exercice 41. ▲


−1 0 1
Soit A = ( 1 −1 0 ). On a :
0 1 −1

⎛ a b c ⎞ ⎛ g−a h−b i−c ⎞


A × ⎜ d e f ⎟ = ⎜ a − d b − e c − f ⎟.
⎝ g h i ⎠ ⎝ d−g e−h f −i ⎠
Supposons par l’absurde que A soit inversible. Il existe alors une matrice, dont
les coefficients seront notés par les 9 premières lettres de l’alphabet, telle que :
⎛a b c ⎞ ⎛a b c ⎞
A ⋅ ⎜ d e f ⎟ = I3 = ⎜ d e f ⎟ ⋅ A.
⎝g h i ⎠ ⎝g h i ⎠

11. En fait, si AB = I3 , on n’a pas besoin de vérifier que BA = I3 , pour montrer que A soit
inversible et savoir que A−1 = B. Nous le verrons dans un autre exercice.

Page 62/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Par le calcul précédent, l’unicité de l’écriture matricielle implique que :




⎪ g − a = 1, ⎧

⎪ h = b = e,

⎪ ⎪

(termes diagonaux) ⎨ b − e = 1, et (termes non diagonaux) ⎨ i = c = f,


⎪ ⎪


⎩ f − i = 1,
⎪ ⎩ a = d = g,

ce qui est impossible. Donc A n’est pas inversible.

Correction de l’exercice 42. ▲

1. VRAI. On pose B = A−1 . On sait par définition que :


BA = AB = In .
Ainsi B est inversible et on a bien que (A−1 )−1 = B −1 = A.
2. VRAI. On pose B = λA et C = λ−1 A−1 . Ainsi on obtient que :
BC = λAλ−1 A−1 = λλ−1 AA−1 = In ,
et de la même façon CB = In . Ainsi B = λA est bien inversible et :
(λA)−1 = B −1 = C = λ−1 A−1 .

3. FAUX. Par exemple, A = In et B = −In sont inversibles, mais A+B = 0n


ne l’est pas !
4. VRAI. On pose C = AB et E = B −1 A−1 . On remarque que :
CE = ABB −1 A−1 = AIn A−1 = AA−1 = In ,
et :
EC = B −1 A−1 AB = B −1 In B = B −1 B = In .
Ainsi C = AB est inversible d’inverse E = B −1 A−1 .
5. VRAI. Il s’agit d’une application directe de la proposition précédente.
En effet, P et A sont inversibles, ce qui implique que B = P A l’est aussi
avec B −1 = A−1 P −1 . Ensuite, l’inversibilité de B et de P −1 nous affirme
que BP −1 = P AP −1 est inversible d’inverse :
(P AP −1 )−1 = (BP −1 )−1 = (P −1 )−1 B −1 = P A−1 P −1 ,
par les propositions précédentes.

Page 63/ 90
C.3 Transposée

Correction de l’exercice 43. ▲


On écrit D comme la matrice diagonale de coefficients diagonaux dii . Soit
A une matrice quelconque de taille n × n. Dans ce cas, on remarque que :

(DA)ij = dii aij .

Cela implique que :

1, si i = j,
D est inversible ⇐⇒ ∀i, j ∈ J1, nK, ∃aij , dii aij = {
0, sinon,
⇐⇒ ∀i ∈ J1, nK, dii ≠ 0.

En particulier, la solution du système est donnée par :

1/dii , si i = j,
aij = {
0, sinon,

puis :
−1
⎛ d11 0 ⋯ 0 ⎞ ⎛ 1/d11 0 ⋯ 0 ⎞
.. .. . .. .. ..
⎜ 0
⎜ . . .. ⎟

⎜ 0
⎜ . . . ⎟

⎜ . .. .. ⎟ =⎜ . .. .. ⎟.
⎜ . . . 0 ⎟ ⎜ . . . ⎟
⎜ . ⎟ ⎜ . 0 ⎟
⎝ 0 ⋯ 0 dnn ⎠ ⎝ 0 ⋯ 0 1/dnn ⎠

C.3 Transposée

Correction de l’exercice 44. ▲


On a :

⎛1 0⎞ 0 1 ⎛ −1 0 −1 ⎞
T T T
A = ⎜ 0 1 ⎟, B =( ), et C = ⎜ 1 −1 1 ⎟ .
⎝1 0⎠ 1 0 ⎝ −1 0 −1 ⎠

Page 64/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Correction de l’exercice 45. ▲

1. On pose C = AT . Alors pour tout (i, j), on a :

(C T )ij = cji = (AT )ji = aij .

Donc par unicité des coordonnées on a bien le résultat voulu.


2. On pose C = (A + B)T . Alors pour tout (i, j), on a :

(C T )ij = cji = (A + B)ji = aji + bji = (AT )ij + (B T )ij = (AT + B T )ij .

Ainsi par unicité des coordonnées on a bien (A + B)T = AT + B T .


3. On pose C = (λA)T . Alors pour tout (i, j), on a :

(C T )ij = cji = (λA)ji = λaji = (λAT )ij .

L’unicité des coordonnées nous permet de conclure.


4. On pose C = (AB)T . Alors pour tout (i, j), on a :
n n
(C T )ij = cji = (AB)ji = ∑ ajk bki = ∑ (B T )ik (AT )kj = (B T AT )ij .
k=1 k=1

On termine la preuve à l’aide de l’unicité des coordonnées.


5. Comme A est inversible, on sait que :

AA−1 = In = A−1 A.

On applique la transposée à ces deux égalités :

(AA−1 )T = InT = In = (A−1 A)T .

Par la proposition précédente, on peut simplifier cette égalité en :

(A−1 )T AT = In = AT (A−1 )T .

La définition d’une matrice inversible nous permet d’affirmer que AT


est inversible et que :
(AT )−1 = (A−1 )T .

Page 65/ 90
C.4 Trace et Déterminant

C.4 Trace et Déterminant

Correction de l’exercice 46. ▲


On a d’après les formules du cours :
◇ Tr(A) = (−1) + (−1) = −2 et det(A) = (−1)(−1) − 1 × 0 = 1 ;
◇ Tr(B) = (−1) + (−1) = −2 et det(B) = (−1)(−1) − 1 × 2 = −1 ;
◇ Tr(C) = (−1) + (−2) = −3 et det(C) = (−1)(−2) − 1 × 2 = 0.

Correction de l’exercice 47. ▲


On a :
Tr(A) = (−1) + (−1) + (−1) = −3,
et, par la formule de Sarrus :
det(A) = (−1)3 + 03 + 13 − [0 × (−1) × 1 + 1 × 0 × (−1) + (−1) × 1 × 0] = 0.
Comme det(A) = 0, on sait que A n’est pas inversible.

Correction de l’exercice 48. ▲

◇ En développant par rapport à la dernière colonne, on obtient que :


RRR 1 0 1 RRR
RR RR 1 1
det(A) = (−1)4+4 4 × RRRR 0 1 0 RRRR = 4 × (−1)2+2 × 1 ∣ ∣,
RRR RRR 1 −1
RR 1 0 −1 RR
en développant ensuite par rapport à la deuxième ligne (ou colonne).
Enfin, en appliquant la formule du déterminant d’une matrice 2 × 2, on
trouve que :
det(A) = 4 × (−1 − 1) = −8.
◇ Grâce aux opérations successives C3 ← C3 +C1 , puis C4 ← C4 +C2 −2C3 ,
on obtient que :
RRR 1 2 2 2 RRR RRR 1 2 2 0 RRR
RRR RRR RRR RR
RRR 2 1 4 1 RRR RRR 2 1 4 −6 RRRR
det(B) = RR R = R R.
C3 ←C3 +C1 RRR 1 2 0 −2 RRRR C4 ←C4 +C2 −2C3 RRRR 1 2 0 0 RRRR
RRR RRR RRR RR
RR −2 −1 0 1 RR RR −2 −1 0 0 RRR

Page 66/ 90
PARTIE 3 – Algèbre Linéaire (TD)

En développant par rapport à la dernière colonne, on obtient finalement


que :

RRR 1 2 2 RRR
RR RR 1 2
det(B) = (−1)2+4 (−6) × RRRR 1 2 0 RRRR = (−6) × (−1)1+3 × 2 × ∣ ∣,
RRR RRR −2 −1
RR −2 −1 0 RR

en développant par rapport à la dernière colonne. Ainsi la formule du


déterminant d’une matrice 2 × 2 nous permet de terminer le calcul :

det(B) = −12 × (−1 + 4) = −36.

◇ On modifie d’abord la matrice à l’aide d’opérations élémentaires suc-


cessives :

RRR 1 0 1 0 1 RRR RRR 1 0 1 0 2 RRR


RRR RRR RRR RR
RRR 0 1 0 2 0 RRR RRR 0 1 0 2 0 RRRR
RRR RRR RRR R
det(C) = RR 1 0 1 0 −1 RRR = R1 0 1 0 0 RRRRR ,
C4 ←C4 +C2 RRR RRR C5 ←C5 +C3 RRRRR R
RRR 0 1 0 0 0 RR RRR 0 1 0 0 0 RRRR
RRR RRRR RRR RR
RR 1 0 −1 0 1 R R1 0 −1 0 0 RRR

RRR 1 0 0 0 2 RRR RRR 2 0 0 0 1 RRR


RRR RRR RRR RR
RRR 0 1 0 2 0 RRR RRR 0 1 0 2 0 RRRR
RRR RRR R R
= RRR 1 0 2 0 0 RRR = (−1) RRRRR 0 0 2 0 1 RRRRR ,
C3 ←C3 +C1 −C5 RR C ←→C5
RRR 0 1 0 0 0 RRRRR 1 RRR
RRR 0 1 0 0 0 RRRR
R
RRR RRR RRR RR
RR 1 0 0 0 0 RR R0 0 0 0 1 RRR
RRR 2 0 0 0 1 RRR
RRR R
RRR 0 2 0 1 0 RRRRR
R R
= (−1)2 RRRRR 0 0 2 0 1 RRRRR .
C2 ←→C4 RRR R
RRR 0 0 0 1 0 RRRRR
RRR R
R 0 0 0 0 1 RRR

On développe successivement les déterminants suivants par rapport à

Page 67/ 90
C.4 Trace et Déterminant

la première colonne de chaque matrice, ce qui implique que :

RRR 2 0 1 0 RRR
RRR RR RRR 2 0 1 RRR
R0 2 0 1 RRRR RR RR 1 0
det(C) = 2 RRRRR RRR = 2 × 2 RRRR 0 1 0 RRRR = 4 × 2 ∣ ∣ = 8 × 1 = 8.
RRR 0 0 1 0 RR RRR RRR 0 1
RRR RRR RR 0 0 1 RR
R0 0 0 1 RR

◇ On applique les opérations élémentaires suivantes successivement :

RRR 1 1 1 1 2 RRR RRR 1 1 1 2 2 RRR


RRR RRR RRR RR
RRR 1 1 1 1 0 RRR RRR 1 1 1 2 0 RRRR
RRR RRR RRR R
det(D) = RR 1 1 1 −1 0 RRR = R1 1 1 0 0 RRRRR ,
C5 ←C5 +C4 RRR RRR C4 ←C4 +C3 RRRRR R
RRR 1 1 −1 1 2 RR RRR 1 1 −1 0 2 RRRR
RRR RRR RRR RR
RR 1 −1 1 1 2 RR R 1 −1 1 2 2 RRR
RRR 1 1 2 2 2 RR R RRR 1 2 2 2 2 RRRR
R
RRR RRR RRR R
RRR 1
RRR
1 2 2 0 RRR
RRR RRR 1 2 2 2 0 RRRRR
= RR 1 1 2 0 0 RRR = RRR 1 2 2 0 0 RRR ,
C3 ←C3 +C2 RRR RRR C2 ←C2 +C1 RRRRR RRR
RRR 1 1 0 0 2 RR R 1 2 0 0 2 RRR
RRR RRR RRR R
RR 1 −1 0 2 2 RR RRR 1 0 0 2 2 RRRRR
RRR 0 2 2 0 0 RRR RRR 0 2 2 0 0 RRR
RRR RRR RRR R
RRR 1 2 2 2 0 RRR RRR 1 2 2 2 0 RRRRR
RRR R RRR R
= RR 1 2 2 0 0 RRRRR = RRR 1 0 0 0 0 RRRRR .
L1 ←L1 −L5 RRR R L3 ←L3 −L1 RRR R
RRR 1 2 0 0 2 RRRR R
R 1 2 0 0 2 RRRR
RRR RR RRR RR
RR 1 0 0 2 2 RRR RR 1 0 0 2 2 RRR

On peut donc développer aisément par rapport à la troisième ligne le


résultat précédent :

RRR 2 2 0 0 RRR RRR 2 2 0 0 RRR


RRR RRR RRR RR
3+1 RRR 2 2 2 0 RRR RRR 0 0 2 0 RRRR
det(D) = (−1) RRR RRR = R R.
RRR 2 0 0 2 RR L2 ←L2 −L1 RRRR 2 0 0 2 RRRR
RRR RR RRRR RR
R0 0 2 2 RRR R0 0 2 2 RRR

Vue que tous (sauf un) coefficients de la deuxième ligne sont nuls, on

Page 68/ 90
PARTIE 3 – Algèbre Linéaire (TD)

peut développer par rapport à celle-ci :


RRR 2 2 0 RRR
2+3
RR RR
det(D) = (−1) × 2 × RRRR 2 0 2 RRRR .
RRR R
RR 0 0 2 RRRR
On peut enfin développer par rapport à la deuxième colonne, puis uti-
liser la formule du déterminant d’une matrice 2 × 2 :
2 2
det(D) = (−2) × (−1)1+2 × 2 × ∣ ∣ = 4 × 4 = 16.
0 2

Correction de l’exercice 49. ▲

1. On sait que :

det(A) det(B) = det(AB) = det(In ) = 1.

Ainsi le résultat de la question est immédiat. Comme det(A) ≠ 0, on


sait que A est inversible.
2. On multiplie, à gauche par A−1 et à droite par A, l’égalité de l’énoncé :

A−1 (AB)A = A−1 In A = A−1 A = In ,

tandis que :
A−1 (AB)A = A−1 ABA = In BA = BA.
Ainsi on a bien montré que BA = In , puis B = A−1 , par définition.

Correction de l’exercice 50. ▲

1. Supposons que A soit inversible. Soit X tel que AX = 0. En multipliant


à gauche par A−1 , on obtient que X = A−1 0 = 0.
2. On suppose que si AX = 0, alors X = 0
(a) Soit X, X ′ ∈ Rn et λ ∈ R. On a alors que :

f (X + λX ′ ) = A(X + λX ′ ) = AX + λAX ′ = f (X) + λf (X ′ ).

Donc f est bien une application linéaire.

Page 69/ 90
C.4 Trace et Déterminant

(b) Un élément du noyau de f vérifie 0 = f (X) = AX. Par hypothèse,


un tel X est forcément nul : ker(f ) = {0}.
(c) Supposons qu’il existe λ1 , . . . , λn tels que :
n
∑ λi fi = 0.
i=1

On remarque que :
n n n
0 = ∑ λi fi = ∑ λi f (εi ) = f (∑ λi εi ) ,
i=1 i=1 i=1

par linéarité de f . Donc ∑ni=1 λi εi


appartient au noyau de f . On a
vu dans la question précédente que forcément cet élément est nul :
n
∑ λi εi = 0.
i=1

Cependant, (ε1 , . . . , εn ) est une base de Rn : cela implique bien que


λ1 = ⋯ = λn = 0.
Ainsi la famille (f1 , . . . , fn ) est libre, et génère Im(f ) par définition :
c’est une base de Im(f ), qui est donc de dimension n. Il s’agit ainsi
d’un sous-R-espace vectoriel de Rn avec dim(Im(f )) = dim(Rn ). Par
l’exercice 11, on sait que Im(f ) = Rn .
(d) Soit i ∈ J1, nK. On sait que εi ∈ Rn = Im(f ) par la question précé-
dente. Il existe alors Vi ∈ Rn tel que AVi = f (Vi ) = εi .
3. On a déjà montré en 1. que si A était inversible alors AX = 0 admet
une unique solution (qui est la solution nulle). Montrons donc le sens
réciproque. Supposons que AX = 0 admette une unique solution. Par
la question 2.(d), on sait que pour tout i ∈ J1, nK, il existe un vecteur
Vi tel que AVi = εi . On pose B la matrice dont la i-ème colonne est Vi .
Alors nous vérifions que :
n n
(AB)ij = ∑ aik bkj = ∑ aik (Vk )j = (AVk )j = (εi )j .
k=1 k=1

On vient donc de montré que AB = In . Par l’exercice 49, on sait qu’alors


A est inversible et que A−1 = B.

Page 70/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Correction de l’exercice 51. ▲

1. Soit i et j deux indices. On remarque que :


n n
(AB T )ij = ∑ aik (B T )kj = ∑ aik bjk ,
k=1 k=1
n
= ∑ aik (−1)k+j ∆jk (A),
k=1
n
= ∑ (−1)j+k aik ∆jk (A).
k=1

Cette formule ressemble beaucoup à celle du développement par rapport


à une ligne. Pour retrouver exactement cette formule, on définit une
nouvelle matrice C, avec :
alk , si l ≠ j,
clk = {
aik , si l = j.
Dans ce cas, on remarque que :
n
(AB T )ij = ∑ (−1)j+k cjk ∆jk (C) = det(C).
k=1

Ainsi si i = j on a C = A, puis (AB T )ii = det(A). Passons au cas où


i ≠ j. Dans ce cas la j-ème ligne et la i-ème ligne de C sont égales :
det(C) = 0. En effet, il suffit de faire l’opération élémentaire Li ← Li −Lj ,
pour obtenir une ligne remplie de 0 sur la i-ème ligne, puis de développer
par rapport à la i-ème ligne :
RRR c11 ⋯ c1n RRR RRR c11 ⋯ c1n RRR RR c11 ⋯ c1n RRR
RRR RRR RRR RRR RRR RRR
RRR .. .. RRR RRR .. .. RRR RRR .. .. RRR
RRR . . RRR RRR . . RRR RRR . . RRR
RRR c ⋯ cin RRR RRR c − c ⋯ cin − cjn RRR RRR RRR
RRR i1 RRR RRR i1 j1 RRR RRR 0 ⋯ 0 RRR
RRR .. .. RRR RRR .. .. RRR RRR .. .. RRR .
RRR . . RRR = RRR . . RRR = RRR . .
RRR Li ←Li −Lj
RRR
RRR RRR RRR RRR RRR
RRR cj1 ⋯ cjn RRR RRR cj1 ⋯ cjn RRR RRR cj1 ⋯ cjn RRR
RRR . .. RRR RRR .. .. RRR RRR . .. RRR
RRR .. . RRR RRR . . RRR RRR .. . RRR
RRR RRR RRR RRR RRR RRR
RRR cn1 ⋯ cnn RRR RRR cn1 ⋯ cnn RRR RRR cn1 ⋯ cnn RR

Page 71/ 90
C.4 Trace et Déterminant

Cela implique que :

⎛ det(A) 0 ⋯ 0 ⎞
⎜ .. .. .. ⎟
⎜ 0 . . . ⎟
AB T = ⎜ .. .. .. ⎟ = det(A)In .
⎜ . . ⎟
⎜ . 0 ⎟
⎝ 0 ⋯ 0 det(A) ⎠

2. On a donc montré que :

1 1
A( BT ) = AB T = In .
det(A) det(A)

D’après la proposition de l’exercice 49, on sait que :

A−1 =
1
BT .
det(A)

3. En développant det(A) par rapport à la deuxième ligne, on obtient que :

1 1
det(A) = ∣ ∣ = −2.
1 −1

Comme det(A) est non nul, A est inversible. On doit maintenant cal-
culer les différents mineurs de A :
◇ (i, j) = (1, 1) : ∆11 (A) = ∣ 10 −1
0 ∣ = −1 ;

◇ (i, j) = (1, 2) : ∆12 (A) = ∣ 01 −1


0 ∣ = 0;

◇ (i, j) = (1, 3) : ∆13 (A) = ∣ 01 10 ∣ = −1 ;


◇ (i, j) = (2, 1) : ∆21 (A) = ∣ 00 −1
1 ∣ = 0;

◇ (i, j) = (2, 2) : ∆22 (A) = ∣ 11 −1


1 ∣ = −2 ;

◇ (i, j) = (2, 3) : ∆23 (A) = ∣ 11 00 ∣ = 0 ;


◇ (i, j) = (3, 1) : ∆31 (A) = ∣ 01 10 ∣ = −1 ;
◇ (i, j) = (3, 2) : ∆32 (A) = ∣ 10 10 ∣ = 0 ;
◇ (i, j) = (3, 3) : ∆33 (A) = ∣ 10 01 ∣ = 1.

Page 72/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Cela nous invite alors à définir la matrice :


⎛ ∆11 (A) −∆12 (A) ∆13 (A) ⎞ ⎛ −1 0 −1 ⎞
B = ⎜ −∆21 (A) ∆22 (A) −∆23 (A) ⎟ = ⎜ 0 −2 0 ⎟ .
⎝ ∆ (A) −∆ (A) ∆ (A) ⎠ ⎝ −1 0 1 ⎠
31 32 33

D’après la formule trouvée en question 2, on obtient que :

⎛ −1 0 −1 ⎞T 1 0 1 ⎞
1 ⎛
A−1 = − ⎜ 0 −2 0 ⎟ = ⎜ 0 2 0 ⎟ .
1
2 ⎝ 2 ⎝
−1 0 1 ⎠ 1 0 −1 ⎠

C.5 Lien avec les Applications Linéaires

Correction de l’exercice 52. ▲

1. On sait que v1 = (1, 0) = 1ε1 + 0ε2 et que v2 = (2, 1) = 2ε1 + 1ε2 . Ainsi on
a:
1 2
A = MatC (B) = ( ).
0 1
2. Les deux vecteurs de B sont clairement non colinéaires : cette famille
est libre. Elle possède deux éléments, et dim(R2 ) = 2. Il s’agit donc bien
d’une base de R2 .
3. On décompose les deux vecteurs v1 et v2 dans B très facilement :
v1 = 1v1 + 0v2 , et v2 = 0v1 + 1v2 .
Cela implique que :
1 0
B = MatB (B) = ( ).
0 1
4. On décompose les vecteurs de la base canonique dans (v1 , v2 ) :
ε1 = 1v1 + 0v2 , et ε2 = −2v1 + 1v2 .
Ainsi la matrice de C dans B est :
1 −2
C=( ).
0 1

Page 73/ 90
C.5 Lien avec les Applications Linéaires

Correction de l’exercice 53. ▲

1. Faisons le parallèle suivant :


E est une base de Rn
n
⇐⇒ ∀(λ1 , . . . , λn ) ∈ Rn , si ∑ λj ej = 0, alors λ1 = ⋯ = λn = 0,
j=1
n
⇐⇒ ∀Λ = (λ1 , . . . , λn ) ∈ Rn , si ∀i, ∑ aij λj = 0 alors Λ = 0,
j=1
n
⇐⇒ ∀Λ = (λ1 , . . . , λn ) ∈ R , si AΛ = 0 alors Λ = 0,
⇐⇒ A inversible (à l’aide de l’exercice 50).

2. La matrice de la famille ((1, 0), (1, 1)) est :

1 2
A=( ),
0 1

de déterminant 1 × 1 − 0 × 2 = 1 non nul. Donc A est inversible. Par la question


précédente on a bien montré que ((1, 0), (1, 1)) est une base de R2 .

Correction de l’exercice 54. ▲


On considère e1 = (1, 0, 0), e2 = (1, −1, 0), e3 = (1, −1, 1), f1 = (1, 2, 3),
f2 = (1, 0, −1) et f3 = (1, 0, 1).
1. La matrice de E dans la base canonique est :

⎛1 1 1 ⎞
E = ⎜ 0 −1 −1 ⎟ .
⎝0 0 1 ⎠

Son déterminant vaut −1 (on peut utiliser la règle de Sarrus par exemple
pour le calculer). Ainsi E est inversible et par l’exercice 53, on sait que
E est une base de R3 .
2. La matrice de F dans la base canonique est :

⎛1 1 1⎞
F = ⎜ 2 0 0 ⎟.
⎝ 3 −1 1 ⎠

Page 74/ 90
PARTIE 3 – Algèbre Linéaire (TD)

En développant par rapport à la deuxième ligne, on peut calculer aisé-


ment le déterminant de F :
1 1
det(F ) = (−1) × 2 × ∣ ∣ = −4 ≠ 0.
−1 1

Finalement, F est inversible, puis F est une base de R3 (à l’aide toujours


de l’exercice 53).
3. On remarque que :

f2 + f3 1 3 f1 + f2
e1 = , e2 = − f1 + f3 et e3 = − + 2f3 .
2 2 2 2
Ces relations impliquent que :

⎛ 0 −1/2 −1/2 ⎞ 1 ⎛ 0 −1 −1 ⎞
M1 = MatF (E) = ⎜ 1/2 0 −1/2 ⎟ = ⎜ 1 0 −1 ⎟ .
⎝ 1/2 3/2 2⎝
2 ⎠ 1 3 4 ⎠

4. On observe que :

f1 = 3e1 − 5e2 + 3e3 , f2 = e1 + e2 − e3 , et f3 = e1 − e2 + e3 .

Donc la matrice de F dans E est :

⎛ 3 1 1 ⎞
M2 = MatE (F) = ⎜ −5 1 −1 ⎟ .
⎝ 3 −1 1 ⎠

5. On remarque que M1 M2 = M2 M1 = I3 : ces matrices sont inversibles


avec M1−1 = M2 (et donc M2−1 = M1 ).

Correction de l’exercice 55. ▲


Dans cette exercice, on notera C2 = (ε21 , ε22 ) et C3 = (ε31 , ε32 , ε33 ).
1. On a :

f (ε31 ) = (1, 0) = 1ε21 + 0ε22 , f (ε32 ) = (1, 1) = 1ε21 + 1ε22 ,

Page 75/ 90
C.5 Lien avec les Applications Linéaires

f (ε33 ) = (0, −1) = 0ε21 + (−1)ε22 .


Ainsi la matrice de f dans les bases C3 et C2 est :

1 1 0
M1 = ( ).
0 1 −1

2. On remarque que :

f (1, 0, 0) = 1ε21 + 0ε22 , f (1, 1, 0) = (2, 1) = 2ε21 + 1ε22 ,

f (1, 1, 1) = (2, 0) = 2ε21 + 0ε22 .


Ainsi la matrice de f dans les bases B et C2 est :

1 2 2
M2 = ( ).
0 1 0

3. On note v1 = (1, 0) et v2 = (1, −1). On a alors que :

f (ε31 ) = (1, 0) = 1v1 + 0v2 , f (ε32 ) = (1, 1) = 2v1 + (−1)v2 ,

f (ε33 ) = (0, −1) = (−1)v12 + v22 .


Donc la matrice de f dans les bases C3 et B ′ est donnée par :

1 2 −1
M3 = ( ).
0 −1 1

4. On remarque enfin que :

f (1, 0, 0) = 1v1 + 0v2 , f (1, 1, 0) = 3v1 + (−1)v2 ,

f (1, 1, 1) = 2v1 + 0v2 .


Ainsi la matrice de f dans les bases B et B ′ est :

1 3 2
M4 = ( ).
0 −1 0

Page 76/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Correction de l’exercice 56. ▲

1. On remarque que f (ε1 ) = ε2 et f (ε2 ) = ε1 . Ainsi :

0 1
M = MatC (f ) = ( ).
1 0

2. On voit que det(M ) = −1 ≠ 0, puis que M est inversible : f est donc


lui-même inversible. De plus, on a, par le cours et l’exercice 39 :

0 1
MatC (f −1 ) = M −1 = ( ).
1 0

3. Par la question précédente, on sait que M 2 = M −1 M = In , ce qui im-


plique que f 2 = id : c’est une symétrie. Décrivons les ensembles carac-
téristiques :

f (x, y) = (x, y) ⇐⇒ y = x,
⇐⇒ (x, y) ∈ F = Vect((1, 1)),
f (x, y) = −(x, y) ⇐⇒ y = −x,
⇐⇒ (x, y) ∈ G = Vect((1, −1)).

Finalement, f est la symétrie par rapport à F = Vect((1, 1)) parallèle-


ment à G = Vect((1, −1)).
4. On sait que la matrice de B dans la base canonique est :

1 1
MatC (B) = ( ).
1 −1

Son déterminant vaut −2, et est donc non nul : d’après l’exercice 53, on
sait que B est une base de R2 .
5. Par la définition de f , on voit que f (1, 1) = (1, 1) = 1(1, 1) + 0(1, −1) et
que f (1, −1) = (−1, 1) = 0(1, 1) + (−1)(1, −1). Ainsi la matrice de f dans
la base B est :
1 0
MatB (f ) = ( ).
0 −1

Page 77/ 90
C.5 Lien avec les Applications Linéaires

Correction de l’exercice 57. ▲

1. On a :
2 1 1 1 2 1
f (ε1 ) = ( , − , 0, ) , f (ε2 ) = (− , , 0, ) ,
3 3 3 3 3 3
1 1 2
f (ε3 ) = (0, 0, 0, 0),
f (ε4 ) = ( , , 0, ) .
3 3 3
Nous avons ainsi la matrice de f dans la base canonique :

⎛ 2/3 −1/3 0 1/3 ⎞ ⎛ 2 −1 0 1⎞


⎜ −1/3 2/3 0 1/3 ⎟ 1 ⎜ −1 2 0 1⎟
M =⎜
⎜ 0
⎟= ⎜ ⎟.
⎜ 0 0 0 ⎟ ⎜
⎟ 3⎜ 0 0 0 0⎟

⎝ 1/3 1/3 0 2/3 ⎠ ⎝ 1 1 0 2⎠

2. On remarque que M 2 = M .
3. Soit X = (x, y, z, t) tel que M X = X. Alors les coordonnées de X véri-
fient le système :
2 1 1
3 x − 3 y + 3 t = x,





⎪ 1 2 1
⎪ − 3 x + 3 y + 3 t = y,
⎪ t = x + y,
⎨ ⇐⇒ {


⎪ 0 = z, z = 0.


⎪ 1 1 2
⎩ 3 x + 3 y + 3 t = t,

Finalement, l’ensemble des vecteurs X tels que M X = X est :

F = Vect((1, 0, 0, 1), (0, 1, 0, 1)).

4. Soit X = (x, y, z, t) tel que M X = 0. Ce vecteur vérifie alors :


2 1 1
3 x − 3 y + 3 t = 0,





⎪ 1 2 1
⎪ − 3 x + 3 y + 3 t = 0,
⎪ y = x,
⎨ ⇐⇒ {


⎪ 0 = 0, t = −x.


⎪ 1 1 2
⎩ 3 x + 3 y + 3 t = 0,

Ainsi l’ensemble G = {X ∈ R3 , M X = 0} peut s’écrire sous la forme :

G = Vect((1, 1, 0, −1), (0, 0, 1, 0)).

Page 78/ 90
PARTIE 3 – Algèbre Linéaire (TD)

5. Comme M 2 = M , on a que MatC (f 2 ) = MatC (f ), ce qui est équivalent


à f 2 = f . Ainsi f est une projection. D’après les questions précédentes,
on sait que f est la projection sur F = Vect((1, 0, 0, 1), (0, 1, 0, 1)) pa-
rallèlement à G = Vect((1, 1, 0, −1), (0, 0, 1, 0)).

Correction de l’exercice 58. ▲


Considérons une base (e1 , . . . , en ) de Rn . Dans ce cas, on sait que :

h(ei ) = λei = 0e1 + ⋯ + 0ei−1 + λei + 0ei+1 + ⋯ + 0en .

Finalement la matrice de h dans cette base est :

⎛λ 0 ⋯0 ⎞
⎜0 . . . . .. ⎟
⎜ . . . ⎟
M =⎜ . .. .. ⎟ = λIn .
⎜ .. . . 0⎟
⎜ ⎟
⎝0 ⋯ 0 λ⎠

D Diagonalisation
D.1 Éléments Propres

Correction de l’exercice 59. ▲

1. On cherche des vecteurs non nuls V = (x, y, z) tels que AV = 2V ,


c’est-à-dire tels que :



⎪ x + 2y − z = 2x,


⎨ y + z = 2y, ⇐⇒ x = y = z.



⎩ −x + 3z = 2z,

Ainsi le vecteur (1, 1, 1) convient. Donc 2 est une valeur propre de A,


avec :
E2 (A) = Vect((1, 1, 1)).

Page 79/ 90
D.1 Éléments Propres

2. Soit λ une valeur propre de A. Il existe alors V = (x, y, z) non nul tel
que AV = λV :


⎪ x + 2y − z = λx, ⎧

⎪ 2y − z = (λ − 1)x,

⎪ ⎪

⎨ y + z = λy, ⇐⇒ ⎨ z = (λ − 1)y,


⎪ ⎪


⎩ −x + 3z = λz,
⎪ ⎩ x = (3 − λ)z,



⎪ 2y − (λ − 1)y = (3 − λ)(λ − 1)2 y,


⇐⇒ ⎨ z = (λ − 1)y,



⎩ x = (3 − λ)(λ − 1)y,



⎪ λ(2 − λ)(3 − λ)y = 0,


⇐⇒ ⎨ z = (λ − 1)y,



⎩ x = (3 − λ)(λ − 1)y.

Supposons que y = 0. Par les équations 2 et 3, on a que x = y = z = 0, ce
qui est impossible par hypothèse sur V . Ainsi y est non nul et on peut
alors diviser par y dans la première équation !


⎪ λ(2 − λ)(3 − λ) = 0,


AV = λV ⇐⇒ ⎨ z = (λ − 1)y,



⎩ x = (3 − λ)(λ − 1)y.

Cas λ = 0. Dans ce cas, on a z = −y et x = −3y. Donc V0 = (−3, 1, −1)


est un vecteur non nul qui vérifie AV0 = 0V0 : 0 est une valeur propre
de A. On a aussi que :
E0 = Vect((−3, 1, −1)).

Cas λ = 2. On a traité ce cas dans la question 1.

Cas λ = 3. Ici, on obtient que z = 2y et x = 0. Ainsi 3 est une valeur


propre de A, car :
AV3 = 3V3 , avec V3 = (0, 1, 2) non nul.
On a en particulier que E3 = Vect((0, 1, 2)).
Les valeurs propres de A sont finalement 0, 2 et 3.

Page 80/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Correction de l’exercice 60. ▲


Pour chacune des matrices, on considère λ une valeur propre de la matrice
et X un vecteur propre associé.
◇ Les coordonnées (x, y) de X vérifient :

y = λx, y = −λ2 y,
{ ⇐⇒ {
−x = λy, x = −λy.

Si y = 0, on aurait que x = 0, puis que X serait le vecteur nul, ce qui


est impossible, car il s’agit d’un vecteur propre. Donc y ≠ 0, puis on
remarque que λ2 = −1.

1er cas : λ = i. Dans ce cas, on a x = −iy. Par exemple, le vecteur


non nul X = (−i, 1) convient : i est une valeur propre de A, puis :

Ei = Vect((−i, 1)) = Vect((1, i)).

2e cas : λ = −i. Dans ce cas, on a x = iy. Ici, le vecteur non nul


X = (i, 1) convient : −i est une valeur propre de A, puis :

E−i = Vect((i, 1)) = Vect((1, −i)).

Les seules valeurs propres de A sont donc ±i.


◇ Les coordonnées (x, y) de X vérifient :

x + y = λx,
{
y = λy.

Si y = 0, on aurait que x = λx. Comme X = (x, y) n’est pas le vecteur


nul et que y = 0 ici, on a x ≠ 0, puis λ = 1. Par exemple, le vecteur non
nul (1, 0) est un vecteur propre associé à 1.
Si y ≠ 0, dans ce cas on trouverait que λ = 1, puis on réécrit la première
équation en x + y = x ... ce qui est impossible car y n’est pas nul !
Donc B ne possède qu’une seule valeur propre avec :

E1 = Vect((1, 0)).

Page 81/ 90
D.1 Éléments Propres

◇ Traitons le cas de la matrice C de taille 3 × 3. Ici, on a :




⎪ z = λx, ⎧

⎪ z = λ2 z,

⎪ ⎪

⎨ y = λy, ⇐⇒ ⎨ y = λy,


⎪ ⎪


⎩ x = λz,
⎪ ⎩ x = λz.

1er cas : z = 0. Nous avons forcément x = 0, puis y ≠ 0 (sinon le


vecteur X serait nul, ce qui n’est pas possible). Enfin, on trouve que
λ = 1. Le vecteur non nul (0, 1, 0) est donc un vecteur propre associé
à 1. En fait, si λ = 1, on a x = z, puis :

E1 = Vect((0, 1, 0), (1, 0, 1)).

2e cas : z ≠ 0. Dans ce cas on obtient λ2 = 1, puis λ = ±1. On a déjà


traité le cas λ = 1 juste ci-dessus. Passons donc au cas λ = −1. Alors,
y = 0 et x = −z implique que −1 est une valeur propre avec :

E−1 = Vect((−1, 0, 1)).

En effet, le vecteur non nul (−1, 0, 1) est bien un vecteur propre.


Finalement les valeurs propres de C sont ±1.

Correction de l’exercice 61. ▲

1. On pose V le vecteur dont toutes les coordonnées valent 1. Alors :


n n
(AV )i = ∑ aij vj = ∑ aij = 1 = 1 × vi ,
j=1 j=1

implique que AV = 1 × V . Or V est un vecteur non nul. Donc 1 est une


valeur propre de A.
2. (a) Par inégalité triangulaire, on a :
RRR n R n n ⎛n
RRR a x RRRRR ≤ ⎞
RRR ∑ ij j RRR ∑ ∣aij xj ∣ = ∑ aij ∣xj ∣ ≤ ⎝ ∑ aij ⎠ max
k
∣xk ∣ ≤ max ∣xk ∣.
k
RRj=1 RR j=1 j=1 j=1

Page 82/ 90
PARTIE 3 – Algèbre Linéaire (TD)

(b) On note i l’indice tel que ∣xi ∣ = maxk ∣xk ∣. Cela implique que :
RRR n RRR
∣xi ∣ ≥ RRR ∑ aij xj RRRRR = ∣λxi ∣.
R
R
RRRj=1 RRR

Si ∣xi ∣ = 0, par définition de i, on aurait que pour tout k, ∣xk ∣ ≤ 0,


puis xk = 0 : le vecteur X serait alors nul, ce qui est impossible car
X est un vecteur propre. Donc ∣xi ∣ ≠ 0.
On peut donc diviser par ∣xi ∣ l’inégalité ci-dessus et obtenir 1 ≥ ∣λ∣.
3. On remarque que S vérifie les hypothèses du début de l’énoncé. Par la
question 1, on sait que 1 est une valeur propre de S. Cherchons les autres
valeurs propres λ. On a donc X = (x, y) non nul tel que AX = λX puis :
1 1
2x + 2y = λx, y = (2λ − 1)x, (8λ2 − 10λ + 2)y = 0,
{ 1 3 ⇐⇒ { ⇐⇒ {
4x + 4y = λy, x = (4λ − 3)y, x = (4λ − 3)y.

Si y est nul, alors la deuxième équation impliquerait que x est aussi


nul : X serait le vecteur nul, ce qui est impossible par hypothèse. Donc
y ≠ 0 implique que :
1
0 = 8λ2 − 10λ + 2 = 8(λ − 1) (λ − ) .
4
Le cas λ = 1 a été décrit dans la question 1. Regardons maintenant si
λ = 14 est bien une valeur propre. Dans ce cas, on a x = −2y, puis on
vérifie que le vecteur non nul (−2, 1) est bien un vecteur propre associé.
Donc les valeurs propres de S sont 1 et 1/4. On vérifie bien la propriété
qu’on a démontrée en 2.(b).

D.2 Polynôme Caractéristique

Correction de l’exercice 62. ▲

1. Le polynôme caractéristique de A est donné par :


1−X 2
χA (X) = det(A − XI2 ) = ∣ ∣.
3 4−X

Page 83/ 90
D.2 Polynôme Caractéristique

Ainsi on a :

χA (X) = (1 − X)(4 − X) − 6 = X 2 − 5X − 2.

2. On doit trouver que χA (A) = A2 − 5A − 2 est la matrice nulle (calculs


laissés au lecteur).

Correction de l’exercice 63. ▲

1. Le polynôme caractéristique de A est donné par :

RRR −X 3 −2 RRR
R
χA (X) = det(A − XI3 ) = RRR 1 −X
R 1 RRR.
RRR RRR
3 −5 5 − X RR

En remplaçant la colonne C3 par C3 − C1 , nous avons :

RRR −X 3 −2 + X RRR
χA (X) = RRR 1 −X 0 RRR.
C3 ←C3 −C1 RRR
R RRR
R 3 −5 2 − X RR

En additionnant la ligne L3 à la ligne L1 , on obtient :

RRR 3 − X −2 0 RRR
χA (X) = R
RR 1
R −X 0 RRR.
L1 ←L1 +L3 RRR
RRR
R 3 −5 2 − X RR

On peut ainsi développer par rapport à la dernière colonne le détermi-


nant précédent :
RRR R
3 − X −2 RRRR
χA (X) = (2 − X)RRRRR R = (2 − X)[X 2 − 3X + 2],
RRR 1 −X RRRR
R
ce qui se développe en :

χA (X) = −X 3 + 5X 2 − 8X + 4.

2. On doit trouver que χA (A) = −A3 + 5A2 − 8A + 4I3 est la matrice nulle
(calculs laissés au lecteur).

Page 84/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Correction de l’exercice 64. ▲


Le polynôme caractéristique de A est donné par :
RRR −X 3 −2 1 RRR
χA (X) = det(A − XI4 ) = RRRRR 13 −X 1 1 RRR.
−5 5−X 0 RR
RRR 0 1 0 1−X RRR

En remplaçant la colonne C2 par C2 + C3 − C4 , on a :


RRR −X 0 −2 1 RRR
χA (X) = RRRRR 13 −X 1 1 RRR.
−X 5−X 0 RR
RRR 0 X 0 1−X RRR

En faisant L3 ← L3 − L2 puis L4 ← L4 + L2 , on a :
RRR −X 0 −2 1 RRR
χA (X) = RRRRR 12 −X 1 1 RRR.
0 4−X −1 RR
RRR 1 0 1 2−X RRR

Développer le déterminant précédent par rapport à la colonne C2 implique


l’égalité suivante :
−X −2 1
χA (X) = −X∣ 2 4−X −1 ∣.
1 1 2−X
Additionnons la ligne L2 à la ligne L1 :
2−X 2−X 0
χA (X) = −X∣ 2 4−X −1 ∣.
1 1 2−X

Via l’opération élémentaire C2 ← C2 − C1 , puis en développant par rapport à


la ligne L1 , nous obtenons :

2−X 0 0 2 − X −1
χA (X) = −X∣ 2 2−X −1 ∣ = −X(2 − X)∣ ∣.
1 0 2−X 0 2−X

Finalement, le polynôme caractéristique de A est :

χA (X) = −X(2 − X)3 .

Page 85/ 90
D.2 Polynôme Caractéristique

Correction de l’exercice 65. ▲

1. Nous avons :
2−X 0 0
χf (X) = χA (X) = ∣ 0 4−X 2 ∣ = (2 − X)∣ 4−X
−1
2
1−X ∣,
0 −1 1−X

en développant par rapport à la première ligne. La formule du détermi-


nant d’une matrice 2 × 2 implique que :

χf (X) = (2 − X)[(4 − X)(1 − X) + 2] = −(X − 2)2 (X − 3).

2. Les valeurs propres de f sont les racines de χf (X) : les seules valeurs
propres de f sont 2 et 3. Étudions les sous-espaces propres de f .
Soit X = (x, y, z) ∈ R3 . Alors on a :


⎪ 2x = 2x,


X ∈ E2 (f ) ⇔ AX = 2X ⇔ ⎨ 4y + 2z = 2y, ⇔ y + z = 0.



⎩ −y + z = 2z,

Finalement, E2 (f ) = Vect((1, 0, 0), (0, 1, −1)). De même, on montre que


E3 (f ) = Vect((0, 2, −1)).
3. On note e1 = (1, 0, 0), e2 = (0, 1, −1) et e3 = (0, 2, −1). On remarque
que :
1 0 0
det(e1 , e2 , e3 ) = ∣ 0 1 2 ∣ = 1 ≠ 0.
0 −1 −1
3
Donc (e1 , e2 , e3 ) est une base de R composée de vecteurs propres de f .
4. On a f (e1 ) = 2e1 = 2e1 + 0e2 + 0e3 , puis f (e2 ) = 2e2 = 0e1 + 2e2 + 0e3 et
enfin f (e3 ) = 3e3 = 0e1 + 0e2 + 3e3 . Cela implique que la matrice de f
dans la base B = (e1 , e2 , e3 ) est :

⎛2 0 0⎞
MatB (f ) = ⎜ 0 2 0 ⎟ .
⎝0 0 3⎠

Page 86/ 90
PARTIE 3 – Algèbre Linéaire (TD)

Correction de l’exercice 66. ▲

1. Nous avons :
2−X 1 2
χf (X) = χA (X) = ∣ 0 4−X 2 ∣ = (2 − X)∣ 4−X
−1
2
1−X ∣,
0 −1 1−X

en développant par rapport à la première colonne. La formule du déter-


minant d’une matrice 2 × 2 implique que :

χf (X) = (2 − X)[(4 − X)(1 − X) + 2] = −(X − 2)2 (X − 3).

2. Les valeurs propres de f sont les racines de χf (X) : les seules valeurs
propres de f sont 2 et 3. Étudions les sous-espaces propres de f .
Soit X = (x, y, z) ∈ R3 . Alors on a :


⎪ 2x + y + 2z = 2x,


X ∈ E2 (f ) ⇔ AX = 2X ⇔ ⎨ 4y + 2z = 2y, ⇔ y = z = 0.



⎩ −y + z = 2z,

Finalement, on a E2 (f ) = Vect((1, 0, 0)). De même, on montre que


E3 (f ) = Vect((0, 2, −1)).
3. On sait que (1, 0, 0) est un vecteur non nul, qui a lui seul génère E2 (f ) :
la dimension de E2 (f ) est 1. De même, on montre que dim(E3 (f )) = 1.
Supposons qu’il est possible de faire une base B = (e1 , e2 , e3 ) de R3
constituée de vecteurs propres de f . Supposons que e1 est associé à une
valeur propre λ1 de f : λ1 vaut soit 2 soit 3. Comme chacun des sous-
espaces propres de f sont de dimension 1, si un autre vecteur (e2 ou
e3 ) est associé à λ1 , il serait colinéaire à e1 et la famille B ne serait pas
libre. Donc e2 et e3 sont associés à d’autres valeurs propres. Notons λ2 la
valeur propre associée à e2 . De la même façon on montre que e3 n’est pas
associé à λ2 . Donc il existerait une troisième valeur propre λ3 distinctes
des deux premières. Cependant on a vu que f admet seulement 2 valeurs
propres distinctes : cela est donc impossible.
Il est donc impossible de construire une base de R3 constituée de vec-
teurs propres de f .

Page 87/ 90
D.2 Polynôme Caractéristique

4. On a vu qu’en modifiant seulement quelques coefficients de la matrice


A, on peut ne pas changer le polynôme caractéristique χA (X), et soit
construire une base B de R3 constituée de vecteurs propres de f , dans
laquelle la matrice de f est diagonale, soit construire simplement une
famille libre.
Posons les vecteurs e1 = (1, 0, 0) et e3 = (0, 2, −1). Complétons donc la
famille (e1 , e2 ) en une base de R3 . Soit e2 = (0, 1, −1). Par un exercice
précédent, on a déjà vu que (e1 , e2 , e3 ) est une base de R3 . On a :
◇ f (e1 ) = 2e1 ;
◇ f (e2 ) = (−1, 2, −2) = −e1 + 2e2 ;
◇ f (e3 ) = 3e3 .
La matrice de f dans (e1 , e2 , e3 ) n’est alors pas diagonale mais triangu-
laire (supérieure) :
⎛ 2 −1 0 ⎞
MatB (f ) = ⎜ 0 2 0 ⎟ .
⎝0 0 3⎠

Correction de l’exercice 67. ▲


Soit A la matrice :
⎛ 2 0 −1 ⎞
A = ⎜ −1 1 1 ⎟,
⎝ 0 −1 0 ⎠

et f l’endomorphisme de R3 associé.
1. On développe le polynôme caractéristique de A par rapport à la pre-
mière ligne :
RRR 2 − X 0 −1 RRR
RRR RR 1−X 1 −1 1 − X
χA (X) = RRR −1 1 − X 1 RRRR = (2 − X) ∣ ∣−∣ ∣,
RRR RRR −1 −X 0 −1
RR 0 −1 −X RR
= (2 − X)(X 2 − X + 1) − 1,
= −X 3 + 3X 2 − 3X + 1 = (1 − X)3 .

Le polynôme χA (X) est alors scindé.

Page 88/ 90
PARTIE 3 – Algèbre Linéaire (TD)

2. La matrice A admet une unique valeur propre λ = 1 (de multiplicité 3).


Son sous-espace propre est égal à ker(A − I3 ).
ker(A − I3 ) = {X ∈ R3 / AX = X} = {(x, y, z) ∈ R3 / x = z = −y},
= Vect((1, −1, 1)).
C’est la droite vectorielle engendrée par le vecteur u1 = (1, −1, 1).
3. Le vecteur u1 vérifie Au1 = u1 . On cherche un vecteur u2 = (x, y, z) tel
que Au2 = u1 + u2 .
⎛ 2 0 −1 ⎞⎛ x ⎞ ⎛ 1 + x ⎞
Au2 = u1 + u2 ⇐⇒ ⎜ −1 1 1 ⎟⎜ y ⎟ = ⎜ −1 + y ⎟,
⎝ 0 −1 0 ⎠⎝ z ⎠ ⎝ 1 + z ⎠

⎛ 2x − z ⎞ ⎛ 1 + x ⎞
⇐⇒ ⎜ −x + y + z ⎟ = ⎜ −1 + y ⎟.
⎝ −y ⎠ ⎝ 1+z ⎠

On obtient donc z − x = z + y = −1 : le vecteur u2 = (1, −1, 0) convient.


On cherche ensuite un vecteur u3 = (x, y, z) tel que Au3 = u2 + u3 .
⎛ 2x − z ⎞ ⎛ 1 + x ⎞
Au3 = u2 + u3 ⇐⇒ ⎜ −x + y + z ⎟ = ⎜ −1 + y ⎟ .
⎝ −y ⎠ ⎝ z ⎠
Cela implique que x + y = x − z = 1. Le vecteur u3 = (1, 0, 0) convient.
On sait que la famille (u1 , u2 , u3 ) est de cardinal 3, qui est la dimension
de R3 . Par ailleurs, en développant par rapport à la dernière colonne le
déterminant suivant, nous obtenons que :
RRR 1 1 1 RRR
RR RR −1 −1
det(u1 , u2 , u3 ) = RRRR −1 −1 0 RRRR = ∣ ∣ = 1 ≠ 0.
RRR RRR 1 0
RR 1 0 0 RR
Nous avons montré que (u1 , u2 , u3 ) est une base de R3 . Ainsi, dans
cette base, la matrice de f est égale à B. On remarque qu’en posant la
matrice P suivante :
⎛ 1 1 1⎞
P = ⎜ −1 −1 0 ⎟,
⎝ 1 0 0⎠
alors A = P BP −1 et B = P −1 AP .

Page 89/ 90
D.3 Diagonalisation

D.3 Diagonalisation

Page 90/ 90

Vous aimerez peut-être aussi