Académique Documents
Professionnel Documents
Culture Documents
Uwe Ehrenstein
5 septembre 2022
TABLE DES MATIÈRES
2 Intégrales multiples 37
2.1 Rappels sur l’intégrale définie dans R . . . . . . . . . . . . . . . 37
2.1.1 Théorème de la moyenne, primitive et changement de vari-
able . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2 Intégration dans Rn (n = 2, 3) . . . . . . . . . . . . . . . . . . . . 43
2.2.1 Définition générale . . . . . . . . . . . . . . . . . . . . . 43
2.2.2 Changement de variables dans des intégrales multiples . . 49
2.2.3 Intégrale de surface, flux d’un champ de vecteur . . . . . 55
1
TABLE DES MATIÈRES
2
Chapitre 1
lim f (x) = l,
x→a
3
Fonctions de plusieurs variables réelles
c’est-à-dire
lim f (x) = f (a).
x→a
Il est évident qu’afin de décrire la grande majorité des phénomènes de la
mécanique il faut faire appel à des fonctions de plusieurs variables réelles. Imag-
inons par exemple l’écoulement autour d’un objet tridimensionnel dans un dis-
positif expérimental du type soufflerie : même si la vitesse du flux d’air entrant
est uniforme avant de heurter l’objet, il subit des accélération et des décélération
lorsqu’il contourne l’objet et la vitesse de l’écoulement à chaque instant dépend
des trois variables d’espace que l’on notera (x, y, z) dans un repère de R3 .
~x = (x1 , · · · , xn )
pour les “points” de Rn , que l’on écrit donc sous le symbole d’un vecteur (car
ce sont bien des éléments, c’est-à-dire vecteurs, d’un espace vectoriel), afin de
distinguer les éléments ~x de Rn des points x de R. Bien sûr, les règles quant à
l’addition des vecteurs s’appliquent, c’est-à-dire la somme de ~x = (x1 , · · · , xn ) et
~y = (y1 , · · · , yn ) s’écrit
~x +~y = (x1 + y1 , x2 + y2 , · · · , xn + yn )
On remarquera d’ores et déjà que l’on écrira souvent~x = (x, y) et ~x = (x, y, z) pour
n = 2 et n = 3 respectivement, et pour distinguer deux points par exemple dans
R3 , ~x1 = (x1 , y1 , z1 ) et ~x2 = (x2 , y2 , z2 ).
Une fonction f à valeurs réelles de n variables associe donc à chaque point
(x1 , · · · , xn ) (là où la fonction est définie) un point f (x1 , · · · , xn ) de R. On dira que
f est définie sur ce qui est appelé un domaine (ou ensemble) de Rn . Les intervalles
(ouverts et fermés) sont les ensembles naturels de R et par généralisation on peut
définir ce qui est appelé un pavé (ouvert ou fermé) de Rn qui est en fait un produit
cartésien de n intervalles.
4
Définition et notion de continuité
On parlera d’une boule ouverte, lorsque l’inégalité est stricte, c’est-à-dire l’ensem-
ble des points ~x = (x1 , · · · , xn ), tels que
s
n
∑ (xi − ai)2 < r.
i=1
qui est bien une mesure de la “longueur” d’un vecteur ||~x|| car plus les coor-
données xi du vecteur sont grandes en valeur absolue, plus ||~x|| sera grand en tant
que nombre réel positif. Aussi, il est facile de voir que ||~x|| = 0, si et seulement
si tous les coefficients xi = 0, i = 1, · · ·, n. En fait, il s’agit d’une norme et on
reviendra plus tard dans le cours sur la notion d’espaces vectoriels munis d’une
norme.
On pourra donc écrire les deux inégalités ci-dessus sous la forme ||~x −~a|| ≤ r
et ||~x −~a|| < r respectivement.
5
Fonctions de plusieurs variables réelles
Comme pour les fonctions d’une variable réelle, on peut définir la notion de
continuité pour une fonction de plusieurs variables, c’est-à-dire une application
de Rn dans R.
Exemples
1. Soit la fonction de deux variables (x, y) défini par
xy
f (x, y) = 2 si (x, y) 6= 0.
x + y2
On peut se demander s’il est possible de définir la fonction en (x, y) = (0, 0) de
façon à ce qu’elle devienne continue pour la valeur (0, 0). On observe que si on
fixe y = 0, alors f (x, 0) = 0 et de même pour x = 0 on a f (0, y) = 0. Il est donc
tentant de définir la fonction en (0, 0) par f (0, 0) = 0. Mais f (x, y) ne sera pas
continue en (0, 0). Car soit par exemple la droite x = y dans R2 : sur cette droite
f (x, y) = 1/2 et ce nombre est différent de 0 (quel que soit le point sur cette droite,
donc aussi lorsque (x, y) tend vers (0, 0) sur cette droite).
2. Soit maintenant
x3 + y3
g(x, y) = si (x, y) 6= 0 et g(0, 0) = 0.
x2 + y2
On peut majorer la valeur absolue de g(x, y) en majorant le numérateur et
|x3 + y3 | ≤ |x|3 + |y|3 ≤ max(|x|, |y|)(x2 + y2 )
où max(|x|, |y|) signifie la valeur la plus grande des deux valeurs |x| et |y|. Di-
visant par le dénominateur de g(x, y), on conclut que |g(x, y)| ≤ max(|x|, |y|) et
clairement max(|x|, |y|) → 0 si (x, y) → (0, 0) et alors g(x, y) tend aussi vers 0. On
conclut que g(x, y) est continue en (0, 0).
6
Dérivée d’une fonction à une et à plusieurs variables
7
Fonctions de plusieurs variables réelles
Proposition 2
1. La dérivation est une opération linéaire, c’est-à-dire pour toutes fonctions
u et v dérivables en a, (u + v) ′ (a) = u ′ (a) + v′ (a) et pour tout nombre réel
λ, (λu) ′ (a) = λu ′ (a).
2. Soit uv le produit de deux fonctions dérivables au point a, alors
Ces propriétés ont été vues lors des années d’apprentissage des mathématiques
antérieures et se démontrent à l’aide de la relation (1.3).
On s’attardera maintenant un instant sur la dérivée d’une fonction composée.
Soit donc I un intervalle de R et f fonction définie sur I ainsi qu’un intervalle J
et g une fonction définie sur J. On suppose que pour tout x ∈ I, f (x) ∈ J et on
considère la fonction composée g( f (x)) que l’on écrit aussi (g ◦ f )(x) et qui est
8
Rappels pour le cas n = 1
définie sur I. On suppose que f ′ (a) existe et que g ′ ( f (a)) existe. On peut donc
écrire d’après (1.3)
et
g(y) = g( f (a)) + (y − f (a))g ′( f (a)) + (y − f (a))ε2(y, f (a))
avec
lim ε1 (x, a) = 0 et lim ε2 (y, f (a)) = 0.
x→a y→ f (a)
avec
Or, si x → a, alors f (x) → f (a) (car f est dérivable donc continue en a et il s’ensuit
que limx→a ε3 (x, a) = 0. On observe que la relation (1.5) est bien de la forme de
la proposition 1 et on peut énoncer le résultat suivant.
Exemple : la fonction g(x) = xn est bien sûr dérivable et g ′ (x) = nxn−1 . Soit f (x)
une fonction dérivable en a alors g( f (x)) = F(x) = [ f (x)]n est dérivable en a et
d’après le théorème ci-dessus,
Lors des cours d’analyse antérieurs, la notion de fonctions inverses a été abordée.
Par exemple la fonction inverse de sin(x) est la fonction arcsin(x), c’est-à-dire
9
Fonctions de plusieurs variables réelles
arcsin(sin(x)) = x, tout au moins là où cette fonction est définie (pour x ∈] −
π/2, π/2[). Soit donc f une fonction et on suppose que la fonction inverse notée
f −1 existe. Soit
F(x) = ( f −1 ◦ f )(x) = f −1 ( f (x)) = x.
On suppose que f (x) est dérivable en a et que f −1 est dérivable en f (a). On peut
donc écrire ′
F ′ (a) = 1 = f −1 ( f (a)) f ′ (a).
On remarque que nécessairement f ′ (a) 6= 0. Dans cette relation, en divisant par
f ′ (a) on obtient l’expression de la dérivée de la fonction inverse, ce qui s’énonce
comme suit.
Théorème 2 On suppose que f est une fonction qui admet une fonction inverse
f −1 , c’est-à-dire il existe un intervalle I tel que pour tout x de I, f −1 ( f (x)) = x.
On suppose que f est dérivable au point a de I et f ′ (a) 6= 0. Alors
′ 1
f −1 ( f (a)) = (1.7)
f ′ (a)
10
Rappels pour le cas n = 1
et donc
1
cos2 (y) = .
1 + tan2 (y)
On en déduit l’expression bien connue (en remplaçant y par arctan(x))
1
arctan ′ (x) = .
1 + x2
11
Fonctions de plusieurs variables réelles
12
Dérivées partielles et dérivée directionnelle
On observe que g(a) = 0 et il est bien sûr possible de choisir K pour que g(x) = 0.
Mais alors par Rolle (g étant une fonction continue et dérivable), il existe au moins
un c1 entre x et a tel que g ′ (c1 ) = 0. Or
Or g ′ (a) = 0 et g ′ (c1 ) = 0, donc par Rolle il existe un point c2 entre a et c1 tel que
g ′ ′ (c2 ) = 0. Or
g ′ ′ (y) = f ′ ′ (y) − f ′ ′ (a) − K 3!(y − a).
Donc, g ′ ′ (a) = 0 et par g ′ ′ (c2 ) = 0, on conclut par Rolle ( f ′ ′ étant continue et
dérivable) qu’il existe un point c3 tel que g ′ ′ ′ (c3 ) = 0. Or dérivant g ′ ′ (y) en c3 on
trouve
f ′ ′ ′ (c3 )
0 = f ′ ′ ′ (c3 ) − 3!K et donc K = .
3!
Utilisant cette valeur dans la fonction g(y) ci-dessus, qui vérifie donc que g(x) = 0,
on trouve bien la formule de Taylor pour p = 2
(x − a)2 ′ ′ (x − a)3 ′ ′ ′
f (x) = f (a) + (x − a) f ′ (a) + f (a) + f (c)
2! 3!
(notant c = c3 ).
Remarque : il est souvent commode d’écrire la formule de Taylor sous la forme
h2 ′ ′ hp h p+1 (p+1)
f (a + h) = f (a) + h f ′ (a) +f (a) + · · · + f (p) (a) + f (c)
2! p! (p + 1)!
(1.11)
avec c = a + θh, 0 < θ < 1. En effet, il suffit de poser dans (1.10) x = a + h.
∂~v f
13
Fonctions de plusieurs variables réelles
On remarque ici que cette dérivée définie par (1.12) est une dérivée par rapport à
la variable t (en t = 0) de la fonction d’une variable
φ(t) = f (~a + t~v).
On peut donc dire, d’après (1.3), que la dérivée dans la direction ~v au point ~a
existe, s’il existe une fonction ε telle que
f (~a + t~v) = f (~a) + t∂~v f (~a) + tε(t), lim ε(t) = 0. (1.13)
t→0
On peut se convaincre, d’après cette définition, que la dérivée partielle par rapport
à xi se détermine comme la dérivée habituelle par rapport à xi , en figeant (en gar-
dant constantes) les autres variables x j , j 6= i.
14
Définition de la dérivée pour n > 1
15
Fonctions de plusieurs variables réelles
f (a1 + h1 , a2 + h2 ) − f (a1, a2 ) = A + B
avec
A = f (a1 + h1 , a2 ) − f (a1 , a2 ).
B = f (a1 + h1 , a2 + h2 ) − f (a1 + h1 , a2 )
Par la définition des dérivées partielles, on peut écrire
∂f
A = h1 (a1 , a2 ) + h1 ε1 (h1 )
∂x1
et
∂f
B = h2 (a1 + h1 , a2 ) + h2 ε2 (h2 ).
∂x2
∂f
Or, si ∂x2 (a1 + h1 , a2 ) est continue en (a1 , a2 ), on peut écrire
∂f ∂f
(a1 + h1 , a2 ) = (a1 , a2 ) + ε3 (h1 )
∂x2 ∂x2
et il s’ensuit que
∂f ∂f
f (a1 + h1 , a2 + h2 ) − f (a1 , a2 ) = h1 (a1 , a2 ) + h2 (a1 , a2 )
∂x1 ∂x2
+ h1 ε1 (h1 ) + h2 ε2 (h2 ) + h2 ε3 (h1 ).
On peut se convaincre que les termes contenant les fonctions εi (qui tendent
vers zéro quand h1 et h2 tendent vers zéro) peuvent être regroupés sous la forme
||~h||ε(~h) avec ε(~h) une fonction qui tend vers zéro quand ~h tend vers zéro. Mais
on retrouve alors la définition de l’existence de la dérivée au point (a1 , a2 ).
16
Dérivée en tant qu’application linéaire et représentation matricielle
ce qui définira la dérivée f ′ (~a) d’une fonction à plusieurs variables comme une
application linéaire de Rn dans R, car en effet f ′ (~a) “appliquée” au vecteur ~h
donne un nombre réel noté f ′ (~a).~h.
Remarque : La dérivée d’une fonction à plusieurs variables étant déterminées
par ses dérivées partielles, on peut en effet dire que la dérivée est une opération
linéaire, car la dérivation partielle l’est (comme la dérivée par rapport une seule
variable) et donc
∂ ∂f ∂g
( f + g)(~x) = (~x) + (~x)
∂xi ∂xi ∂xi
pour tout i = 1, · · ·, n. Si l’on introduit l’écriture matricielle, une application linéaire
de Rn dans R correspond à une matrice 1 × n (une matrice ligne) et en identifiant
la dérivée à cette matrice, on écrit
∂f ∂f ∂f
f ′ (~a) = ∂x (~a) ∂x (~a) · · · ∂x n
(~
a) . (1.18)
1 2
17
Fonctions de plusieurs variables réelles
||~h|| étant la norme euclidienne du vecteur ~h. La dérivée ~f ′ (~a) est une application
linéaire de Rn dans Rm et en notation matricielle le produit ~f ′ (~a).~h s’écrit
∂f
a) ∂∂xf1 (~a) · · · ∂x
∂ f1
∂x1 (~ (~
1
n
a) h 1
2
∂ f2 ∂ f2 ∂ f2
(~a) (~a) · · · ∂xn (~ a) h2
~f ′ (~a).~h = ∂x1 ∂x2
. (1.23)
.. .. .. ...
. . .
∂ fm
∂x1 (~a) ∂ fm (~a) · · · ∂ fm (~a)
∂x2 ∂xn
hn
18
Dérivée d’une fonction composée
Le membre à droite est donc le produit d’une matrice p × m avec une matrice
m × n, ce qui est bien défini d’après le calcul matriciel et donne lieu à une matrice
p×n, donc une application linéaire de Rn dans R p . On peut bien sûr développer ce
produit matriciel selon les règles de produits de matrices. Explicitons
brièvement
~
le genre de relations que l’on obtient. On note F(~x) = ~g f (~x) et la dérivée de ~F
~
~
en ~a est la dérivée de la fonction composée ~g ◦ f . La matrice jacobienne de ~F
est
∂F1 ∂F1
(~
a) · · · (~
a)
∂x1. ..
∂xn
..
.. . .
∂Fp ∂Fp
∂x1 (~a) · · · ∂xn (~a)
avec Fi (x1 , · · · , xn ), i = 1, · · ·, p les différentes composantes de ~F. Par les règles des
produits matriciels, on peut donc écrire
m
∂Fi ∂gi ~ ∂ fk
(~a) = ∑ (b) (~a) (1.26)
∂x j k=1 ∂yk ∂x j
avec ~b = ~f (~a), i = 1, · · ·, p, j = 1, · · ·, n.
Exemple : Soit comme exemple une fonction g(x, y) de R2 dans R et une fonction
~f (u, v) = ( f1 (u, v), f2(u, v)) de R2 dans R2 et on suppose que ces fonctions sont
dérivables. Soit F(u, v) = (g ◦ ~f )(u, v) = g( f1 (u, v), f2 (u, v)). Alors
∂F ∂g ∂ f1 ∂g ∂ f2
(u, v) = ( f1 (u, v), f2(u, v)) (u, v) + ( f1 (u, v), f2(u, v)) (u, v)
∂u ∂x ∂u ∂y ∂u
et
∂F ∂g ∂ f1 ∂g ∂ f2
(u, v) = ( f1 (u, v), f2(u, v)) (u, v) + ( f1 (u, v), f2(u, v)) (u, v).
∂v ∂x ∂v ∂y ∂v
19
Fonctions de plusieurs variables réelles
On a bien sûr
u1
~g −1 (~g(u1 , · · ·, un )) = ... .
(1.29)
un
La composition ~g −1 ◦~g est donc ce qu’on peut appeler l’application identité, dont
la matrice jacobienne est égale à la matrice identité n × n notée I. On suppose que
la fonction ~g est dérivable et on cherche à établir, sous quelle condition la dérivée
de la fonction inverse ~g −1 existe.
De par la règle de dérivation de fonctions composées, on trouve donc
′
g −1 (~g(u1 , · · · , un )) .~g ′ (u1 , · · · , un ) = I
Les dérivées étant des applications linéaires, on voit que si la dérivée de ~g −1 ex-
iste, elle doit être l’inverse de la dérivée de ~g. Donc, dans ce cas la matrice jacobi-
enne Jg doit être inversible (ce qui est le cas si et seulement si son déterminant est
non nul) et on obtient pour la dérivée de la fonction inverse pour~x =~g(u1 , · · · , un ) ∈
E
Jg −1 (x1 , · · ·, xn ) = (Jg(u1, · · · , un ))−1 , (1.30)
c’est-à-dire la matrice jacobienne de l’application inverse est l’inverse de la ma-
trice jacobienne (et vice versa). Dans ce cas on parle précisément d’un change-
ment de variable.
Soit maintenant une fonction f définie sur Rn à valeurs dans R et considérons les
deux expressions
( f ◦~g) (u1 , · · · , un ), f ◦~g −1 (x1 , · · ·, xn ). (1.31)
20
Dérivée d’une fonction composée
Dérivant ces deux expressions, on obtient de par les règles de dérivation de fonc-
tions composées
( f ◦~g) ′ (u1 , · · · , un ) = f ′ (~g(u1 , · · ·, un )) .~g ′ (u1 , · · · , un )
= f ′ (x1 , · · ·, xn ).~g ′ (u1 , · · ·, un ) (1.32)
ainsi que
′ ′
f ◦~g −1 (x1 , · · ·, xn ) = f ′ ~g −1 (x1 , · · · , xn ) . ~g −1 (x1 , · · · , xn )
′
= f ′ (u1 , · · · , un ). ~g −1 (x1 , · · ·, xn ) (1.33)
Dans l’expression (1.32), ( f ◦~g) ′ (u1 , · · · , un ) est en fait la dérivée de f par rap-
port aux variables (u1 , · · · , un ) et f ′ (x1 , · · ·, xn ) la dérivée par rapport aux variables
(x1 , · · · , xn ). Sous forme matricielle (on rappelle que la dérivée de f est un vecteur
ligne, donc une matrice 1 × n) on obtient (on omet l’argument des dérivées par-
tielles de f )
∂f ∂f ∂f ∂f
∂u1
· · · ∂un = ∂x · · · ∂xn Jg(u1 , · · ·, u2 ) (1.34)
1
′
Dans l’expression (1.33), f ◦~g −1 (x1 , · · · , xn ) est la dérivée de f par rapport aux
variables (x1 , · · · , xn ) et f ′ (u1 , · · · , un ) est la dérivée par rapport à (u1 , · · · , un ) et
∂f ∂f ∂f ∂f
∂x · · · ∂xn
= ∂u · · · ∂un
Jg −1 (x1 , · · ·, x2 ) (1.35)
1 1
21
Fonctions de plusieurs variables réelles
Donc, grad~ f est le vecteur (colonne) dont les éléments sont ceux de la matrice
(qui est un vecteur ligne) associée à f ′ . On peut réinterpréter la dérivée en un
point ~a en direction d’un vecteur ~v de composantes vi , i = 1, 2, 3. En fait, d’après
la définition (1.12), c’est la dérivée en 0 par rapport à la variable t de la fonction
composée ( f ◦~φ)(t) = f (~φ(t)) avec ~φ(t) = ~a + t~v. Or, la dérivée de cette fonction
par rapport à t en 0 est
~φ ′ (0) =~v
et donc (en appliquant la règle du produit de la matrice f ′ (~a) et du vecteur ~v)
∂f ∂f ∂f
~ ′ ′ ~
∂~v f (~a) = ( f ◦ φ) (0) = f φ(0) .~v = (~a)v1 + (~a)v2 + (~a)v3 .
∂x ∂y ∂z
Or, cette expression peut aussi être interprétée comme ce qui est appelé le produit
scalaire entre deux vecteurs. On rappelle que le produit scalaire de deux vecteurs
~u (de composantes ui , i = 1, 2, 3) et ~w (de composantes wi , i = 1, 2, 3) de R3 (noté
~u · ~w) est par définition
~u · ~w = u1 w1 + u2 w2 + u3 w3 . (1.39)
Avec les définitions ci-dessus on peut écrire
~ f (~a) ·~v.
∂~v f (~a) = grad (1.40)
22
Quelques applications dans R3
et notant les trois vecteurs unitaires dans les trois direction ~ex ,~ey ,~ez , on imagine
un points M sur une sphère de rayon r et centrée en 0 l’origine du repère cartésien.
L’angle entre l’axe z et la droite reliant 0 à M est noté θ et en projetant le point
M sur le plan (x, y), on obtient un point M ′ . L’ange entre l’axe des x et la droite
reliant 0 à M ′ est noté φ. Les coordonnées (x, y, z) du point M peuvent s’exprimer
en fonction de (r, θ, φ) de la façon suivante (exercice) :
On peut donc dire que (x, y, z) en tant que vecteur est fonction de (r, θ, φ) par la
fonction vectorielle
r sin(θ) cos(φ)
~g(r, θ, φ) = r sin(θ) sin(φ) . (1.42)
r cos(θ)
On peut montrer que cette fonction est inversible si on exclut de R3 l’axe des z,
donc en restreignant le domaine d’existence de ~g(r, θ, φ) à 0 < r < ∞, 0 < θ < π,
23
Fonctions de plusieurs variables réelles
0 ≤ φ < 2π (et en effet, on recouvre ainsi le domaine de R3 hormis l’axe des z). Il
existe alors une fonction vectorielle ~g −1 telle que
r
θ = ~g −1 (x, y, z).
φ
24
Quelques applications dans R3
Le membre à droite est un produit d’une matrice 1 × 3 avec une matrice 3 × 3 (en
fait la matrice (1.45)), ce qui donne bien une matrice 1 × 3 et de par l’expression
(1.45) on trouve
∂f ∂f 1 ∂ f 1 sin(φ) ∂ f
= sin(θ) cos(φ) + cos(θ) cos(φ) − ,
∂x ∂r r ∂θ r sin(θ) ∂φ
∂f ∂f 1 ∂ f 1 cos(φ) ∂ f
= sin(θ) sin(φ) + cos(θ) sin(φ) + , (1.47)
∂y ∂r r ∂θ r sin(θ) ∂φ
∂f ∂f 1 ∂f
= cos(θ) − sin(θ) .
∂z ∂r r ∂θ
Or, sur la figure 1.3 un repère ~er ,~eθ ,~eφ est dessiné, qui correspond à une base dite
mobile de coordonnées sphériques. Appliquant un peu de trigonométrie on peut
se convaincre que
On remarque que ces trois vecteurs sont de norme euclidienne égale à 1. En plus,
les vecteurs sont deux à deux orthogonaux, c’est-à-dire le produit scalaire entre
deux de ces vecteurs est égal à 0. Utilisant les expressions (1.47) et l’expression
du gradient en coordonnées cartésiennes (1.48) en tenant compte de (1.49), on
obtient le gradient en coordonnées sphériques, à savoir
25
Fonctions de plusieurs variables réelles
f (x, y, z) = 0. (1.51)
Comme exemple on peut imaginer une sphère centrée en 0 de rayon r dont l’équation
est
f (x, y, z) = 0 avec f (x, y, z) = x2 + y2 + z2 − r2 .
Imaginons une courbe de R3 tracée sur la surface, une telle courbe étant définie
par une fonction
~ϕ(t) = (x(t), y(t), z(t), t ∈ I,
avec I un intervalle (ouvert) de R (on parle d’une courbe paramétrée par t). Par la
définition de la dérivée, et considérant une valeur particulière t0 du paramètre où
la fonction ~ϕ(t) est dérivable, on peut écrire
26
Quelques applications dans R3
x − x0
M~0 M = y − y0 = λ~ϕ ′ (t0), pour un λ ∈ R.
z − z0
Or, dans le produit scalaire ci-dessus on peut remplacer ~ϕ ′ (t0) par λ~ϕ ′ (t0) et le
résultat est toujours zéro. On obtient donc l’équation du plan tangent à S en M0 , à
savoir l’ensemble de tous les points (x, y, z) tels que
∂f ∂f ∂f
(x −x0 ) (x0 , y0 , z0 ) +(y−x0 ) (x0 , y0 , z0 ) +(z −x0 ) (x0 , y0 , z0 ) = 0. (1.53)
∂x ∂y ∂z
D’un point de vue géométrique, le fait que le produit scalaire entre deux vecteurs
est zéro signifie que les deux vecteurs forment un angle droit (π/2, c.-à-d. 90◦ )
entre eux, on dit qu’ils sont orthogonaux. Donc, par définition, le gradient de f
en tout point M0 de la surface S définie par f (x, y, z) = 0 est orthogonal au plan
tangent à S en ce point.
27
Fonctions de plusieurs variables réelles
∂2 f ∂2 f
(x1 , · · · , xn ) = (x1 , · · ·, xn ). (1.56)
∂x j ∂xi ∂xi ∂x j
28
Dérivées partielles d’ordre supérieur à 1, formule de Taylor
d’ordre deux etc.) que l’on écrit d’une manière générale pour une dérivée partielle
d’ordre p sous la forme
∂p f
p1 p p , (1.57)
∂x1 ∂x2 2 · · · ∂xn n
pour des entiers pi ≥ 0, i = 1, · · · , n avec ∑ni=1 pi = p. Alors naturellement, si toutes
les dérivées partielles possibles d’ordre p existent et sont continues, alors l’ex-
pression ci-dessus est indépendante de l’ordre par rapport auquel on prend les
dérivations partielles successives.
Soit maintenant (a1 , a2 , · · · , an ) un point de D et considérons F(t) fonction de
la variable réelle t définie par
∂f
φi (t) = (~a + t~h)
∂xi
alors
n
∂2 f
φi′ (t) = ∑ hj (~a + t~h).
j=1 ∂xi ∂x j
On en déduit, que
!
n n n n
∂2 f ∂2 f
F ′ ′ (t) = ∑ hi ∑ j ∂xi∂x j (~a + t~h)
h =∑ ∑ hi h j ∂xi ∂x j
(~a + t~h). (1.59)
i=1 j=1 i=1 j=1
29
Fonctions de plusieurs variables réelles
Evidemment, on peut ainsi procéder à des dérivées partielles pour des ordres
encore plus élevés. Mais arrêtons nous à l’ordre trois, en tout cas pour établir
la formule de Taylor pour une fonction à n variables. En fait, nous avons vu (et
démontré) la formule de Taylor pour une fonction à une variable (voir l’expression
1.11) que l’on peut appliquer à F(t) au point t = 0 et avec h = 1
1 ′′ 1
F(1) = F(0) + F ′ (0) + F (0) + F ′ ′′ (θ), 0 < θ < 1.
2! 3!
Or, F(1) = f (~a +~h) et bien sûr F(0) = f (~a). Posant dans les expression ci-dessus
pour la dérivée première et seconde t = 0 et pour la dérivée troisième t = θ, on
obtient la formule de Taylor au point ~a
n
∂f 1 n n ∂2 f
f (~a +~h) = f (~a) + ∑ hi (~a) + ∑ ∑ hi h j (~a)
i=1 ∂xi 2! i=1 j=1 ∂xi ∂x j
1 n n n
∂3 f
+ ∑∑∑ h i h j h k (~a + θ~h), 0 < θ < 1. (1.61)
3! i=1 j=1 k=1 ∂xi ∂x j ∂xk
∂3 f
(~y) ≤ K, pour tout ~y ∈ D . (1.62)
∂xi ∂x j ∂xk
30
Application : extremum d’une fonction de plusieurs variables
q
car naturellement ∑ni=1 h2i ≥ r. Il s’ensuit par (1.63), et tenant compte de la
majoration (1.64), que
n n n
∑ ∑ ∑ hi h j hk ≤ n3 ||~h||3 (1.65)
i=1 j=1 k=1
On note donc
1 n n n ∂3 f
R3 (~h) = ∑ ∑ ∑ hi h j hk (~a + θ~h) (1.66)
3! i=1 j=1 k=1 ∂xi ∂x j ∂xk
et on peut donc affirmer qu’il existe une constante C > 0 telle que
(il suffit de prendre C = n3 K/3! avec K définie par la majoration (1.62)). La for-
mule de Taylor (1.61) est censée décrire le comportement de la fonction au voisi-
nage de ~x, donc notamment lorsque ||~h|| < ε avec ε “petit”. Attardons nous sur le
terme avec les dérivées partielles secondes dans la formule (1.61) et on note
n n
∂2 f
Q(~h) = ∑ ∑ hih j ∂xi∂x j (~a) (1.68)
i=1 j=1
Notons que par exactement le même raisonnement que pour le terme avec les
dérivées partielles d’ordre 3, on peut affirmer qu’il existe une constante L telle
que
1 ~
|Q(h)| ≤ L||~h||2 . (1.70)
2
En effet ∑n ∑n hi h j ≤ n2 ||~h||2 et on peut affirmer qu’il existe une constant
i=1 j=1
∂2 f
K2 telle que ∂xi ∂x j (~y) ≤ K2 pour tout i, j et on peut choisir L = n2 K2 /2.
31
Fonctions de plusieurs variables réelles
L||~h||2 +C||~h||3
< 1.
|α|||~h||
32
Application : extremum d’une fonction de plusieurs variables
Soit donc un tel ε et par (1.75) on aura (choisissant h j tel que |h j | = ||~h|| < ε)
1 ~
h jα + Q(h) + R3 (~h) > h j α − |α|||~h||.
2!
Quel que soit le signe de α, on peut toujours choisir h j (soit positif, soit négatif),
tel que h j α−|α|||~h|| = 0, et donc h j α+ 2!
1
Q(~h)+R3 (~h) > 0 d’après ce qui précède,
ce qui est en contradiction avec (1.74). Le raisonnement pour un minimum local
est analogue et on peut conclure qu’une condition nécessaire pour l’existence d’un
extremum local en ~a est que les dérivées partielles en ce point s’annulent, donc
∂f ∂f
(~a) = 0, · · ·, (~a) = 0. (1.76)
∂x1 ∂xn
Supposons donc que ces conditions sont vérifiées et on peut écrire alors par la
formule de Taylor
1
f (~a +~h) − f (~a) = Q(~h) + R3 (~h). (1.77)
2!
On verra ultérieurement que Q(~h) (dont l’expression est donnée par (1.68)) s’ap-
pelle une forme quadratique.
Définition 9 On dit que Q(~h) est définie positive, si pour tout vecteur ~h non nul
Q(~h) > 0. On dit que Q(~h) est définie négative, si pour tout vecteur ~h non nul
Q(~h) < 0.
Si Q(~h) est par exemple définie positive, on peut affirmer qu’il existe un nombre
c > 0 tel que Q(~h) > c||~h||2 . En effet, on peut se convaincre par l’expression (1.68),
que !
1 1
Q(~h) = Q ~h
||~h||2 ||~h||
1 ~
Or la norme des vecteurs ~v = h est égale à 1. Ceci est une conséquence du fait
||~h||
que ||λ~x|| = |λ|||~x|| ce qu’on peut montrer aisément par la définition de la norme.
Il suffit alors de choisir c comme la plus petite valeur (forcément positive si Q
est définie positive) de Q(~v) appliquée à tous les vecteurs ~v de norme 1. On peut
également montrer que si Q(~h) est définie négative, alors il existe c > 0 tel que
Q(~h) < −c||~h||2 .
Par ailleurs, nous avons vu qu’il existe C > 0 tels que
33
Fonctions de plusieurs variables réelles
et alors pour ||~h|| < c/(2C), on aura par (1.77) l’inégalité f (~a +~h) − f (~a) < 0. On
peut donc énoncer le théorème suivant.
Théorème 8 On suppose que pour une fonction f toutes les dérivées partielles
2
en un point ~a s’annulent. Si la fonction Q(~h) = ∑ni=1 ∑nj=1 hi h j ∂x∂i ∂xf j (~a) est définie
négative, alors f possède un maximum local en ~a. Si la fonction Q(~h) est définie
positive, alors f possède un minimum local en ~a.
Illustration pour n = 1 et n = 2
Considérons d’abord le cas d’une fonction d’une seule variable. La formule
de Taylor est alors
h2 ′ ′ h3
f (a + h) − f (a) = h f ′ (a) + f (a) + f ′ ′ ′ (a + θh).
2 3!
Soit donc a tel que f ′ (a) = 0. Ici la fonction Q(h) = h2 f ′ ′ (a) et on peut donc
affirmer que la fonction f a un mimimum local en a si f ′ ′ (a) > 0 et f a un maxi-
mum local en a si f ′ ′ (a) < 0.
Traitons maintenant le cas n = 2 et soit une fonction f (x, y). On note ~h = (h, k)
et ~a = (u, v).
La formule de Taylor s’écrit alors (voir (1.61))
∂f ∂f
f (u + h, v + k) − f (u, v) = h (u, v) + k (u, v)
∂x ∂y
1 2∂ f2 1 2 ∂2 f ∂2 f
+ h (u, v) + k (u, v) + hk (u, v)
2 ∂x2 2 ∂y2 ∂x∂y
+ R3 (h, k) (1.78)
34
Application : extremum d’une fonction de plusieurs variables
2
∂ f 2
∂ f
(on a utilisé le fait que ∂x∂y = ∂y∂x ). Donc, une condition nécessaire pour l’exis-
tence d’un extremum local en (u, v) est
∂f ∂f
(u, v) = 0, (u, v) = 0. (1.79)
∂x ∂y
On suppose que ces conditions sont vérifiées et on notera
∂2 f ∂2 f ∂2 f
q11 = (u, v), q 12 = (u, v), q 22 = (u, v)
∂x2 ∂x∂y ∂y2
et donc
Q(h, k) = q11 h2 + 2q12 hk + q22 k2 .
On suppose que Q(h, k) 6= 0 si (h, k) 6= (0, 0), ce qui implique notamment que
q11 6= 0 et q22 6= 0 et alors on peut écrire (exercice)
q12 2 q212 2
Q(h, k) = q11 h + k + q22 − k .
q11 q11
Donc Q(h, k) est définie positive, et f possède alors un minimum locale en (u, v),
si
q2
q11 > 0 et q22 − 12 > 0,
q11
tandis que Q(h, k) est définie négative, et f possède alors un maximum locale en
(u, v), si
q2
q11 < 0 et q22 − 12 < 0.
q11
Soit donc la surface z = f (x, y) et nous allons essayer de schématiser le com-
portement au voisinage d’un point (u, v) où les dérivées partielles s’annulent. On
désigne par ≈ le fait qu’une quantité est “proche” d’une autre et donc
!
1 q12 2 q212 2
f (u + h, v + k) ≈ f (u, v) + q11 h + k + q22 − k
2 q11 q11
d’après de ce qui précède (supposant que Q(h, k) 6= 0, si (h, k) 6= (0, 0)). On pose
q12
H = h+ k, K = k (1.80)
q11
ce qui revient à faire un changement de variable
q12
X = x+ y, Y = y, (1.81)
q11
35
Fonctions de plusieurs variables réelles
F IGURE 1.5 – Minimum local (en haut à gauche), maximum local (en haut à
droite) et point selle au voisinage de z = f (u, v).
qui ne change bien sûr rien au fait qu’il y ait un extremum en (u, v). On écrit la
fonction dans le nouveau système de coordonnées en lettres majuscules et donc
pour g(X ,Y ) = f (x(X ,Y ), y(X ,Y )) (avec x(X ,Y ) = X − qq11
12
Y, y(X ,Y ) = Y )
2 1 2 1 q212
g(U + H,V + K) ≈ g(U,V ) + aH + bK , a = q11 , b = q22 − (1.82)
2 2 q11
(bien sûr, z = g(U,V ) = f (u, v)). Si a > 0 et b > 0, alors il s’agit d’un minimum
local (voir dessin en haut à gauche de la figure 1.5) et si a < 0 et b < 0 on trouve
un maximum local (en haut à droite sur la figure). Supposons par exemple que
a < 0 et b > 0. On parle alors d’un point selle (ou d’un col) en z = f (u, v), illustré
par le troisième dessin de la figure. En effet, fixant Y = V on aura un maximum
local selon X et un minimum local selon Y si on fixe X = U .
36
Chapitre 2
Intégrales multiples
i(b − a)
[xi , xi+1 ], avec xi = a + , i = 0, · · ·, n. (2.1)
n
On observe qu’avec cette notation x0 = a et xn = b. Soit f (xi ), i = 0, · · ·, n les
valeurs de la fonction en ces abscisses et on peut considère pour chaque sous-
intervalle [xi , xi+1 ] deux type de rectangles dont [xi , xi+1 ] est la base : on peut
choisir un rectangle dont f (xi ) est la hauteur ou alors un rectangle dont f (xi+1 )
est la hauteur (voir les deux schémas de la figure 2.1). On observe que la longueur
de l’intervalle [xi , xi+1 ] est xi+1 − xi = (b − a)/n d’après (2.1) et que donc l’aire
de l’ensemble des rectangles dont la base est [xi , xi+1 ] et la hauteur la valeur “à
gauche” f (xi ), notée In , est égale à
n−1
b−a
In = ∑ f (xi ), (2.2)
i=0 n
Ces sommes sont appelées des sommes de Riemann. Il est facile de se convaincre
que pour une fonction continue f (x), lorsqu’on augmente n (donc lorsque on rend
37
Intégrales multiples
la base [xi , xi+1 ] des rectangles de plus en plus petite), alors la somme des aires
des rectangles s’approchent de plus en plus de l’aire de la surface délimitée par
le graphe de la fonction et l’axe des x. Aussi, lorsque n augmente indéfiniment,
ce résultat est indépendant du fait de choisir f (xi ) ou f (xi+1 comme hauteurs des
rectangles. Ceci nous amène à la définition suivante.
et on la note Z b
I= f (x) dx (2.5)
a
(et on appelle a et b respectivement la borne inférieure et la borne supérieure de
l’intégrale).
38
Théorème de la moyenne, primitive et changement de variable
et Z b Z b
λ f (x) dx = λ f (x) dx.
a a
2.
Z a Z b Z c Z c Z b Z a
f (x) dx = 0, f (x) dx+ f (x) dx = f (x) dx, f (x) dx = − f (x) dx.
a a b a a b
39
Intégrales multiples
ou encore Z
1 b
m≤ f (x) dx ≤ M
b−a a
car de manière évidente lorsque on intègre les fonctions constantes m et M on
obtient respectivement m(b − a) et M(b − a) (ce qui découle facilement de la
1 Rb
définition de l’intégrale). La quantité b−a a f (x) dx s’appelle la valeur moyenne
de la fonction sur [a, b] et elle comprise entre la valeur la plus petite et la valeur la
plus grande de f sur cet intervalle. Or, il a été vu dans des cours de mathématiques
antérieurs qu’une fonction continue sur un intervalle atteint toute valeur entre sa
valeur la plus petite et sa valeur la plus grande sur l’intervalle (ce résultat est connu
sous le nom de théorème de la valeur intermédiaire). Donc on peut énoncer le
théorème dit de la moyenne.
Avant de terminer ces rappels sur l’intégration dans R, nous abordons la notion
de la primitive d’une fonction et la question du changement de variable dans une
intégrale. Supposons maintenant que la borne supérieure de l’intégrale soit x et
écrivons (en introduisant une variable d’intégration notée t)
Z x
G(x) = f (t) dt (2.6)
a
La fonction f est continue et donc f (x0 + θh) = f (x0 ) + ε(h) et ε(h) tend vers
zéro quand h tend vers zéro. On résume ce qui précède par
40
Théorème de la moyenne, primitive et changement de variable
Théorème 10 Soit f uneRfonction continue sur un intervalle qui contient [a, b].
Alors la fonction G(x) = ax f (t) dt est dérivable (et donc continue) sur cet inter-
valle et admet pour dérivée la fonction G ′ définie par G ′ (x) = f (x). Etant donné
que la dérivée d’une constante est zéro, la primitive n’est définie qu’à une con-
stante près, c’est-à-dire si G(x) est une primitive de f , une primitive F quelconque
de f s’exprime sous la forme F(x) = G(x) + C avec C une constante (et donc
F ′ (x) = G ′ (x) = f (x)).
Donc, d’après (2.6), il existe en particulier C telle que
Z x
F(x) −C = f (t) dt
a
On remarquera que F(b) − F(a) est souvent noté [F(x)]ba . On note bien sûr que
pour n’importe quelle autre primitive F̃(x) = F(x) + K (K constante réelle, donc
F̃ ′ (x) = F ′ (x) = f (x)) on a également I = F̃(b) − F̃(a).
Exemples : R
1. Calculer I = ab (x + c)n dx, pour n entier positif et c une constante réelle. Il est
(x+c)n+1
facile de voir que F(x) = n+1 est une primitive, car F ′ (x) = (x + c)n . D’où
(b + c)n+1 − (a + c)n+1
I = F(b) − F(a) = .
n+1
R 1/2
2 Calculer I = √ 1 dx. Il est bien connu que F(x) = arcsin(x) a pour dérivée
0 1−x2
√ 1 et donc I = arcsin(1/2) − arcsin(0) = π/6.
1−x2
41
Intégrales multiples
R Rβ
Or, F(b) − F(a) = ab f (x) dx tandis que G(β) − G(α) = α f (ϕ(t))ϕ ′(t) dt et on
en déduit la formule de changement de variable
Z b Z β
f (x) dx = f (ϕ(t))ϕ ′(t) dt. (2.9)
a α
En fait, une façon de retenir cette formule est d’écrire dans la première intégrale
x = ϕ(t) et de constater que si x = a, alors t = α et si x = b, t = β. Ensuite
dx
= ϕ ′ (t)
dt
Or dx est un élément de longueur infinitésimal et dt également et on peut justifier
d’écrire dans la première expression de l’intégrale dx = ϕ ′ (t)dt et de remplacer x
par ϕ(t), a par α et b par β, ce qui donne la deuxième expression de l’intégrale. On
observe que si ϕ ′ (t) 6= 0, on pourrait aussi écrire dt = ϕ ′1(t) dx dans la deuxième
expression de l’intégrale, ce qui n’est rien d’autre qu’une conséquence de la règle
de la dérivée de la fonction inverse t(x) si on note x(t) = ϕ(t), et d’obtenir ainsi
la première expression de l’intégrale.
R 1/2
Exemple : Soit I = 0 √ x 2 dx. Posons t = 1 − x2 et il n’est pas nécessaire
1−x
d’exprimer explicitement x en fonction de t : en effet,
dt
= −2x
dx
1
ce qui fait qu’on peut écrire dx = − 2x dt. Si x = 0, alors t = 1 et si x = 1/2, t = 3/4.
En remplaçant ces expressions dans l’intégrale, on trouve
Z 3/4 √
1 √ 3/4 3
I=− √ dt = [− t]1 = 1 − .
1 2 t 2
42
Intégration dans Rn (n = 2, 3)
Jusqu’à présent, nous avons calculé les intégrales définies, donc avec des bornes
inférieures et supérieures. Or, il est souvent utile de spécifier une primitive F(x)
d’une fonction Rf (x) (qui sera déterminée à une constante près), dans la mesure
où F(x) − C = ax f (x) dx (avec ici C = F(a)). Or, si on ne spécifie par la borne
inférieure a (ni la borne supérieure x, c’est-à-dire la variable de la primitive F(x))
on écrit encore pour une constante C quelconque
Z
f (x)dx = F(x) +C. (2.11)
Exemple :
Chercher une primitive de log(x). On utilise par exemple la formule de l’intégration
par parties sans spécifier des bornes (notons cependant que x ≥ 0)
Z Z
log(x)dx = x log(x) − dx +C = x log(x) − x +C = F(x) +C
en posant dv = dx et u = log(x).
43
Intégrales multiples
R = J1 × J2 × · · · × Jn , Ji = [ai , bi ], i = 1, · · ·, n. (2.12)
c’est-à-dire le produit des longueurs des intervalles (on retrouve bien la surface
d’un rectangle dans R2 et le volume d’un parallélépipède dans R3 ).
On imagine une sous-division de chaque intervalle Ji en introduisant mi + 1 points
(choisis ici équidistants)
bi − ai
xi, j = ai + j , j = 0, · · ·, mi
mi
(notons que xi,0 = ai et xi,mi = bi ), donc on adopte pour chaque intervalle Ji une
sous-division similaire que celle pour la construction de l’intégrale dans R, ce qui
donne, pour chaque intervalle Ji , mi sous-intervalles
La figure 2.2 donne une illustration pour le cas R2 , où on voit que la rectangle
[a1 , b1 ] × [a2 , b2 ] est sous-divisé en des rectangles plus petits (ici au nombre de
8 · 4 = 32). On cherche bien sûr à généraliser la notion de l’intégrale définie dans
R. Soit donc une fonction f (x1 , · · · , xn ) de n variables définie et continue sur un
domaine qui contient le pavé R. Il convient donc de choisir pour chaque sous-pavé
R j1 ··· jn une valeur particulière de la fonction et on considère la borne inférieure
(c’est-à-dire la valeur la plus petite du sous-pavé) que l’on note
44
Définition générale
(le volume des sous-pavés étant bien sûr définis comme le produit des longueurs
des intervalles qui les composent). L’intégrale dans Rn sera donc la limite de cette
somme pour des sous-divisions de plus en plus fines, donc lorsque mi → ∞, i =
1, · · ·, n. On peut donc donner la définition de l’intégrale dans Rn .
Définition 11 L’intégrale n-uple (l’intégrale double pour n = 2 ou l’intégrale
triple pour n = 3) sur le pavé R et notée
Z Z
··· f (x1 , · · · , xn )dx1 · · · dxn (2.17)
| {z } R
n fois
est par définition la limite de la somme Im1 ···mn définie par (2.16) lorsque
m1 → ∞, · · · , mn → ∞
R R
(noter que · · · signifie que l’on écrit en général le symbole pour l’intégral
autant de fois, donc 2 fois pour les intégrales doubles et 3 fois pour les intégrales
triples, que la dimension de l’espace où l’intégrale est définie, pour éviter des
confusions avec l’intégrale simple dans R).
Exemple : Soit par exemple la fonction constante f (x1 , · · · xn ) = 1 et la somme
(2.16) devient
m1 −1 mn −1
Im1 ···mn = ∑ ··· ∑ vol(R j1··· jn ).
j1 =0 jn =0
On peut se convaincre que la somme des volumes des sous-pavés R j1 ··· jn ne peut
être rien d’autre que le volume du pavé R que ces sous-pavés recouvrent et
Z Z
(b1 − a1 )(b2 − a2 ) · · · (bn − an ) = vol(R) = ··· dx1 · · · dxn . (2.18)
R
45
Intégrales multiples
(x1 , · · ·, x p , y1 , · · ·, yq ).
Alors
Z Z
··· f (x1 , · · ·, x p , y1 , · · ·, yq ) dx1 · · · dx p dy1 · · · dyq
Q×S
Z Z Z Z
= ··· · · · ( f (x1 , · · · , x p , y1 , · · · , yq )dy1 · · · dyq dx1 · · · dx p .
Q S
R
On peut donc d’abord résoudre 12 (x + y)ex+y dy en intégrant comme dans R par
rapport à la variable y. Faisant une intégration par parties (exercice), on trouve
Z 2 Z 2
(x + y)ex+y dy = [(x + y)ex+y ]21 − ex+y dy
1 1
= (x + 2)ex+2 − (x + 1)ex+1 − ex+2 + ex+1 = (x + 1)ex+2 − xex+1 .
46
Définition générale
D’où
Z 2
I = [(x + 1)ex+2 − xex+1 ]dx
0
Z 2
= [(x + 1)e x+2
− xex+1 ]20 − [ex+2 − ex+1 ]dx = 2e4 − e3 − e
0
On considère maintenant un domaine borné (donc d’étendue finie) noté K quel-
conque de Rn et on cherche à définir l’intégrale sur ce domaine (que l’on suppose
être “d’étendue” finies, on parle alors d’un domaine compact). On peut bien sûr
imaginer un pavé R tel que K soit contenu dans R. Soit alors une fonction f (~x)
(on note de nouveau ~x = (x1 , · · ·, xn )) définie sur K, alors on peut construite une
fonction f¯ définie sur R comme suit :
f¯(~x) = f (~x), si~x ∈ K et f¯(~x) = 0, si~x ∈
/ K. (2.19)
Définition 12 L’intégrale d’une fonction f définie sur K est égale à l’intégrale
de la fonction f¯ sur R, c’est-à-dire
Z Z Z Z
··· f (x1 , · · · , xn )dx1 · · · dxn = ··· f¯(x1 , · · · , xn )dx1 · · · dxn . (2.20)
K R
En particulier, le volume de K est l’intégrale de la fonction identiquement à 1 et
donc Z Z
vol(K) = · · · dx1 · · · dxn (2.21)
K
La définition ci-dessus revient à ramener l’intégrale d’une fonction f pour un
domaine quelconque K à l’intégrale sur un pavé R qui contient K, en étendant
tout simplement la définition de la fonction sur R en disant qu’elle vaut zéro en
~x, si ~x ∈
/ K. Ajoutons ici une propriété importante des intégrales multiples, dans
la situation où le domaine K de Rn est la réunion K = K1 ∪ K2 de deux domaines
disjoints, ou alors de deux domaines qui peuvent se toucher dans le sens où la
frontière commune a au moins une dimension en moins que l’espace en question.
Donc, en dimension n = 2 la frontière commune peut au plus être une courbe et en
dimension n = 3 au plus une surface. Dans ce cas on peut déduire des définition
que
Z Z
··· f (~x)dx1 · · · dxn
K1 ∪K2
Z Z Z Z
= ··· f (~x)dx1 · · · dxn + ··· f (~x)dx1 · · · dxn . (2.22)
K1 K2
47
Intégrales multiples
En fait, pour l’intégrale ci-dessus on utilise la relation bien connue sin2 (θ) = 12 −
1
2 cos(2θ).
48
Changement de variables dans des intégrales multiples
t1~v1 + · · · + tn~vn , 0 ≤ ti ≤ 1.
R = [a1 , b1 ] × · · · × [an − bn ]
49
Intégrales multiples
Formons la matrice M dont les éléments des colonnes successives sont les com-
posantes des vecteurs ~v j , donc la matrice diagonale
b1 − a1
..
. (0)
M= . .
(0) . .
bn − an
Définition 14 On définit le volume du bloc engendré par ~v1 , · · ·,~vn comme étant
la valeur absolue du déterminant de la matrice notée (~v1 , · · ·,~vn ) et dont les
éléments des colonnes successives sont les composantes des vecteurs successifs
~v j , j = 1, · · · , n, c’est-à-dire
et formons la matrice M dont les éléments des colonnes sont les composantes des
vecteurs et donc
a1 a2 a3
M = b1 b2 b3 .
c1 c2 c3
Or le déterminant de cette matrice est (exercice, en développant suivant la première
colonne)
50
Changement de variables dans des intégrales multiples
Le produit vectoriel entre deux vecteurs de R3 est une notion qui a été vue lors
de cours antérieurs. Il est brièvement rappelé un moyen simple de retrouver son
expression. On suppose donnés deux vecteurs
x1 x2
~x1 = y1 , ~x2 = y2
z1 z2
Pour calculer le produit vectoriel entre ~x1 et ~x2 , on fait comme si on calculait le
déterminant de cette pseudo-matrice en “développant” par rapport à la première
colonne, ce qui donne
y1 z2 − z1 y2
~x1 ∧~x2 = (y1 z2 − z1 y2 )~ex + (z1 x2 − x1 z2 )~ey + (x1 y2 − y1 x2 )~ez = z1 x2 − x1 z2 .
x1 y2 − y1 x2
Appliquant ces règles aux vecteurs ~v2 et ~v3 , on trouve bien sûr
b2 c3 − b3 c2
~v2 ∧~v3 = c2 a3 − a2 c3 .
a2 b3 − b2 a3
|det(v1 , v2 , v3 )| = ||~v3 || ||~v1 ∧~v2 || cos(θ) = ||~v3 || ||~v1 || ||~v2 || sin(α) cos(θ)
51
Intégrales multiples
car on peut montrer que ||~v1 ∧~v2 || = ||~v1 || ||~v2 || sin(α) avec α l’angle (entre 0 et
π) entre ~v1 et ~v2 . La géométrie de cette configuration est esquissé sur la figure 2.5
et on peut se convaincre que det(v1 , v2 , v3 ) est bien le volume du parallélépipède
engendré par ~v1 , ~v2 et ~v3 .
F IGURE 2.5 – Parallélépipède engendré par trois vecteurs ~v1 , ~v2 et ~v3 .
52
Changement de variables dans des intégrales multiples
est égale à la somme de toutes les intégrales sur les sous-domaines K j1 ··· jn dans
ce processus, en faisant tendre mi → ∞, i = 1, · · ·, n, c’est-à-dire on considère des
sous-pavés et donc des sous-domaines de plus en plus petits.
Or, soit un de ces sous-pavés (on omet l’indice j1 · · · jn ) et prenons un point ~a
particulier. Pour tout autre point de ~x = ~a +~h dans ce sous-domaine on aura (par
la définition de la dérivée (notant Jg(~a) la matrice jacobienne)
On suppose que la matrice jacobienne est inversible (ce qui est d’ailleurs la con-
dition pour que ~g définisse un changement de variable) et donc
~g(~a +~h) −~g(~a) = Jg(~a) ~h + Jg(~a)−1 ||~h||~ε(~h) , lim~ε(~h) = 0. (2.27)
~h→0
La relation ci-dessus montre qu’à la limite lorsque ||~h|| s’approche de zéro, l’ac-
tion de l’application ~g sur le petit pavé s’apparente à appliquer la matrice jaco-
bienne aux vecteurs qui engendrent le pavé, donc de transformer R j1 ··· jn par une
application linéaire. On conclut que
d’après (2.25), où A est maintenant la matrice jacobienne associée à ~g, lorsque
mi → ∞, i = 1, · · · n. Or, la somme des vol(~g(R j1··· jn )) tend vers vol(~g(R)), donc
par définition vers l’intégrale
Z Z
··· dy1 · · · dyn .
~g(R)
53
Intégrales multiples
54
Intégrale de surface, flux d’un champ de vecteur
∂~ϕ ∂~ϕ
~ϕ(u0 + h1 , v0 + h2 ) = ~ϕ(u0 , v0 ) + h1 (u0 , v0 ) + h2 (u0, v0 ) + ||~h||~ε(~h) (2.32)
∂u ∂v
∂~ϕ ∂~ϕ
(u0 , v0 ) ∧ (u0 , v0 )
∂u ∂v
est normale au plan tangent et sa norme euclidienne correspond à l’aire du par-
allélogramme engendré par ∂~ϕ/∂u et ∂~ϕ/∂v. Cette situation est schématisée sur la
55
Intégrales multiples
F IGURE 2.6 – Schéma d’une surface paramétrée par ~ϕ(u, v) et aire élémentaire.
Définition 15 Soit une surface S de R3 paramétrée par une fonction ~ϕ(u, v) dérivable,
(u, v) étant dans un domaine D de R2 tel que ~ϕ(D) = S. Alors
Z Z
∂~ϕ ∂~ϕ
l’aire de S = || (u, v) ∧ (u, v)|| du dv. (2.33)
D ∂u ∂v
On écrit aussi
Z Z Z
∂~ϕ ∂~ϕ
dσ = || (u, v) ∧ (u, v)|| du dv. (2.34)
S D ∂u ∂v
où
∂~ϕ ∂~ϕ
dσ = ||
(u, v) ∧ (u, v)|| du dv (2.35)
∂u ∂v
désigne symboliquement “l’aire élémentaire”.
56
Intégrale de surface, flux d’un champ de vecteur
x2 + y2 + z2 = r2
57
Intégrales multiples
(en effet, la norme de ce vecteur est égale à 1). On peut énoncer la définition
suivante.
Définition 16 Soit un champ de vecteur ~f (x, y, z). On désigne par flux de ~f à
travers S l’intégrale
Z Z Z
~f ·~n dσ = ~f (~ϕ(u, v)) · ∂~
ϕ ∂~
ϕ
(u, v) ∧ (u, v) du dv (2.42)
S D ∂u ∂v
ce qui est une conséquence directe de la définition (2.35) de dσ et de la normale
unitaire ~n définie par (2.41).
58
Intégrale de surface, flux d’un champ de vecteur
Bien sûr, il peut s’agir d’une normale dans une des deux directions (en partant de
la surface) et on peut inverser la direction en permutant les deux vecteurs ∂~ϕ/∂u et
∂~ϕ/∂v dont on forme le produit vectoriel. Aussi, il s’agit dans la formule ci-dessus
bien sûr d’un produit scalaire entre le vecteur résultant du produit vectoriel et le
champ de vecteur ~f . Traitons un petit exemple.
Exemple : On cherche à calculer le flux à travers la demi-sphère supérieur du
champ de vecteur
0
~f (x, y, z) = 0 .
z
On considère de nouveau le paramétrage par les coordonnées sphériques et alors
z = r cos(θ) sur la sphère. Utilisant l’expression (2.36) et notant S1/2 la demi-
sphère supérieure (remarquons dans ce cas 0 < θ ≤ π/2) on trouve à partir de la
définition (2.42)
Z Z π/2 Z 2π Z π/2
~f ·~n dσ = r3 cos2 (θ) sin(θ) dθ dφ = r3 2π cos2 (θ) sin(θ) dθ
S1/2 0 0 0
Z 1
2π 3
= r3 2π u2 du = r
0 3
(dans l’intégrale on a fait le changement de variable u = cos(θ) et donc dθ =
du
− sin(θ) tandis que si θ = π/2, u = 0 et si θ = 0, u = 1).
59
Intégrales multiples
60
Chapitre 3
Définition 17 Un produit scalaire de Rn est une application notée < ., . >, qui
à un couple de vecteurs ~x et ~y associe un nombre réel h~x,~yi, ayant les propriétés
suivantes.
1. Cette application est symétrique, c’est-à-dire
2. Cette application est bilinéaire, c’est-à-dire elle est linéaire par rapport à
la première variable, et par symétrie également par rapport à la seconde
variable, c’est-à-dire
61
Produit scalaire, bases orthonormées, transformations orthogonales
Un espace vectoriel muni d’un produit scalaire est appelé un espace euclidien.
Exemple : Soient deux vecteurs
x1 y1
~x = ... ,~y = ... ,
xn yn
Il est aisé de vérifier qu’il s’agit bien d’un produit scalaire selon la définition ci-
dessus.
La donnée d’un produit scalaire défini positif permet de définir une norme sur
Rn , notée ||.||, par p
||~x|| = h~x,~xi (3.5)
qui a un certain nombre de propriétés listées ci-après.
Propriétés de ||~x|| :
1.
||~x|| ≥ 0 et ||~x|| = 0 si et seulement si~x = 0. (3.6)
2. Soit λ un nombre réel, alors
3. Inégalité de Cauchy-Schwarz :
4. Inégalité triangulaire :
62
Définition du produit scalaire dans Rn , espace euclidien
λ~x +~y 6= 0
par la propriété 1. Donc dans ce cas le polynôme n’a pas de racines réelles et donc
son discriminant est négatif et
et donc
h~x,~yi2 < ||~x||2 ||~y||2
et l’inégalité de Cauchy-Schwarz s’en déduit en prenant la racine carrée. Reste le
cas où
λ~x +~y = 0
c’est-àdire le cas où les deux vecteurs sont colinéaires et ~y = −λ~x. Mais alors
Prenant la valeur absolue, et en observant que ||~y|| = |λ| ||~x||, l’inégalite de Cauchy-
Schwarz devient en fait une inégalité ce qui complète la preuve de la propriété 3.
Nous avons montré au passage que l’inégalité de Cauchy-Schwarz est une égalité,
si et seulement si les deux vecteurs sont colinéaires.
L’inégalité triangulaire peut se déduire aisément de l’inégalité de Cauchy-Schwarz.
En effet,
et d’où
||~x −~y|| ≥ ||~x|| − ||~y||.
63
Produit scalaire, bases orthonormées, transformations orthogonales
Or, d’après la propriété 2 on a bien sûr ||~y −~x|| = ||~x −~y|| et on en déduit que
Bien sûr, la notion de norme a été introduite pour mesurer en quelque sorte des
longueurs de vecteurs. Si l’on prend le produit scalaire euclidien et la norme as-
sociée, on trouve alors la notion élémentaire des longueurs de vecteurs dans R2
(voir le dessin de la figure 3.1). Dans ce cas, des considérations de géométrie
élémentaire permettent d’écrire que ~x = ||~x||(cos(θx )~e1 + sin(θx )~e2 ) ainsi que ~y =
||~y||(cos(θy )~e1 + sin(θy )~e2 ) et si on développe le produit scalaire on trouve
ce qui se résume en disant que l’angle θ entre les vecteurs ~x et ~y est tel que
Si nous avons ici pour R2 et le produit scalaire euclidien la notion concrète d’an-
gle, on peut par extension définir d’une manière générale un écart angulaire entre
vecteurs de Rn muni d’un produit scalaire.
h~x,~yi
cos(θ) = (3.11)
||~x|| ||~y||
c’est-à-dire
h~x,~yi = ||~x|| ||~y|| cos(θ). (3.12)
h~x,~yi = 0 (3.13)
64
Vecteurs orthogonaux, bases orthonormées
(donc si leur produit scalaire est nul). La notion d’être “‘orthogonal” vient de la
relation (3.12), car alors (si~x et~y sont non nuls) h~x,~yi = 0 implique θ = π/2, donc
égal à “l’angle droit”. Par la suite on notera une base de Rn par
étant précisé qu’il ne s’agira pas forcément de la base canonique, pour laquelle on
réserve la notation
{~e1 ,~e2 , · · · ,~en } .
Définition 19 Une base {~v1 ,~v2 , · · · ,~vn } est dite orthonormée si elle vérifie les
conditions
Supposons que nous ayons n vecteurs qui satisfont aux conditions (3.14), alors
ces vecteurs forment forcément une base. En effet il suffit de montrer que
65
Produit scalaire, bases orthonormées, transformations orthogonales
On peut faire remarquer ici que si on exprime un vecteur ~x dans une base or-
thonormée {~w1 ,~w2 , · · · ,~wn } de Rn , c’est-à-dire si on écrit
n
~x = ∑ ai~wi , (3.17)
i=1
66
Sous-espaces vectoriels orthogonaux
alors
n n n
||~x||2 = h~x,~xi = ∑ ∑ aia j ~wi,~w j = ∑ a2i (3.18)
i=1 j=1 i=1
alors d’après ce qui précède on peut écrire ~x sous la forme d’une somme
67
Produit scalaire, bases orthonormées, transformations orthogonales
~x ∈ E p ∩ E p⊥ (3.26)
alors~x est forcément orthogonal à lui-même et donc h~x,~xi = 0 ce qui implique que
~x = 0. On peut donc décomposer Rn en ce qui est appelée une somme directe
Rn = E p ⊕ E p⊥ (3.27)
et un résultat général quant aux espaces vectoriels (ce résultat fait partie des cours
de base d’algèbre linéaire) permet d’affirmer que la dimension de l’espace vecto-
riel Rn (donc n) est égale à la somme des dimensions des espaces vectoriels qui
composent la somme directe. Nous avons donc le résultat suivant.
68
Transformations et matrices orthogonales
ou encore
ax + by + cz = h avec h = ax0 + by0 + cz0
pour (a, b, c) 6= (0, 0, 0).
69
Produit scalaire, bases orthonormées, transformations orthogonales
Mais est linéaire et donc ||~f (~x) + ~f (~y)|| = ||~f (~x +~y)||). Par définition ~f
préserve les longueurs et les seconds membres des deux équations ci-dessus
sont donc égaux. On en déduit qu’on a aussi
D E
2 ~f (~x), ~f (~y) = 2 h~x,~yi
et d’où le résultat.
4. L’application transforme une base orthonormée en une base orthonormée.
En effet, soit {~w1 , · · ·,~wn } une base orthonormée alors
D E
~f (~wi ), ~f (~w j ) = ~wi ,~w j = 0 si i 6= j
D E
~ ~
et bien sûr f (~wi ), f (~wi ) = 1.
5. La matrice A de ~f dans une base orthonormée {~w1 , · · · ,~wn } vérifie
AT A = I et notamment AT = A−1 , (3.32)
avec I la matrice identité n × n et AT la matrice transposée de A.
En effet, soit la colonne j de la matrices A, alors les coefficients de cette
colonne, que l’on note ai j , i = 1, · · · , n, sont les composantes du vecteur
~f (~w j ) dans la base orthonormée. On sait aussi que les coefficients notés
aTij de AT sont tels que
aTij = a ji ,
par la définition de la transposition d’une matrice. Donc, si l’on note (AT A)i j
les éléments de AT A, alors
n n D E 0 si i 6= j
T T ~ ~
(A A)i j = ∑ aik ak j = ∑ aki ak j = f (~wi ), f (~w j ) =
k=1 k=1
1 si i = j
(3.33)
d’après la relation du type (3.20) et la propriété 3 ci-dessus.
70
Transformations et matrices orthogonales
Soit une base orthonormée {~w1 ,~w2 }. Ecrivons les conditions pour que A soit une
matrice orthogonale directe. Pour que A soit une matrice orthogonale, les coeffi-
cients des vecteurs colonnes de A doivent être reliés à une transformation orthog-
onale par
~f (~w1 ) = a~w1 + c~w2 , ~f (~w2 ) = b~w1 + d~w2
D E
et ~f (~wi ), ~f (~wi ) = ||~wi ||2 = 1, i = 1, 2 implique que
a2 + c2 = 1, b2 + d 2 = 1. (3.35)
ab + cd = 0. (3.36)
71
Produit scalaire, bases orthonormées, transformations orthogonales
ad − cb = 1. (3.37)
De (3.35) on déduit
car n’importe quel élément (a, b) de R2 peut être représenté par a = r cos(θ) et
b = r sin(θ). De même,
De (3.36) on déduit
donc
π
ϕ = θ+ + kπ, k entier. (3.40)
2
La relation (3.37) se traduit par
donc
π
ϕ = θ++ 2lπ, l entier. (3.41)
2
Tenant compte de (3.40), on peut conclure que ϕ = θ + π/2 et par conséquent
cos(ϕ) = − sin(θ) et sin(ϕ) = cos(θ). Donc, les matrices orthogonales directes de
R2 sont des matrices de rotation
cos(θ) − sin(θ)
A= . (3.42)
sin(θ) cos(θ)
72
Transformations et matrices orthogonales
73
Produit scalaire, bases orthonormées, transformations orthogonales
74
Chapitre 4
Bien sûr, ayant choisi une base de Rn , par exemple la base canonique
{~e1 , · · · ,~en } ,
on associe à ~f une matrice n × n, que l’on note A. Les éléments des colonnes
successives de A sont bien entendu les composantes dans la base canonique des
vecteurs ~f (~e j ), j = 1, · · ·, n. Donc, si on exprime ~x dans la base canonique, la
définition (4.1) est équivalente à l’assertion, qu’il existe un vecteur ~X non nul et
un nombre λ ∈ C tels (dans le formalisme matrices-vecteurs on note désormais
les vecteurs en majuscules)
A~X = λ~X. (4.2)
On note I la matrice identité n × n, c’est-à-dire la matrice dont tous les coeffi-
cients sont nuls hormis les éléments de la diagonale qui sont égaux à 1. Bien
évidemment, I~X = ~X . L’équation ci-dessus peut encore se formuler ainsi : il ex-
iste λ ∈ C et un vecteur non nul ~X (qu’on doit supposer être dans Cn ) tels
(A − λI) ~X = 0. (4.3)
75
Formes réduites de matrices
De ce qui précède, on peut conclure que si (4.3) est vérifié, alors la matrice A − λI
a un noyau non nul. Elle n’est par conséquent pas inversible ce qui se traduit par
det (A − λI) = 0 (4.5)
76
Valeurs et vecteurs propres d’une matrice
notant le déterminant d’une matrice avec des barres à gauche et à droite des termes
de la matrice comme c’est la coutume. On définit M(λ) = A−λI et si on développe
le déterminant de M(λ) par rapport à la première colonne, on obtient d’après les
formules ci dessus
n
det(M(λ)) = (a11 − λ)det(M11 (λ)) + ∑ ai1 (−1)i+1 det(Mi1 (λ)).
i=2
Or,
a22 − λ · · · a2n
det(M11 (λ)) = .
.. . .. ..
.
an2 · · · ann − λ
et on observe ici que la matrice M11 (λ) a la même structure que la matrice du
départ, avec une ligne et une colonne en moins, et avec les termes aii − λ, i =
2, · · ·n sur la diagonale. On peut se convaincre que les matrices Mi1 (λ) avec
i = 2, · · · , n n’ont cependant chacune seulement n − 2 coefficients ou λ apparaı̂t.
On peut donc affirmer (le déterminant de chaque sous-matrice Mi1 (λ) étant une
certaine combinaison linéaire de produits particuliers entre n − 1 éléments occu-
pant des positions distinctes à l’intérieur de la matrice) que
n
∑ (−1)i+1ai1det(Mi1(λ))
i=2
77
Formes réduites de matrices
avec donc p(λ) polynôme de degré exactement n. En plus, on peut montrer que
le coefficient a1 devant λn−1 et le coefficient an ont une expression particulière, à
savoir
n
a1 = (−1)n+1 ∑ aii et an = det(A). (4.12)
i=1
En effet, d’après (4.10) le terme en λn−1 est forcément le terme en λn−1 du produit
a11 − λ a12
= (a11 − λ)(a22 − λ) − a12 a21
a21 a22 − λ
= λ2 − (a11 + a22 )λ + (a11a22 − a12 a21 ). (4.13)
On peut énoncer ici quelques résultats fondamentaux quant aux valeurs propres
d’une matrice A, qui sont donc les zéros du polynôme p(λ) donné par (4.11) ap-
pelé polynôme caractéristique. On peut donc énoncer le résultat suivant.
Théorème 13 Soit A une matrice carré n × n à coefficients réels (ou complexes).
Alors A possède n valeurs propres, qui peuvent être réelles ou complexes, qui sont
les zéros du polynôme caractéristique det(A − λI) = p(λ), étant précisé que des
zéros multiples de p(λ) sont comptés avec leurs multiplicités.
78
Valeurs et vecteurs propres d’une matrice
Mais alors
n
a1 = (−1)n+1 ∑ λi , an = λ 1 λ 2 · · · λ n . (4.15)
i=1
Or, nous avons constaté plus haut que a1 = (−1)n+1 trace(A) et an = det(A), d’où
le résultat important
n n
∑ λi = ∑ aii, det(A) = λ1 λ2 · · · λn , (4.16)
i=1 i=1
c’est-à-dire la somme des valeurs propres d’une matrice A est égale à la somme
des éléments sur la diagonale de A et le produit des valeurs propres est égal au
déterminant de A.
Nous allons énoncer quelques propriétés générales des valeurs et vecteurs propres
de matrices.
Propriétés générales :
1. Soit λ valeur propre de A, alors un vecteur propre associé ~X ne peut être
défini qu’à une constante c multiplicative (réelle ou complexe) près.
En effet
2. Si une matrice est inversible, alors toutes ses valeurs propres sont non nulles
et si λ est valeur propre de A, alors λ−1 est valeur propre de la matrice in-
verse A−1 .
79
Formes réduites de matrices
En effet, une matrice inversible n’a pas de noyau, c’est-à-dire Ker(A) = {0}
et donc A~X = 0~X = 0 implique ~X = 0 et 0 n’est donc pas valeur propre. Soit
donc λ valeur propre de A, de vecteur propre ~X 6= 0, c’est-à-dire
A~X = λ~X.
et on en déduit bien que Q(λ) est valeur propre de Q(A) de vecteur propre ~X .
80
Valeurs et vecteurs propres d’une matrice
λ1 = 1, λ2 = a + i|b|, λ3 = a − i|b|.
On note ~Xi , i = 1, 2, 3 les vecteurs propres associés aux valeurs propres λi , i =
1, 2, 3 et il et facile de voir que l’on peut choisir
1
~X1 = 0 .
0
Pour déterminer ~X2 (dont on note les composantes x, y, z), il faut résoudre
1 − (a + i|b|) 0 0 x 0
(A − (a + i|b|)~X2 = 0 −i|b| −b y = 0 .
0 b −i|b| z 0
On en déduit que x = 0 et y, z sont solution de
−i|b|y −bz = 0 ib
et donc y = z.
by −i|b|z = 0 |b|
On peut choisir comme vecteurs propres
0 0
~X2 = ib , ~X3 = −ib
|b| |b|
81
Formes réduites de matrices
P(λi ) = 0, i = 1, · · · , n et λi 6= λ j si i 6= j. (4.17)
µ1 (λ2 − λ1 )~X1 = 0
Or, d’après l’hypothèse que les valeurs propres sont deux à eux distincts, λm+1 −
λi 6= 0, i = 1, · · ·, m et on en déduit, les vecteurs ~Xi , i = 1, · · ·, m étant linéairement
82
Diagonalisation d’une matrice
(A − λi I)~Xi = 0, ~Xi 6= 0, i = 1, · · · , n,
83
Formes réduites de matrices
donc les ~Xi engendrent les espaces vectoriels Ker(A − λi I) et dans le cas où les
valeurs propres sont deux à deux distincts chacun de ces espaces est de dimension
1. Aussi, tout vecteur ~x ∈ Cn peut alors s’écrire sous la forme
n
~x = ∑ x′j~X j (4.21)
j=1
et on forme la matrice P donc les vecteurs colonnes sont les ~X j successifs, à savoir
x11 x12 · · · x1n
x21 x22 · · · x2n
P = .. .. .. .. (4.24)
. . . .
xn1 xn2 · · · xnn
et cette matrice est inversible (ces vecteurs colonnes étant linéairement indépendants).
Soit maintenant un vecteur~x et notant ses composantes dans la base canonique par
x1
x2
~X =
.. .
.
xn
84
Diagonalisation d’une matrice
ce qui donne les règles qui font passer des composantes ~X du vecteur ~x dans la
base canonique aux composantes du vecteur ~x dans la base des vecteurs propres
données par ~X ′ et vice versa. Ce sont des règles classiques de changement de
base avec P la matrice de passage. Or, étant donné que A~X j = λ j ~X j , on peut se
convaincre que
λ1
λ2 (0)
AP = PD avec D = . . , (4.26)
(0) .
λn
c’est-à-dire D est une matrice diagonale avec les valeurs propres de A sur la di-
agonale. En effet, par les règles de multiplication matricielle, la j ème colonne de
AP est précisément A~X j et donc (~X j étant vecteur propre de valeur propre λ j ) égal
à λ j ~X j , ce qui est précisément la j ème colonne de PD. On peut donc énoncer le
théorème de la diagonalisation suivant.
Théorème 16 Si le polynôme caractéristique det(A − λI) = 0 de la matrice A a n
zéros deux à deux distincts, alors on peut construire une matrice de changement
de base P, dont les vecteur colonnes j = 1, · · ·, n sont les composantes des vecteurs
propres ~X j , j = 1, · · ·, n, telle que
P−1 AP = D (4.27)
avec D matrice diagonale dont les éléments sur la diagonale sont les valeurs
propres λ j , j = 1, · · ·, n, de A.
En effet il suffit de multiplier l’égalité AP = PD de (4.26) par P−1 .
85
Formes réduites de matrices
Exemple :
Reprenons la matrice
1 0 0
A = 0 a −b , avec a 6= 0, b 6= 0 des nombres réels.
0 b a
D’après les calculs faits plus haut, on peut construire
1 0 0 1 0 0
−1 0 −i 1
P= 0 ib −ib et donc P = 2b 2|b|
0 |b| |b| i 1
0 2b 2|b|
et P−1 AP = D avec
1 0 0
D = 0 a + i|b| 0 .
0 0 a − i|b|
86
Construction de la base de Jordan
et donc dim Ker(A − 2I) = 1. On conclut que la matrice n’est pas diagonalisable.
Cn = S 1 ⊕ S 2 ⊕ · · · ⊕ S m . (4.34)
87
Formes réduites de matrices
où chaque bloc Bl , l = 1, · · · , m centré sur la diagonale est une matrice carrée
rl × rl .
Pour prouver cette assertion, prenons un bloc Bl associé à Sl et on note
n o
~X (l) , · · · , ~Xr(l)
1 l
Dans ce cas, le bloc Bl est une matrice 1 × 1 et donc un nombre égal à λl sur la
diagonale de J. Si toutes les valeurs propres sont simples (rl = 1, l = 1, · · · , m),
alors m = n et dans ce cas J = D, avec D la matrice diagonale avec les valeurs
propres sur la diagonale.
Afin d’esquisser la procédure pour construire la base dite de Jordan pour un bloc
Bl , on omet pour simplifier l’écriture l’indice l et soit
n o
S = ~X ∈ Cn tels que (A − λI)r~X = 0
On note
Ei = Ker (A − λI)i
88
Construction de la base de Jordan
N(λ) = A − λI.
{0} ⊆ E1 ⊆ E2 ⊆ · · · ⊆ Er (4.39)
N(λ)N(λ)i~X = N(λ)i+1~X = 0
et donc ~X ∈ Ei+1 .
Dans (4.39), la dimension de Er est égale à r, mais il se peut, que pour j < r,
dim(E j ) = r et dans ce cas naturellement E j = Er . Soit donc j le plus petit in-
dice tel que dim(E j ) = r et on peut montrer qu’alors les inclusions jusqu’à j sont
strictes et
{0} ⊂ E1 ⊂ · · · ⊂ E j = Er (4.40)
En effet, supposons qu’il existe i < j, tel que Ei = Ei+1 , alors on aura aussi Ei+1 =
Ei+2 . Car si ~Y ∈ Ei+2 , alors
0 = N(λ)i+2~Y = N(λ)i+1N(λ)~Y ,
ce qui veut dire que N(λ)~Y ∈ Ei+1 , mais par Ei = Ei+1 on aura aussi N(λ)~Y ∈ Ei .
Par conséquent
N(λ)i N(λ)~Y = N(λ)i+1~Y = 0
et donc ~Y ∈ Ei+1 .
La conclusion est que si dans les inclusions (4.40) deux sous-espaces sont iden-
tiques, alors les sous-espaces qui suivent sont également tous égaux. C’est en
contradiction avec le fait que j est le plus petit indice tel que dim(E j ) = r et donc
ces inclusions sont strictes.
On peut faire une remarque ici : si par exemple j = 1, alors bien que la multiplicité
de la valeur propre λ soit r, l’espace Ker(A − λI) a la dimension r et il y a dans
ce cas r vecteurs propres linéairement indépendants avec la même valeur propre
λ. Le bloc B correspondant est alors une sous-matrice diagonale avec uniquement
la valeur propre sur la diagonale. Mais c’est plutôt l’exception et en général, si
r > 1, alors j > 1.
a~Y + bN(λ)~Y = 0.
89
Formes réduites de matrices
Par ailleurs si ~Y1 et ~Y2 sont deux vecteurs linéairement indépendants de Ei+1 , alors
N(λ)~Y1 et N(λ)~Y2 sont linéairement indépendants dans Ei si i ≥ 2, car
Ces considérations permettent de procéder comme suit, étant rappelé que dans
les inclusions strictes (4.40) la dimension de E j est r.
Pour construire la base, on commence par le vecteur ~Xr (qui étant donné son in-
dice sera le dernier de la base), choisi tel que ~Xr ∈ E j , mais ~Xr ∈
/ E j−1 . Et ensuite
on définit
90
Construction de la base de Jordan
Si j < r il reste des vecteurs à compléter. Tout dépend maintenant des dimensions
des sous-espaces imbriqués dans (4.40). Si par exemple
E j = E j−1 ⊕ Fj
avec dim(Fj ) ≥ 2, on répète la procédure ci-dessus pour les autres vecteurs d’une
base de Fj .
Soit maintenant le plus grand i (avec i < j), tel que
Ei = Ei−1 ⊕ Fi ,
avec dim(Fi ) > dim(Fj ). Il existe donc des vecteurs dans Fi qui sont linéairement
indépendants des vecteurs de Fi obtenus en ayant appliqué j − i fois l’opérateur
N(λ) à une base de Fj selon la procédure ci-dessus. On répète alors la procédure
à partir de Ei , mais avec ces vecteurs de Fi .
On voit que de donner la procédure générale est délicat, mais dans les exem-
ples concrets la complexité des inclusions des sous-espaces (4.40) est relativement
limitée et la construction de la base de Jordan se fait assez naturellement. Le plus
simple est de donner un exemple, disons pour une valeur propre λ de multiplicité
r = 3. Si j = 3 dans les inclusions (4.40), alors la base sera telle, d’après ce qui
précède,
N(λ)~X3 = ~X2, N(λ)~X2 = ~X1 , N(λ)~X1 = 0,
n o
ce qui donne l’action de A sur la base ~X1 , ~X2, ~X3 de S, à savoir
91
Formes réduites de matrices
A~Xi = λ~Xi , i = 1, 2, 3
et on construit la matrice P dont les vecteurs colonnes sont précisément les vecteurs
successifs de cette base. On peut donc énoncer le théorème de la forme réduite de
Jordan.
92
Construction de la base de Jordan
Théorème 18 Pour toute matrice A carrée n×n telle que le polynôme caractérist-
ique a m zéros λl , l = 1, · · ·, m de multiplicités respectives rl , l = 1, · · · , m, il existe
une forme réduite de Jordan J qui est une matrice par blocs de la forme (4.36),
avec les blocs Bl matrices rl × rl avec une structure donnée par (4.45), et telle que
P−1 AP = J (4.47)
avec P la matrice de changement de base dont les vecteurs colonnes sont les
vecteurs de la base dite de Jordan (4.46).
Il s’agit là de la transformation optimale d’une matrice qu’on puisse faire.
Exemple :
On reprend l’exemple de la matrice (4.30), pour laquelle nous avions trouvé une
valeur propre simple λ1 = 3 et une valeur propre double λ2 = 2. Il est facile de
voir qu’on peut choisir comme vecteur propre ~X1 associé à λ1 = 3 le vecteur
1
~X (1) = 1 .
1
−2
Il a été montré plus haut que Ker(A − 2I) est de dimension
1. La valeur propre
2
λ2 = 2 étant double, la dimension de Ker (A − 2I) est 2. On calcule
0 −1 −1
(A − 2I)2 = 0 −1 −1 .
0 2 2
Pour calculer les vecteurs du noyau de (A − 2I)2, on doit trouver (x, y, z) tels que
0 −1 −1 x 0
0 −1 −1 y = 0 .
0 2 2 z 0
On trouve comme le prévoit la théorie deux vecteurs linéairement indépendants
qui sont solutions, à savoir
1 0
~Y1 = 0 , ~Y2 = 1
0 −1
Or, d’après le calcul plut haut, des deux vecteurs ~Y1 ∈ Ker(A − 2I) (et bien sûr
~Y2 ∈ (2)
/ Ker(A − 2I)). On choisit donc ~X2 = ~Y2 et
1
~X (2) = (A − 2I)~X (2) = 0
1 2
0
93
Formes réduites de matrices
n o
(1) (2) (2)
Mettant donc les vecteurs ~X1 , ~X1 , ~X2 comme vecteurs colonnes dans P, à
savoir
1 1 0 0 −1 −1
P = 1 0 1 et alors P−1 = 1 1 1 .
−2 0 −1 0 2 1
Et alors
P−1 AP = J
avec
3 0 0
J = 0 2 1 .
0 0 2
94
Chapitre 5
95
Applications des formes réduites de matrices
Soit
ai j = ϕ ~ei ,~e j (5.5)
et formant la matrice A donc les coefficients sont précisément ai j . Dans une écriture
matricielle, (5.4) s’écrit
y1
ϕ(~x,~y) = x1 · · · xn A ...
(5.6)
yn
et donc la matrice associée a une forme bilinéaire symétrique (dans la base canon-
ique par exemple) est symétrique et donc
AT = A. (5.9)
Abordons la question d’un changement de base pour une forme bilinéaire symétrique.
Soit donc une nouvelle base ′
~e1 , · · · ,~en′ (5.10)
et formons la matrice S dont les vecteurs colonnes sont les coordonnées (dans
la base canonique) des vecteurs successifs de cette base. Si l’on note pour tout
vecteur ~x, les cordonnées dans la nouvelle base x′i (c’est-à-dire ~x = ∑nj=1 x′j~e ′j )
alors par le formalisme de changement de base, notant
x′1
~X ′ = .
..
x′n
~X = S~X ′ (5.11)
(~X étant le vecteur colonne dont les composantes sont les coordonnées xi , i =
1, · · ·, n de ~x dans la base canonique). Ecrivons de la même manière ~Y = S~Y ′ , on
peut écrire à partir de (5.7)
T
ϕ(~x,~y) = S~X ′ A S~Y ′ . (5.12)
96
Formes quadratiques
Or, ici un rappel s’impose. Soit une matrice n × p notée B et une matrice p × q
notée C et on peut alors former le produit M = BC (qui est une matrice n × q) et
les coefficients de M s’écrivent
p
mi j = ∑ bik ck j , i = 1, · · ·, n, j = 1, · · ·, q.
k=1
Comparant cette expression avec les coefficients m′i j ci-dessus, on conclut que
(BC)T = CT BT (5.13)
Donc, lorsqu’on transpose un produit de deux matrices, alors le résultat est le pro-
duit des transposées des deux matrices mais en permutant l’ordre du produit.
on trouve
ϕ(~x,~y) = ~X ′T ST AS ~Y ′ (5.14)
et donc, si on note A′ la matrice associée à ϕ dans la nouvelle base, alors
A′ = ST AS (5.15)
97
Applications des formes réduites de matrices
On observe que
et donc
1
ϕ(~x,~y) =
(Q(~x +~y) − Q(~x) − Q(~y)) , (5.17)
2
c’est-à-dire de donner la forme quadratique est équivalent à donner la forme
bilinéaire symétrique.
où dans l’expression ci-dessus on utilise le fait que A est symétrique, c’est-à-dire
ai j = a ji .
98
Signature d’une forme quadratique
Donc, si on définit
Q = x′12 + x′22 .
99
Applications des formes réduites de matrices
ST AS = A′ . (5.25)
Revenons sur l’exemple traité plus haut : le rang de cette forme quadratique est
r = 2 et la signature (2, 0).
100
Diagonalisation d’une forme bilinéaire symétrique dans un espace euclidien
d’après ce qui précède, ~X et ~Y étant les vecteurs colonnes avec les coordonnées de
~x et ~y dans la base canonique.
Remarque : il convient ici de revenir un instant sur la transposition de matrices.
Soit donc M une matrice quelconque et on identifie l’application linéaire avec
cette matrice. On note un vecteur ~x en lettre majuscule ~X pour désigner le vecteur
colonne (donc une matrice n × 1) dont les coefficients sont les coordonnées de ~x
dans la base canonique. Il s’ensuit que
Soit donc
h~x, M~yi = ~X T M~Y .
Le nombre ci dessus est un nombre réel (une matrice 1 × 1) et il est donc égal à
son transposé et
T
~X T M~Y = ~Y T M T ~X = ~y, M T~x = M T~x,~y
101
Applications des formes réduites de matrices
Théorème 19 Soit A une matrice réelle et symétrique, alors les valeurs propres
de A sont réelles. Soient alors λ et µ deux valeurs propres distinctes de vecteurs
propres respectifs ~x 6= 0 et ~y 6= 0. Alors ces deux vecteurs propres sont orthogo-
naux, à savoir
n
h~x,~yi = ∑ xi yi = 0, (5.31)
i=1
avec xi , i = 1, · · ·, n et yi , i = 1, · · ·, n les coordonnées des vecteurs propres dans la
base canonique.
La preuve de ce résultat extrêmement important est relativement aisée. Soit donc
λ valeur propre de A et ~X 6= 0 le vecteur (colonne) propre associé. Alors a priori
λ ∈ C et ~X ∈ Cn et
A~X = λ~X.
La matrice A étant réelle, on aura aussi, en prenant la conjuguée complexe de
l’égalité ci-dessus
A~X¯ = λ̄~X¯ .
Formons
~X T A~X¯ = ~x, A~x¯ = ~x, λ̄~x¯ = λ̄ ~x,~x¯ . (5.32)
Or, d’après (5.30),
~x, A~x¯ = A~x,~x¯ = λ ~x,~x¯ . (5.33)
En observant que
n
~x,~x¯ = ∑ |xi |2 6= 0,
i=1
et les membres à droite de (5.32) et (5.33) étant identiques, on aura forcément
λ̄ = λ et donc λ ∈ R.
Soient maintenant
Formons
~Y T A~X = h~y, A~x i = h~y, λ~xi = λ h~y,~x i .
De nouveau par (5.30),
Par conséquent
(λ − µ) h~y,~xi = 0 et donc h~y,~xi = 0
102
Diagonalisation d’une forme bilinéaire symétrique dans un espace euclidien
car λ 6= µ.
est strictement inclus dans Rn , donc plus petit que Rn . Au chapitre 4, il a été
montré que l’on peut écrire
Rn = E ⊕ E ⊥ . (5.36)
On suppose que dim(E ⊥ ) = q ≥ 1 et soit alors un vecteur ~Y 6= 0 de E ⊥ . On montre
qu’alors A~Y ∈ E ⊥ . En effet, soit un vecteur quelconque ~X ∈ E, alors
B = U T AU (5.38)
et que
U T U = I, avec I matrice identité q × q. (5.39)
103
Applications des formes réduites de matrices
La matrice B étant symétrique, elle a donc au moins une valeur propre réelle, donc
~ (avec q composantes) tel que
il existe un vecteur W
~ = λW
BW ~ ou encore U T AU W
~ = λW
~, (5.40)
d’après (5.38). Tenant compte de (5.39), on peut écrire d’après (5.40) que
~ ∈ E ⊥.
U T A~X = λU T ~X, avec ~X = U W (5.41)
Mais alors
U T (A − λI) ~X = 0. (5.42)
Or, E ⊥ étant invariant par A, (A − λI) ~X ∈ E ⊥ et (5.42) implique que
(A − λI) ~X = 0 (5.43)
car (5.42) signifie que (A − λI) ~X est orthogonal à tout vecteur de la base de E ⊥ et
donc que
(A − λI) ~X ∈ E ⊥ ∩ E = 0.
Donc, d’après (5.43), il existe au moins un vecteur propre (non nul) dans E ⊥ ce
qui est en contradiction avec (5.36), c’est-à-dire que tous les vecteurs propres de
A sont dans E. Donc, il est impossible que la dimension de E ⊥ soit ≥ 1 et donc
E ⊥ = 0 et par conséquent E = Rn .
On a vue, que des vecteurs propres associés à des valeurs propres distinctes sont
orthogonaux. Un vecteur propre étant défini à une constante multiplicative près,
on peut toujours supposer que les vecteurs propres sont de norme 1. Aussi, à
l’intérieur de chaque sous-espace propre Eλi on peut orthonormaliser les vecteurs
propres associés à λi (si la multiplicité de ri de λi est > 1). On peut donc énoncer
le théorème suivant.
Théorème 20 Soit Rn muni du produit scalaire canonique (euclidien). Alors toute
matrice n × n symétrique A peut être diagonalisée dans une base orthonormée
formée de vecteurs propres. Soit P la matrice orrthogonale dont les vecteurs
colonnes sont les éléments de cette base de vecteurs propres orthonormée. On
a PT = P−1 et
PT AP = D (5.44)
avec D matrice diagonale avec les valeurs propres réelles sur la diagonale.
On peut donc conclure, que le rang r de la matrice A est égal au nombre de valeurs
propres non nuls. Si p est le nombre de valeurs propres strictement positifs, alors
la signature de la forme quadratique Q associée à A est (p, r − p).
104
Diagonalisation d’une forme bilinéaire symétrique dans un espace euclidien
revient à multiplier les coordonnées x′j simplement par λ j (car ~f (~X j ) = A~X j =
λ j ~X j ) et la forme quadratique s’écrit
n
Q(~x) = ∑ λ j x′j2 .
j=1
et 1
√ √1 √1
1 0 0 2 6 3
2
T
P AP = 0 3 0 0
avec P = √ − √13
.
6
0 0 0 √1 − √1 − √13
2 6
105
Applications des formes réduites de matrices
106
Résolution de systèmes d’équations différentielles linéaires autonomes
eA−A = e0 = I = eA e−A
Il est possible de montrer que cette série est uniformément convergente pour t tel
que |t| < T . Pour cela, il faut introduire une mesure de l’ordre de grandeur de
la matrice, une sorte de norme de matrices qui est cependant en dehors du cadre
de ce cours de Licence 2. Il suffit de dire que l’on peut définir une norme telle
que ||A|| ≤ a avec a > 0, de façon à ce que ||Ak || ≤ ak et on peut majorer alors
la norme de ||etA || par eaT ce qui rend la série (5.51) uniformément convergente.
Pour la dériver, on peut donc dériver terme par terme sous la somme et
∞ ∞
d tA d tk t k−1 k
e =∑ Ak = ∑ A
dt k=0 dt k! k=1 (k − 1)!
107
Applications des formes réduites de matrices
D’où
d tA
e = AetA . (5.52)
dt
et on peut énoncer le théorème suivant :
d~ d tA ~
X (t) = e X0 = AetA~X0 = A~X(t).
dt dt
Remarque : si la condition initiale (5.46) est donnée pour t0 6= 0, alors on rem-
place simplement t dans l’exponentielle de (5.53) par t − t0 et alors
où A′ est une matrice diagonale avec les valeurs propres sur la diagonale si les
valeurs propres sont distinctes deux à deux et les colonnes de P sont alors les
vecteurs propres. Dans le cas général A′ est sous forme de Jordan et les colonnes
de P sont les vecteurs de la base de Jordan. Formons par exemple A2 alors
2
A2 = PA′ P−1 = PA′ P−1 PA′ P−1 = PA′ 2 P−1
etc. et bien sûr Ak = PA′ k P−1 . Vu que l’exponentielle d’une matrice est la somme
des puissances de cette matrice, on conclut que
′
etA = PetA P−1 (5.55)
108
Calcul pratique de etA
Cas où A′ = D
Supposons d’abord que A est diagonalisable et donc A′ = D avec
λ1 (0)
D=
..
.
(0) λn
et il est facile de voir que
tk k
k! λ1 (0)
tk k ..
D = .
k!
tk k
(0) k! λn
Cas où A′ = J
On suppose maintenant que A possède des valeurs propres multiples et qu’on
ne peut pas faire mieux que de mettre A sous forme de Jordan J, c’est-à-dire
la matrice par blocs (4.36), chaque bloc Bl étant une matrice rl × rl (avec rl la
multiplicité de la valeur propre λl ) de la forme (4.45). La multiplication de J avec
elle-même se faisant bloc par bloc, on peut constater (l’exponentielle étant une
k
série formée avec les termes tk! J k ) que d’après (4.36)
etB1
etB2 (0)
tJ
e = . . (5.57)
(0) .
etBm
109
Applications des formes réduites de matrices
Bien sûr, etλI est une matrice diagonale avec eλt sur la diagonale et donc
et par N r = 0 (et donc N s = 0, s ≥ r), la matrice etN est en fait une somme finie et
t2 2 t r−1
etN = I + tN + N +···+ N r−1 .
2 (r − 1)!
110
Procédure de résolution
Pour former etB il faut d’après (5.61) et (5.62) multiplier chaque élément de la
matrice ci-dessus par eλt et
t 2 λt t r−1 λt
eλt teλt 2e ··· (r−1)! e
.. ..
eλt teλt . .
tB
e = ..
.
..
. t 2 λt
(5.64)
2e
(0) eλt teλt
eλt
Donc, la matrice etJ d’après (5.57) sera formée de blocs de la forme (5.64).
d~
X (t) = A ~X(t), ~X (0) = ~X0 (5.65)
dt
avec ~X0 la condition initiale donnée. On suppose avoir calculé les valeurs et vecteurs
propres de A et donc
A′ = P−1 AP
On multiplie l’équation (5.65) par P−1 et donc
d~
Y (t) = P−1 A P~Y (t) = A′ ~Y (t), ~Y (0) = ~Y0 , ~Y = P−1~X, ~Y0 = P−1~X0 , (5.66)
dt
c’est-à-dire le système ci-dessus est le système d’équations différentielles pour
la solution dans la base dont les vecteurs sont les colonnes de P. Ce système ci-
dessus peut être résolu et
~Y (t) = etA′ ~Y0 . (5.67)
Remarque : en pratique il n’est pas nécéssaire d’inverser la matrice P. En fait,
′
il suffit de connaı̂tre l’expression de etA et on en déduit la solution ~Y donnée
par (5.67) pour un vecteur ~Y0 a priori arbitraire que l’on note par exemple ~α de
coefficients αi , i = 1, · · ·, n. Si la matrice est diagonalisable, alors
′
etA = etD (5.68)
avec etD de la forme (5.56). Si A ne peut être mise que sous forme de Jordan, alors
′
etA = etJ (5.69)
111
Applications des formes réduites de matrices
avec etJ de la forme (5.57) où chaque bloc est de la forme (5.64). Ayant déterminé
la solution (5.67) pour un vecteur ~Y0 = ~α arbitraire à ce stade, on récupère l’ex-
pression générale de la solution, à savoir
~X(t) = P~Y (t) = P etA′ ~α. (5.70)
Si on veut satisfaire la condition initiale ~X = ~X0 alors ~α est solution du système
P~α = ~X0 (5.71)
′
(comme on peut le voir en prenant t = 0 dans (5.70) avec e0A = I).
et donc d’après (5.67) (en prenant comme ~Y0 le vecteur arbitraire ~α)
α1 e3t
~Y (t) = α2 e2t + α3te2t
α3 e2t
Tenant compte de l’expression ci-dessus de P on obtient l’expression générale de
~X(t), à savoir
α1 e3t + α2 e2t + α3te2t
~X(t) = α1 e3t + α3 e2t . (5.72)
3t
−2α1 e − α3 e 2t
112
Procédure de résolution
Pour résumer, dans tous les cas, on peut toujours mettre A sous forme de Jordan
et on a vu que les éléments non nuls de etJ sont de la forme
t j λl t
e , j = 0, · · ·, rl − 1. (5.73)
j!
Donc, lorsqu’on résout le système d’équations différentielles, on constate que les
composantes de ~Y (t) et ensuite ceux de ~X(t) sont des combinaisons linéaires de
ces expressions. On peut donc énoncer le théorème suivant.
Théorème 22 Notons x j (t), j = 1, · · · , n les composantes de la solution ~X de (5.65).
Ces fonctions sont de la forme
m
x j (t) = ∑ p jl (t)eλlt (5.74)
l=1
p jl (t)eλlt + p̄ jl (t)eλ̄lt .
On peut se convaincre que cette expression peut s’écrire sous la forme générale
e µr t q j1 (t) cos(µit) + q j2 sin(µit)
113
Applications des formes réduites de matrices
pour des polynômes q j1 (t) et q j2 (t) à coefficients réels cette fois-ci (de degré rl −1
si la valeur propre λl avec une partie imaginaire non nulle est de multiplicité rl ),
car
Pour comprendre quelle sera l’expression de la solution x(t), on écrit cette équation
sous la forme d’un système d’équations en introduisant le vecteur
x(t) b0
x ′ (t) b1
~X(t) =
.. et X0 = .. ~
(5.77)
. .
x(n−1) bn−1
d~
X(t) = A~X(t), ~X(0) = ~X0 (5.78)
dt
avec
0 1
0 1 (0)
A= .. ..
(5.79)
(0) . .
0 1
−an −an−1 · · · · · · − a2 −a1
On a vu que les solutions d’un tel système s’écrivent comme des combinaisons
linéaire des fonctions eλl t (avec λl les valeurs propres de A), multipliées éventuellement
selon les cas de figure par des polynômes de degrés au plus égaux à rl − 1 (avec rl
la multiplicité de λl ). La fonction
x(t) = ceλt
114
Cas d’une seule équation différentielle d’ordre n
pour c une constante 6= 0 et λ égale à une des valeurs propres est donc une solution
possible, pour des conditions initiales appropriées. Injectant cette expression dans
(5.75) on trouve
λn + a1 λn−1 + · · · + an−1 λ + an ceλt = 0
m
x(t) = ∑ pl (t)eλlt (5.81)
l=1
p(λ) = λ2 + 2λ + 5
D’après les remarques faites sur les valeurs propres complexes dans la résolution
d’une équation différentielle réelle, on peut écrire
115
Applications des formes réduites de matrices
116
Systèmes d’équations différentielles linéaires non homogènes
Si on veut que ~X p écrit comme (5.88) soit solution de (5.86), alors forcément
d~
etA C(t) = ~F(t).
dt
On sait que l’inverse de etA est égal à e−tA et on doit donc résoudre
d~ ~
C(t) = e−tA ~F(t) avec C(0) =0 (5.89)
dt
~
(car ~X p(0) = 0 implique forcément C(0) = 0, si on écrit ~X p sous la forme (5.88)).
Mais on peut alors se convaincre que la solution de cette équation différentielle
est simplement Z t
~ =
C(t) e−sA ~F(s) ds
0
~
l’intégrale étant à prendre composante par composante du vecteur e−sA F(s). En
~ ~
effet, C(0) = 0 et la dérivée de C(t) est bien e −tA ~
F(t) d’après la définition de
~
l’intégrale. On peut donc écrire en remplaçant dans (5.88) C(t) par cette expres-
sion
Z t Z t Z t
−sA tA −sA
~X p(t) = etA e ~F(s) ds = e e ~F(s) ds = e(t−s)A ~F(s) ds
0 0 0
(pour le calcul de l’intégrale, tout dépend alors de l’expression de f (s), pour savoir
si on peut facilement trouver une primtive de l’intégrand).
117