Vous êtes sur la page 1sur 71

Premi`ere partie

Introduction `a la methodes
des dierences nies
5
7
Introduction
Nous allons presenter dans cettte partie les idees de base de la methode
des dierences nies qui est sans doute la methode la plus intuitive, la plus
simple et la plus utilisee pour resoudre numeriquement des equations aux
derivees partielles (EDP ou edp dans le jargon des specialistes). En fait,
resoudre numeriquement une EDP signie calculer de bonnes approxima-
tions de la solution (encore faut-il que le probl`eme ait une solution unique)
en un nombre (generalement grand) de points bien repartis sur lensemble
o` u elle est denie.
Pour simplier la presentation, nous ne consid`ererons presque exclusi-
vement que des equations en dimension 1 despace, une variable temporelle
pouvant eventuellement sy rajouter. Des exercices seront neanmoins pro-
poses en dimensions superieures. Nous nous interesserons `a la resolution
des trois types classiques dEDP : elliptique, parabolique et hyperbolique.
Chacune de ces classes dequations poss`edent des proprietes particuli`eres que
nous rappellerons bri`evement. Commencons par indiquer quelques probl`emes
mod`eles pour ces trois classes : Ne faudrait-il pas mettre neanmoins quelques
pistes pour la dimension superieure ? On pourrait rajouter une phrase du
style :

Equations elliptiques :
Le probl`eme mod`ele est ici lequation de Poisson :
(1) u

(x) = f(x) x (0, 1)


o` u f est une fonction continue sur lintervalle [0, 1] `a valeurs dans R et on
cherche une fonction u aussi reguli`ere que possible qui satisfait (1).
Pour resoudre (1), il faut lui associer des conditions aux limites. Nous
etudierons en details le cas o` u (1) est associe `a des conditions de Dirichlet
homog`enes :
(2) u(0) = u(1) = 0.
Plus generalement on peut prescrire les valeurs de u(0) et u(1), ce sont les
conditions de Dirichlet non-homog`enes :
(3) u(0) = u(1) = ,
o` u et sont deux nombres reels donnes.
Il existe aussi des conditions de Neumann o` u ce sont les derivees qui sont
prescrites sur le bord de lintervalle :
(4) u

(0) = u

(1) = ,
ou encore des conditions mixtes, par exemple :
(5) u

(0) = u(1) = ,
8
Dans le premier chapitre, nous etudierons les proprietes du probl`eme
de Dirichlet (1)-(2) : formule (quasi-)explicite pour la solution, principe du
maximum, caracterisation variationnelle,. . . etc. Puis nous montrerons com-
ment resoudre numeriquement (1)-(2) par la methode des dierences nies.
Nous introduirons `a cette occasion les notions de grille (ou maillage), de pas
de discretisation, de discretisation de lequation, de schemas numeriques,
de consistance et de monotonie. Nous discuterons egalement des proprietes
de convergence de certains schemas. Louvrage essayant detre aussi self-
contained que possible, nous indiquerons un certain nombre de methodes
de resolutions des syst`emes lineaires auxquels conduisent inevitablement les
dierents schemas. Bien entendu, des references seront proposees pour que le
lecteur puisse en decouvrir dautres. Les exercices proposes seront loccasion
de generaliser ou dapprofondir quelques notions (en particulier en analyse
fonctionnelle) ou de decouvrir les proprietes de lequation (1) associee `a
dautres conditions aux limites.

Equations hyperboliques : Lexemple mod`ele est ici celui de lequation


de transport :
(6)
u
t
+c
u
x
= 0 dans R]0, T[
o` u la vitesse de transport c R et le temps T > 0 sont donnes. On cherche
une solution u qui est une fonction de x R et t [0, T[, `a valeurs dans R.
Il sagit dune equation devolution et, pour pouvoir la resoudre, il faut lui
associer une donnee initiale qui decrit la fonction `a linstant initial suppose
ici etre t = 0. Cette donnee initiale secrit :
(7) u(x, 0) = u
0
(x) dans R,
la fonction u
0
sera supposee au moins continue (pour des generalisations,
voir les exercices du chapitre).
Dans le deuxi`eme chapitre, nous etudierons les proprietes de lequation
(6) : methode des caracteristiques, vitesse nie de propagation,. . . etc. Puis
nous montrerons comment resoudre (6)-(7)par la methode des dierences
nies. Nous introduirons les notions de schemas stable, monotone, implicite,
explicite et celles de dissipation et de dispersion. Les proprietes de conver-
gence de certains schemas seront etudiees, dautres vues en exercice. Les
exercices proposeront aussi letude de lequation des ondes, de la resolution
dautres equations par la methode des caracteristiques , . . . etc.

Equations paraboliques : Lexemple mod`ele est ici celui de lequation de


la chaleur :
(8)
u
t


2
u
x
2
= 0 dans R (0, T)
9
`a laquelle on associe la donnee initiale :
(9) u(x, 0) = u
0
(x) dans R,
o` u u
0
est ici aussi une fonction continue donnee, satisfaisant certaines condi-
tions de croissance `a linni. Dans le troisi`eme chapitre seront etudiees l`a
encore dune part les proprietes de lequation puis celles de quelques schemas
numeriques envisages pour resoudre numeriquement (8)-(9). Compte tenu
des analogies avec les equations hyperboliques, nous insisterons plus parti-
culi`erement sur les dierences -vitesse innie de propagation en particulier-.
Linteret de ces trois equations est de posseder des solutions explicites
(et simples) au moins si les donnees ont une assez grande regularite. Cela
permet de tester la validite des methodes numeriques proposees, en particu-
lier leurs precisions. Testees sur es exemples simples, les methodes peuvent
etre ensuite adaptees pour traiter des cas plus complexes. [Le choix de se
limiter `a la dimension un pour lespace pour cette partie est motive par le
desir de ne pas obliger le lecteur `a ce plonger dans un premier temps dans
la theorie des distributions et lanalyse fonctionnelle pure et dure]
10
Chapitre 1
Equations Elliptiques
1.1 Le probl`eme de Dirichlet : etude theorique
On sinteresse ici `a lequation (1) avec la condition de Dirichlet homog`ene
(2) et, comme nous lavons annonce dans lintroduction, nous allons calculer
une solution explicite de ce probl`eme (en fait, LA solution de ce prob`eme).
Si u est une solution de (1)-(2), on commence par integrer (1) de 0 `a
y (0, 1) :
u

(0) u

(y) =
_
y
0
f(t) dt ,
puis on re-integre de 0 `a x (0, 1) :
(1.1) u

(0)x u(x) =
_
x
0
_
y
0
f(t) dt dy ,
o` u, au passage, on a utilise le fait que u(0) = 0. Reste `a calculer u

(0), ce
qui est immediat en faisant x = 1 dans (1.1) et en tenant compte du fait
que u(1) = 0 :
u

(0) =
_
1
0
_
y
0
f(t) dt dy .
On obtient nalement :
(1.2) u(x) = (
_
1
0
_
y
0
f(t) dt dy)x
_
x
0
_
y
0
f(t) dt dy .
En integrant par parties les deux termes du membre de droite de (1.2), on
peut reecrire cette formule sous la forme :
(1.3) u(x) =
_
1
0
(1 y)xf(y) dy
_
x
0
(x y)f(y) dy .
On retrouve ainsi la forme generale des solutions dequations du se-
cond ordre, dites de Sturm-Liouville, qui conduirait `a ecrire de mani`ere
11
12 CHAPITRE 1. EQUATIONS ELLIPTIQUES
plus generale :
u(x) =
_
1
0
K(x, y)f(y) dy
o` u K est un noyau positif et symetrique(voir ([6]). Dans notre cas, il est
deni par :
K(x, y) =
_
(1 x)y si y x
(1 y)x sinon
1.1.1 Quelques proprietes des solutions du probl`eme de Di-
richlet
Commencons par enoncer les proprietes elementaires qui decoulent des
formules (1.2) ou (1.3).
Proposition 1.1.
1. Pour toute fonction f C([0, 1]), il existe une unique solution u
C
2
([0, 1]) du probl`eme de Dirichlet homog`ene (1)-(2).
2. Si f C
k
([0, 1]) pour k 1, la solution u de (1)-(2) est de classe C
k+2
sur [0, 1] et :
||u
(l)
||

||f
(l2)
||

pour 2 l k + 2.
3. Si g C([0, 1]) et si v est lunique solution de (1)-(2) associee au second
membre g, on a :
Si f g sur [0, 1] alors u v sur [0, 1],
||u v||


1
8
||f g||

,
||u

||


3
2
||f g||

.
Preuve :
1. Lexistence, lunicite et la regularite de u decoulent de lexpression trouvee
precedemment.
2. Cest encore une consequence de (1.2), linegalite sobtenant soit par (1.2),
soit par lequation (derivevee un certain nombre de fois) pour les derivees
dordre superieures `a 2.
3. La linearite de lequation entrane que la fonction w = uv est la solution
de lequation associee `a la fonction h = f g. On utilise alors legalite (1.3)
pour w,
w(x) =
_
x
0
[(1 y)x (x y)]h(y) dy +
_
1
x
(1 y)xh(y) dy
ou encore
w(x) =
_
x
0
[(1 x)y]h(y) dy +
_
1
x
(1 y)xh(y) dy
1.1. LE PROBL
`
EME DE DIRICHLET :

ETUDE TH

EORIQUE 13
Comme (1 x)y 0 et (1 y)x 0 si x, y [0, 1] (le noyau K est positif),
on deduit que la fonction w a le meme signe sur [0, 1] que h. De plus, en
utilisant encore la positivite de K :
max
x[0,1]
w(x) max
x[0,1]
_
_
x
0
[(1 x)y] dy +
_
1
x
(1 y)x dy
_
||h||

Pour obtenir le resultat pour w

, on derive lequivalent de l egalite (1.2)


obtenue pour w et on obtient :
w

(x) =
_
1
0
_
y
0
h(t) dt dy
_
x
0
h(t) dt
Do` u :
|w

(x)|
_
1
0
_
y
0
||h||

dt dy +
_
x
0
||h||

dt
3
2
||h||

La premi`ere proprietes du point 3) est un cas particulier dun resultat


plus general : le principe du maximum que lon enonce maintenant.
Theor`eme 1.1. Soient u et v deux fonctions de C
2
(]0, 1[) C([0, 1]) satis-
faisant :
1. u f sur (0, 1) (on dit que u est sous-solution de (1))
2. v g sur (0, 1) (on dit que v est sur-solution de (1))
3. u(0) v(0) et u(1) v(1).
Alors, si les seconds membres f et g satisfont f g sur [0, 1], on a u v
sur [0, 1].
Preuve : On pourrait
(1)
faire une preuve basee sur lexpression explicite de
la solution comme precedemment mais on va faire une preuve plus generale
qui fonctionnerait meme dans le cas o` u cette straategie est inenvisageable
(equation avec des coecients non constants, par exemple).
Pour montrer que u v sur [0, 1], on consid`ere M = max
x[0,1]
(u v)
et on va prouver que M 0.
On commence par supposer que lon a f < g sur [0, 1], donc une hy-
poth`ese un peu plus forte que celle du Theor`eme 1.1. Comme u, v sont
continues sur le compact [0, 1], il existe un reel x
0
[0, 1] tel que M =
u(x
0
) v(x
0
). Deux cas se presentent :
ou bien x
0
{0, 1} et dans ce cas le resultat est acquis par la 3`eme pro-
priete car on sait que u(0) v(0) et u(1) v(1),
ou bien 0 < x
0
< 1. Comme x
0
est un point de maximum local de w = uv,
on a, par des resultats dAnalyse classique :
w

(x
0
) = 0 et w(x
0
) 0 .
(1)
Cest bien vrai ?
14 CHAPITRE 1. EQUATIONS ELLIPTIQUES
Or, en combinant les proprietes 1 et 2 satisfaites par u et v, on a aussi :
w(x
0
) f(x
0
) g(x
0
) < 0 .
Les deux inegalites precedentes sur w(x
0
) sont incompatibles et donc ce
cas-l`a ne peut pas se produire ; le maximum ne peut etre atteint que sur le
bord de [0, 1] et on a bien M 0.
Si on a seulement f g sur [0, 1], il faut se ramener au cas dune inegalite
stricte et on va meme le faire en remplacant f par f pour > 0 ; on
aura bien f(x) < g(x), pour tout x [0, 1]. Un calcul elementaire (ou
la formule (1.2)) montre que la fonction

(x) =

2
x(1 x) est solution du
probl`eme avec condition de Dirichlet homog`ene (1)-(2) avec second membre
la fonction constante egale . Considerons la fonction u

= u

: elle
satisfait une equation de (1) avec second membre egal `a f et par ailleurs
u

(0) = u(0) et u

(1) = u(1). Les arguments precedents montrent donc que


u

(x) v(x) sur [0, 1]


ce qui donne pour tout > 0
u(x)

2
x(1 x) v(x) sur [0, 1]
et on conclut en faisant tendre vers zero.
Remarque : Le lecteur pourra constater dans la liste dexercice que les ar-
guments de la preuve du Theor`eme 1.1 peuvent etre generalises pour traiter
des cas beaucoup plus complexes, y compris en dimension superieure ; en
analysant cette preuve, on voit, en eet, quelle ne repose que sur la compa-
cite de [0, 1] (pour que le maximum soit atteint) et les proprietes des derivees
premi`eres et secondes en un point de maximum local. Il sagit donc de deux
resultats basiques qui setendent sans diculte en toutes dimensions. Il est
`a noter enn que, par des arguments de perturbation du type de celui que
nous avons utilise dans la preuve (cf. u u

), on peut parfois se passer de


la compacite du domaine...
Exercice 1. Soit a est une fonction de classe C
1
sur [0, 1] telle que a(x)
> 0 sur [0, 1] et f une fonction continue sur [0, 1].
1. Resoudre explicitement le probl`eme de Dirichlet :
_
(a(x)u

= f dans ]0, 1[
u(0) = u(1) = 0.
2. En deduire les proprietes de la solution en fonction de celles de a et f.
3. Montrer que cette equation satisfait le principe du maximum.
(Si v est une sous-solution et w une sursolution (notions `a denir), on
pourra considerer max
[0,1]
(v(x) w(x) + exp(Kx)) pour 0 < 1 et pour
une constante K > 0 bien choisie.)
1.1. LE PROBL
`
EME DE DIRICHLET :

ETUDE TH

EORIQUE 15
Exercice 2.
1. Resoudre explicitement le probl`eme de Dirichlet :
_
u

+u = f dans ]0, 1[
u(0) = u(1) = 0.
(On pourra utiliser lequation dierentielle ordinaire satisfaite par le couple
(u(t), u

(t)).)
2. Formuler et prouver le principe du maximum pour cette equation.
Exercice 3. On consid`ere lequation :
u

+u = f dans R ,
o` u f est une fonction periodique, au moins continue. Resoudre cette equation
en utilisant des developpements en series de Fourier dont on etudiera soi-
gneusement la convergence. (Le lecteur pusillanime pourra commencer par
le cas o` u f est de classe C
1
ou meme C

puis refouiller ses anciens cours


`a la recherche des meilleures hypoth`eses sur f...)
1.1.2 Lapproche variationnelle du probl`eme de Dirichlet
On va montrer maintenant que la solution u de (1)-(2) poss`ede une
caracterisation variationnelle cest-`a-dire que u est lunique solution dun
probl`eme doptimisation.
On introduit dabord lespace fonctionnel :
C
1
0
([0, 1]) =
_
v C
1
(]0, 1[) C
0
([0, 1]); v(0) = 0, v(1) = 0
_
.
Il est `a noter que cet espace est deni `a la fois par une contrainte de regularite
(C
1
dans ]0, 1[ et continu sur [0, 1]) et par la valeur imposee des fonctions en
0 et 1. De plus, u C
1
0
([0, 1]). Pour toute fonction v C
1
0
([0, 1]), on pose :
J(v) =
1
2
_
1
0
[v

(t)]
2
dt
_
1
0
f(t)v(t) dt
La premi`ere caracterisation variationnelle de u est donnee par la :
Proposition 1.2. La solution u de (1)-(2) satisfait :
J(u) = min
wC
1
0
([0,1])
J(w)
Ce type de resultat sera important `a la fois du point de vue theorique que
numerique car il signie que pour calculer u, on peut envisager de resoudre
un probl`eme doptimisation.
16 CHAPITRE 1. EQUATIONS ELLIPTIQUES
Preuve : Si w C
1
0
([0, 1]), il existe une fonction h de C
1
0
([0, 1]) telle que
w = u +h. On a alors :
J(w) = J(u) +
_
1
0
u

(t)h

(t) dt
_
1
0
f(t)v(t) dt +
1
2
_
1
0
_
h

(t)
_
2
dt.
Grace `a la regularite des fonctions et la nullite au bord de h, on peut integrer
par parties pour obtenir :
J(w) = J(u) +
_
1
0
_
u

(t) f(t)
_
h(t) dt +
1
2
_
1
0
_
h

(t)
_
2
dt.
Comme u est solution de (1) et que
_
1
0
(h

(t))
2
dt 0, on obtient bien que
J(w) J(u).
Remarque : On montre facilement quune reciproque partielle est vraie, `a
savoir que si une fonction u C
2
([0, 1]) C
1
0
([0, 1]) satisfait :
J(u) J(w) pour tout w C
1
0
([0, 1])
alors elle est solution
(2)
du probl`eme (1).
En eet, le calcul precedent montre qualors :
_
1
0
_
u

(t) f(t)
_
h(t) dt +
1
2
_
1
0
_
h

(t)
_
2
dt 0 pour tout h C
1
0
([0, 1]).
En remplacant h par h o` u > 0, on obtient :

_
1
0
_
u

(t)f(t)
_
h(t) dt+
1
2

2
_
1
0
_
h

(t)
_
2
dt 0 pour tout h C
1
0
([0, 1]) ,
et en divisant par puis en faisant tendre vers zero, on a :
_
1
0
_
u

(t) f(t)
_
h(t) dt 0 pour tout h C
1
0
([0, 1]).
Enn, on change h en h ce qui conduit `a :
_
1
0
_
u

(t) f(t)
_
h(t) dt = 0 pour tout h C
1
0
([0, 1]) .
Cette propriete sinterpr`ete de la mani`ere suivante : la fonction u

(t)f(t)
en tant que fonction de L
2
_
[0, 1]
_
est orthogonale `a C
1
0
([0, 1]) qui est dense
dans L
2
_
[0, 1]
_
(3)
donc u

(t) f(t) = 0 presque partout et en fait partout


puisque la fonction u

f est continue.
(2)
ce nest pas une reciproque compl`ete car on doit supposer un peu plus de regularite
sur u, plus precisement u de classe C
2
.
(3)
Se souvenir que lespace des fonctions C

, `a supports compacts est dense dans


L
2
`
[0, 1]

!
1.1. LE PROBL
`
EME DE DIRICHLET :

ETUDE TH

EORIQUE 17
Remarque : On peut preferer demontrer le resultat `a la main, au lieu din-
voquer la densite (cela revient `a redemontrer cette densite) : on proc`ede
par troncature et regularisation pour construire une suite (h

de fonc-
tions continues qui converge dans L
2
_
[0, 1]
_
vers la fonction u

f. Plus
precisement, pour 0 1, on pose dabord

h

= (u

f)11
[,1]
(phase
de troncature) et on montre facilement que

h

f dans L
2
_
[0, 1]
_
.
Puis on regularise

h

par convolution, ce qui revient `a poser h

=

h

o` u (

est votre suite dapproximation de lunite favorite, en ayant soin de


prendre

`a support compact dans ] , [ et, pour faire bonne mesure, les

de classe C

.
En fait, C
1
0
([0, 1]), bien que commode pour les integrations par parties,
nest pas le bon espace fonctionnel pour attaquer le probl`eme doptimisa-
tion. Cela provient du fait que rien nassure quune suite minimisante va
converger vers un element de C
1
0
([0, 1]) . On va donc introduire le bon es-
pace fonctionnel : cest lespace H
1
(]0, 1[) ou plus exactement pour notre
probl`eme H
1
0
(]0, 1[).
Lespace H
1
(]0, 1[) est constitue des fonctions v de L
2
(]0, 1[) pour les-
quelles il existe un nombre reel et une fonction w de L
2
(]0, 1[) tels que :
v(x) = +
_
x
0
w(t) dt p.p. dans ]0, 1[
Proposition 1.3. Si v H
1
(]0, 1[) alors le couple (, w) est unique.
Preuve : Etant donne v H
1
(]0, 1[), supposons lexistence de deux couples
(, w) et ( , w) tels que :
v(x) = +
_
x
0
w(t) dt = +
_
x
0
w(t) dt p.p. dans ]0, 1[.
En faisant tendre x vers zero
(4)
, on voit immediatement que = . Il reste
`a montrer que la fonction h(t) = w(t) w(t) est nulle presque partout dans
lintervalle [0, 1]. On sait, du fait que = , que
_
x
0
h(t) dt = 0 pour presque
tout x. Donc, si designe une fonction continue sur [0, 1], on a :
_
1
0
(x)
_
x
0
h(t) dt dx = 0
Mais le theor`eme de Fubini (dont le lecteur ou la lectrice veriera aisement
quil sapplique) donne :
(1.4)
_
1
0
h(t)
_
1
t
(x) dx dt = 0.
(4)
Attention tout de meme car legalite nest vraie que presque partout...
18 CHAPITRE 1. EQUATIONS ELLIPTIQUES
En invoquant `a nouveau la densite de C
1
0
([0, 1]) dans L
2
(]0, 1[), on peut
construire une suite de fonctions

de C
1
0
([0, 1]) qui convergent vers h dans
L
2
(]0, 1[). On utilise alors (1.4) avec le choix =

pour tout et on
obtient que
_
1
0

(t)h(t) dt = 0 ce qui conduit `a la limite `a


_
1
0
[h(t)]
2
dt = 0.
On a donc bien h = 0.
Si v est une fonction de classe C
1
([0, 1]) C([0, 1]), elle est dans lespace
H
1
(]0, 1[) avec = v(0) et w(t) = v

(t). Pour une fonction v de H


1
(]0, 1[)
quelconque, la fonction w sinterpr`ete donc comme une derivee generalisee
que lon notera v

sans ambigute maintenant que lon sait que cette derivee


est unique.
Un lecteur plus averti saura immediatement que le theor`eme de Lebesgue
(voir le chapitre ( ?) de [3]) montre que si w L
1
(]0, 1[) alors la fonction qui
`a x associe
_
x
0
w(t) dt est derivable presque partout et de derivee presque
partout egale `a w ce qui donne une deuxi`eme justication de la designation
de derivee generalisee puisque en dimension 1, on sait, grace `a linegalite de
Cauchy-Schwarz, que lespace L
2
(]0, 1[) est contenu dans L
1
(]0, 1[).
On peut munir H
1
(]0, 1[) de la norme ||v||
1
denie par :
||v||
2
1
= ||v||
2
L
2
(]0,1[)
+ ||v

||
2
L
2
(]0,1[)
Proposition 1.4. Muni de la norme ||.||
1
, lespace H
1
(]0, 1[) est un espace
de Hilbert dans lequel lespace C
1
([0, 1]) est dense.
Admettons pour linstant ce resultat dont la preuve utilisera les tech-
niques ou les resultats ci-dessous et qui concernent la regularite classique
des fonctions de H
1
(]0, 1[).
Proposition 1.5. Linjection de lespace H
1
(]0, 1[), muni de la norme ||.||
1
dans lespace des fonctions holderiennes C
0,
1
2
(]0, 1[) est continue.
Rappel : Si 0 < 1, lespace C
0,
([0, 1]) est lespace constitue des
fonctions continues v : [0, 1] R qui satisfont la propriete suivante : il
existe une constante C R telle que, pour tous x, y [0, 1] :
(1.5) |v(x) v(y)| C|x y|

.
En dautres termes, les fonction de C
0,
([0, 1]) sont celles qui ont un module
de continuite
v
(t) de la forme Ct

.
On munit C
0,
([0, 1]) de la norme || ||
0,
denie pour v C
0,
([0, 1])
par :
||v||
0,
= ||v||

+ |v|
0,
,
o` u la semi-norme |v|
0,
est donnee par :
|v|
0,
= sup
x=y
|v(x) v(y)|
|x y|

.
1.1. LE PROBL
`
EME DE DIRICHLET :

ETUDE TH

EORIQUE 19
Une autre facon de voir cette semi-norme, cest comme la plus petite des
constantes C telle que la propriete (1.5) soit satisfaite.
Muni de cette norme, C
0,
([0, 1]) est un espace de Banach.
Les exos : prouver que la norme est une norme + Banach + autour dAscoli
(si les ||v
n
||
0,
sont bornes on peut extraire une sous-suite convergente)
Preuve : On veut estimer v(x) v(y). Par un simple calcul :
v(x) v(y) =
_
y
x
v

(t) dt =
_
1
0
11
{t]x,y[}
v

(t) dt .
On applique alors linegalite de Cauchy-Schwarz dans L
2
(]0, 1[) qui donne :
|v(x) v(y)|
_
_ _
1
0
11
2
{t]x,y[}
dt
_1
2
||v

||
L
2
(]0,1[)
ou encore
(1.6) |v(x) v(y)| | x y|
1
2
||v

||
L
2
(]0,1[)
.
Ceci montre quune fonction de H
1
(]0, 1[) peut etre vue comme une
fonction de C
0,
1
2
(]0, 1[) et donc que linjection est bien denie.
Montrons maintenant la continuite de linjection (qui est evidemment
une application lineaire) : la norme qui fait de C
0,
1
2
(]0, 1[) un espace de
Banach (voir le rappel ci-dessus et ([6])) est :
||v||
0,
1
2
= ||v||

+ |v|
0,
1
2
o` u :
|v|
0,
1
2
= sup
x[0,1]
|v(x) v(y)|
|x y|
1
2
.
Nous devons montrer quil existe une constante K R telle que :
||v||
0,
1
2
K||v||
H
1
(]0,1[)
,
pour tout v H
1
(]0, 1[).
Nous remarquons dabord que linegalite (1.6) peut etre interpretee comme :
|v|
0,
1
2
||v

||
L
2
(]0,1[)
||v||
H
1
(]0,1[)
,
et donc il ne nous reste plus qu`a estimer ||v||

en fonction de ||v||
H
1
(]0,1[)
.
Comme v H
1
(]0, 1[), v secrit :
v(x) = +
_
x
0
v

(t) dt p.p. dans ]0, 1[


20 CHAPITRE 1. EQUATIONS ELLIPTIQUES
et en combinant linegalite triangulaire avec les arguments developpes plus
haut, on voit que :
|v(x)| | | + |
_
x
0
v

(t) dt| || +x
1/2
||v

||
L
2
(]0,1[)
,
do` u :
||v||

|| + ||v

||
L
2
(]0,1[)
|| + ||v||
H
1
(]0,1[)
,
Il nous reste `a estimer || pour conclure. On ecrit :
= v(x)
_
x
0
v

(t) dt ,
et on consid`ere cette egalite comme une egalite de fonctions de L
2
(]0, 1[),
etant vu comme une fonction constante. Par linegalite triangulaire pour la
norme L
2
:
|| = ||||
L
2
(]0,1[)
||v||
L
2
(]0,1[)
+ ||
_
x
0
v

(t) dt||
L
2
(]0,1[)
.
Or, on a vu que |
_
x
0
v

(t) dt| x
1/2
||v

||
L
2
(]0,1[)
et donc :
(1.7) ||
_
x
0
v

(t) dt||
L
2
(]0,1[)

||v

||
L
2
(]0,1[)

2
.
Finalement :
(1.8) || = ||||
L
2
(]0,1[)
||v||
L
2
(]0,1[)
+
||v

||
L
2
(]0,1[)

2

_
1 +
1

2
_
||v||
H
1
(]0,1[)
et :
||v||


_
2 +
1

2
_
||v||
H
1
(]0,1[)
.
En rassemblant toutes les informations obtenues sur ||v||

et |v|
0,
1
2
, on
conclut :
(1.9) ||v||
0,
1
2

_
3 +
1

2
_
||v||
H
1
(]0,1[)
.

Revenons maintenant `a la preuve de la Proposition 1.4 :


Preuve : Tout dabord, la norme denie sur H
1
(]0, 1[) derive clairement
dun produit scalaire lui-meme construit sur le produit scalaire deni sur
L
2
(]0, 1[) que nous noterons (, )
L
2
(]0,1[)
:
||v||
2
1
= (v, v)
H
1
(]0,1[)
= (v, v)
L
2
(]0,1[)
+ (v

, v

)
L
2
(]0,1[)
.
Ensuite, il nous faut montrer que H
1
(]0, 1[) est complet pour cette norme
(ce qui legitimera lenvie de prouver les injections). Considerons donc une
1.1. LE PROBL
`
EME DE DIRICHLET :

ETUDE TH

EORIQUE 21
suite de Cauchy (v
n
)
nN
d elements de H
1
(]0, 1[). A chaque fonction v
n
est
associee le reel
n
et la fonction w
n
= v

n
. En regardant la preuve ci-dessus
et linegalite (1.8), on voit que dune part la suite (
n
)
nN
est de Cauchy
dans R donc converge vers un reel . Par ailleurs, lespace H
1
(]0, 1[) sinjecte
naturellement dans lespace L
2
(]0, 1[) de facon continue puisque :
||v||
L
2
(]0,1[)
||v||
1
et on a aussi :
||v

||
L
2
(]0,1[)
||v||
1
On a donc aussi que les suites (v
n
)
nN
dune part et (v

n
)
nN
sont de Cauchy
dans L
2
(]0, 1[) donc elles convergent vers respectivement une fonction v
L
2
(]0, 1[) et w L
2
(]0, 1[).
En utilisant (1.7), on voit que
_
x
0
v

n
(t) dt converge vers
_
x
0
w(t) dt dans
L
2
(]0, 1[) et, quitte `a extraire une sous-suite qui converge presque partout
[`a la fois pour v
n
et
_
x
0
v

n
(t) dt], on peut passer `a la limite dans legalite :
v
n
(x) =
n
+
_
x
0
v

n
(t) dt p.p.
et obtenir :
v(x) = +
_
x
0
w(t) dt p.p.
ce qui montre bien que v H
1
(]0, 1[) et donc que H
1
(]0, 1[) est complet.
Reste `a prouver la densite de C
1
([0, 1]) dans H
1
(]0, 1[), ce que nous ne
ferons pas en details ici
(5)
.
Denition 1.1. On designe par H
1
0
(]0, 1[) le sous-espace ferme de H
1
(]0, 1[)
des fonctions qui sannulent en x = 0 et en x = 1.
Remarque : Il est dabord important de remarquer que H
1
0
(]0, 1[) est bien
deni car les fonctions de H
1
(]0, 1[) peuvent etre vue comme des fonctions
continues `a cause de linjection de H
1
(]0, 1[) dans C
0,
1
2
(]0, 1[), ce qui donne
un sens `a leurs valeurs en 0 et 1 (alors que la denition initiale de H
1
(]0, 1[)
ne denissait les fonctions que presque partout...). Le fait que H
1
0
(]0, 1[) soit
ferme est un corollaire de la continuite de cette meme injection.
Nous admettrons dans la suite le resultat suivant :
Theor`eme 1.2. Lespace C
1
0
([0, 1]) est dense dans H
1
0
(]0, 1[) au sens de la
norme H
1
(]0, 1[).
La preuve de ce resultat nest pas si delicate : comme pour la densite de
C
1
([0, 1]) dans H
1
(]0, 1[) (preuve que nous navons pas faite non plus !), on
(5)
car cest un excellent exercice pour le lecteur ! Indication : utiliser la methode de
troncature et regularisation sur v

et ajoutez une pincee de (1.7).


22 CHAPITRE 1. EQUATIONS ELLIPTIQUES
doit tronquer et regulariser v

mais, ici, on a une contrainte supplementaire


du type
_
1
0
v

(t) dt = 0 quil faut preserver et meme etendre pour les


regularisees `a un intervalle du type [, 1 ] pour 0 < 1. Sans etre
inatteignable, cette preuve necessite un petit bagage technique...
Le resultat principal de cette section est le :
Theor`eme 1.3. Si u est la solution du probl`eme (1) avec la condition de
Dirichlet homog`ene (2), on a :
J(u) = min
wH
1
0
(]0,1[)
J(w).
De plus, toute suite minimisante delements de H
1
0
(]0, 1[) converge vers u
qui est lunique solution du probl`eme de minimisation de la fonctionnelle J
dans H
1
0
(]0, 1[).
Preuve : La premi`ere propriete provient simplement de la densite de les-
pace C
1
0
([0, 1]) dans H
1
0
(]0, 1[) et de la continuite de J.
La deuxi`eme partie necessite le resultat suivant :
Lemme 1.1. (Inegalite de Poincare) Pour tout element w H
1
0
(]0, 1[), on
a :
||w|||
H
1
(]0,1[)

_
1 +
1

2
_
||w

||
L
2
(]0,1[)
Une autre mani`ere dinterpreter (ou meme de formuler) ce resultat, cest
de dire que, sur H
1
0
(]0, 1[), lapplication w ||w

||
L
2
(]0,1[)
est une norme qui
est equivalente `a la norme H
1
(]0, 1[), puisque on a clairement :
||w

||
L
2
(]0,1[)
||w||
H
1
(]0,1[)

_
1 +
1

2
_
||w

||
L
2
(]0,1[)
.
On notera ||w||
H
1
0
(]0,1[)
= ||w

||
L
2
(]0,1[)
et ce sera desormais la norme que
nous utiliserons sur H
1
0
(]0, 1[). Une derni`ere consequence du lemme (ou plus
exactement de sa preuve) est que lon a aussi :
(1.10) ||w||
L
2
(]0,1[)

1

2
||w||
H
1
0
(]0,1[)
.
Preuve du Lemme : Si w H
1
0
(]0, 1[), puisque w(0) = 0, on a (pour tout
x [0, 1] car w est continu) :
w(x) =
_
x
0
w

(t) dt
et donc, par Cauchy-Schwarz :
|w(x)| x
1
2
||w

||
L
2
(]0,1[)
.
1.1. LE PROBL
`
EME DE DIRICHLET :

ETUDE TH

EORIQUE 23
On en deduit :
||w||
L
2
(]0,1[)

1

2
||w||
H
1
0
(]0,1[)
.
Et le resultat du lemme est ainsi etabli.
Retour sur la preuve du Theor`eme : commencons par montrer que J
est minoree sur H
1
0
(]0, 1[) :
J(w) =
1
2
||w||
2
H
1
0
(]0,1[)

_
1
0
f(t)w(t) dt
Do` u, par Cauchy-Schwarz :
J(w)
1
2
||w||
2
H
1
0
(]0,1[)
||f||
L
2
(]0,1[)
||w||
L
2
(]0,1[)
et en utilisant (1.10) :
J(w)
1
2
||w||
2
H
1
0
(]0,1[)
||f||
L
2
(]0,1[)
||w||
H
1
0
(]0,1[)

2
Or ab
a
2
2
+
1
2
b
2
pour tout > 0 donc :
J(w)
1
2
(1 )||w||
2
H
1
0
(]0,1[)

1
4
||f||
L
2
(]0,1[)
.
En choisissant = 1, on a la minoration souhaitee.
Soit maintenant (w

une suite minimisante pour J. En utilisant linegalite


precedente avec =
1
2
, on voit que (w

est bornee dans H


1
0
(]0, 1[) qui est
un espace de Hilbert. Donc il existe une sous-suite (w

qui converge fai-


blement dans H
1
0
(]0, 1[) vers w

. Comme J est convexe et continue, elle est


sci pour la topologie faible de H
1
0
(]0, 1[) et donc :
J(w

) limJ(w

) = min
vH
1
0
(]0,1[)
J(v).
Il en resulte que w

est une solution du probl`eme doptimisation.


Lemme 1.2. La fonction J est strictement convexe. Plus precisement, pour
tout couple (w
1
, w
2
) H
1
0
(]0, 1[) H
1
0
(]0, 1[) et tout reel [0, 1], on a :
J
_
w
1
+(1)w
2
_
J
_
w
1
_

_
1
_
J
_
w
2
_
=
(1 )
2
||w
1
w
2
||
2
H
1
0
(]0,1[)
24 CHAPITRE 1. EQUATIONS ELLIPTIQUES
Le lemme resulte dun simple calcul et du caract`ere quadratique de J.
Comme consequence si w
1
et w
2
sont deux solutions distinctes du probl`eme
doptimisation et si on pose m = min
vH
1
0
(]0,1[)
J(v) et en prenant =
1
2
:
J
_
w
1
+w
2
2
_

m
2

m
2
< 0
ou encore
J
_
w
1
+w
2
2
_
< m = min
vH
1
0
(]0,1[)
J(v)
Do` u la contradiction.
Donc le probl`eme doptimisation a une solution unique, u, et comme toutes
les sous-suites convergentes de la suite minimisante converge vers u, un ar-
gument de compacite classique montre que toute le suite (w

converge vers
u.
Exercice 4. On consid`ere le probl`eme de Dirichlet :
(P)
_
a(x)u

+b(x)u

+c(x)u = f dans ]0, 1[


u(0) = u(1) = 0,
o` u a, b, c, f C([0, 1]) et le probl`eme variationnel :
(P)
_
_
_
Trouver u H
1
0
(]0, 1[) tel que :
J( u) = min
vH
1
0
(]0,1[)
J(v),
avec :
J(v) =
1
2
_
1
0
_
(t)[v

(t)]
2
+ 2(t)v

(t)v(t) +(t)[v(t)]
2

dt
_
1
0
f(t)v(t)dt ,
o` u , et sont des fonctions continues (ou plus reguli`eres si necessaire)
avec (t) > 0 pour tout t [0, 1].
1.
`
A quelle condition liant , , et a, b, c, peut-on penser FORMELLE-
MENT que les deux probl`emes sont equivalents, cest-`a-dire que les solutions
de (P) et de (P) sont les memes.
2. Trouver une condition naturelle sur , , pour que J soit coercive.
3. Prouver que, sous cette meme condition, J est aussi strictement convexe
et C
1
.
4. En deduire que (P) admet une unique solution u H
1
0
(]0, 1[).
5. Trouver, de meme, une condition pour que lequation satisfasse le principe
du maximum (on pourra songer `a un changement de variable du type v(x) =
u(x) exp(Kx) ou bien v(x) = u(x) sin(k
1
x+k
2
) pour des constantes K, k
1
, k
2
bien choisie).
1.1. LE PROBL
`
EME DE DIRICHLET :

ETUDE TH

EORIQUE 25
Exercice 5.
1. Prouver le Theor`eme 1.2.
2. Demontrer linegalite de Hardy : si u H
1
0
(]0, 1[),
||
u(x)
x
||
L
2
(]0,1[)
c||u

||
L
2
(]0,1[)
,
pour une certaine constante c `a determiner.
Exercice 6. (Exercice recapitulatif pour ceux qui se sentent bien muscles !)
Soit h : R R une fonction de classe C

qui satisfait :
0 < h

(t) pour tout t R ,


pour certaines constantes et . On admettra quon a alors :
C
1
t
2
D
1
h(t) C
2
t
2
+D
2
pour tout t R ,
pour certaines constantes strictement positives C
1
, C
2
, D
1
, D
2
.
On consid`ere le probl`eme variationnel :
(P)
_
_
_
Trouver u H
1
0
(]0, 1[) tel que :
J(u) = min
vH
1
0
(]0,1[)
J(v),
avec :
J(v) =
_
1
0
h(v

(t))dt +
1
2
_
1
0
[v(t)]
2
dt
_
1
0
f(t)v(t)dt ,
avec f C([0, 1]).
1. Prouver que le probl`eme (P) admet au moins une solution u H
1
0
(]0, 1[)
qui satisfait :
v H
1
0
(]0, 1[),
_
1
0
h

(u

(t))v

(t)dt +
_
1
0
u(t)v(t)dt =
_
1
0
f(t)v(t)dt .
2. Pour x [0, 1], on pose :
w(x) = h

(u

(x))
_
x
0
u(t)dt +
_
x
0
f(t)dt .
Rappeler pourquoi u est une fonction continue et montrer que :
(1.11) pour tout v C
1
0
([0, 1]),
_
1
0
w(t)v

(t)dt = 0 .
3. En deduire que la fonction w est constante sur [0, 1]. (On pourra poser
w =
_
1
0
w(t)dt et prouver que w w satisfait egalement (1.11).
(NB : Courtesy of Du Bois-Raymond !)
26 CHAPITRE 1. EQUATIONS ELLIPTIQUES
4. Demontrer, en utilisant la question 3, que u C
1
([0, 1]) puis que u
C
2
([0, 1]). (On pourra remarquer que h

est une fonction strictement crois-


sante sur R.)
5. Prouver que u est solution du probl`eme de Dirichlet :
(P)
_
h

(u

)u

+u = f dans]0,1[
u(0) = u(1) = 0.
.
6. Demontrer que le probl`eme (P) admet une unique solution dans C
2
([0, 1])
et en deduire que le probl`eme (P) admet aussi une unique solution.
7. Prouver que :
||u||
L

]0,1[
||f||
L

]0,1[
.
et que u C
4
([0, 1]) si f C
2
([0, 1]).
1.2 Resolution numerique du probl`eme par la methode
des dierences nies
1.2.1 Discretisation de lequation : le schema numerique et
ses proprietes
Un mot dabord sur la terminologie dierences nies : lidee de cette
methode est de remplacer les derivees usuelles par des derivees discr`etes.
On obtient dabord une approximation des derivees premi`eres en les rem-
placant par des quotients dierentiels : typiquement, si h > 0 est petit,
u

(x)
u(x +h) u(x)
h
,
et le second membre est une dierence nie car on na pas encore pris h in-
niment petit. En iterant le processus, on peut denir des derivees discr`etes
dordres superieurs, ce qui permet davoir des approximations de toutes les
derivees.
Deux remarques : dabord en pratique, on utilisera plutot la formule de
Taylor pour obtenir des approximations des derivees dordres superieurs car
cest plus simple. Ensuite, on voit dans lexemple ci-dessus de lapproxima-
tion de la derivee premi`ere que lon a aussi :
u

(x)
u(x) u(x h)
h
ou u

(x)
u(x +h) u(x h)
2h
,
et, en fait, on se rend vite compte quil y a souvent beaucoup de possibi-
lites dierentes pour approcher une derivee. Cest une richesse qui am`enera
parfois des dicultes (voir le chapitre sur les equations de transport) car
le choix de telle ou telle approximation ne sera pas toujours anodin et on
pourra avoir des comportements tr`es dierents suivant les cas. Il faut aussi
1.2. LE PROBL
`
EME DE DIRICHLET : APPROCHE NUM

ERIQUE 27
prendre en compte la complexite des calculs et ne pas choisir de formules
trop compliquees qui pourront generer des calculs longs.
Apr`es cette introduction, nous revenons `a la resolution du probl`eme de
Dirichlet (1)-(2). Comme lordinateur ne peut manipuler quun nombre ni
de valeurs, on choisit N points de lintervalle [0, 1] :
x
0
= 0 < x
1
< x
2
< x
N1
< x
N
< x
N+1
= 1 ,
et on va chercher `a calculer une bonne approximation u
j
de u(x
j
) pour
tout 1 i N via un schema numerique, cest-`a-dire un certain nombre
dequations permettant de determiner les u
j
. La notion de bonne approxi-
mation depend des applications, et donc, en general, de lordre de grandeur
des u(x
j
) et de la precision souhaitee.
Lensemble des points x
j
sappelle une grille ou un maillage et chaque
intervalle ]x
j
, x
j+1
[ est souvent appele une maille. Lexemple le plus simple
est celui de la grille uniforme o` u lon a :
x
j
=
j
N + 1
pour 0 j N + 1 .
Dans ce cas, la taille de la maille (x
j+1
x
j
) est constante et on la no-
tera suivant les cas x ou h. La quantite x est souvent appelee pas de
discretisation. Dans le cas general, la nesse du maillage est mesuree par
la quantite :
D
N
:= max
0jN
(x
j+1
x
j
) .
Dans toute la suite, pour simplier la presentation, nous utiliserons une grille
uniforme.
Nous passons maintenant au schema numerique : il sagit de remplacer
lequation continue (1) et la condition aux limites (2) par un syst`eme
dequations sur les x
j
. Pour cela, on consid`ere le point x
j
et on ecrit la
formule de Taylor pour u au point x
j
, en utilisant les points voisins x
j+1
et
x
j1
:
u(x
j+1
) = u(x
j
+x) = u(x
j
) +u

(x
j
)x +
1
2
u

(x
j
)(x)
2
+o((x)
2
) ,
u(x
j1
) = u(x
j
x) = u(x
j
) u

(x
j
)x +
1
2
u

(x
j
)(x)
2
+o((x)
2
) .
En sommant ces deux egalites, en retranchant 2u(x
j
) et en divisant par
(x)
2
, on voit que :
(1.12)
u(x
j+1
) +u(x
j1
) 2u(x
j
)
(x)
2
= u

(x
j
) +o(1) .
Cette formule donne une approximation de u

(x
j
) par une quantite ne
dependant que des valeurs de u (u(x
j+1
), u(x
j
) et u(x
j1
)) et il est naturel
28 CHAPITRE 1. EQUATIONS ELLIPTIQUES
de remplacer lequation (1) par :
(1.13)
u
j+1
+u
j1
2u
j
(x)
2
= f
j
pour 1 j N ,
o` u f
j
= f(x
j
), puisque lon cherche des u
k
qui sont des approximations des
u(x
k
). Nous avons pu ecrire cette equation pour tout j, et en particulier
pour j = 1 et j = N, en utilisant la condition aux limites et la convention
u
0
= u(x
0
) = u(0) = 0 et u
N+1
= u(x
N+1
) = u(1) = 0.
Le syst`eme dequations sur les u
j
est donc un syst`eme lineaire de N
equations `a N inconnues. Avant de letudier, theoriquement et de mani`ere
plus pratique, un peu de vocabulaire : dans (1.12), la dierence nies du
membre de gauche est une approximation consistante de u

(x
j
) car elle ne
di`ere de cette derivee seconde que dun o(1). Comme dej`a mentionne plus
haut (1.13) est appele schema dapproximation numerique de (1)-(2). Ce
schema est consistant car, en remplacant dans (1.13) les u
k
par des u(x
k
)
ET en supposant u tr`es regulier, on retrouve (1) `a un o(1) pr`es.
Donnons une denition plus formelle de la consistance. On consid`ere
lequation generale :
(E) Lu = f dans ]a, b[ ,
et une grille x
0
= a < x
1
< x
2
< x
N1
< x
N
< x
N+1
= b ; on note
toujours u
k
une approximation de u(x
k
). Un schema numerique approchant
(E) peut etre ecrit sous la forme :
(SN) G
N
j
(u
1
, u
2
, , u
N1
, u
N
) = 0 pour 1 j N ,
o` u, disons, les G
N
j
sont des fonctions continues. La j
`eme
equation G
N
j
= 0
represente lapproximation de lequation Lu(x
j
) = f(x
j
), donc de lequation
(E) au point x
j
, le N faisant reference au nombre de points de la grille.
Denition 1.2. Le schema numerique (SN) est dit consistant avec lequation
(E) si, pour tout 1 j N, il existe une suite (
N
j
)
N
de reels telle que,
pour toute fonction de classe C

sur R, on ait :

N
j
G
N
j
_
(x
1
), (x
2
), , (x
N1
), (x
N
)
_
= Lu(x
j
) f(x
j
) +o(1)
quand N tend vers linni.
Cette denition est tr`es imparfaite et elle est plus compliquee que la
realite sous-jacente : si, dans le schema numerique, on remplace les u
k
par des
(x
k
) o` u est une fonction tr`es reguli`ere, on doit retrouver lequaation `a un
o(1) pr`es, quitte `a renormaliser le schema par des
N
j
. Cette renormalisation
est due au fait que si G
N
j
= 0 est un schema consistant, NG
N
j
= 0 qui a
les memes solutions doit letre aussi, de meme que N
2
G
N
j
= 0. Les
N
j
prennent en compte ces modications eventuelles du schema.
1.2. LE PROBL
`
EME DE DIRICHLET : APPROCHE NUM

ERIQUE 29
La verication de la consistance seectue toujours `a laide de la formule
de Taylor, ce qui ne pose aucun probl`eme theorique puisque est de classe
C

sur R et donc elle satisfait des formules de Taylor `a tous les ordres. La
consistance est donc une propriete quasi-formelle puisque tous les calculs
sont justies a priori vu la regularite de . Il est `a noter que la solution
nintervient pas du tout.
Il est naturel de penser que plus le schema reproduit d`element lequation,
plus il sera precis et donc il est interessant de mesurer cette proximite
equation-schema ; ceci donne lieu `a la notion dordre qui precise le o(1) de
la consistance.
Denition 1.3. Le schema numerique (SN) est dordre k 1 si, pour tout
1 j N, il existe une suite (
N
j
)
N
de reels telle que, pour toute fonction
de classe C

sur R, on ait :

N
j
G
N
j
_
(x
1
), (x
2
), , (x
N1
), (x
N
)
_
= Lu(x
j
) f(x
j
) +o
_
(x)
k
_
quand N tend vers linni.
Cette denition est naturelle dans le cas dun maillage uniforme ; on peut
letendre au cas dun maillage quelconque en utilisant les D
N
introduit plus
haut.
La verication de la consistance et de lordre seectue simultanement :
la seule dierence, cest quil faut pousser un peu plus loin le developpement
de Taylor pour avoir lordre. Dans le cas de (1.13), on a :
G
N
j
_
(x
1
), (x
2
), , (x
N1
), (x
N
)
_
=
(x
j+1
) +(x
j1
) 2(x
j
)
(x)
2
f(x
j
)
=

(x
j
) f(x
j
)

1
12

(4)
(x
j
)(x)
2
+o
_
(x)
4
_
.
Le schema est donc dordre 2.
Remarque : On peut penser que plus un schema numerique est dordre
eleve, plus il est precis ; cest en general vrai avec trois reserves :
1. Un BON schema dordre eleve est plus precis : il y a des cas o` u des
schemas dordres eleves ne convergent meme pas...
2. Lordre de convergence va dependre de la regularite de la solution : si la
solution u nest pas C
4
, on ne voit pas pourquoi le calcul ci-dessus impli-
querait une precision dordre (x)
2
. Nous verrons cette inuence plus en
details dans la partie consacree aux estimations de convergence.
3. Un schema dordre eleve utilise beaucoup de points (exo : construire pour
(1) un schema dordre 3 et dordre 4 pour le verier) et ceci rend les calculs
plus complexes et plus co uteux en temps. Il faut penser au rapport qua-
lite/prix...
30 CHAPITRE 1. EQUATIONS ELLIPTIQUES
Exercice 7.
1. Donner une approximation dordre 3 de u

et dordre 4 de u

.
2. Proposer plusieurs schemas numeriques consistants pour les equations des
exercices 1, 4, 6.
1.2.2

Etude du syst`eme lineaire donne par le schema
On pose U = (u
j
)
1jN
et F = (f
j
)
1jN
. U et F sont deux vecteurs
de R
N
. On introduit la matrice :
A =
_
_
_
_
_
_
_
_
_
_
_
2 1 0 0
1 2 1 0 0
0 1 2 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
.
.
.
.
.
.
.
.
.
1
0 0 1 2
_
_
_
_
_
_
_
_
_
_
_
Le schema numerique se reecrit sous la forme :

1
(x)
2
AU = F .
Il est `a noter que la matrice A est symetrique et (plus important encore
numeriquement) elle est creuse : seuls 3N 2 coecients sont non nuls sur
les N
2
possibles. On na donc `a stocker en memoire que 3N 2 nombres au
lieu de N
2
. Bien s ur, ici, la simplicite de la matrice fait que lon nen stocke
pas vraiment 3N 2...
Avant de rappeler comment resoudre en pratique ce syst`eme lineaire, on
va en etudier certaines proprietes.
1. Les valeurs propres de A.
Comme A est symetrique, toutes ses valeurs propres sont reelles et A est
diagonalisable dans une base orthonormee. On va calculer toutes les valeurs
propres de A et les vecteurs propres associes.
Si U = (u
j
)
1jN
est un vecteur propre de A associe `a la valeur propre
, on a, en posant u
0
= u
N+1
= 0 :
u
j+1
+u
j1
2u
j
= u
j
pour 1 j N ,
i.e.
u
j+1
+u
j1
(2 +)u
j
= 0 pour 1 j N .
Pour calculer les u
j
, lidee est de considerer cette egalite comme une suite
recurrente dordre 2. On introduit lequation caracteristique :
r
2
(2 +)r + 1 = 0 .
1.2. LE PROBL
`
EME DE DIRICHLET : APPROCHE NUM

ERIQUE 31
Si lequation caracteristique a une racine double, comme :
= (2 +)
2
4 ,
alors on a = 0 ou = 4. La racine double est 1 si = 0 et 1 si = 4.
Montrons que ces deux cas sont impossibles.
Si = 0 alors la theorie des suite recurrentes nous dit quil existent
, R tels que, pour tout j :
u
j
= (1)
j
+j(1)
j
= +j .
Comme u
0
= u
N+1
= 0, on en deduit dabord = 0 en utilisant u
0
= 0 puis
= 0 en utilisant u
N+1
= 0. Donc u
j
= 0 pour tout j et donc on na pas
aaire `a un vecteur propre. La preuve est analogue dans le cas = 4.
Si lequation caracteristique a deux racines distinctes, r
1
, r
2
,
alors on a, pour tout j :
u
j
= r
j
1
+r
j
2
.
pour certaines constantes , R. Comme u
0
= 0, on a = et, puisque
nous cherchons U non nul (donc = 0), u
N+1
= 0 conduit `a r
N+1
1
= r
N+1
2
.
Mais, par le lien entre coecients et racines de lequation du deuxi`eme ordre,
on a r
1
r
2
= 1 et en multipliant legalite precedente par r
N+1
1
, on a forcement :
r
2(N+1)
1
= 1 .
Il existe donc un entier k tel que r
1
= exp(2ik/2(N + 1)), ce qui donne en
utilisant encore le lien entre coecients et racines de lequation du deuxi`eme
ordre :
2 + = r
1
+r
2
= r
1
+r
1
1
= 2 cos
_
k
N + 1
_
,
et :
u
j
= (r
j
1
r
j
2
) = 2sin
_
jk
N + 1
_
.
On verie facilement quen faisant varier k de 1 `a N, on obtient ainsi N
valeurs propres reelles
k
et N vecteurs propres U
k
= (u
k
j
)
j
associes :

k
= 2
_
cos
_
k
N + 1
_
1
_
,
et :
u
k
j
= sin
_
jk
N + 1
_
.
On remarque que toutes les valeurs propres sont strictement negatives
et la plus grande (donc la plus proche de 0) est :

1
= 2
_
cos
_

N + 1
_
1
_


2
(N + 1)
2
.
32 CHAPITRE 1. EQUATIONS ELLIPTIQUES
Si on fait le produit scalaire de lequation :

1
(x)
2
AU = F ,
par U, on obtient :


1
(x)
2
||U||
2

1
(x)
2
(AU, U) = (F, U) ||F||.||U|| ,
en utilisant le produit scalaire standard sur R
N
et la norme euclidienne
associee. Il en resulte :
||U||
(x)
2

1
||F||
1

2
||F|| .
Cette inegalite donne une estimation de ||U|| et nous am`ene `a nous poser
la question de la stabilite du schema : les calculs concrets sur ordinateurs vont
fonctionner si les u
j
calcules restent bornes et meme relativement petits ;
sinon lordinateurs arretera le calcul car il ne pourra plus gerer les nombres
trop grands qui apparaitront.
La propriete ci-dessus implique-t-elle la stabilte du schema ? La reponse
est : oui et non (mais plutot non). Si on examine ||F||
2
=

N
i=1
f
2
j
, on voit
que les f
j
etant seulement bornes [Rappel : f
j
= f(x
j
)], a priori ||F||
2
ne
reste pas borne quand N tend vers linni et donc ||U||
2
non plus. Par contre,
la quantite :
x||F||
2
= x
N

i=1
[f(x
j
)]
2

_
1
0
[f(t)]
2
dt ,
(pensez `a la methode des rectangles) reste borne et donc x||U||
2
aussi.
Mais cette propriete nimplique pas que les u
j
soient bornes. En fait, on a
une stabilite L
2
, cest-`a-dire que la fonction constante par morceaux dont les
valeurs sur chaque maille sont donnees par les u
j
est bornee dans lespace
L
2
. Mais pas forcement dans L

...
Or nous souhaitons avoir cette stabilite L

au sens de la denition sui-


vante :
Denition 1.4. Le schema numerique (SN) est dit stable sil admet une
solution et si cette solution satisfait :
max
1jN
|u
j
| C (constante independante de N.
2. Monotonie et stabilite.
On va dabord montrer que le schema numerique satisfait le principe
du maximum discret. Pour cela, on introduit sur R
N
la relation dordre
suivante : si F = (f
j
)
j
et G = (g
j
)
j
, on dira que F G si f
j
g
j
pour tout
j et, en particulier, on dira que F 0 si f
j
0 pour tout j.
1.2. LE PROBL
`
EME DE DIRICHLET : APPROCHE NUM

ERIQUE 33
Proposition 1.6. Si U est la solution de (1.13) associee `a F et si F 0
alors U 0.
Corollaire 1.1. Si U est la solution de (1.13) associee `a F, si V est la
solution de (1.13) associee `a G = (g
j
)
j
et si F G alors U V .
La preuve du corollaire est immediate en appliquant la Proposition 1.6
`a V U et GF.
Preuve : On raisonne comme pour le principe du maximum pour lequation
(1). Avec la convention habituelle u
0
= u
N+1
= 0, on consid`ere :
min
0jN+1
u
j
,
qui est atteint en un certain u
j
0
. Si j
0
= 0 ou N + 1, cest termine puisque
le min serait nul donc tous les u
j
0. Sinon on peut ecrire le schema en j
0

u
j
0
+1
+u
j
0
1
2u
j
0
(x)
2
= f
j
0
0 ,
et donc :
u
j
0
+1
+u
j
0
1
2u
j
0
0 .
Mais, par la propriete de minimum, u
j
0
u
j
0
+1
et u
j
0
u
j
0
1
et donc
le premier membre est positif ; il est meme strictement positif si lune des
deux inegalites u
j
0
u
j
0
+1
et u
j
0
u
j
0
1
est stricte. Il en resulte que
necessairement u
j
0
= u
j
0
+1
et u
j
0
= u
j
0
1
.
Mais alors, si le minimum des u
j
est atteint pour un certain j
0
, il lest
aussi pour j
0
+ 1 et j
0
1 et en considerant le plus petit (ou le plus grand)
de ces j
0
on obtient une contradiction car forcement le min est atteint pour
j
0
= 0 et j
0
= N + 1.
Deduisons maintenant la stabilite du schema du principe du maximum
discret.
Theor`eme 1.4. Si U est la solution de (1.13) associee `a F, on a :
max
1jN
|u
j
|
1
8
||f||

.
Preuve : Montrons que, pour tout j, u
j

1
8
||f||

; le resultat complet
sobtient `a partir de cette inegalite en changeant U en U.
Notons W la solution associee `a G = (||f||

)
j
(toutes les coordonnees
de G sont les memes et elles sont egales `a ||f||

). Ce schema est associe au


probl`eme de Dirichlet :
w

= ||f||

avec w(0) = w(1) = 0 ,


34 CHAPITRE 1. EQUATIONS ELLIPTIQUES
dont la solution se calcule facilement :
w(x) =
1
2
||f||

x(1 x) .
Des calculs assez simples montrent quen fait W =
_
w(x
j
)
_
j
; on a donc une
resolution exacte dans ce cas particulier
(6)
.
Comme F G, on a U W et une estimation facile de la norme L

de w permet de conclure.
En examinant de plus pr`es la preuve de la Proposition 1.6, on constate
que le point cle est la monotonie du schema que nous denissons maintenant.
Denition 1.5. Le schema numerique (SN) est dit monotone si, pour tout
j, la fonction G
N
j
est decroissante par rapport `a u
k
pour tout k = j.
Exercice 8.
1. On consid`ere lequation (1) associee `a une condition de Neumann ou une
condition mixte (Dirichlet en 0 et Neumann en 1). Comment se modie le
schema numerique et le syst`eme lineaire associe dans ces deux cas ? Est-il
toujours inversible ? (Si la reponse est non, on pourra expliquer pourquoi et
trouver un moyen de le rendre inversible.)
2. Reprendre les schemas numeriques consistants obtenus dans lexercice 7
pour les equations des exercices 1, 4, 6 ; etudier leur proprietes et, en parti-
culier, leur stabilite L

. (Si ce nest dej`a fait, on trouvera pour ces equations


des schemas numeriques monotones pour lesquels on montrera que le prin-
cipe du maximum discret est satisfait.)
3. Resoudre numeriquement le probl`eme de lexercice 3 (on noubliera pas
dutiliser la periodicite et dindiquer ce quelle apporte).
1.3 Rappels sur quelques methodes numeriques de
resolution de syst`emes lineaires
Lerreur nave que pourrait faire un lecteur peu averti serait de croire que
le fait que lon sache quune matrice A M
n
(R) est inversible (par exemple
en calculant son determinant) resout le probl`eme puisque lon dispose des
Formules de Cramer. Sil y reechit quelques instants, il conviendra que le
co ut de calcul de chaque coecient de A
1
par la methode des cofacteurs,
est egal, outre la division par le determinant de A quil faut aussi calculer,
`a celui C
n1
du calcul dun determinant (n 1) (n 1). Il est clair que
si on utilise le developpement par rapport `a une colonne on obtient ainsi
C
n1
= (n 1)C
n2
+ n 2 ce qui prouve que cette formule conduit `a un
(6)
Le lecteur pourra relier cette propriete avec letude de la consistance et de lordre du
schemas en se souvenant que, pour un polynome, la formule de Taylor est exacte.
1.3. R

ESOLUTION DE SYST
`
EMES LIN

EAIRES 35
co ut dinversion superieur `a n! operations ! ! ! ! Meme avec les ordinateurs les
plus puissants, on ne pourrait pas traiter de grandes matrices.
Donc la resolution dun syst`eme de la forme Ax = b ne se fera JAMAIS
par le calcul de A
1
puis de A
1
b.
1.3.1 Les methodes directes
Les methodes directes nous donnent loccasion dillustrer le propos ci-
dessus . On peut generalement les decrire de la mani`ere suivante : si on veut
resoudre dans R
N
le syst`eme Ax = b, on proc`ede comme suit :
1`ere Etape : elimination. On determine une matrice M inversible (que
lon ne calcule jamais dans la pratique) de telle sorte que la matrice MA
soit facile `a inverser (typiquement triangulaire superieure).
2`eme Etape : remontee. On resout le syst`eme lineaire :
MAx = Mb
par une methode dite de remontee que nous decrivons maintenant : comme
MA est triangulaire superieure, le syst`eme lineaire est de la forme :
(S) :
_

_
t
11
x
1
+t
12
x
2
+. . . +t
1N
x
n
= c
1
.
.
.
t
ii
x
i
+. . . +t
iN
x
n
= c
i
.
.
.
t
NN
x
n
= c
N
Et chaque coecient t
i,i
est non nul puisque la matrice MA est inversible
comme produit de matrice inversible.
Pour resoudre ce syst`eme, on commence par la derni`ere equation qui
permet de calculer dabord x
N
, puis on calcule x
N1
par lavant-derni`ere et
on remonte ainsi, en calculant successivement tous les x
i
.
Rappels sur la methode de Gauss :
Ce que lon decrit ici, cest evidemment la premi`ere etape dite delimination,
la deuxi`eme etant compl`etement automatique.
On pose A = (a
i,j
)
i,j
. Comme A est inversible, la premi`ere colonne de
A est non nulle ; il existe donc un indice i
0
pour lequel a
i
0
,1
= 0. Pour
des raisons derreur darrondis sur lesquelles nous reviendrons plus tard, on
choisit en fait un indice i
0
tel que :
|a
i
0
,1
| = max
1iN
|a
i,1
|
puis on permute la premi`ere ligne et la ligne i
0
de A ce qui revient `a multiplier
la matrice A par la matrice de permutation :
36 CHAPITRE 1. EQUATIONS ELLIPTIQUES
P
ij
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 . . . . . . . . . 0
0 1 0 0 . . . . . .
.
.
.
0 0 0 0 1 . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 0 0 0
.
.
.
0 . . . . . . . . . 0 1 0
0 . . . . . . . . . . . . 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
ligne i
ligne j

col. i col. j
qui echange la ligne i et la ligne j avec, dans notre cas, i = 1 et j = i
0
. On
a evidemment det P
ij
= 1.
On se retrouve avec une matrice P
1,i
0
A = (
i,j
)
i,j
dont le coecient
1,1
est non nul et donc (cest une autre facon de le voir) avec le syst`eme lineaire :
(S) :
_

1,1
x
1
+
1,2
x
2
+. . . +
1,N
x
n
= c
1
. . . . . .

j,1
x
1
+
j,2
x
2
+. . . +
j,N
x
n
= c
i
. . . . . .

N,1
x
1
+
N,2
x
2
+. . . +
N,N
x
n
= c
N
On elimine alors u
1
des (N 1) derni`eres equations en changeant la ligne j,
L
j
du syst`eme en L
j


j,1

1,1
L
1
, ce qui revient `a multiplier la matrice P
1,i
0
A
`a gauche par la matrice :
E
1
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 . . . . . . . . . 0

2,1

1,1
1 0 0 . . . . . .
.
.
.

3,1

1,1
0 1 0 0 . . .
.
.
.
.
.
. 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
.
.
.
0
.
.
.

N1,1

1,1
0 . . . . . . 0 1 0

N,1

1,1
0 . . . . . . . . . 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
On note P
1
= P
1,i
0
. Le bilan matriciel de cette premi`ere etape secrit :
E
1
P
1
Au = E
1
P
1
b
o` u, maintenant, la matrice A
1
= E
1
P
1
A a pour forme :
_
_
_
_
_

1,1

1,2

1,N
0
.
.
.

A
1
0
_
_
_
_
_
.
1.3. R

ESOLUTION DE SYST
`
EMES LIN

EAIRES 37
On applique alors le meme argument `a la matrice

A
1
qui est inversible
puisque
1,1
det(

A
1
) = det E
1
det P
1
det A = det A
et on se retrouve avec :
A
2
= E
2
P
2
E
1
P
1
A =
_
_
_
_
_
_
_

1,1

1,2

1,N
0
2,2

2,N
0 0
.
.
.
.
.
.

A
2
0 0
_
_
_
_
_
_
_
o` u P
2
est une matrice de permutation de la forme P
j,2
avec j 2 et E
2
est
de la forme :
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
0 1 0 0
0
.
.
. 0
.
.
.
0
0 0 0 1
_
_
_
_
_
_
_
Et on continue : pour la k
i`eme
etape, on a une matrice du type :
_
_
_
_
_
_
_
_
_
_
_
_
a
(k)
1,1
a
(k)
1,2
a
(k)
1,N
0 a
(k)
2,2
a
(k)
2,N
.
.
. 0
.
.
.

.
.
.
.
.
. 0 a
(k)
k,k
a
(k)
k,N
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 a
(k)
N,k
a
(k)
N,N
_
_
_
_
_
_
_
_
_
_
_
_
On permute eventuellement les lignes pour que a
(k)
k,k
= 0, ce qui revient `a
multiplier `a gauche par une maatrice de permutation P
k
puis on multiplie `a
gauche par une matrice E
k
de la forme :
_
_
_
_
_
_
_
_
_
_
_
1 0 0
0
.
.
.
0 0
0 0 1 0 0
0
.
.
.
.
.
.
0
0 0
.
.
. 0
.
.
.
0
0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
ce qui revient `a faire des combinaisons de lignes pour annuler les a
(k)
j,k
pour
k + 1 j N.
La matrice :
A
N
:= E
N1
P
N1
E
1
P
1
A
38 CHAPITRE 1. EQUATIONS ELLIPTIQUES
que lon obtient nalement est triangulaire superieure et on a realise letape
delimination avec :
M := E
N1
P
N1
E
1
P
1
.
Remarque : 1. On ne peut etre que frappe par la simplicite de toutes les
etapes de cette procedure : combinaisons lineaires et permutations de lignes,
il ny a que des etapes elementaires. Bien s ur, le calcul de Mb se fait de la
meme mani`ere, en appliquant les memes operations `a b.
2.
`
A cause des erreurs darrondies, il vaut mieux choisir le meilleur pivot,
celui dont la taille est la plus grande comme le montre lexemple caricatural
suivant :
_
10
4
x
1
+x
2
= 1
x
1
+x
2
= 2
La solution est x
1
= (1 10
4
)
1
1 et x
1
= (1 210
4
)(1 10
4
)
1
1.
Le pivot de Gauss conduit au syst`eme :
_
10
4
x
1
+x
2
= 1
9999x
1
+x
2
= 9998
Si les nombres 9998 et 9999 sont arrondis de la meme mani`ere tous les deux
alors x
2
= 1 et la premi`ere equation conduit `a x
1
= 0, ce qui ne redonne pas
vraiment la solution du syst`eme !

Eviter des pivots trop petits parat donc
tr`es utile...
3. La methode de Gauss necessite de lordre de :
N
3
/3 additions, N
3
/3 multiplications, N
2
/2 divisions
alors que les formules de Cramer requi`erent :
(N + 1)! additions, (N + 2)! multiplications, N divisions
Faire N = 10 et comparer ! (700 vs 400 000 000)
Malgre ses avantages, la methode de Gauss nest vraiment utilisee en
Analyse Numerique que pour resoudre des probl`emes o` u la matrice A na
aucune propriete particuli`ere. Sinon des algorithmes plus performants lui
seront preferes (cf. la factorisation de Cholesky plus bas).
Factorisation LU dune matrice
Si lon doit resoudre non pas un seul syst`eme lineaire mais un grand
nombre de syst`emes lineaires avec la meme matrice (voir les sections consacrees
aux probl`emes devolution), il peut etre interessant de conserver en memoire
les operations faites sur la matrice au cours du pivot de Gauss et donc ne
faire letape delimination quune seule fois.
En fait, si on na pas de probl`eme de pivot nul (cest-`a-dire si a
(k)
k,k
= 0
pour tout k) et si lon peut donc eviter de permuter les lignes, on peut
choisir P
1
= = P
N1
= Id. La matrice M = E
N1
E
1
est triangulaire
1.3. R

ESOLUTION DE SYST
`
EMES LIN

EAIRES 39
inferieure et MA est triangulaire superieure : en posant U = MA et L =
M
1
, on voit que : A = LU, L est triangulaire inferieure et U est triangulaire
superieure. On a bien factorise A comme produit dune matrice triangulaire
inferieure et dune matrice triangulaire superieure.
Dans ces conditions, la resolution de Ax = b se fait simplement par une
descente-remontee : en eet, si on pose w = Ux, le syst`eme Ax = b se
decompose en :
Lw = b (qui se resout par une descente)
Ux = w (qui se resout par une remontee)
Une fois connus L et U, on resout donc Ax = b de mani`ere extremement
ecace, do` u linteret de la factorisation LU, surtout si on a 100 000 syst`emes
lineaires `a resoudre...
La methode de Gauss nous fournit dej`a U et pour L, on remarque que,
dune part :
L = E
1
1
E
1
N1
,
et dautre part que le calcul des E
1
k
est simple puisque si :
E
k
=
_
_
_
_
_
_
_
_
_
_
_
1 0 0
0
.
.
.
0 0
0 0 1 0 0
0
.
.
. l
k+1,k
.
.
.
0
0 0
.
.
. 0
.
.
.
0
0 0 l
N,k
0 0 1
_
_
_
_
_
_
_
_
_
_
_
alors :
E
k
=
_
_
_
_
_
_
_
_
_
_
_
1 0 0
0
.
.
.
0 0
0 0 1 0 0
0
.
.
. l
k+1,k
.
.
.
0
0 0
.
.
. 0
.
.
.
0
0 0 l
N,k
0 0 1
_
_
_
_
_
_
_
_
_
_
_
Le calcul de L est donc immediat `a partir de la methode de Gauss.
Il reste `a se demander quand on peut vraiment prendre P
1
= =
P
N1
= Id. Le resultat est le suivant :
Theor`eme 1.5. Si A est une matrice carree N N telle que les N sous-
matrices :

k
=
_
_
_
a
1,1
a
1,k
.
.
.
.
.
.
a
1,1
a
k,k
_
_
_
40 CHAPITRE 1. EQUATIONS ELLIPTIQUES
soient inverversibles, alors il existe une unique factorisation A = LU o` u
U est matrice N N triangulaire superieure et L est une matrice N N
triangulaire inferieure avec L
i,i
= 1 pour 1 i N.
Remarque : La condition imposant des 1 sur la diagonale de L sert `a
demontrer lunicite car, dans ce type de decomposition, U et L sont denies
`a une multiplication par une matrice diagonale pr`es. Il faut donc introduire
une normalisation pour avoir lunicite.
Preuve : On proc`ede par recurrence : comme a
1,1
= det(
1
) = 0, le premier
pivot est bien non nul et P
1
peut etre pris egal `a lidentite. Supposons
maintenant que lon a pu prendre P
1
= = P
k1
= Id et verions que le
k
i`eme
pivot est non nul. Legalite A
k
= E
k1
E
1
A secrit :
_
_
_
_
_
_
_
_
a
(k)
1,1
a
(k)
1,k

0
.
.
.
.
.
.
0 0 a
(k)
k,k

0 0
0 0
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
1 0 0 0

.
.
.
.
.
.
.
.
.
.
.
.
1 0 0
0 1 0
0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_

k




_
_
_
_
_
_
En utilisant les r`egles de multiplications des matrices par blocs et en calcu-
lant le determinant, on a :
a
(k)
1,1
a
(k)
k,k
= 1.det(
k
)
do` u a
(k)
k,k
= 0 puisque det(
k
) = 0,
k
etant inversible. On peut donc
prendre P
k
= Id et lexistence est demontree.
Pour lunicite, si A = L
1
U
1
= L
2
U
2
avec L
1
, U
1
et L
2
, U
2
satisfaisant les
conditions du theor`eme, on en deduit :
L
1
2
L
1
= U
2
U
1
1
.
Or le membre de gauche est triangulaire inferieur alors que celui de droite est
triangulaire superieur ; il en resulte que les deux membres sont des matrices
diagonales et il sagit en fait de lidentite car L
1
2
L
1
a des 1 sur sa diagonale
puisque cest le cas de L
1
et L
2
.
Donc L
1
= L
2
et U
1
= U
2
, lunicite est demontree.
Factorisation de Cholesky
Theor`eme 1.6. Si A est une matrice symetrique denie positive, il existe
une unique matrice reelle triangulaire inferieure telle que :
A = BB
T
,
et telle que B
i,i
> 0 pour tout 1 i N.
1.3. R

ESOLUTION DE SYST
`
EMES LIN

EAIRES 41
La factorisation de Cholesky est donc une factorisation de type LU
particuli`ere puisque, dans ce cas, U = L
T
. Un premier avantage clair est
leconomie de stockage des coecients des matrices de la factorisation car
on la divise ici par 2. On en verra un autre avantage plus loin lie au calcul
de B qui seectuera de mani`ere plus economique que pour une factorisation
LU classique.
Preuve : On remarque tout dabord que les N sous-matrices
k
introduite
dans le resultat de la factorisation LU sont toutes symetriques, denies po-
sitives (donc inversibles). En fait,
k
est la matrice de la forme quadratique
q(x) = (Ax, x) mais restreinte `a lespace vectoriel V ect(e
1
, , e
k
) o` u (e
i
)
i
designe la base canonique de R
N
.
Une autre facon de le voir est de se rappeler quil existe > 0 tel que :
(Ax, x) ||x||
2
pour tout x = (x
1
, , x
N
) R
N
,
et quen faisant x
k+1
= = x
N
= 0, on voit que
k
satisfait la meme
propriete.
Donc A admet une factorisation LU. De plus, si U = (u
i,j
)
i,j
alors les u
i,i
sont strictement positifs car la preuve de la factorisation LU montre que,
pour tout k :
det(
k
) =
k

i=1
u
i,i
.
De plus, comme A est symetrique, on a :
A = A
T
= (LU)
T
= U
T
L
T
.
U
T
est une matrice triangulaire inferieure alors que L
T
est triangulaire
superieure mais on ne peut pas appliquer directement le resultat dunicite
car U
T
na pas forcement des 1 sur la diagonale. Pour se ramener `a ce cas,
on introduit la matrice = diag
_

u
i,i
_
dont on intercale le carre dans
cette egalite :
A = (U
T

2
)(
2
L
T
) .
Maintenant U
T

2
est triangulaire inferieure avec des 1 sur la diagonale,
alors que
2
L
T
est triangulaire superieure et, par unicite, on deduit U
T

2
=
L,
2
L
T
= U.
Enn, on ecrit :
A = (L)(
1
U)
et on pose B = L, C =
1
U. Le calcul de B
T
donne :
B
T
= (L)
T
= L
T
=
1
U = C
ce qui donne le resultat voulu.
Calcul pratique de B :
42 CHAPITRE 1. EQUATIONS ELLIPTIQUES
On pose :
B =
_
_
_
_
_
_
b
1,1
0 0
.
.
.
.
.
.
0
.
.
. b
i,j
.
.
.
0
b
N,1
b
N,N
_
_
_
_
_
_
et on deduit de A = BB
T
les relations suivantes pour la premi`ere ligne de
A = (a
i,j
)
i,j
:
a
1,1
= b
2
1,1
do` u b
1,1
=

a
1,1
a
1,2
= b
1,1
b
2,1
do` u b
2,1
= a
1,2
/

a
1,1
.
.
.
a
1,N
= b
1,1
b
N,1
do` u b
N,1
= a
1,N
/

a
1,1
On determine donc la premi`ere colonne de B en utilisant la premi`ere ligne
de A.
De mani`ere generale :
a
i,j
=
i

k=1
b
i,k
b
j,k
,
et on voit immediatement quen utilisant la deuxi`eme ligne de A (i = 2),
on peut calculer successivement tous les coecients de la deuxi`eme colonne
de B; puis, de proche en proche, on va pouvoir obtenir les coecients de la
k
i`eme
colonne de B en examinant la k
i`eme
ligne de A.
Cette methode ne requiert que :
N
3
/6 additions, N
3
/6 multiplications, N
2
/2 divisions,
N extractions de racines carrees
elle est donc presque deux fois plus ecace que la methode de Gauss dans
ce cas.
Bien s ur, la resolution de Ax = b seectue ici aussi par une descente-
remontee, en resolvant successivement les syst`emes lineaires :
Bw = b (descente)
B
T
x = w (remontee)
Et nous ne quitterons pas cette section sans faire remarquer au lecteur
que la matrice de notre schema numerique est symetrique denie positive et
donc la factorisation de Cholesky est une bonne methode pour calculer les
u
j
.
1.3. R

ESOLUTION DE SYST
`
EMES LIN

EAIRES 43
1.3.2 Les methodes iteratives
Le principe des methodes iteratives est de considerer une suite (x
k
)
k
delements de R
N
veriant une relation de recurrence du type :
(1.14) x
k+1
= Bx
k
+c, x
0
arbitraire
o` u B est une matrice N N et c R
N
qui sont construits `a partir des
donnees A et b du syst`eme lineaire Ax = b. Bien evidemment, on souhaite
que la suite (x
k
)
k
converge vers lunique solution du syst`eme lineaire (et si
possible assez rapidement...) et, pour cela, on va appliquer le theor`eme du
point xe de Picard dans sa version matricielle (theor`eme du point xe pour
les applications contractantes).
De nombreuses methodes (Jacobi, Gauss-Seidel, gradient..) repose sur
une decomposition de la matrice sous la forme A = M N o` u M est non
seulement une matrice inversible, mais surtout une matrice facile `a inverser
numeriquement. Dans la pratique, M sera diagonale ou triangulaire.
Ainsi x est solution de Ax = b si et seulement si Mx = Nx + b i.e.
x = M
1
Nx+M
1
b soit x = Bx+c. Ce qui donne une mani`ere naturelle
de construire B et c.
Le resultat de base pour la convergence de la suite (x
k
)
k
est le suivant :
Theor`eme 1.7. Pour tout choix de vecteur x
0
, la methode numerique denie
par le schema (1.14) :
x
n+1
= Bx
n
+c, x
0
donne
converge vers lunique solution u du probl`eme
(1.15) x = Bx +c
si et seulement si lune des deux proprietes equivalentes ci-dessous est sa-
tisfaite :
a) Le rayon spectral de B verie : (B) < 1
b) Il existe une norme matricielle assujettie |||.||| pour laquelle |||B||| < 1
Preuve : La preuve contient deux parties distinctes : il faut dabord com-
prendre pourquoi les points a) et b) sont equivalents. Ensuite, si on utilise la
propriete b), il sagit dune application du theor`eme des applications contrac-
tantes (via la methode des iterations de Picard). En eet, le point b) dit que
lapplication lineaire associee est contractante si on munit R
N
de la bonne
norme, celle qui donne |||.||| comme norme asujettie.
Rappel : on dit que la norme |||.||| est assujettie sil existe une norme
||.|| sur R
N
telle que :
|||B||| = sup
xR
N
||Bx||
||x||
44 CHAPITRE 1. EQUATIONS ELLIPTIQUES
autrement dit lorsque B est vu comme la matrice dune application lineaire
de R
N
dans R
N
. Dans ce cas-l`a, on a alors :
y R
N
||By|| |||B||| ||y||, ou y, z R
N
||By Bz|| |||B||| ||y z||.
On voit donc que le point b) assure precisement que B est contractante donc
poss`ede un unique point xe x, ou si lon pref`ere que la matrice I B est
inversible
(7)
.
Dautre part, la condition (B) < 1 est certainement necessaire pour
quil y ait convergence quelque soit la valeur x
0
choisie , le vecteur c etant
donne. En eet sinon il existerait une valeur propre de module superieur
ou egal `a 1 associee au vecteur propre e et le choix de x
0
= c +e conduirait
`a une suite (x
k
)
k
non convergente.
Avant de voir pour quoi ces deux points sont equivalents , remarquons
quen iterant k 1 fois linegalite ci-dessus, on a, bien s ur :
||x
k
x|| = ||B
k
(x
0
x)|| |||B|||
k
||x
0
x||
ce qui dit que la convergence est exponentiellement rapide et quelle est
dautant plus rapide que la norme |||B||| est petite. Do` u lidee de choisir
au mieux la matrice M de sorte que (M
1
N) soit le plus petit possible
(puisque a) et b) sont equivalents).
Precisons lequivalence des points a) et b) en demontrant le lemme suivant :
Lemme 1.3. 1) Soit |||.||| une norme assujettie. Alors on a toujours :
(B) |||B|||.
2) Pour tout > 0, il existe une norme assujettie |||.||| de sorte que :
||||B||| (B) +
Preuve : Soit une valeur propre de B de module maximal et e un vecteur
propre associe. Alors ||Be|| = ||||e|| = (B)||x|| ce qui etablit le point 1)
compte tenu du fait que la norme est assujettie.
Le deuxi`eme point est un peu plus technique : il repose sur deux ingredients,
le calcul explicite de la norme innie dune matrice et la triangularisation
des matrices.
On sait en eet quil existe une matrice P inversible et une matrice
triangulaire T = (t
i,j
)
i,j
ayant pour spectre le meme que celui de B, telles
que PBP
1
= T.
Soit t un petit nombre reel . Introduisons la matrice diagonale
t
=
(t
i1

i,j
)
i,j

i,j
etant le symbole de Kronecker. Il est facile de voir que pour t
non nul
t
est inversible et (
t
)
1
=
t
1. De plus multiplier `a gauche par

t
une matrice M , cest multiplier la ligne i de la matrice M par t
i1
tandis
(7)
suggestion de revision pour le lecteur : theor`emes de points xe dans R
n
et convergence
des series dans les espaces de Banach; application : (re-)demontrer lassertion du texte.
1.3. R

ESOLUTION DE SYST
`
EMES LIN

EAIRES 45
que multiplier `a droite cest multiplier la colonne j de M par t
j1
. Ainsi la
matrice T

T(

)
1
est triangulaire superieure comme T mais :
T

=
_
_
_
_
_
_
_
_
_
_
_
_
t
1,1
t
1,2

2
t
1,3
. . . . . .
n2
t
1,n1

n1
t
1,n
0 t
2,2
t
2,3

2
t
2,4
. . . . . .
n2
t
2,n
0 0 t
3,3
t
3,4

2
t
3,5
. . .
n3
t
3,n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . 0 0 t
n2,n2
t
n2,n1

2
t
n2,n
0 . . . . . . . . . 0 t
n1,n1
t
n1,n
0 . . . . . . . . . . . . 0 t
n,n
_
_
_
_
_
_
_
_
_
_
_
_
o` u {t
1,1
, . . . t
n,n
} = {
1
, . . . ,
n
}, les
i
etant les valeurs propres de B. Main-
tenant, on rappelle que :
||A||

= max
i

j
|a
i,j
|
o` u || ||

est la norme matricielle assujettie `a la norme innie sur R


n
, et on
voit alors que la norme ||T

||

= max
i

j

ji
|t
i,j
| converge vers max |t
i,i
| =
(B).
Quelques exemples de methodes iteratives
On consid`ere une matrice inversible A telle que tous les a
i,i
soient non
nuls.
A =
_
_
_
_
_
_
_
_
_
_
_
_
a
1,1
a
1,2
a
1,3
. . . . . . . . . a
1,n
a
2,1
a
2,2
a
2,3
a
2,4
. . . . . . a
2,n
a
3,1
a
3,2
a
3,3
a
3,4
a
3,5
. . . a
3,n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . .
.
.
.
a
n2,n3
a
n2,n2
a
n2,n1
.
.
.
a
n1,1
. . . . . . . . . a
n1,n2
a
n1,n1
a
n1,n
a
n,1
. . . . . . . . . . . . a
n,n1
a
n,n
_
_
_
_
_
_
_
_
_
_
_
_
On ecrit A = D E F o` u D est la diagonale de A, E la matrice
triangulaire sous la diagonale de A et F la matrice triangualire situee au
dessus de la diagonale i.e. :
D
ij
= aij
ij
; E
ij
= a
ij

i>j
; F
ij
= a
ij

i<j
a) Methode de Jacobi
Dans cette methode M = D et N = E + F et la suite iterative denie
est :
x
n+1
= Jx
n
+c J = D
1
(E +F) = I D
1
A, c = D
1
b.
46 CHAPITRE 1. EQUATIONS ELLIPTIQUES
On la denit en fait par
Dx
n+1
= (E +F)x
n
+b
en utilisant une procedure (ecrivez-l`a dans votre langage prefere) qui inverse
la matrice diagonale D.
b) Methode de Gauss-Seidel
En ecrivant explicitement la methode de Jacobi ci-dessus , on voit que
lon pourrait mieux utiliser certaines quantites dej`a calculees : par exemple
si on calcule dabord x
k+1
1
que lon peut ensuite utiliser `a la place de x
k
1
....
On est conduit ainsi `a la methode de Gauss-Seidel
(1.16) (D E)y
n+1
= Fy
n
+b
qui correspond `a M = DE et N = F et la suite iterative est denie aussi
par :
y
n+1
= Gy
n
+c G = (D E)
1
F, c = (D E)
1
b.
Mais bien s ur , on utilisera la forme (1.16) et une procedure qui inverse la
matrice triangulaire M = DE (ecrivez en une). Intuitivement, la methode
de Gauss-Seidel est plus implicite que celle de Jacobi donc doit etre plus per-
formante. On verra en exercice quen general la methode de Gauss-Seidel,
quand elle converge, converge mieux que la methode de Jacobi car le rayon
spectral de G est plus petit que celui de J.
c) Methode de relaxation
On peut essayer dameliorer la methode de Gauss-Seidel en introduisant
un param`etre reel = 0 et en considerant la methode iterative :
_
D

E
_
x
k+1
=
_
1

D +F
_
x
k
+b .
En eet, si la methode de Gauss-Seidel (qui correspond `a = 1) converge,
on peut peut-etre ameliorer la convergence en choisissant un meilleur pa-
ram`etre de relaxation = 1.
Si on pose :
L

:=
_
D

E
_
1
_
1

D +F
_
,
lidee serait de determiner un
0
optimal, cest-`a-dire tel que :
(L

0
) = inf
I
(L

) ,
o` u I est un intervalle de R ne contenant pas 0.
En pratique, il nest pas toujours evident de calculer un tel
0
mais on
peut etudier les proprietes de convergence de la methode de relaxation, ce
qui donnera une idee de la localisation dun tel
0
.
Un pas essentiel dans cette direction est la :
1.3. R

ESOLUTION DE SYST
`
EMES LIN

EAIRES 47
Proposition 1.7. Soit A une matrice symetrique denie positive decomposee
sous la forme :
A = M N ,
o` u M est une matrice inversible. Si la matrice symetrique M
T
+N est denie
positive alors :
(M
1
N) < 1 .
Preuve : La matrice M
T
+N est eectivement symetrique puisque :
M
T
+N = (A+N)
T
+N = A+N
T
+N ,
et A et N
T
+N sont symetriques.
On va prouver que ||M
1
N|| < 1, en utilisant une norme matricielle || ||
subordonnee `a la norme | | sur R
n
, denie par :
|v|
2
= (Av, v) pour tous v R
n
.
On remarque dabord que M
1
N = M
1
(M A) = I M
1
A. Si
w = M
1
Av, on calcule |M
1
Nv|
2
= |v w|
2
pour |v| = 1 :
|v w|
2
= |v|
2
2(Av, w) + (Aw, w) (identite remarquable) ,
= 1 2(Mw, w) + (Aw, w) (denition de w) ,
= 1 (Mw, w) + ((AM)w, w) (rearrangement des termes) ,
= 1 (M
T
w, w) (Nw, w) ((Mw, w) = (M
T
w, w)) ,
= 1 ((M
T
+N)w, w) (rearrangement des termes)
Comme M
T
+ N est une matrice symetrique denie positive et que A, M
sont inversibles, ((M
T
+N)w, w) > 0 pour tout v tels que |v| = 1 et donc :
|M
1
Nv|
2
< 1 pour tous v R
n
tels que |v| = 1.
Il en resulte que |M
1
N|| < 1 puisque {v : |v| = 1} est compact.
Application pratique : Nous revenons dabord `a la matrice du schema
numerique (renormalisee en laissant tomber le
1
(x)
2
) :
A =
_
_
_
_
_
_
_
_
_
_
2 1 0 0
1 2 1 0 0
0 1 2 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
.
.
.
.
.
.
.
.
.
1
0 0 1 2
_
_
_
_
_
_
_
_
_
_
.
48 CHAPITRE 1. EQUATIONS ELLIPTIQUES
La methode de Gauss-Seidel conduit `a la decomposition de A sous la forme
M = D E et N = F, i.e. :
M =
_
_
_
_
_
_
_
_
_
_
2 0 0 0
1 2 0 0 0
0 1 2 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
.
.
.
.
.
.
.
.
.
0
0 0 1 2
_
_
_
_
_
_
_
_
_
_
et N =
_
_
_
_
_
_
_
_
_
_
_
0 1 0 0
0 0 1 0 0
0 0 0 1
.
.
.
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
.
.
.
.
.
.
.
.
.
1
0 0 0 0
_
_
_
_
_
_
_
_
_
_
_
.
On remarque alors que M est inversible et que :
M
T
+N =
_
_
_
_
_
_
_
_
_
_
2 0 0 0
0 2 0 0 0
0 0 2 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
.
.
.
.
.
.
0
0 0 0 2
_
_
_
_
_
_
_
_
_
_
.
est bien denie positive. Donc (M
1
N) < 1 et la methode converge.
De meme, dans le cas de la methode de relaxation :
M =
_
_
_
_
_
_
_
_
_
_
2

0 0 0
1
2

0 0 0
0 1
2

0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
.
.
.
.
.
.
.
.
.
0
0 0 1
2

_
_
_
_
_
_
_
_
_
_
et :
N =
_
_
_
_
_
_
_
_
_
_
_
2
(1)

1 0 0
0 2
(1)

1 0 0
0 0 2
(1)

1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
.
.
.
.
.
.
.
.
.
1
0 0 0 2
(1)

_
_
_
_
_
_
_
_
_
_
_
.
1.3. R

ESOLUTION DE SYST
`
EMES LIN

EAIRES 49
De meme, M est inversible. De plus :
M
T
+N =
_
_
_
_
_
_
_
_
_
_
_
2
(2)

0 0 0
0 2
(2)

0 0 0
0 0 2
(2)

0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
.
.
.
.
.
.
.
.
.
0
0 0 0 2
(2)

_
_
_
_
_
_
_
_
_
_
_
.
est denie positive si 2
(2 )

> 0, donc si 0 < < 2. Finalement on a


(M
1
N) < 1 et convergence si et seulement si 0 < < 2.
On va voir maintenant que ce cas particulier re`ete le cas general, au
moins pour des matrices symetriques denies positives.
Theor`eme 1.8. (Condition susante de convergence pour la methode
de relaxation).
Si la matrice A est symetrique denie positive alors la methode de relaxation
converge pour tous 0 < < 2.
Preuve : La decomposition de A = M N associee `a la methode de
relaxation secrit :
A =
_
D

E
_

_
1

D +F
_
.
De telle sorte que :
M
T
+N =
_
D

E
_
T
+
_
1

D +F
_
=
D

E
T
+
1

D +F
=
2

D ,
car A etant symetrique, E
T
= F.
Comme A est denie positive, ses coecients diagonaux sont positifs car
ils sont de la forme (Ae
i
, e
i
) o` u (e
i
)
i
est la base canonique de R
n
. Donc
M
T
+N est denie positive si
2

> 0, i.e. si 0 < < 2.


Cette propriete (0 < < 2) est aussi necessaire comme le montre le :
Theor`eme 1.9. (Condition necessaire de convergence pour la methode
de relaxation).
Pour toute matrice A, on a :
(L

) | 1| ,
et donc la methode de relaxation ne peut converger que si 0 < < 2.
50 CHAPITRE 1. EQUATIONS ELLIPTIQUES
Preuve : Si les
i
(L

) sont les valeurs propres de L

, on a :
det(L

) =
n

i=1

i
(L

) =
det
_
1

D +F
_
det
_
D

E
_ = (1 )
n
,
en tenant compte de la structure particuli`ere des matrices D, E, F. Mais
(L

) = max
i
|
i
(L

)| et donc :
|(L

)|
n

i=1
|
i
(L

)| = |1 |
n
.
Et le resultat en decoule facilement.
Remarque : On peut aussi montrer que les methodes de Jacobi et Gauss-
Seidel convergent ou sont divergentes simultanement et que, dans le cas o` u
elles convergent, la methode de Gauss-Seidel converge plus rapidement.
1.3. APPROCHE NUM

ERIQUE DU PROBL
`
EME VARIATIONNEL 51
1.4 Une autre methode pour calculer la solution
du probl`eme de Dirichlet : lapproche varia-
tionnelle
1.4.1 Discretisation du probl`eme variationnel
Nous avons vu que la solution du probl`eme de Dirichlet (1)-(2) est aussi
solution du probl`eme doptimisation :
min
vH
1
0
(]0,1[)
J(v) ,
o` u :
J(v) =
1
2
_
1
0
[v

(t)]
2
dt
_
1
0
f(t)v(t) dt .
Cette propriete nous donne une deuxi`eme approche pour calculer u
numeriquement, en discretisant ce probl`eme doptimisation. On utilise les
notations de la section 1.2 et on combine la methode des dierences nies
avec les techniques standard de calcul approche dintegrales. Plus precisement,
on va ecrire :
_
1
0
[v

(t)]
2
dt =
N

i=0
_
x
i+1
x
i
[v

(t)]
2
dt

i=0
(x
i+1
x
i
)

v(x
i+1
) v(x
i
)
x
i+1
x
i

2
,
en utilisant la methode des rectangles et de meme :
_
1
0
f(t)v(t) dt =
N

i=0
_
x
i+1
x
i
f(t)v(t) dt

i=0
(x
i+1
x
i
)f(x
i
)v(x
i
) .
On voit quici aussi on a de nombreuses variantes : notre double choix nest
dailleurs pas tr`es coherent car la methode des rectangles pour la premi`ere
integrale revient `a supposer que v

est constant sur chaque sous-intervalle


]x
i
, x
i+1
[, donc a priori que v est ane sur chacun de ces sous-intervalles
ce qui devrait nous conduire `a une methode de type plutot trap`eze pour
la seconde integrale... Mais, bien quincoherent, ce choix a lavantage detre
simple.
Nous nallons utiliser ici encore que grilles uniformes. En divisant tous
les termes par x, ce qui ne change pas le probl`eme doptimisation, nous
sommes donc conduits `a minimiser la fonction :
J
N
(V ) =
1
2
N

i=0
(v
i+1
v
i
)
2
(x)
2

N

i=0
f
i
v
i
,
52 CHAPITRE 1. EQUATIONS ELLIPTIQUES
o` u V = (v
i
)
1iN
avec la convention v
0
= v
N+1
= 0 et les f
i
ne sont rien
dautres que les f(x
i
).
En fait, ce probl`eme doptimisation est tr`es lie au syst`eme lineaire via la
Proposition 1.8. Pour tout V R
N
, on a :
N

i=0
(v
i+1
v
i
)
2
(x)
2
= (AV, V )
o` u :
A =
_
_
_
_
_
_
_
_
_
_
2 1 0 0
1 2 1 0 0
0 1 2 1 0
.
.
.
.
.
.
.
.
.
0
.
.
.
0
0 0 1 2
_
_
_
_
_
_
_
_
_
_
.
Cette proposition permet darmer que, pour tout V R
N
:
J
N
(V ) =
1
2(x)
2
(AV, V ) (F, V ) ,
et la section 1.4.2 ci-dessous montre que minimiser J
N
est equivalent `a
resoudre AU = F puisque A est une matrice symetrique, denie positive.
Preuve : La preuve est simple et elle ne necessite que des manipulations
elementaires. Mais il est bon davoir un peu de recul sur le resultat lui-meme
qui est lanalogue discret de legalite :
_
1
0
[v

(t)]
2
dt =
_
1
0
v(t)v

(t) dt .
Cette derni`ere egalite sobtenant (formellement) par integration par parties,
on va faire de meme en discret en appliquant une transformation dAbel.
On ecrit :
N

i=0
(v
i+1
v
i
)
2
=
N

i=0
(v
i+1
v
i
)v
i+1

i=0
(v
i+1
v
i
)v
i
,
puis on fait un changement dindice i + 1 i dans la premi`ere somme du
second membre qui devient :
N+1

i=1
(v
i
v
i1
)v
i

i=0
(v
i+1
v
i
)v
i
.
1.4. APPROCHE NUM

ERIQUE DU PROBL
`
EME VARIATIONNEL 53
Enn, on reecrit ce resultat sous la forme :
(v
N+1
v
N
)v
N+1
(v
1
v
0
)v
0
+
N

i=1
(v
i+1
+ 2v
i
v
i1
)v
i
.
On reconnait la forme typique que lon obtient apr`es une integration par
parties : terme tout integre + nouvelle integrale ; Comme v
N+1
= v
0
=
0, le terme tout integre est nul et le resultat est prouve.
1.4.2 Syst`emes lineaires et probl`emes doptimisation : un
resultat fondamental
Cette section etant dun interet general et pouvant etre lue independamment
de ce qui prec`ede, nous allons utiliser des notations dierentes : A designera
une matrice nn symetrique dont toutes les valeurs propres sont strictement
positives, b R
n
et x ou y seront les variables dans R
n
.
On a le resultat suivant :
Theor`eme 1.10. x R
n
est solution du syst`eme lineaire Ax = b si et
seulement si on a :
f(x) = min
yR
n
f(y) ,
o` u la fonction f est donnee par :
f(y) =
1
2
(Ay, y) (b, y) .
Preuve : Cette preuve est tout `a fait standard mais elle va nous permettre
de revoir certains resultats fondamentaux doptimisation dans R
n
.
On va montrer que le probl`eme doptimisation a une unique solution x
et que cette solution satisfait legalite Ax = b. Le syst`eme lineaire etant
inversible, on aura bien le resultat escompte.
Existence : Un resultat classique nous dit que le probl`eme doptimisation :
Trouver x R
n
tel que f(x) = min
yR
n
f(y) ,
a au moins une solution si f est continue
(8)
et coercive, i.e.
f(y) + quand |y| +.
On veut appliquer ce resultat `a f(y) =
1
2
(Ay, y) (b, y) ; nous devons donc
en verier les hypoth`eses. La continuite est triviale car f est une fonction
polynomiale en les x
i
. La coercivite resulte du :
Lemme 1.4. Si
1
> 0 est la plus petite valeur propre de A, on a, pour tout
y R
n
:
(Ay, y)
1
||y||
2
.
(8)
semi-continue inferieurement serait susant.
54 CHAPITRE 1. EQUATIONS ELLIPTIQUES
Preuve : La matrice A etant symetrique, elle est diagonalisable dans une
base orthonormee (e
i
)
i
et si on decompose y R
n
dans cette base sous la
forme y = y
1
e
1
+y
2
e
2
+ +y
n
e
n
, on a :
(Ay, y) = (y
1

1
e
1
+y
2

2
e
2
+ +y
n

n
e
n
, y
1
e
1
+y
2
e
2
+ +y
n
e
n
)
=
1
y
2
1
+
2
y
2
2
+ +
n
y
2
n

1
y
2
1
+
1
y
2
2
+ +
1
y
2
n

1
(y
2
1
+y
2
2
+ +y
2
n
)

1
||y||
2
.
Et le lemme est prouve.
On en deduit, en utilisant linegalite de Cauchy-Schwarz pour le terme
(b, y) :
f(y)
1
2

1
||y||
2
||b||.||y|| ,
et la coercivite en resulte. On a meme, en utilisant astucieusement linegalite
|cd|
1
2
(c
2
+d
2
)
(9)
:
f(y)
1
8

1
||y||
2

2
1
||b||
2
,
ce qui donne une estimation de la taille de la (ou des) solutions en utilisant
que f(x) f(0) = 0.
Unicite : On pourrait conclure `a lunicite plus rapidement mais raisonnons
de mani`ere generale : lunicite est (tr`es) souvent reliee `a la stricte convexite
de la fonction `a minimiser. Cette stricte convexite (`a verier) secrit de
la mani`ere suivante sur une fonction g : R
n
R generale : pour tous
x
1
= x
2
R
n
, pour tout ]0, 1[, on a :
g
_
x
1
+ (1 )x
2
_
< g(x
1
) + (1 )g(x
2
) .
Pour la fonction f qui nous interesse, on a le :
Lemme 1.5. Pour tous x
1
= x
2
R
n
, pour tout [0, 1], on a :
f
_
x
1
+(1)x
2
_
= f(x
1
) +(1)f(x
2
) (1)
_
A(x
1
x
2
), x
1
x
2
_
.
Nous laissons la preuve (fastidieuse mais sans myst`ere !) de ce resultat
au lecteur : il sut de calculer (et quand on connait le resultat...). La stricte
convexite en decoule immediatement puisque (A(x
1
x
2
), x
1
x
2
)
1
||x
1

x
2
||
2
> 0.
Rappelons enn largument classique prouvant lunicite `a partir de la
stricte convexite. Si m = min
R
n f et si on a deux solutions x
1
, x
2
du
(9)
cette inegalite fait partie des outils les plus utilises lorsque lon fait des estimations
en analyse ; le lecteur est invite `a en donner au moins deux demonstrationd elementaires.
1.4. APPROCHE NUM

ERIQUE DU PROBL
`
EME VARIATIONNEL 55
probl`eme doptimisation, on a donc f(x
1
) = f(x
2
) = met la stricte convexite
implique avec le choix =
1
2
:
f
_
1
2
x
1
+
1
2
x
2
_
<
1
2
f(x
1
) +
1
2
f(x
2
)
<
1
2
m+
1
2
m = m,
ce qui contredit la denition de m.
Propriete du point de minimum : la fonction f etant polynomyale, elle
est derivable et on peut ecrire quen un point de minimum (local ou global) :
f

(x) = 0.
Nous protons de cette occasion pour rappeler les trois formes que prend
la derivation pour une fonction f : R
n
R. Par denition, f est derivable
au point x sil existe une application lineaire, notee f

(x) : R
n
R, telle
que :
f(x +h) = f(x) +f

(x)(h) +o(h) ,
o` u o(h) designe une fonction qui a la propriete :
o(h)
||h||
0 quand h 0.
Meme si cette remarque peut sembler evidente, nous notons que la
derivation est ainsi denie sous la forme dun developpement limite et que
(peut-etre ?) faire un developement limite pour calculer une derivee nest
pas totalement absurde
(10)
.
Pour passer `a une formulation (plus rassurante) avec des derivees par-
tielles, il sut de choisir une base de R
n
que nous noterons (e
i
)
i
et qui nest
peut-etre pas la base canonique (sacril`ege !) : en ecrivant h = h
1
e
1
+h
2
e
2
+
h
n
e
n
, le terme correspondant `a la derivee secrit :
f

(x)(h) = h
1
f

(x)(e
1
) +h
2
f

(x)(e
2
) + h
n
f

(x)(e
n
) ,
et on voit facilement que, pour tout i, f

(x)(e
2
) =
f
x
i
(x) et donc :
f

(x)(h) = h
1
f
x
1
(x) +h
2
f
x
2
(x) + h
n
f
x
n
(x) .
Helas, si vous etes refractaire au Calcul Dierentiel, vous netes pas tout `a
fait au bout de vos peines car cette egalite peut etre vues de deux facons ;
on peut dabord linterpreter sous une version matricielle car f

(x) est une


application lineaire de R
n
dans R et on peut exhiber la matrice dans la
base (e
i
)
i
, que lon notera Df(x). Cest une matrice 1-ligne n colonnes qui
secrit :
Df(x) =
_
f
x
1
(x)
f
x
i
(x)
f
x
n
(x)
_
.
(10)
meme si malheureusement, ce reexe naturel sobserve relativement rarement chez
les etudiants ...
56 CHAPITRE 1. EQUATIONS ELLIPTIQUES
Si on introduit le vecteur colonne des coordonnees de h :
H =
_
_
_
_
_
_
_
_
h
1
.
.
.
h
i
.
.
.
h
n
_
_
_
_
_
_
_
_
,
on a :
f

(x)(h) = Df(x).H ,
le membre de gauche etant la version intrins`eque (independante du choix
dune base), le membre de droite etant la version non intrins`eque (on a
choisi une base) et le . designe un produit de matrices.
La deuxi`eme interpretation que lon peut donner de cette egalite est
celle dun produit scalaire, ce qui nous conduit `a la notion de gradient.
On note :
f(x) =
f
x
1
(x)e
1
+ +
f
x
i
(x)e
i
+ +
f
x
n
(x) ,
et on a, pour tout h :
f

(x)(h) = (f(x), h) .
Cette ecriture renvoie au theor`eme de representation des formes lineaires
(trivial en dimension nie). Il est `a noter que le gradient est un vecteur de
R
n
: il vit donc dans le meme espace que x, ce qui sera fondamental dans
les methodes de gradient. Il depend aussi de la base choisie et nous utilise-
rons numeriquement cette propriete pour choisir (si possible) le meilleur
gradient.
Linteret de notre exemple va etre dillustrer ces notions, en tout cas
deux dentre elles. Par un simple calcul, on a :
f(x +h) = f(x) +
1
2
(Ax, h) +
1
2
(Ah, x) (b, h) +
1
2
(Ah, h) .
On a dabord, en utilisant Cauchy-Schwarz :
0
(Ah, h)
||h||
||Ah||
et comme ||Ah|| 0 quand h tend vers 0 par continuite de lapplication
lineaire h Ah, on voit que le dernier terme est le o(h) apparaissant dans
la denition de la derivee.
Lapplication h
1
2
(Ax, h) +
1
2
(Ah, x) (b, h) est lineaire et cest le
f

(x)(h) cherche car on sait que f est derivable puisquelle est polynomiale.
Nous insistons sur la forme de ce terme qui apparait naturellement sous la
forme dune application lineaire.
1.4. M

ETHODES DE GRADIENT 57
Pour passer au gradient, il faut ecrire cette expression sous la forme
du produit scalaire dun certain vecteur avec h et cest une operation non
triviale qui necessite lintroduction de la matrice transposee de A, notee A

.
On a ainsi :
f

(x)(h) =
1
2
(Ax, h) +
1
2
(Ah, x) (b, h) = (
1
2
Ax +
1
2
A

x b, h) ,
et, sans supposer A symetrique, on aboutit `a f(x) =
1
2
Ax +
1
2
A

x b qui
devient f(x) = Ax b quand A est symetrique.
Si x est le point de minimum de f sur R
n
, on a donc f(x) = 0 et donc
Ax b = 0. Lunique solution du probl`eme doptimisation est donc solution
du syst`eme lineaire.
La reciproque est aisee car, en rassemblant les informations ci-dessus, on
sapercoit que, pour tout h :
f(x +h) = f(x) + (Ax b, h) +
1
2
(Ah, h) .
Si Ax = b, comme (Ah, h) > 0 si h = 0, on constate que f(x + h) > f(x)
pour tout h = 0 et donc x est lunique point de minimum global strict de f
sur R
n
.
Cette preuve ad hoc cache, en fait, une propriete plus generale : notre
argument resterait valable si f etait une fonction strictement convexe (et
derivable). Nous renvoyons le lecteur aux exercices sur ce th`eme.
Nous insistons sur le caract`ere fondamental du resultat de cette section
pour lAnalyse Numerique : quand A est symetrique avec toutes ses valeurs
propres positives, on peut choisir de resoudre directement le syst`eme lineaire
OU de changer compl`etement dapproche et dutiliser une methode de mini-
misation comme les methodes de gradient decrites dans la section suivante.
Cette souplesse est interessante car elle permet, suivant les cas, de se tourner
vers la methode la plus performante (ou, de mani`ere moins avouable, vers
sa methode preferee...).
Exercice 9.
1. Reprendre le parall`ele de lexercice 4 au niveau numerique : discretiser
le probl`eme variationnel et etudier les liens avec le schema numerique pour
lequation associee.
2. Meme question pour lexercice 4.
1.5 Methodes de gradient pour la resolution de
probl`eme doptimisation
Les methodes de gradient sont des algorithmes iteratifs permettant de
resoudre numeriquement des probl`emes doptimisation dans R
N
; ils utilisent
58 CHAPITRE 1. EQUATIONS ELLIPTIQUES
de mani`ere fondamentale le gradient de la fonction `a minimiser, do` u leur
nom.
Pour etre plus precis, on veut resoudre le probl`eme general :
Trouver x

R
N
tel que J(x

) = min
xR
N
J(x)
o` u J est une fonction de classe C
1
sur R
N
.
1.5.1 Premier essai : methode du gradient `a pas constants
Pour demarrer le processus de minimisation, on se donne un point de
depart x
0
et on cherche simplement x
1
tel que J(x
1
) < J(x
0
). On suppose
que J(x
0
) = 0 (sinon on est peut-etre au point de minimum? en tout, cas
ce serait vrai dans le cadre de la section precedente.).
Si on se limite `a chercher x
1
proche de x
0
, on peut poser x
1
= x
0
+ h
avec lidee que, pour h est petit, on peut utiliser la dierentiabilite de J. On
a donc :
J(x
0
+h) = J(x
0
) + (J(x
0
), h) +o(h) .
Si le o est vraiment negligeable, trouver le plus petit J(x
0
+ h) possible
revient `a trouver un produit scalaire minimal et, comme Cauchy-Schwarz
nous dit que :
(J(x
0
), h) ||J(x
0
)||.||h|| ,
avec egalite si et seulement si h est colineaire `a J(x
0
) et de direction
opposee, on est conduit `a envisager le choix : h = J(x
0
) avec > 0
petit (car il faut sassurer que le o ne joue pas de role).
Ceci est naturel du point de vue de la physique car il sagit de la direc-
tion de plus grande pente, direction quune bille posee sur le graphe de J
emprunterait pour devaler la pente.
Do` u notre premier choix, la methode du gradient `a pas constant :
on choisit une fois pour toute un > 0 petit et `a partir du point initial x
0
,
on calcule les x
n
par recurrence via la formule :
x
n+1
= x
n
J(x
n
) .
Cet algorithme est tr`es simple (et donc tentant) mais il est hautement
instable comme le montre dans R, lexemple suivant : si on consid`ere J(x) =
x
4
, on a J

(x) = 4x
3
et donc x
n+1
= x
n
4x
3
n
= x
n
(1 4x
2
n
). Si, par
malheur, on a choisi ou x
0
trop grand de telle sorte que 14x
2
0
< 1, on
voit facilement que, pour tout n, 1 4x
2
n
< 1 et |x
0
| < |x
1
| < < |x
n
|.
En particulier, J(x
0
) < J(x
1
) < < J(x
n
), ce qui nest pas vraiment le
but recherche... et lalgorithme diverge.
1.5. M

ETHODES DE GRADIENT 59
1.5.2 Deuxi`eme essai : methode de plus grande pente
Pour pallier aux defaut de la methode du gradient `a pas constants, on
peut essayer doptimiser le choix du `a chaque etape (autant que faire se
peut), ce qui conduit `a la methode de plus grande pente
(11)
: on calcule les
x
n
par recurrence via la formule :
x
n+1
= x
n

n
J(x
n
) ,
o` u (theoriquement)
n
est deni par :
J
_
x
n

n
J(x
n
)
_
= min
0
J
_
x
n
J(x
n
)
_
.
On notera desormais

J() = J
_
x
n
J(x
n
)
_
(on na pas indexe

J par n
pour avoir des notations plus leg`eres ; en general, il ny a pas dambiguite
car on travaillera sur

J `a n xe).
Nous avons ecrit theoriquement ci-dessus car il est clair que, numeriquement,
on ne tentera jamais de determiner le vrai
n
de mani`ere exacte. La petite
procedure suivante (meme si elle semble nave au premier abord) se rev`ele
tr`es ecace en pratique.
On proc`ede par dichotomie de la mani`ere suivante : on se donne
0
> 0
et on pose :

1
=
0
/2 ,
2
=
0
,
3
= 2
0
,
j
1
=

J(
1
) , j
2
=

J(
2
) , j
3
=

J(
3
) .
Plusieurs cas :
si j
1
j
2
, on imagine que le minimum doit etre atteint pour des plus
petits et on deplace les points vers la gauche comme suit :

n
1
=
a
1
/2 ,
n
2
=
a
2
/2 =
a
1
,
n
3
=
a
3
/2 =
a
2
,
o` u on a note avec un
n
les nouvelles valeurs alors que le
a
fait reference aux
anciennes valeurs. Et on reprend la procedure avec ces nouvelles valeurs.
On remarque qu`a cause de la forme de
1
,
2
,
3
et des changements
ci-dessus, la nouvelle iteration ne demandera que le calcul dun seul j
i
(ici
j
1
) donc elle sera peut co uteuse. Cette remarque restera valable dans tous
les cas.
si j
1
> j
2
j
3
, on imagine cette fois que le minimum doit etre atteint
pour des plus grands et on deplace les points vers la droite comme suit :

n
1
= 2
a
1
=
a
2
,
n
2
= 2
a
2
=
a
3
,
n
3
= 2
a
3
.
si j
1
> j
2
et j
2
< j
3
, la procedure sarrete et, ou bien on consid`ere que

2
est le point de minimum cherche, ou bien on utilise une interpolation par
(11)
steepest descent method en anglais
60 CHAPITRE 1. EQUATIONS ELLIPTIQUES
un polynome de degre 2 pour aner (du moins, on lesp`ere) la valeur de ce
point.
Munie de cette procedure de calcul du optimal, la methode de plus
grande pente est assez robuste et elle marche assez bien `a condition dinitia-
liser convenablement le
0
(le optimal de letape precedente est rarement
un mauvais choix...).
Le theor`eme suivant montre que cette methode converge si J est de classe
C
2
et si elle est convexe coercive.
Theor`eme 1.11. On suppose que J est de classe C
2
et que, pour tout x
R
N
:
D
2
J(x) Id ( > 0) .
Alors la methode de plus grande pente converge vers lunique point dce mi-
nimum (global) de J sur R
N
.
Preuve : On rappelle que lhypoth`ese sur J a deux consequences : pour
tous x, y R
N
, on a :
(i) J(y) J(x) +
_
J(x), y x
_
+

2
||y x||
2
,
(ii)
_
J(y) J(x), y x
_
||y x||
2
.
La preuve de ces deux proprietes est laissee en exercice (mais on peut
suggerer au lecteur de reviser la formule de Taylor avec reste integral...).
De la premi`ere propriete, on deduit que J est coercive (en prenant par
exemple x = 0) et donc J atteint son minimum en un point x

qui verie
J(x

) = 0. Il est dicile de louper lunicite qui est une consequence de


(i) ou (ii) au choix ; par exemple (i) nous dit :
J(y) J(x

) +

2
||y x

||
2
> J(x

) si y = x

,
et donc x

est clairement le seul point de minimum. De (i) ou (ii), on


tire aussi que x

est le seul point o` u le gradient de J sannule (propriete


remarquable des fonctions convexes coercives).
Pour prouver la convergence de la methode de plus grande pente, on
examine, pour chaque n, le probl`eme doptimisation de

J. Il est `a noter que

J est coercive, donc le minimum est atteint (


n
existe), et que

J est de classe
C
1
avec pour tout :

() =
_
J
_
x
n
J(x
n
)
_
, J(x
n
)
_
.
Cette formule montre que

J

(0) = ||J(x
n
)||
2
et donc 0 ne peut etre point
de minimum que si J(x
n
) = 0 et donc on aurait x
n
= x

[et donc x
k
= x

si k n] et la convergence.
Sinon
n
> 0 et on peut reecrire legalite

J

(
n
) = 0 sous la forme :
_
J(x
n+1
), J(x
n
)
_
= 0 .
1.5. M

ETHODES DE GRADIENT 61
Ce qui sinterpr`ete comme le fait que deux directions de descente consecutives
sont orthogonales.
On sinteresse maintenant au valeur des J(x
n
) : par le choix de
1
,
2
, ,
n
,
on a :
J(x
n
) J(x
n1
) J(x
1
) J(x
0
) .
En particulier, tous les points x
n
appartiennent au convexe compact :
K :=
_
x R
N
; J(x) J(x
0
)
_
.
On utilise alors linegalite (i) :
J(x
n
) J(x
n+1
) + (J(x
n+1
), x
n+1
x
n
) +

2
||x
n+1
x
n
||
2
.
Mais x
n+1
x
n
=
n
J(x
n
) et donc :
(J(x
n+1
), x
n+1
x) =
n
(J(x
n+1
), J(x
n
)) = 0 .
Il en resulte :

2
||x
n+1
x
n
||
2
J(x
n
) J(x
n+1
) ,
ce qui, compte tenu du fait que la suite (J(x
n
))
n
est decroissante, minoree
donc convergente, montre que ||x
n+1
x
n
|| 0.
Pour conclure, on utilise le caract`ere C
2
de J et le theor`eme des accrois-
sements nis : D
2
J etant borne sur le convexe compact K, on a :
||J(x
n
)||
2
= (J(x
n
), J(x
n
) J(x
n+1
))
||J(x
n
)||||J(x
n
) J(x
n+1
)||
C||J(x
n
)||||x
n+1
x
n
|| .
Et on en deduit que ||J(x
n
)|| 0.
Enn, par la propriete (ii) et le fait que J(x

) = 0 :

2
||x
n
x

||
2
(J(x
n
) J(x

), x
n
x

)
||J(x
n
)||.||x
n
x

|| ,
et donc ||x
n
x

|| ||J(x
n
)|| 0, ce qui conclut la demonstration.
Un inconvenient de la methode de plus grande pente :
Si on utilise cette methode pour minimiser dans R
2
, la fonction :
f(x, y) =
1
2
(x
2
+ 2y
2
) ,
`a chaque etape, on a :
x
n+1
= x
n

n
x
n
,
62 CHAPITRE 1. EQUATIONS ELLIPTIQUES
y
n+1
= y
n
2
n
y
n
,
avec x
n+1
x
n
+ 4y
n+1
y
n
= 0 qui traduit (J(x
n+1
), J(x
n
)) = 0. Ce qui
donne :
0 <
n
=
x
2
n
+ 2y
2
n
x
2
n
+ 4y
2
n
1 .
En examinant dun peu plus pr`es le processus de minimisation, on constate
quon tourne autour du point de minimum (0, 0) sans jamais latteindre,
chaque etape etant relativement inecace...
Cet exemple tr`es simple sugg`ere deux remarques :
1. Peut-etre a-t-on mal choisi le gradient ! On rappelle que le lien entre la
dierentielle de J (objet intrins`eque) et un gradient

J se fait via le choix
dun produit scalaire , par la formule de representation :
J

(x)(h) =

J(x), h pour tout h R


N
.
Donc le choix J(x) :=
_
J
x
1
(x), ,
J
x
N
(x)
_
lie `a celui du produit sca-
laire standard dans R
N
nest pas le seul possible.
Choisir un produit scalaire revient `a choisir une matrice A symetrique
denie positive car on sait que, si , est un produit scalaire, il existe une
telle matrice A pour laquelle on a, pour tous x, y R
N
:
x, y = (Ax, y) .
Donc, pour tout h R
N
:
J

(x)(h) =

J(x), h = (A

J(x), h) ,
et on en deduit que J(x) = A

J(x).
Tous les gradients possibles se deduisent du gradient standard en ap-
pliquant une matrice symetrique denie positive. Le probl`eme du choix du
gradient sappelle probl`eme de preconditionnement ; un bon choix de gra-
dient peut accelerer la convergence.
Sur lexemple ci dessus, avec le produit scalaire :
(x, y), (x

, y

) = xx

+ 2yy

,
il est facile de voir que

f(x, y) = (x, y) et la methode converge en 1
iteration. Donc on a eectivement accelere la convergence !
Le preconditionnement peut jouer un role par exemple pour des fonctions
du type :
J(x) =
1
2
(Ax, x) +F(x) ,
quand A est une matrice symetrique denie positive, et surtout quand
on pense que la fonction F C
1
(R
N
) a un moindre eet sur la mini-
misation (petite perturbation).

Evidemment utiliser le produit scalaire
1.5. M

ETHODES DE GRADIENT 63
donne par A est tentant mais il ne faut pas oublier que le calcul du nou-
veau gradient necessitera `a chaque etape la resolution du syst`eme lineaire
A

J(x) = J(x) et souvent on pref`ere utiliser une matrice plus simple (par
exemple, la diagonale de A ou une sous-matrice qui rend la resolution du
syst`eme lineaire plus simple).
2. Le preconditionnement netant pas tout `a fait evident et etant par-
fois co uteux, on peut se dire quon devrait mieux utiliser les informations
passees pour mieux choisir la direction de descente ; par exemple, pourquoi
ne pas utiliser J(x
n1
) en plus de J(x
n
) pour determiner une meilleure
direction de descente `a partir de x
n
?
Cette idee conduit `a la methode du gradient conjugue, decrite dans
la section suivante, qui consiste `a utiliser des directions de descente dierentes,
notees w
n
.
1.5.3 Troisi`eme essai : methode du gradient conjugue
Cette methode peut etre decrite comme suit :
Initialisation : On choisit un point de depart x
0
R
N
et on pose r
0
=
w
0
= J(x
0
) et on calcule x
1
par la methode de plus grande pente.
Iteration : x
n
, r
n1
, w
n1
etant connus, on pose :
r
n
= J(x
n
)
w
n
= r
n
+
n
w
n1
avec :

n
=
(r
n
, r
n
r
n1
)
||r
n1
||
2
x
n+1
= x
n

n
w
n
o` u (theoriquement ici aussi)
n
est solution du probl`eme doptimisation :

J(
n
) = min
0

J() ,
o` u

J() = J(x
n
w
n
).
La methode du gradient conjugue ressemble donc `a la methode de plus
grande pente, `a part quici on utilise une direction de descente qui nest plus
le gradient. On va maintenant justier lutilisation de telles directions w
n
avec des formules aussi curieuses.
64 CHAPITRE 1. EQUATIONS ELLIPTIQUES
1.5.4 Justication de la methode du gradient conjugue
Si on suppose que lon demarre proche de la solution x

cherchee et si J
est assez reguli`ere, la formule de Taylor (en se souvenant que J(x

) = 0)
montre que :
J(x

+h) = J(x

) +
1
2
(D
2
J(x

)h, h) +o(||h||
2
) .
Au o(||h||
2
) pr`es, on est donc essentiellement ramene `a la minimisation dune
fonction quadratique avec une matrice D
2
J(x

) positive puisque lon est en


un point de minimum.
On va donc se restreindre au cas des fonction J du type :
J(x) =
1
2
(Ax, x) ,
o` u la matrice A est symetrique denie positive.
On se xe alors lobjectif suivant : connaissant x
n
et w
n1
(direction de
descente qui a servi `a calculer x
n
), on veut determiner la meilleure direction
de descente w
n
`a utiliser `a partir de x
n
, cest-`a-dire celle qui donne la valeur
minimale de J(x
n+1
), avec la restriction que w
n
est dans le plan engendre
par r
n
= Ax
n
et w
n1
. En dautres termes, on cherche
n
tel que, si :
w
n
= r
n
+
n
w
n1
,
on ait :
min
0
J(x
n
w
n
) = min
R
min
0
J(x
n
(r
n
+w
n1
)) .
On rappelle tout dabord que la minimisation de

J() = J(x
n1
w
n1
)
qui a conduit au point x
n
[determination du optimal] et legalite

J

(
n1
) =
0 se traduit par (r
n
, w
n1
) = 0.
Ensuite on calcule J(x
n
w) pour w = r
n
+w
n1
:
J(x
n
w) = J(x
n
) (Ax
n
, w) +
1
2

2
(Aw, w) .
Comme Ax
n
= r
n
, la propriete rappelee ci-dessus implique que (Ax
n
, w) =
||r
n
||
2
et :
J(x
n
w) = J(x
n
) ||r
n
||
2
+
1
2

2
(Aw, w) .
Le minimum en se calcule facilement pour ce polynome de degre 2
et un calcul elementaire permet de voir que pour rendre ce minimum en
minimal par rapport `a , il sut de minimiser par rapport `a la quantite
(Aw, w). Pour celaa, on la reecrit :
(Aw, w) = (Ar
n
, r
n
) + 2(Ar
n
, w
n1
) +
2
(Aw
n1
, w
n1
) .
1.5. M

ETHODES DE GRADIENT 65
On sinteresse dabord `a (Ar
n
, w
n1
) ; comme x
n
= x
n1

n1
w
n1
et
que lon peut supposer que
n1
= 0, on a :
w
n1
=
1

n1
(x
n1
x
n
) et donc Aw
n1
=
1

n1
(r
n1
r
n
) .
Il en resulte :
(Ar
n
, w
n1
) = (r
n
, Aw
n1
) =
1

n1
(r
n
, r
n1
r
n
) .
Dautre part :
(Aw
n1
, w
n1
) =
1

n1
(r
n1
r
n
, w
n1
) =
1

n1
(r
n1
, w
n1
) .
Mais comme w
n1
= r
n1
+
n1
w
n2
par letape precedente et que lon a
(r
n1
, w
n2
) = 0, on a nalement :
(r
n1
, w
n1
) = ||r
n1
||
2
+
n1
(r
n1
, w
n2
) = ||r
n1
||
2
.
Finalement :
(Aw, w) = (Ar
n
, r
n
) +
1

n1
_
2(r
n
, r
n1
r
n
) +
2
||r
n1
||
2
_
,
et la minimisation en donne un optimum pour :

n
=
(r
n
, r
n
r
n1
)
||r
n1
||
2
.
Ce qui justie bien la formule annoncee.
Lecacite de la methode du gradient conjuguee est demontree par le
resultat suivant :
Theor`eme 1.12. Pour des fonctions du type :
J(x) =
1
2
(Ax, x) (b, x) ,
dans R
N
o` u A est une matrice symetrique denie positive et b R
N
, la
methode du gradient conjugue converge en moins de N iterations, quelle que
soit la donnee initiale.
Remarque : Comme on sait que minimiser une telle fonction est equivalent
(sous les hypoth`eses du theor`eme) `a resoudre Ax = b, on a une methode de
resolution dun syst`eme lineaire qui converge en N iterations.
Nous laisserons la preuve en exercice : elle est basee sur deux ingredients ;
dabord, grace `a une simple translation en x, on se ram`ene au cas o` u b est
nul (on utilise une translation par la solution unique de Ax = b) ; le point
66 CHAPITRE 1. EQUATIONS ELLIPTIQUES
de minimum devient donc 0. Puis on applique le lemme suivant dans lequel
on utilise le produit scalaire naturel :
x, y = (Ax, y) pour x, y R
N
.
Les proprietes dorthogonalite du lemme suivant font donc reference `a ce
produit scalaire.
Lemme 1.6. Pour tout n 0, x
n+1
est le vecteur de lespace engendre par
x
n
, w
n
, w
n1
, , w
0
qui est orthogonal `a E
n+1
= V ect(w
n
, w
n1
, , w
0
)
et tel que x
n+1
x
n
E
n+1
. De meme, w
n+1
est le vecteur de lespace
engendre par r
n+1
, w
n
, w
n1
, , w
0
qui est orthogonal `a E
n+1
et tel que
w
n+1
r
n+1
E
n+1
.
La methode du gradient conjugue sapparente donc `a un procede dor-
thogonalisation de Gram-Schmidt pour le produit scalaire adapte , . Le
resultat decoule immediatement du lemme puisque les w
k
pour 0 k N1
sont lineairement independants et donc E
N1
= R
N
et x
N1
qui est ortho-
gonal `a E
N1
est donc nul (cest donc le point de minimum de J).
1.6 Un resultat de convergence pour le schema
numerique
Nous avons decrit plusieurs methodes pour calculer numeriquement une
approximation U (qui depend de x) de la solution du probl`eme de Di-
richlet. Il est maintenant temps de se demander en quel sens U approche
la solution de (1)-(2). La dependance en x devenant ici importante, on
rappelle que lon note aussi h la quantite x et on notera U
h
= (u
h
j
)
j
la
solution discr`ete associee.
On pose E
h
:= max
1jN
|u(jh) u
h
j
| ; E
h
est erreur commise avec un pas
de discretisation h, mesuree avec la norme du sup.
On a le resultat de convergence suivant :
Theor`eme 1.13. On a :
Si f C
2
([0, 1]), E
h
= O(h
2
).
Si f C
1
([0, 1]), E
h
= O(h).
Si f C([0, 1]), E
h
0 quand h 0.
Le sens de ce resultat est tr`es clair : on a un schema dordre 2 et la conver-
gence est eectivement dordre 2 (en O(h
2
)) si la solution est susament
reguli`ere. Car lenonce devrait etre (on le verra mieux dans la preuve) :
Si u C
4
([0, 1]), E
h
= O(h
2
).
Si u C
3
([0, 1]), E
h
= O(h).
Si u C
2
([0, 1]), E
h
0 quand h 0.
1.6. CONVERGENCE DU SCH

EMA NUM

ERIQUE 67
Cette regularite de u intervient via la consistance : contrairement `a ce que
nous avons fait dans la partie sur les schemas numeriques o` u la consistance
etait testee `a laide de fonctions C

quelconques, nous allons ici injecter la


solution elle-meme dans le schema et, suivant sa regularite, nous obtiendrons
une evaluation de lerreur de consistance assez dierente.
Preuve : On proc`ede en plusieurs etapes.
Etape 1 : estimation de lerreur dans le schemas. On se place dans le
cas o` u f C
2
([0, 1]). On va poser

U := ( u
j
)
j
o` u u
j
= u(jh) pour 1 j N,
en utilisant aussi la convention u
0
= u
N+1
= 0.

U designe donc lelement de
R
N
correspondant `a la solution exacte.
Nous allons evaluer lerreur commise dans le schema en remplacant la
vraie solution U = U
h
par

U, i.e. on va evaluer :

u
j+1
+ u
j1
2 u
j
(x)
2
f
j
.
On va faire un calcul de type consistance mais dune mani`ere un peu plus
precise. Si D
j
:= u
j+1
+ u
j1
2 u
j
, on a :
D
j
=
_
u(x
j+1
)u(x
j
)
_

_
u(x
j
)u(x
j1
)
_
=
_
x
j+1
x
j
u

(t) dt
_
x
j
x
j1
u

(t) dt .
On va maintenant integrer par parties en se souvenant que u est de classe
C
4
puisque f est de classe C
2
.
D
j
=
_
(t x
j+1
)u

(t)

x
j+1
x
j

_
x
j+1
x
j
(t x
j+1
)u

(t) dt

_
(t x
j1
)u

(t)

x
j
x
j1
+
_
x
j
x
j1
(t x
j1
)u

(t) dt .
On remarque que les termes tous integres seliminent et on recommence :
D
j
=
_
(t x
j+1
)
2
u

(t)
_
x
j+1
x
j
+
_
x
j+1
x
j
(t x
j+1
)
2
2
u

(t) dt
+
_
(t x
j1
)
2
2
u

(t)
_
x
j
x
j1

_
x
j
x
j1
(t x
j1
)
2
2
u

(t) dt .
Un calcul des termes tous integres et une derni`ere integration par parties
donne :
D
j
= h
2
u

(x
j
)
_
x
j+1
x
j
(t x
j+1
)
3
6
u
(4)
(t) dt
+
_
x
j
x
j1
(t x
j1
)
3
6
u
(4)
(t) dt .
68 CHAPITRE 1. EQUATIONS ELLIPTIQUES
En majorant les deux integrales par linegalite |
_
|
_
| | puis |u
(4)
(t)|
par ||u
(4)
||

= ||f

||

, on trouve nalement que :


D
j
= h
2
u

(x
j
) + e
h
j
,
avec :
| e
h
j
|
h
4
12
||f

||

.
Et donc :
(1.17)
1
h
2
A

U = F +e
h
,
avec e
h
= (e
h
j
)
j
o` u e
h
j
=
1
h
2
e
h
j
. On a donc :
(1.18) max
1jN
|e
h
j
|
h
2
12
||f

||

.
On notera
h
la quantite
h
2
12
||f

||

.
Etape 2 : erreur de consistance et estimation derreur. On veut
deduire de (1.17)-(1.18) une estimation de

U U pour la norme du sup (et
pas seulement en norme euclidienne). On proc`ede comme pour la stabilite
du schema en introduisant W qui sera ici la solution associee `a G = (1)
j
(toutes les coordonnees de G sont les memes et elles sont egales `a 1). Ce
schema est associe au probl`eme de Dirichlet :
w

= 1 avec w(0) = w(1) = 0 ,


dont la solution se calcule facilement :
w(x) =
1
2
x(1 x) .
Des calculs assez simples montrent quen fait, on a une resolution exacte du
syst`eme lineaire dans ce cas particulier et que W = (w(x
j
))
j
.
Un simple calcul montre que :

1
h
2
A(

U U +
h
W) 0 ,
o` u nous rappellons que cette inegalite signie que toutes les coordonnees du
vecteur
1
h
2
A(

U U +
h
W) sont positives ou nulles. De meme,

1
h
2
A(U

U +
h
W) 0 .
En utilisant le principe du maximum discret, on en deduit :

U U +
h
W 0 ,
1.6. CONVERGENCE DU SCH

EMA NUM

ERIQUE 69
et :
U

U +
h
W 0 ,
ce qui conduit `a :
max
1jN
|u
h
j
u
j
|
h
max
1jN
|w(x
j
)|

h
8
.
Ceci termine la preuve dans le cas C
2
o` u lon a une estimation compl`etement
explicite.
Etape 3 : les cas f C([0, 1]) et f C
1
([0, 1]). Plusieurs preuves sont pos-
sibles : soit une preuve directe en modiant la mani`ere destimer
1
h
2
A

UF,
soit par approximation.
Nous choisissons la deuxi`eme methode qui consiste `a approcher f par
une suite (f

de fonctions de classe C
2
; on note u

la solution du probl`eme
de Dirichlet associee `a f

et U

la solution du schema associee `a F

avec des
notations naturelles. De meme on introduit

U

et E

h
lerreur analogue `a E
h
mais entre la solution u

et U

.
Par linegalite triangulaire, on a :
E
h
||

U

U

||

+E

h
+ ||U U

||

,
et on examine les termes du membre de droite : par le principe du maximum
pour lequation continue, on a :
||

U

U

||

||u u

||


1
8
||f f

||

.
De meme, en recopiant largument de letape 2 ci-dessus :
||U U

||


1
8
||F F

||


1
8
||f f

||

.
Enn, par le resultat des etapes 1 et 2, on a :
E

h

h
2
96
||f

||

.
Do` u :
E
h

1
4
||f f

||

+
h
2
96
||f

||

.
Une suite (f

etant choisie, il sagira ensuite de determiner le meilleur


possible, cest-`a-dire celui qui donne la meilleure estimation, donc le membre
de droite le plus petit.
Pour cela, precisons le choix de la suite (f

. On peut dabord prolonger


la fonction f `a R tout entier en une fonction continue ou C
1
qui est `a support
compact. On regularise alors f par convolution :
f

(x) =
_
R
f(y)

(x y)dy ,
70 CHAPITRE 1. EQUATIONS ELLIPTIQUES
o` u (

est une suite dapproximation de lunite, typiquement :

(t) =
1

(
t

) pour tout t R ,
o` u est une fonction C

positive, paire, `a support compact dans ] 1, 1[ et


telle que
_
R
(y)dy = 1.
Il est
(12)
bien connu que, si f est de classe C
1
alors
||f f

||

C et ||f

||

,
pour une certaine constante C dependant de f et de , alors que si f est
seulement continue :
||f f

||

() et ||f

||

2
,
o` u est un module de continuite de f, donne par exemple par :
(t) = sup
|xy|t
||f(x) f(y)|| .
Si f est de classe C
1
, on a donc :
E
h

1
4
C +
h
2
96
C

,
et le minimum en est atteint pour = ch, c etant une constante explicite,
et on a bien E
h
= O(h).
Si f est seulement continu, on a :
E
h

1
4
() +
h
2
96
C

2
;
le calcul du realisant le minimum nest plus possible mais en prenant
= h
1/2
, on voit bien que le second membre tend vers 0.
1.7 Annexes : Rappels dAnalyse Hilbertienne
On note H un espace de Hilbert, (, ) son produit scalaire et |||| la norme
associee. On rappelle la propriete caracteristique de la norme, legalite de la
mediane :
||x +y||
2
+ ||x y||
2
= 2
_
||x||
2
+ ||y||
2
_
pour tous x, y H .
Le resultat fondamental est le suivant :
(12)
ou devrait etre ... le lecteur est vivement encourage `a redemontrer ces estimations en
guise dexercice.
1.7. ANNEXES : RAPPELS DANALYSE HILBERTIENNE 71
Theor`eme 1.14. (Theor`eme de projection) Soit K un sous-ensemble convexe
ferme, non vide de H et soit x H. Il existe un unique point y K tel
que :
||x y|| = min
zK
||x z|| .
De plus, y est lunique solution dans K de linequation variationnelle :
(x y, z y) 0 pour tout z K .
Preuve : {||xz||; z K} est un ensemble non vide minore de R, il admet
donc une borne inferieure m = inf
zK
||x z|| et par denition de la borne
inferieure, il existe une suite minimisante (z
n
)
n
delements de K, cest-`a-dire
telle que ||x z
n
|| m.
En appliquant legalite de la mediane `a x= xz
n
et y= xz
p
pour
n, p N, on obtient :
||x
n
x
p
||
2
= 2
_
||x z
n
||
2
+ ||x z
p
||
2
_
||2x z
n
z
p
||
2
.
Mais :
||2x z
n
z
p
||
2
= 4
_
_
x
z
n
+z
p
2
_
_
2
,
et, comme K est convexe,
z
n
+z
p
2
K donc ||x
z
n
+z
p
2
|| m. Il en resulte :
||x
n
x
p
||
2
2
_
||x z
n
||
2
+ ||x z
p
||
2
_
4m
2
; .
En utilisant le fait que ||xz
n
||
2
, ||xz
p
||
2
m
2
, on deduit de cette inegalite
que la suite (z
n
)
n
est de Cauchy donc elle converge vers un element y qui est
dans K car les z
n
sont dans K et K est ferme. Par passage `a la limite, en
utilisant la continuite de la norme, on obtient ||xy|| = m puisque ||xz
n
||
converge `a la fois vers m (par denition) et vers ||x y|| (par continuite de
la norme). Une superbe application de lunicite de la limite !
Pour lunicite, on raisonne par labsurde : sil existe y, y

K tels que
||xy|| = ||xy

|| = m, on reutilise legalite de la mediane avec x= xy


et y= x y

; par le meme argument que ci-dessus, on deduit :


||y y

||
2
2
_
||x y||
2
+ ||x y

||
2
_
4m
2
= 0 .
Do` u lunicite.
Pour linequation variationnelle, on teste linegalite ||x y||
2
||x
z||
2
pour tout z K, en chageant z en tz + (1 t)y pour t ]0, 1[. Cette
combinaison convexe reste dans K puisque y, z K et, en ecrivant :
||x(tz+(1t)y)||
2
= ||xy+t(zy)||
2
= ||xy||
2
+2t(xy, zy)+t
2
||zy||
2
,
on deduit :
2t(x y, z y) +t
2
||z y||
2
0 .
72 CHAPITRE 1. EQUATIONS ELLIPTIQUES
Il sut de diviser par t > 0 et de faire tendre t vers 0 pour obtenir
linequation variationnelle.
Enn, pour montrer que y est lunique solution de cette inequation va-
riationnelle (I.V.), on proc`ede par labsurde en considerant un autre element
y

de K qui la satisfait. En prenant z = y

dans lI.V. de y et z = y dans


celle de y

et en les sommant, on a :
(x y, y

y) + (x y

, y y

) 0 .
Mais le membre de gauche vaut ||y y

||
2
. Contradiction.
Remarque : Si F est un sous-espace ferme de H, on peut projeter sur F et si
on note y = p
F
(x), on montre facilement que p
F
est lineaire, continue et que
||p
F
(x
1
)p
F
(x
2
)|| ||x
1
x
2
||, pour tous x
1
, x
2
H, cette derni`ere inegalite
etant aussi vraie quand on proj`ete sur un convexe feerme quelconque.
Theor`eme 1.15. (Theor`eme de representation de Riesz) Si L est une forme
lineaire continue sur H, il existe un unique element a H tel que :
L(x) = (a, x) pour tout x H .
Preuve : On note F = ker(L). F est un sous-espace ferme car L est continu.
Si L nest pas identiquement nul (sinon a = 0 convient), il existe x H tel
que L(x) = 0. On note y la projection de x sur F. Linequation variationnelle
implique que :
(x y, z y) 0 pour tout z F ,
mais F etant un sous-espace vectoriel, on peut prendre z = y+h, h decrivant
F puis on peut changer h en h. On aboutit donc `a la relation dorthogo-
nalite :
(x y, h) 0 pour tout h F .
On note b = x y ; comme L(b) = L(x) = 0, b = 0 et on va maintenant
prouver le :
Lemme 1.7. H = F

Rb.
Preuve : Si z H, un calcul immediat montre que z
L(z)
L(b)
b est dans F
et donc z =
L(z)
L(b)
b + z avec z F et cette decomposition est unique car le
coecient de b est impose par le calcul de L(z).
On pose alors a =
L(x)
||b||
2
b et on utilise la decomposition dun z quelconque
de H comme ci-dessus. Comme (a, z) = 0 puisque z F et donc (b, z) = 0,
on deduit :
(a, z) =
L(z)
L(b)
(a, b) =
L(z)
L(b)
L(x)
||b||
2
(b, b) = L(z) ,
1.7. ANNEXES : RAPPELS DANALYSE HILBERTIENNE 73
puisque L(b) = L(x).
Remarque : Ce theor`eme sert `a resoudre des equations : par exemple, cest
le theor`eme de Lax-Milgram. Exemple : si f L
2
(]0, 1[) et si H = H
1
0
(]0, 1[),
en utilisant le Theor`eme de Riesz pour le produit scalaire :
(u, v) =
_
1
0
_
u

(t)v

(t) +u(t)v(t)
_
dt ,
et la forme lineaire continue L(u) =
_
1
0
f(t)u(t) dt, on resout formellement
u

+u = f avec u(0) = u(1) = 0.


1.7.1 Convergence faible
Denition 1.6. On dit que la suite (x
n
)
n
delements de H converge faible-
ment vers l H si, pour toute forme lineaire continue L, (L(x
n
))
n
converge
vers L(l) ou de mani`ere equivalente si, pour tout a H, (a, x
n
) (a, l). Si
(x
n
)
n
converge faiblement vers l, on note x
n
l.
Exemples (sympathiques ou moins sympathiques) :
1. En dimension nie, on peut utiliser pour L les formes lineaires coor-
donnees, x = (x
1
, , x
N
) x
i
pour 1 i N et donc la convergence
faible implique la convergence de toutes les coordonnees donc la convergence
classique. Nihil novi sub sole !
(13)
2. En dimension innie, ca se gate : si H = l
2
(N) := {y = (y
n
)
n
;

+
i=0
y
2
n
<
+}, muni de la norme :
||y||
2
:=
+

i=0
y
2
n
,
on note e
n
= (0, , 0, 1, 0 0, ) la suite qui ne contient que des 0 sauf
un 1 `a la ni`eme place. (e
n
)
n
est une base hilbertienne de H. On a simul-
tanement :
||e
n
|| = 1 pour tout n,
e
n
0 : en eet, si a = (a
n
)
n
H, (a, e
n
) = a
n
0 car la convergence
de la serie implique que a
n
tend vers 0.
Cet exemple o` u lon a `a la fois ||e
n
|| 1 et e
n
0 montre bien la dierence
entre convergence faible et convergence forte (i.e. en norme), et la diculte
de manipuler une telle notion.
3. Autre exemple, dans H = L
2
(]0, 1[), la suite de fonctions u
n
(t) = sin(2nt)
converge faiblement vers 0 (Lemme de Riemann-Lebesgue) et pourtant sa
norme L
2
reste constante (exercice !).
(13)
rien de nouveau sous le soleil.
74 CHAPITRE 1. EQUATIONS ELLIPTIQUES
Remarque : Il faut faire bien attention `a la denition : on doit considerer
les suites (a, x
n
) pour a FIX

E. Si (x
n
)
n
et (y
n
)
n
convergent faiblement, on ne
sait rien a priori de (x
n
, y
n
) : on en a vu des exemples ci-dessus avec y
n
= x
n
.
De meme toute operation non lineaire sur les suites convergeant faiblement
sont problematiques (cf. ci-dessus sin(2nt) qui converge faiblement vers 0
mais pas sin
2
(2nt) !).
Quelques resultats utiles :
Proposition 1.9. Soit J : H R une fonction convexe de classe C
1
et
(x
n
)
n
une suite delements de H qui converge faiblement vers l. Alors :
liminf
n
J(x
n
) J(l).
En dautres termes, J est sci pour la topologie faible.
Preuve : La convexite et le caract`ere C
1
de J implique :
J(y) J(x) +J

(x)(y x) pour tous x, y H ,


et donc :
J(x
n
) J(l) +J

(l)(x
n
l) ,
et comme J

(l) est une forme lineaire continue, J

(l)(x
n
l) 0 par la
convergence faible. Il sut donc de passer `a la liminf.
Remarque : x ||x||
2
est convexe et de classe C
1
, donc, si x
n
l :
liminf
n
||x
n
||
2
||l||
2
.
On en a vu deux exemples plus haut avec des inegalites strictes...
Proposition 1.10. Si x
n
l et si ||x
n
|| ||l|| alors x
n
l.
En dautres termes : convergence faible + convergence de la norme =
convergence forte.
Preuve : On ecrit simplement :
||x
n
l||
2
= ||x
n
||
2
2(l, x
n
) + ||l||
2
et on remarque que, dans le membre de droite (l, x
n
) (l, l) = ||l||
2
par la
convergence faible alors que les deux autres termes convergent vers ||l||
2
.
Remarque : Ce crit`ere de convergence forte est souvent utile quand les
proprietes de compacite sont simplement susantes pour passer `a la limite
a sens de la convergence faible (via des sous-suites). On recup`ere la conver-
gence forte a posteriori.
1.7. ANNEXES : RAPPELS DANALYSE HILBERTIENNE 75
Exercice 10. Soit a : H H R une forme bilineaire continue, i.e. il
existe une constante M > 0 telle que :
|a(u, v)| M||u||.||v|| pour tous u, v H .
Montrer quil existe une application lineaire continue A : H H telle que :
a(u, v) = (Au, v) , pour tous u, v H .