Académique Documents
Professionnel Documents
Culture Documents
Chap 6
Chap 6
(0.1)
En général, il n’y a pas d’algorithme fini pour trouver une solution. On est donc obligé d’utiliser
des méthodes itératives.
!
Sans hypothèses supplémentaires, on ne sait rien sur l’existence d’une solution de (0.1). Par
exemple, pour il n’y a pas de solution, pour il y en a une infinité. Mais, #" $%
'&()"
le théorème d’inversion locale nous fournit un résultat sur l’unicité locale: si
* " et si la
+
, * +
matrice jacobienne
"
est inversible, il existe un voisinage de et un voisinage de tels
* "
que soit bijective. Ceci implique que est la seule solution de (0.1) dans le voisinage
de .
12- 3
cherche tel que
(1.1)
>=@?BAC2- >=D
méthode itérative
(1.2)
Méthodes Itératives – Equations Non Linéaires 135
Si la suite EF>=DG
converge, disons vers
"
, et si la fonction - "
est continue en , la limite
"
est une solution de (1.1). Mais que peut-on dire sur l’erreur?
- S& #"
On peut tirer plusieurs conclusions de la formule (1.3):
R TUA WV TUAJVYX Z
si possède une valeur propre satisfaisant
[\A & )"
, la composante de dans la " =
R direction du vecteur propre va être agrandie – l’itération ne converge pas vers .
si toutes les valeurs propres de satisfont - V]T_^3Va`bN Z & #" N
, on peut choisir une norme dans
que, pour
N = N
telle que pour la norme matricielle correspondante
suffisamment petit, on a
N =J?BA Nedgf
N - = N f `cZ
. Ceci et (1.3) impliquent
où est un nombre entre
N - & )" N
Z =
et . L’erreur converge donc vers zéro.
Exemple. Pour résoudre numériquement h
& i hU , on peut appliquer la méthode d’Euler im-
hAQhj<KMk hAS
plicite
(1.4)
qui définit implicitement l’approximation hA de la solution après un pas de longueur k . L’équation
(1.4) est déjà sous la forme (1.1) avec - Qhj<CKMk . Si k est suffisamment petit, les valeurs
&(
propres de - hBAPC2k
'&S hAP sont petites et l’itération (1.2) converge.
Critère pour arrêter l’itération. En pratique, on s’intéresse à une approximation >= qui satis-
N
fasseN >=6
"UNld tol. Une possibilité est d’accepter >= comme approximation de la solution dès
que >=
6m>=@nBA
N.d tol.
Le critère qui va suivre est basé sur l’hypothèse que - soit une contraction et que
N >=
6m>=JnBA N
d8f
N >=@nBA6o>=@n O N avec
f `gZF
En appliquant l’inégalité du triangle à l’identité
>=
6 " >=.6m>=J?BApK >=J?BAp6o>=J? O pKI@@
f N
(en cas de convergence), on obtient
N >=
6 "UN
d f >
= m
6 >
J
= B
n A N
Zi6 (1.5)
f= N
L’idée est d’arrêter l’itération quand
f >
= m
6 >
@
= B
n A Nvd
Z6 = tol (1.6)
100 100
10−2 10−2
10−4 10−4
10−6 10−6
10−8 10−8
0 10 20 0 10 20
F IG . VI.1: Convergence des itérations (1.7)
où est un paramètre donné (pour Z , SOR se réduit à Gauss-Seidel). Elle est aussi simple à
programmer que la précédente.
Les résultats suivants démontrent la convergence dans quelques situations particulières.
N
Bn A @N ¢ £
Démonstration. Pour la méthode de Jacobi, on a
Bn A 6z nBA K*¡ . La condition (2.4)
implique que ` Z
(voir la formule (4.5) du chapitre IV).
Pour étudier la convergence de la méthode SOR (en particulier pour Gauss-Seidel), on l’écrit
sous la forme équivalente
8K¤ #>=J?BA Z6o.386mv*¡)>=
K¤v
nBA
ou encore >=J?BA2¥ .)>=0K¤ 2Ko avec
Démonstration. Il faut démontrer que toutes les valeurs propres de ¥ . satisfont VWT¦V`gZ . Soient
Tune valeur propre et ¨
§
le vecteur propre correspondant:
P Z6m .356mv*¡#18T 2K¤ #© (2.6)
Comme Z6o.86ov*;856m K¤ , la formule (2.6) devient
, Z6MT> 8Km #© (2.7)
f1
En multipliant (2.6) et (2.7) avec «ª , on obtient pour I«ª 5K¤ ) (observer que *
¬ )
T f K f Hv6o.) ª
X r ZC6IT> f I ª , j® X (2.8)
On en déduit
f f ® T Z ® ,
Z ¯
6 W
V ¦
T V Or
`T K ZC6IT K Z6 T yV Z6MT¦V O
ce qui implique VWT¦V`gZ .
138 Méthodes Itératives – Equations Non Linéaires
Pour quelques matrices, on connaı̂t la valeur de qui minimise le rayon spectral de ¥ .
et, par conséquent, qui accélère la convergence par rapport à l’itération de Gauss-Seidel. D’autres
méthodes itératives pour des systèmes linéaires sont SSOR (“symmetric successive over-relaxation”)
et la méthode du gradient conjugué (avec préconditionnement). Voir le livre de Golub & Van Loan,
déjà mentionné au chapitre IV, et les livres classiques
L.A. Hageman & D.M. Young (1981): Applied Iterative Methods. Academic Press, New York.
R.S. Varga (1962): Matrix Iterative Methods. Prentice Hall, Englewood Cliffs, New Jersey.
&
h h&
Z ZY6³ O #hu6¨
Exemple 3.1 La méthode d’Euler implicite (voir (1.4)), appliquée à l’équation différentielle
, avec pour valeurs initiales ´H µ
£6zj!¶j¶
, , nous conduit à l’équation
non linéaire
·´²KMk h O
h¸·µ KMk Z iZ 6o )h¹6o3 (3.2)
L’itération (1.2) ne converge que pour k suffisamment petit. Par exemple, pour k$xw elle diverge
et on est obligé d’utiliser un autre algorithme. La méthode de Newton
Si l’on pose 1
" "
dans cette formule (avec comme solution de (3.1)) et si l’on soustrait
=J?BA Æ Ä ) & > =| nBA & & > =D = r =DpKML 3 N = N Ã 3 x (3.4)
"
Ce théorème montre la convergence locale de la méthode de Newton, c.-à-d., si " est proche <
d’une solution de (3.1), la suite EF>=G
converge vers . Concernant la convergence globale, on en
sait très peu et on ne sait analyser seulement que quelques cas de fonctions simples. L’exemple le
plus connu est
)Ç FÇ Ã 2
6 Z i r hU ÃM 6 O wFBh O 68
à Z
ou
wF h 6mh (3.5)
(
Ç QKm{h ) pour lequel l’itération devient
Ç =@?BAC Ç =
6 Ç =Ã Ç68O Z Z H Ç = K Ç Z O
w = w = (3.6)
Il est intéressant de déterminer les ensembles (bassins d’attraction)
#" CE Ç <4%É È V|E Ç =|G converge vers " G (3.7)
q #Ç C . Un calcul par ordinateur donne la figure VI.2.
pour les trois solutions Z , 6$ZDÊ43Ë wj H de
Ç < du domaine blanc entraı̂nent une convergence vers " Z , ceux du domaine gris vers
" 6$ZÌ67Ë w q H et ceux du domaine noir vers " 6$ZÍK73Ë wj q H . On observe que la suite E Ç =G
Les
−1 1
Ï
Ð
Mais comment doit-on choisir le ? Pour simplifier la notation, considérons une fonction à une
variable et notons-la par .
Un développement en série de Taylor montre que
Ð $KIÏ|6oÐ I
Ð & ©K Ï Ð & & KML Ï O 3
Ï H (3.9)
Ï
En conséquence, doit être petit pour que l’erreur de la discrétisation ne soit pas trop grande.
D’autre part, la soustraction dans (3.9) est très mal conditionnée. Une étude des erreurs d’arrondi
montre que l’expression obtenue par un calcul en virgule flottante vaut
Ï F@ ~ Z @F
H Ï eps (3.10)
une fonction
·
Ó 0Ôoù Õ X
et on cherche une solution de
z
Dans ce paragraphe, on va s’intéresser à des systèmes non linéaires surdéterminés. On considère
. Evidemment,
1
comme on a plus de conditions que d’inconnues, ce problème ne possède en général pas de solu-
tion. On se contente donc de trouver un vecteur tel que
NF N O Ö !v (4.1)
Si est différentiable, la fonction × $
NF N OO est aussi différentiable et une condition
&
nécessaire pour que soit un minimum local est d’avoir × C; , c.-à-d.
& ¬ C2 (4.2)
Une possibilité pour résoudre (4.1) est d’appliquer une méthode itérative, par exemple la méthode
i
Une autre possibilité est de linéariser
de Newton, au système (4.2). Ceci nécessite le calcul de la deuxième dérivée de
dans (4.1) autour d’une approximation
.
de la <
solution et de calculer de «A
NF <@pK & <J «A6o<@ N O Ö !v (4.3)
s r Z r H r F@
Une répétition de cette idée donne l’algorithme suivant (méthode de Gauss-Newton)
for
>=| '& >=D
±²>= NF >=ÑpK _& > =|±¡>= N O Ö !
calculer et
déterminer de (moindres carrés)
>=J?BAQ>=
KI±¡>=
end for
Pour calculer ±¡>= on peut soit résoudre les équations normales (section IV.6)
Ø & >= ¬ & > =DP±¡>=²26 # & >=D ¬ >=| (4.4)
'&(
soit calculer la décomposition QR de >=D et appliquer l’algorithme de la section IV.7.
142 Méthodes Itératives – Equations Non Linéaires
Etude de la convergence
Pour étudier la convergence de la méthode de Gauss-Newton, développons la fonction
Ô Î
Ð ) & P ¬ r
Ð^ C 3 A Îj>^ (4.5)
où : \
ÔÛÚm
est l’application bilinéaire définie par
Ð # & > =DP ¬ >=||K ) & >=| ¬ & >=| .6¹>=D|K: >=| )i >=Ñ r .6¹>=ÑKL 3 N . 6¹>= N O 3 (4.8)
"
Soit maintenant une solution de (4.1). Elle satisfait Ð
#" £ . En posant m " dans (4.8) et en
soustrayant (4.4), nous obtenons ainsi le résultat suivant.
¸ Ô ÕÞX w
&
Théorème 4.1 Supposons que (avec
"
) soit fois continûment différentiable,
>=
que le rang de "
proche de , l’erreur =²·>=.6 "
soit maximal et que soit une solution de (4.1). Alors, pour
de la méthode de Gauss-Newton satisfait
suffisamment
)"ar r@ß
Pour fixer les inconnues, notons par ( rh rÇ
la position du foyer de la caméra, par le vecteur
#"r rFß
la direction de vue avec norme correspondant à la distance du plan du film et par l’angle à
de rotation de la caméra autour du vecteur . On a donc paramètres à trouver. De plus,
considérons la base orthogonale
" 6 "aß
ß r
k Ë " O Z I O
K 6 " r °
Ð )
" #
"
Z
ß
O KM O O K O K O " O KM O z
6 ß (4.9)
En tout, ceci donne
la fonction
¸ ²äC w ¶$AÂÀ . Z¾ conditions pour inconnues. Voici le programme FORTRAN pour
å#ëØæôSç(öèóéØë)æïPêë#ê.ë#ìíèSí÷îSóPï(ìJø{ùuðÝìJñÝðÝò÷PåSú#ûÑé)óJñyéñôÑú(üPñÝî3õ õ
ý3öï÷(é#ëØèSôSôô÷(íôSìé)íìåê)ë(ýSí(é)èÑì÷êðÝì({òýì(åSýSþSé)÷ÿóJêJPõðÝì3ñÝò(õ ýSñÝ÷îJêJðôðÝì(õ ýõºñý÷êJðÝìýõ ñÂü)ýS÷êÑðÝì(ý õ ñ æSý÷êJðxì(ýõ ñ(ýS÷SêJðÝì(ý õ
ïeúúúúòúú(þ(òìPåSé)êé)óJ÷ê ð ë((é)õ ìvóPé{ï(÷óí¡úúúúúúúú
(þ(òåSé)óJðPõ
VI.5 Exercices
1. Pour une fonction "$#&%(')% , considrons l’itration *,+ '=.-!+'=JnBA0/1'2+\=@?BA dfinie par
"6*,+\=8/:9;"6*,+\=JnBA/
354
'=
"6*,+ ./67
+\=<9=+\=JnBA
*,+\=@?BA>9?+'=8/@ (5.1)
(d) Soit "6*,+Z/ un polynme, nous avons que le travail pour valuer "6*,+>/ et " *,+Z/ est approxima-
&
tivement le mme. Supposons que le cot des oprations d’additions, de soustractions, de mul-
tiplications et de divisions sont ngligeables par rapport l’valuation de "6*,+Z/ . Quelle mthode
choisiriez-vous entre la mthode de Newton et la mthode de la scante (5.1) pour calculer une
racine de "6*,+>/ travail gal?
continûment différentiable. Pour un + <a < /4c 3
& < / etsoit"^#_inversible.
2. Soit N\[]%
et que " *,+
N\'`%
Montrer que
N supposons que "6*,+ b
Q <
4 & nBA "6*,+ < /
9d" *,+ < /