Vous êtes sur la page 1sur 14

Chapitre VI

Méthodes Itératives – Equations Non


Linéaires

à-dire pour une fonction


    

donnée, on cherche un point tel que  

En pratique, on est souvent confronté à la résolution d’un système d’équations non linéaires. C’est-

  (0.1)
En général, il n’y a pas d’algorithme fini pour trouver une solution. On est donc obligé d’utiliser
des méthodes itératives.
   !
Sans hypothèses supplémentaires, on ne sait rien sur l’existence d’une solution de (0.1). Par
exemple, pour il n’y a pas de solution, pour il y en a une infinité. Mais, #" $%
'&()" 
le théorème d’inversion locale nous fournit un résultat sur l’unicité locale: si
* " et si la
+ 
, *  +
matrice jacobienne
"
est inversible, il existe un voisinage de et un voisinage de tels

* "
que soit bijective. Ceci implique que est la seule solution de (0.1) dans le voisinage
de .

Bibliographie sur ce chapitre


P. Deuflhard (2004): Newton Methods for Nonlinear Problems. Affine Invariance and Adaptive
Algorithms. Springer Ser. Comp. Math. 35, Springer, Berlin.
J.M. Ortega & W.C. Rheinboldt (1970): Iterative Solution of Nonlinear Equations in Several Vari-
ables. Academic Press, New York.
A.M. Ostrowski (1966): Solution of Equations and Systems of Equations. Academic Press, New
York, 2nd edition. [MA 65/27]

VI.1 Méthode des approximations successives


- . /  0 ; c.-à-d., on
 

On considère le problème du calcul d’un point fixe de l’application

12-  3
cherche tel que
(1.1)

-  45 76   -  48 96;:  


Les problèmes (0.1) et (1.1) sont équivalents et il y a beaucoup de possibilités pour écrire (0.1) sous
la forme (1.1). Par exemple, on peut définir comme - ou
:
(ici est soit un nombre non-nul, soit une matrice bien choisie).
Pour résoudre (1.1), on se donne une approximation initiale <
(arbitraire) et on considère la

>=@?BAC2-  >=D
méthode itérative
(1.2)
Méthodes Itératives – Equations Non Linéaires 135

Si la suite EF >=DG
converge, disons vers
"  
, et si la fonction -   "
est continue en , la limite
"
est une solution de (1.1). Mais que peut-on dire sur l’erreur?

Théorème 1.1 Si - "   H


est fois continûment différentiable et si
"   est une solution de (1.1),
l’erreur =4I >=
6 satisfait

=J?BA2- & #" =KML 3N = NPO 3 (1.3)

Démonstration. Comme ;-


" )"  , on obtient
=J?BAQ >=J?BA6 " -  >=D6M- #" - & )" =.KIL  N  = N O  

- S& #" 
On peut tirer plusieurs conclusions de la formule (1.3):
R TUA WV TUAJVYX Z
si possède une valeur propre satisfaisant
[\A & )"
, la composante de dans la " =
R direction du vecteur propre va être agrandie – l’itération ne converge pas vers .
si toutes les valeurs propres de satisfont -  V]T_^3Va`bN Z & #" N
, on peut choisir une norme dans
 
que, pour
N = N
telle que pour la norme matricielle correspondante
suffisamment petit, on a
N =J?BA Nedgf
N - = N  f `cZ
. Ceci et (1.3) impliquent
où est un nombre entre
N - & )"  N
Z =
et . L’erreur converge donc vers zéro.
Exemple. Pour résoudre numériquement h 
& i hU , on peut appliquer la méthode d’Euler im-
hAQhj<KMk  hAS
plicite
(1.4)
qui définit implicitement l’approximation hA de la solution  après un pas de longueur k . L’équation
(1.4) est déjà sous la forme (1.1) avec - Qhj<CKMk  . Si k est suffisamment petit, les valeurs
&(
propres de - hBAPC2k
'&S hAP sont petites et l’itération (1.2) converge.
Critère pour arrêter l’itération. En pratique, on s’intéresse à une approximation >= qui satis-
N
fasseN >=6
"UNld tol. Une possibilité est d’accepter >= comme approximation de la solution dès
que >=
6m >=@nBA
N.d tol.
Le critère qui va suivre est basé sur l’hypothèse que - soit une contraction et que
N >=
6m >=JnBA N
d8f
N >=@nBA6o >=@n O N avec
f `gZF
En appliquant l’inégalité du triangle à l’identité

>=
6 "   >=.6m >=J?BApK  >=J?BAp6o >=J? O pKI@@
f N
(en cas de convergence), on obtient
N >=
6 "UN
d f >

= m
6 >
J
= B
n A N
Zi6 (1.5)

Le facteur de contractivité peut être estimé par


f =4 N >=
6o >=JnBA NFqN >=JnBAp6m >=@n O NFr sut H

f= N
L’idée est d’arrêter l’itération quand

f >

= m
6 >
@
= B
n A Nvd
Z6 = tol (1.6)

et d’accepter >= comme approximation de la solution.


136 Méthodes Itératives – Equations Non Linéaires

100 100

10−2 10−2

10−4 10−4

10−6 10−6

10−8 10−8
0 10 20 0 10 20
F IG . VI.1: Convergence des itérations (1.7)

Exemples. Pour les deux itérations


>=J?BA  Z KQxw hj= r >=@?BA   6zj{Z >=
hj=J?BA Z 6oPy >= h=J?BA H  hj= (1.7)
 r
la norme euclidienne de l’erreur de >= hj=| est dessinée dans la figure VI.1 (à gauche pour la
première itération et&()à" droite pour la deuxième). On peut bien observer la convergence linéaire. Le
rayon spectral de -  vaut }~5)Z€j et }7~8xjj respectivement. C’est la raison pour laquelle
la première itération converge plus rapidement que la seconde. Le dessin
la convergence n’est pas nécessairement monotone (pour la norme
N‚UN O ).à droite f
montre aussi que
Donc, le coefficient =
de (1.6) peut être plus grand que Z même si l’itération converge.

VI.2 Méthodes itératives pour systèmes linéaires


Pour la résolution des systèmes linéaires ƒ
,2„ r ƒ (2.1)
ƒ
il y a des situations où les méthodes itératives sont très utiles. Par exemple, si la matrice possède
une très grande dimension et si beaucoup d’éléments de sont nuls (matrice creuse),ƒ ce qui est le
cas pour les discrétisations des équations aux dérivées partielles.
Pour se ramener à un problème de point fixe, on considère une décomposition †… 62‡
(“splitting”) et on définit l’itération ƒ
…Q >ƒ =J?BA8‡u >=
KI„ r 2… 6ˆ‡‰ (2.2)
Le choix de la décomposition Š… 6‹‡
est important pour la performance de la méthode.
D’une part, … Bn A
doit être choisie telle que le système (2.2) soit beaucoup plus facile à résoudre que
le système (2.1). D’autre part, les valeurs propres de la matrice
pour que l’itération (2.2) converge.
ƒ… ‡
doivent satisfaire VWTŒ^VŒ`bZ
Il y a beaucoup de possibilités de définir la décomposition 2… 6M‡
. Si l’on dénote

" O A  A O F@ " .A 


"
  ..
r *
.. .. ..
.. "  Ž
. . .
.. .. ..
"  A @@ " Ž  nBƒ A 
. . . . nBA

)" r r@"
et \y‘“’ A”A @@ F  (afin que 
 KM8KM*
R Jacobi : … 2 , ‡†26  6ˆ* ;
) les itérations les plus connues sont:

R Gauss-Seidel : … 88K  , ‡†86z* .


Méthodes Itératives – Equations Non Linéaires 137

Pour ces deux méthodes, la matrice …


est choisie de manière à ce que le système (2.2) soit très

J=^ ?BA =^•?BA r @@ r =


facile à résoudre. Un avantage de la méthode de Gauss-Seidel est le fait que pour le calcul de
>=J?BA
@=^ ?BA =^
la composante du vecteur on n’a besoin que des composantes du vecteur
>=. Alors, on peut utiliser la même variable pour que pour . Une itération devient donc

–  Z r F@ r˜— ^•nBA "


simplement:

>^ „S^6 ™š A ^ ™ ™ 6


for
™3š ^›?BA " ^ ™ ™  qj" ^œ^
.
Une modification intéressante de cet algorithme est la méthode SOR (“successive over-relaxation”):
>=J?BAC  Z6o .) >=YKm
 1„i6 >=J?BAp6ˆ* >= (2.3)

où  est un paramètre donné (pour ž†Z , SOR se réduit à Gauss-Seidel). Elle est aussi simple à
programmer que la précédente.
ƒ
Les résultats suivants démontrent la convergence dans quelques situations particulières.

Théorème 2.1 Si la matrice est “diagonale dominante”, c.-à-d.


V " ^œ^3VjX ™ Ÿš ^ V " ^™ V pour –Z r F@ r˜—r (2.4)

alors l’itération de Jacobi converge.

N … Bn A ‡ @N ¢ £
Démonstration. Pour la méthode de Jacobi, on a … Bn A ‡  6z nBA   K*¡ . La condition (2.4)
implique que ` Z
(voir la formule (4.5) du chapitre IV).

Pour étudier la convergence de la méthode SOR (en particulier pour Gauss-Seidel), on l’écrit
sous la forme équivalente
 8K¤  # >=J?BA  Z6o.386mv*¡) >=
K¤v„
   nBA
ou encore >=J?BA2¥ .) >=0K¤ 2Ko  „ avec

ƒ ¥  .  8Km   nBA  ZC6¤.356mv*¡3 (2.5)


 r
Théorème 2.2 Si est symétrique et définie positive et si M  H“ , l’itération SOR, définie par
(2.3), converge.

Démonstration. Il faut démontrer que toutes les valeurs propres de ¥  . satisfont VWT¦V“`gZ . Soient
Tune valeur propre et ¨
§ 
le vecteur propre correspondant:
P Z6mƒ .356mv*¡# 18T  2K¤  # © (2.6)
 
Comme Z6o.86ov*;856m ƒ K¤ , la formule (2.6) devient
 ,  Z6MT>  8Km  # © (2.7)
f1  
En multipliant (2.6) et (2.7) avec «ª , on obtient pour I «ª 5K¤ ƒ ) (observer que *
 ¬ )
T f K f   Hv6o.) ª ­ Xž r  ZC6IT> f I ª , j® X (2.8)
On en déduit
f f ® T Z ® , ‚ 
Z ¯
6 W
V ¦
T V Or
­`T K  ZC6IT K Z6 T  yV Z6MT¦V O
ce qui implique VWT¦V“`gZ .
138 Méthodes Itératives – Equations Non Linéaires

Pour quelques matrices, on connaı̂t la valeur de qui minimise le rayon spectral de  ¥  .
et, par conséquent, qui accélère la convergence par rapport à l’itération de Gauss-Seidel. D’autres
méthodes itératives pour des systèmes linéaires sont SSOR (“symmetric successive over-relaxation”)
et la méthode du gradient conjugué (avec préconditionnement). Voir le livre de Golub & Van Loan,
déjà mentionné au chapitre IV, et les livres classiques
L.A. Hageman & D.M. Young (1981): Applied Iterative Methods. Academic Press, New York.
R.S. Varga (1962): Matrix Iterative Methods. Prentice Hall, Englewood Cliffs, New Jersey.

VI.3 Méthode de Newton


Considérons le problème de la résolution d’un système d’équations non linéaires
 C (3.1)
¤¦       

<  
où la fonction est supposée être au moins  une fois
une approximation de la solution cherchée, on linéarise  autour de <
différentiable. Si est

 ~  <JpK &  <J  °6o <F


et on calcule le zéro de cette linéarisation. Si l’on répète cette procédure avec la nouvelle approxi-
s    r Z r H r F@ '&”
mation, on obtient l’algorithme suivant:
for
'&” >=DP±² >=¡ >8=| 6  >=D > =D
calculer et
(système linéaire à résoudre)
>=J?BAQ >=
KI±¡ >=
end for

&
h h&†
 Z€  ZY6³ O #hu6¨
Exemple 3.1 La méthode d’Euler implicite (voir (1.4)), appliquée à l’équation différentielle
, avec pour valeurs initiales ´‹H µ £6zj!¶j¶
, , nous conduit à l’équation
non linéaire ‚
·´²KMk ‚h   O
h¸·µ KMk Z€ iZ 6o )h¹6o 3 (3.2)

L’itération (1.2) ne converge que pour k suffisamment petit. Par exemple, pour k$xw elle diverge
et on est obligé d’utiliser un autre algorithme. La méthode de Newton

k HjF >=Z h=K8Zº Z65Z€6­k  k Zi6o O=  >hj=J=J?B?BApAp6o


6o >= 86
h=
>=
 6¤´z 6ˆkhjO =
h=
6¤µ»6ˆk Z€ Zi6o = #h=6o >=|
converge sans difficulté avec k,‹r !w si l’on commence l’itération avec <­ž´ et hj<²µ (voir le
tableau VI.1 pour les valeurs de >= h= et les erreurs, mesurées dans la norme euclidienne).

TAB . VI.1: Convergence de la méthode de Newton


s > = jh =
 Hj!j“jjjj“jjjj“j 6zj!¶j¶“jjjj“jjjj“jj ¼xwZ
erreur
‚ Z€ Bn A
Z Z€!½j¼“j½j½j¾Zº¾j¼ZjZ€“½j 6zj{Z€¶“wjwjwj½jw“¾jHj½jjBZ€j½ wxwj¾ ‚ Z€ n O
H Z€!½j¶“j¾jjHj“½jZ€¼Zº¶jw 6zj{Z€w“j¼jHjjBZ€½jj½j“¼j¾jH xHj ‚ Z€ n“¿
w Z€!½j¶“jjHjjH“wjjjj½“Hj¶ 6zj{Z€w“j½jwjHj¼“jwZ€¶j½BZ€j½ ¶x¶j¼ ‚ n“À
 Z€!½j¶“jjHjjHBZ€j½j¼jw“j 6zj{Z€w“j½jwjHj¶“j¶j¾jHjw“wjHj ZFxj½ ‚ Z€Z€ nBAÂÁ
Méthodes Itératives – Equations Non Linéaires 139

Pour étudier la convergence de la méthode de Newton, considérons un terme de plus dans la


série de Taylor:
 C  > =|pK &  >=D  ‰6o >=DpK Z & &  >=D  °6m >= r °6m >=DpKIL N ¸6m >= NPà 3
H (3.3)

Si l’on pose 1
" "
dans cette formule (avec comme solution de (3.1)) et si l’on soustrait

­  >=|pK &  >=D  >=J?BA6m >=|


(définition de >=J?BA ), on obtient pour l’erreur =4Q >=
6
" la formule
² &  >=|  6­=J?BA˜©KÅÆ Ä & &  >=D  = r =DpKML 3N = N à 3
On vient de démontrer le résultat suivant:
 _&” 
Théorème 3.2 Supposons que
"  
soit 3 fois continûment différentiable et que soit in-
>= "
=4I >=
6 "
versible dans un voisinage de (solution de (3.1)). Alors, pour suffisamment proche de ,
l’erreur de la méthode de Newton satisfait

=J?BA Æ Ä ) &  > =| nBA & &  > =D  = r =DpKML 3 N  = N Ã 3 x (3.4)

Donc, la convergence de cette méthode est quadratique.

"
Ce théorème montre la convergence locale de la méthode de Newton, c.-à-d., si " est proche <
d’une solution de (3.1), la suite EF >=“G
converge vers . Concernant la convergence globale, on en
sait très peu et on ne sait analyser seulement que quelques cas de fonctions simples. L’exemple le
plus connu est
)Ç  FÇ Ã 2
6 Z i r hU ÃM 6 O wF Bh O 68
à Z
ou
wF h 6mh (3.5)

(
Ç Q ‰Km–{h ) pour lequel l’itération devient

Ç =@?BAC Ç =
6 Ç =Ã Ç68O Z  Z H Ç = K Ç Z O 
w = w = (3.6)

ƒ
Il est intéressant de déterminer les ensembles (bassins d’attraction)
#" CE Ç <4 %É È V|E Ç =|G converge vers " G (3.7)
 q #Ç C . Un calcul par ordinateur donne la figure VI.2.
pour les trois solutions Z , 6$ZDÊ4–3Ë wj H de
Ç < du domaine blanc entraı̂nent une convergence vers "  Z , ceux du domaine gris vers
"   6$ZÌ67–Ë w“ q H et ceux du domaine noir vers "   6$ZÍK7–3Ë wj q H . On observe que la suite E Ç =“G
Les

ne converge pas nécessairement vers la solution la plus proche de < .


Ç
Calcul numérique de la matrice jacobienne
'&( 
situation on approche les éléments
q
Î ^ Îj ™
En pratique, il arrive souvent que la forme analytique de la matrice
de la matrice jacobienne par
est inconnue. Dans cette

Î ^  «A r @ F r  ~ ^  «A r @@ r ™ I


K Ï r @@ r   6 ^  «A r @@ r   
jÎ ™ Ï (3.8)
140 Méthodes Itératives – Equations Non Linéaires

−1 1

F IG . VI.2: Bassins d’attraction pour l’itération (3.6)

Ï
Ð  
Mais comment doit-on choisir le ? Pour simplifier la notation, considérons une fonction à une
variable et notons-la par .
Un développement en série de Taylor montre que

Ð  $KIÏ|6oÐ    I
 Ð &   ©K Ï Ð & &   KML  Ï O 3
Ï H (3.9)

Ï
En conséquence, doit être petit pour que l’erreur de la discrétisation ne soit pas trop grande.
D’autre part, la soustraction dans (3.9) est très mal conditionnée. Une étude des erreurs d’arrondi
montre que l’expression obtenue par un calcul en virgule flottante vaut

Ð ˜  ‰ KMÏÑ  ZiKIÒAP  ZiKMÒ O 6oÐ    Z¦KMÒ Ã 


Ð  uKMÏÑ6oÐ  Ï  Z &   ‰KIÏ|ÒApKmÐ  $KMÏÑ3Ò O 6oÐ  Ò Ã
~ Ï K Ï Ð $
M
K Ñ
Ï 
oùV]Ò(^V d
eps (eps est la précision de l’ordinateur, voir section II.3). L’idée est de choisir afin que Ï
les deux erreurs soient de la même grandeur :

Ï F@ ~ Z @F 
H Ï eps (3.10)

Donc, on prend par exemple

Ïe Ë eps ou Ï4 eps


 ZiK8V 0V] (3.11)
Méthodes Itératives – Equations Non Linéaires 141

Modifications de la méthode de Newton


Si la dimension du problème (3.1) est très grande et/ou l’évaluation de la matrice
&   est très
coûteuse, on peut remplacer la définition de par ¡± >=
&  <@P±¡ >=²26  >=D (3.12)

Dans ce cas, il suffit de calculer une fois pour toutes la décomposition LR de


_&” <J
, ce qui facilite

-  0Q 6 )'&( <@P nBA   - S& )" 


grandement la résolution des systèmes linéaires successifs. Mais on perd la convergence quadra-
tique car (3.12) n’est rien d’autre qu’une itération (1.2) avec et
est non nul en général.
En cas de mauvaise convergence, on remplace la définition de par >=J?BA
> =J?BAI >=KMTŒ=D±¡ >= (3.13)

T = de façon à ce que NF >=0KMT±¡ >=“ N soit minimale.


et on détermine Œ

VI.4 Méthode de Gauss-Newton

une fonction
· 
Ó  0Ôoù Õ X —
et on cherche une solution de
 z†
Dans ce paragraphe, on va s’intéresser à des systèmes non linéaires surdéterminés. On considère
. Evidemment,

1  

comme on a plus de conditions que d’inconnues, ce problème ne possède en général pas de solu-
tion. On se contente donc de trouver un vecteur tel que
NF  N O  Ö !v (4.1)
 
Si  est différentiable, la fonction × $
NF  N OO est aussi différentiable et une condition
&
nécessaire pour que soit un minimum local est d’avoir × C; , c.-à-d.
&   ¬  C2 (4.2)

Une possibilité pour résoudre (4.1) est d’appliquer une méthode itérative, par exemple la méthode
i 
Une autre possibilité est de linéariser
 
de Newton, au système (4.2). Ceci nécessite le calcul de la deuxième dérivée de
dans (4.1) autour d’une approximation
.
de la <
solution et de calculer de «A
NF <@pK &   <J  «A6o <@ N O  Ö !v (4.3)

s  r Z r H r F@
Une répétition de cette idée donne l’algorithme suivant (méthode de Gauss-Newton)
for
 >=| '&” >=D
±² >= NF >=ÑpK _&” > =|±¡ >= N O  Ö !
calculer et
déterminer de (moindres carrés)
>=J?BAQ >=
KI±¡ >=
end for
Pour calculer ±¡ >= on peut soit résoudre les équations normales (section IV.6)
Ø &  >=“ ¬ &  > =DP±¡ >=²26 # &  >=D ¬  >=| (4.4)
'&(
soit calculer la décomposition QR de >=D et appliquer l’algorithme de la section IV.7.
142 Méthodes Itératives – Equations Non Linéaires

Etude de la convergence
Pour étudier la convergence de la méthode de Gauss-Newton, développons la fonction
Ô Î ™ 
Ð   ) &   P ¬   r 
Г^ C ™3š A Îj >^  ™   (4.5)

en série de Taylor. Pour ceci, calculons

ΠГ^  Ô Î O ™    ™   pK Ô Î ™   Î ™   3


Îj >Ù 3™ š A Îj >Ù3Îj >^ ™3š A Îj> ^ Îj >Ù (4.6)

Matriciellement, la formule (4.6) s’écrit

Ð &   C:   )  rӂ pK # &    ¬ &    (4.7)

où :   \ 
ÔÛÚm 
   
 est l’application bilinéaire définie par

:  ÝÜ«r [>   Ô Î O ™   F‚ Ü ™ ‚ j[ ÙP


^ Ù š A ™3š A Îj >3Ù Îj >^
Avec cette notation, la formule de Taylor donne

Ð   # &  > =DP ¬  >=||K ) &  >=| ¬ &  >=|  .6¹ >=D|K:  >=| )i >=Ñ r .6¹ >=“ÑKL 3 N . 6¹ >= N O 3 (4.8)
"
Soit maintenant une solution de (4.1). Elle satisfait Ð
#" £ . En posant m " dans (4.8) et en
soustrayant (4.4), nous obtenons ainsi le résultat suivant.
¸     Ô ÕÞX — w
&  
Théorème 4.1 Supposons que (avec
"
) soit fois continûment différentiable,
>=
que le rang de "
proche de , l’erreur =²· >=.6 "
soit maximal et que soit une solution de (4.1). Alors, pour
de la méthode de Gauss-Newton satisfait
suffisamment

=J?BAi86 ) &  >=| ¬ &  >=| Bn A :  >=D ) >=| r =DpKIL  N  = N O  

Une conséquence de cette formule est :


R
R
en général, la convergence est linéaire;
#" C;
R si
#" 
on a convergence quadratique si ;
est trop grand, la méthode diverge.

Terminons ce chapitre avec une application typique de cet algorithme.


Exemple (Identification de paramètres). La figure VI.3 montre une photographie de la Vallée
Blanche (prise par G. Wanner). On y reconnaı̂t le Col des Grandes Jorasses, l’Aiguille du Géant,
l’Aiguille Blanche de Peterey, l’Aiguille du Tacul, le Petit Rognon et l’Aiguille du Moine. La
figure VI.4 est une copie d’une carte géographique de cette région. Le problème consiste à trouver
la position de la caméra, ses caractéristiques (foyer) et les angles d’inclinaison.
xܫr [>
Pour la formulation mathématique de ce problème, nous avons choisi des coordonnées
 r h @r Ç 
Ç
sur la photographie (figure VI.3, l’origine est au centre) et des coordonnées sur la carte

( représente l’altitude). Les valeurs mesurées pour les points reconnus sont données dans le
tableau VI.2.
Méthodes Itératives – Equations Non Linéaires 143

F IG . VI.3: Photographie de la Vallée Blanche

TAB . VI.2: Les données pour le problème “Vallée Blanche”


s Ü= [“= > = h= Ç=
1. Col des Grandes Jorasses 6zxjj¾“ !“Hj½j ½“¾j¼j¼ ¼j¶j¾j wj¾jHj¼
2. Aiguille du Géant 6zxZ€“ !“wjj¼ ¾BZ€j ¼jjHj jZ€w
3. Aig. Blanche de Peterey xjj½“ !“Hj¾j¼ H“¾j¾j¼ jwj Z€j
4. Aiguille de Tacul 6zxZ€½“ !BZjZ€¼ ¾“½jj j¼jwj wjjj
5. Petit Rognon xj¶j“ ²6 !“jj¼ ¼“jj jjHj¼ wjjj¾
6. Aiguille du Moine xZ€H“¼ ²6 !“Hjj ¾“½j¾j jZ ZjZ€Hj wjZ€H

)"ar „ r@ß 
Pour fixer les inconnues, notons par ( rh rÇ 
la position du foyer de la caméra, par le vecteur
#"Œr „ rFß 
la direction de vue avec norme correspondant à la distance du plan du film et par l’angle à
de rotation de la caméra autour du vecteur . On a donc paramètres à trouver. De plus, 
considérons la base orthogonale
" „ 6 "aß
„ß r
k‰ Ë " O Z I O
K „  6 " r °
Ð  )
 " #
 "
Z
ß
O KM„ O  O Kˆ„ O K O  " O KM„ O z
6 „ ß (4.9)

dont les deux vecteurs k et Ð engendrent le plan


 r r Ç
du film, k étant horizontal et Ð xÜ vertical.
r Alors, le
vecteur dans l’espace qui montre du centre h  de la lentille vers le point = [j=| sur le film
est donné par
á A›= " f= Ü=
á O =  „ K f = ‚ kzK ® = ‚ Ð où ® 
 à 
 !
 à
á Ã= ß =  6mâFã !eà âFã >à [“= 
 r r  r
Les conditions à satisfaire sont que les vecteurs á A›= á O = á à =D et >=v6 h=.6 h =6
rFÇ Ç  soient
144 Méthodes Itératives – Equations Non Linéaires

F IG . VI.4: La region de la Vallée Blanche


s
s
colinéaires. Ceci donne deux conditions pour chaque . Mais, par symétrie, il est plus naturel de
considérer les trois conditions (pour chaque )
á ›A = >=
6 á O = ) Ç
= 6 Ç 6 á Ã =  jh =6 h>Ç 
² á O= Ú hÇ =6 hÇ  á Ã =  >=
6 «6 á A›= )Ç
= 6  
á Ã= =
6 á A›=  h=
6 hÍ6 á O =  >=
6 
(4.10)
Méthodes Itératives – Equations Non Linéaires 145

‚
En tout, ceci donne
la fonction
¸ ²äC w   ¶$AÂÀ †. Z€¾ conditions pour  inconnues. Voici le programme FORTRAN pour
å#ëØæ˜ôSç(ö”èóéØë)æ˜ïPêë#ê.ë#ì”íèSí”÷”îSóPï(ìJø{ùuðÝìJñÝðÝò˜÷PåSú#ûÑé)óJñyé”ñœôÑú(üPñÝî3õ õ
ý3ö”ï˜÷(é#ëØèSôSô”ô÷(í”ôSì˜é)í”ìå˜ê”)ë(ýSí(é)èÑì÷”êðÝì({ò˜ý˜ì(åSýSþSé)÷”ÿóJêJPõðÝì3ñÝò(õ ýSñÝ÷”îJêJðœôðÝì(õ ýõºñ”ý˜÷”êJðÝì”ýõ ñÂü)ýS÷”êÑðÝì(ý õ ñ æSý˜÷”êJðxì(ýõ ñ(ýS÷SêJðÝì(ý õ
ïeú”ú”ú”ú”òú”ú(þ(ò˜ìPåSé)ê”é)óJ÷”ê ð ë((é)õ ìvóPé{ï(÷”ó”í¡ú”ú”ú”ú”ú”ú”ú”ú

(þ(ò˜åSé)óJð Põ

÷SçSü þ(þ((þò˜ò˜(ò˜åSåSåSé)é)óJóJé)óJðð!3ÿP ð õõ õ


(
ê ï”ûSþ(í”ò˜ê”åS÷Sé)óJþ(ò˜ð PåSé)õ óJð Põ
ïeú”ú”ú”ú”èSú”÷Súï””þSíSå ï(#èSê”êJí{æSðÝèv÷Pø)÷û(é#çPè3ø)ë{ç3üSõé)ì”ê”÷”ó²ú”ú”ú”ú”ú”ú
ûû
(Øþ˜þ(çú)÷)èS)èS÷S÷Sï ï


ïeú”ú”ú”ú”ûèSú ÷S ””ï”þ íSþSï(åê”#èSí{æSêJè ð”ðÝ÷P”í(ø{ïèSêõ{ø”ë)øï( ÷”@ó¡ðÝçPú”ø{ú”ïú”õ{ú”øSú”øú” ú”Jú”úðÝ÷Pø”ø (ç3ø”ø Põ(ø”ø õ


Øþ˜ú)÷Pø{ ï ))èSèS÷S÷Sïï
 (þ˜ú)çPø{ ï
ïeú”ú”ú”ú”ýú” ”ú”évþ@úë)ðÝ÷Pó”þ í˜ø”øåñÝì( ýS(öPçP÷”éSêø”ë#ì”ø Pê˜åeõ)èSú”÷Sú”ï ú”ú”ú”ú”ú”ú
ïeú”ú”ú”ú”ú”ú0æPèþ0é)ê”æS÷”êýS÷”ë(êJé)ì¡ðÂëSë#õ{ìø{ï˜ë#êé(åFë#÷”ðÝê(ó”ûSí²í”ê”ú”÷3ú”õú”ú”(ú”ýSú ÷”êJðÂë˜õ{ø(åë#ìJðÝê”ûSí”êS÷3õ
ïeú”ú”ú”ú”ú”úSó”í˜þ˜Øþ(åúØæS÷ ýS{”û÷”íSêJï()ê”øØðÂ
æí{ëSæSõ{èPø(å˜å.)øë#ìJ÷.ðÝê(÷”ûSóí”ëê”(÷3ì”í(õ è¡(ý˜ú”÷”ú”êJú”ú”ðÂë˜ú”õ{ú”ø{ú ïé(åFðÝê”ûSí”êS÷3õ
(þ( ç {
û SøØ
æ  Sø 
”þ”ï{û ˜øØæ
 ˜ø

Øþ(ò(ýS÷”êJðÂëSõ{ú) ò
 (!þ ”ýS÷”êJðÂëSõ{ú 

ïeú”ú”ú”ú”ú”ú”ú”îJú! ” ð ó”þS ˜í˜ü)ø€ýSåðÂ÷”ë(êJîP


ú é)(ðÂìSëSõ ï(õ{êú((üõ#ë(þé)ì˜åv)ø ÷. Sú÷”ì” Sì{øæ˜
ó”í( è¡ú”ú”ú”ú”ú”ú”ú”ú”ú”ú”ú
îJîJð ð ˜ ˜ø€ø€ðÂðÂë(ë(ú

ú ((õõ   Põ#õ#þþ ˜ Søø


! ˜)úú ˜)øø !
èSí”í”ì(í”ì(ý.ýê{æSèSýìé
En appliquant la Ç méthode " de Gauss-Newtonß à ce système avec comme valeurs initiales ;
¾jj“ , h³ Z€¼“jj , ÞZ€“j , Ç   , „­†6‰Z ,   , ภ , après peu d’itérations on obtient la
solution 1½“¶j¶j , h¸gZ€wZjZ€¼ , BZjZ€¶ avec une précision de ¼ chiffres (voir le tableau VI.3). On
a donc bien trouvé la position de la caméra. C’est à l’Aiguille Verte (altitude 4122) que Gerhard a
pris cette photo.

TAB . VI.3: Convergence de la méthode de Gauss-Newton


s > = h = Ç= " „ ß à
 ¾jjj Z€¼jj“ Z€j“ !“j 6$ZFxjj xjj xjj
Z ¾jjwj ½jwjw“½ ZjZ€¶“½ 6²!“jw 6²xj¾j¼ 6²xjjw xjj
H ¾j¶j¾j ZjZjZ€¶“w jZº 6²!BZ€ 6²)ZjZ€ 6²xjHZ xZ€
w ½j¼jj Z€wjjw“ wj½j½“w 6²!“j 6²)Z€¶j 6²xjwjH 6²xj½j
 ½j¶j¶j Z€wZ€“ ZjZº¶ 6²!“jw 6²)Z€¶j½ 6²xjwjH 6²xjj
¼ ½j¶j¶j Z€wZjZº¼ ZjZº¶ 6²!“jw 6²)Z€¶j½ 6²xjwjH 6²xjj
¶ ½j¶j¶j Z€wZjZº¼ ZjZº¶ 6²!“jw 6²)Z€¶j½ 6²xjwjH 6²xjj
146 Méthodes Itératives – Equations Non Linéaires

VI.5 Exercices
1. Pour une fonction "$#&%(')% , considrons l’itration *,+ '=.-!+'=JnBA0/1'2+\=@?BA dfinie par
"6*,+\=8/:9;"6*,+\=JnBA/
354
'=
"6*,+ ./67
+\=<9=+\=JnBA
*,+\=@?BA>9?+'=8/@ (5.1)

(a) Donner une interprtation gomtrique.


(b) Dmontrer que l’erreur A ˜= 4CB
'= B , o D est une racine simple de "6*,+>/
+ 9;D
4E3
, satisfait
&&
AP=J?BG
A FIHJA˜=.A˜=JnBA0- avec H 4 L " " & **DKD8/ / @
(c) Dduire de (b) que
˜=J?BAMFENOAP= -
A avec Q
4SR
L * R 7UT V&/WF R @X RY @

(d) Soit "6*,+Z/ un polynme, nous avons que le travail pour valuer "6*,+>/ et " *,+Z/ est approxima-
&
tivement le mme. Supposons que le cot des oprations d’additions, de soustractions, de mul-
tiplications et de divisions sont ngligeables par rapport l’valuation de "6*,+Z/ . Quelle mthode
choisiriez-vous entre la mthode de Newton et la mthode de la scante (5.1) pour calculer une
racine de "6*,+>/ travail gal?
 continûment différentiable. Pour un + <a < /4c 3
& < / etsoit"^#_inversible.
2. Soit N\[]%
et que " *,+
N\'`%
Montrer que
N supposons que "6*,+ b

Q <
4 & nBA "6*,+ < /
9d" *,+ < /

est la seule direction ayant la propiété suivante:


Pour toute matrice inversible e , il existe f dg
3
<
tel que pour
35h
f
h
f <
i
e"6*,+ < 7;f8Q < /iO h i
e"6*,+ < /iO @
Méthodes Itératives – Equations Non Linéaires 147

Vous aimerez peut-être aussi