Académique Documents
Professionnel Documents
Culture Documents
Analyse numrique
Troisime anne de licence
1
Prambule
Lanalyse numrique a commenc bien avant la conception des ordinateurs et leur utilisation
quotidienne que nous connaissons aujourdhui. Les premires mthodes ont t dveloppes pour
essayer de trouver des moyens rapides et efficaces de sattaquer des problmes soit fastidieux r-
soudre cause de leur grande dimension (systmes plusieurs dizaines dquations par exemple),
soit parce quil nexiste pas solutions explicites connues mme pour certaines quations assez
simples en apparence.
Ds que les premiers ordinateurs sont apparus, ce domaine des mathmatiques a pris son envol et
continue encore se dvelopper de faon trs soutenue.
Les applications extraordinairement nombreuses sont entres dans notre vie quotidienne directe-
ment ou indirectement. Nous les utilisons dsormais sans nous en rendre compte mais surtout en
ignorant la plupart du temps toute la thorie, lexpertise, le dveloppement des comptences et lin-
gniosit des chercheurs pour en arriver l. Nous pouvons tlphoner, communiquer par satellite,
faire des recherches sur internet, regarder des films o plus rien nest rel sur lcran, amlio-
rer la scurit des voitures, des trains, des avions, connatre le temps quil fera une semaine
lavance,...et ce nest quune infime partie de ce que lon peut faire.
Le but de ce cours et sinitier aux bases de lanalyse numrique en esprant quelles veilleront de
lintrt, de la curiosit et pourquoi pas une vocation.
F IGURE 1 Entre le Tintin dessin la main dans les annes 6 par Herg et celui mis lcran
par Spielberg, un monde numrique les spare. Un peu comme les premiers dveloppements la
main des pionniers du numrique et les effets dernier cri des plus puissants des ordinateurs.
2
Table des matires
4
Chapitre 1
(a) Johann Carl Friedrich Gauss (b) Charles Gustave Jacob Ja- (c) Andr-Louis Cholesky (1875-
(1777- 1855), mathmaticien, as- cobi (1804-1851), un mathma- 1918 ), polytechnicien et officier
tronome et physicien allemand. ticien allemand surtout connu franais, ingnieur topographe et
Considr comme lun des plus pour ses travaux sur les int- godsien. On lui doit une mthode
grands mathmaticiens de tous les grales elliptiques, les quations que lon prsentera ici
temps, nous utiliserons ici une m- aux drives partielles et leur
thode numrique qui porte son application la mcanique ana-
nom. lytique. On lui doit une m-
thode que lon prsentera ici
F IGURE 1.1 Quelques mathmaticiens clbres lis ltude des nombres entiers, rationnels et
rels.
1.1 Introduction
1.1.1 Gestion des erreurs
Il arrive souvent lors de calcul que nous soyons obligs de donner une valeur approche de la
solution (0,333 pour 1/3 par exemple), cest ce que lon appelle la reprsentation des nombres
5
1.1 Introduction Les systmes linaires
dfinie en 0 et 1 par
u(0) = et u(1) = ,
o et sont des rels donns, f : [0, 1] ! R est continue et donne, et c : [0, 1] ! R+ est une
fonction continue positive donne.
Linconnue est ici la fonction u : [0, 1] ! R qui est de classe C 2 .
On discrtise cette quation par ce que lon appelle la mthode des diffrences finies (voir chapitre
sur les quations diffrentielles). On se donne un nombre fini de points dans [0, 1] espacs gale
1
distance h. Nous avons alors pour tout n 2 N , h = que lon appelle le pas du maillage.
n
6
Les systmes linaires 1.1 Introduction
j
On note pour tout j = 0, ..., n, xj = .
n
Nous allons essayer alors de calculer une valeur approche de la solution u aux points x0 ,...xn .
Nous passons donc dun problme continu un problme discret.
Pour tout i = 0, ..., n on pose ci = c(xi ), fi = f (xi ) et ui la valeur approche des u(xi ) calcule
par le schma numrique.
Le problme est le suivant : comment approcher u00 (xi ) ?
Une des mthodes consiste dabord estimer :
1. la drive premire :
on approche u0 (xi ) par un taux daccroissement. Et on a le choix :
-soit
u(xi ) u(xi 1 ) u i ui 1
u0 (xi ) ' ' ,
xi xi 1 h
-soit
u(xi+1 ) u(xi ) ui+1 ui
u0 (xi ) ' ' .
xi+1 xi h
Tout le problme quand nous construisons une telle mthode est de savoir comment contr-
ler le '. Nous voulons que la solution approche ui soit proche de la solution exacte
u(xi ). Une notion que nous utiliserons pour cela sera la consistance (voir chapitre sur les
quations diffrentielles).
Si on considre la seconde mthode, comme u 2 C 2 , nous utilisons une dveloppement de
Taylor lordre 1 entre xi et xi+1 ,
h2 00
u(xi+1 ) = u(xi ) + hu0 (xi ) + u (i ), o i 2]xi , xi+1 [.
2
Ce qui nous donne par un calcul simple :
u(xi+1 ) u(xi ) h
u0 (xi ) = u00 (i ).
h 2
Nous voyons donc que la diffrence entre la valeur exacte de la drive et son approxi-
h
mation par le taux daccroissement est gal u00 (i ), cest dire de lordre de h. Nous
2
choisissons alors h trs petit (cest dire le nombre n de points entre 0 et 1 trs grand).
2. la drive seconde :
on considre la seconde mthode ci-dessus, et on fait applque Taylor lordre 3 (en suppo-
sant que u soit drivable jusqu lordre 4 sur [0,1])
-entre xi et xi+1 :
h2 00 h3 h4
u(xi+1 ) = u(xi ) + hu0 (xi ) + u (xi ) + u000 (xi ) + u(4) (1i ),
2 6 24
-entre xi 1 et xi :
h2 00 h3 000 h4
u(xi 1 ) = u(xi ) hu0 (xi ) + u (xi ) u (xi ) + u(4) (2i ),
2 6 24
o 1i 2]xi , xi+1 [ et 2i 2]xi 1 , xi [.
En faisant la somme nous avons
7
1.1 Introduction Les systmes linaires
o
10
0 1 f1 +
2 1 0 0 0 1
c1 0 0 B h2 C
B 1 2 1 0C B f2 C
B .. C B 0 c2 0 C B C
B .. .. .. C B C B .. C
An = B 0 . . . . C , Cn = B .. . . . . .. C , b nB . C
B .. .. .. .. C @. . . . A B C
@ . . . . 1 A B f n 2 C
0 0 cn 1 @ A
0 0 1 2 f n1 + 2
h
0 1
u1
et Un = @ ... A .
B C
un 1
Notons qutant donn que la matrice An + Cn est symtrique dfinie positive, alors elle est inver-
sible et le systme (1.1) possde une unique solution.
Une question que nous pouvons nous poser est la suivante :
-Comment valuer lerreur ? Si pour tout i = 1, ..., n, nous avons u(xi ) la solution exacte et ui la
solution approche, nous pouvons montrer que lerreur note
max |u(xi ) ui |,
0in
est de lordre de h2 .
1. le systme linaire (1.1) peut devenir trs grand, et donc difficile voire impossible r-
soudre la main,
2. pour tracer une courbe rgulire reliant les valeurs discrtes approches u0 , u1 , ..., un des
solutions nous devrons utiliser une mthode appele mthode dinterpolation,
8
Les systmes linaires 1.2 Quelques rappels sur les matrices
3. enfin, pour montrer lexistence et lunicit de la solution de ce systme nous avons utilis
un rsultat de cours dalgbre sur les matrices (matrice symtrique dfinie positive). Etant
donn que nous souhaitons que ce cours soit le plus autonome possible, nous allons faire
un rappel (non exhaustif) de plusieurs rsultats sur les matrices. Pour plus de dtails, nous
vous conseillons de vous replonger dans votre cours dalgbre linaire.
1.2.1 Notations
Soient m, n 2 N . Une matrice de type (m, n) sur K est un tableau de scalaires (rels ou com-
plexes) m lignes et n colonnes
0 1
a11 a12 a1n
B a21 a22 a2n C
B C
A = B .. .. ... .. C
@ . . . A
am1 am2 amn
Nous notons Mmn (K) lensemble des matrices (m, n) sur K.
Si m = n, nous notons juste Mn (K) lensemble des matrices carres (n, n) sur K.
De plus, quand aucune autre notation ne sera prcise, nous noterons Aij le coefficient de la matrice
A lintersection de la ligne i et de la colonne j.
Pour chaque indice j, u(ej ) est un vecteur de F qui se dcompose dans la base B 0 , autrement dit
il existe des scalaires (aij )1i,jm tels que
m
X
u(ej ) = aij fi .
i=1
On a alors
n X
X m
u(x) = xj aij fi .
j=1 i=1
Ainsi, relativement aux bases B et B , lapplication linaire u est reprsente par la matrice
0
0 1
a11 a12 a1n
B a21 a22 a2n C
B C
A = B .. .. . . .. C.
@ . . . . A
am1 am2 amn
De telle sorte que les composantes de u(x) dans B 0 sobtiennent en faisant le produit de la matrice
A par le vecteur colonne des composantes de x dans B (voir la section (1.2.3) pour le calcul du
produit de deux matrices). On a alors
0 1 0 1
(u(x))1 x1
B (u(x))2 C B x2 C
B C B C
B .. C = A B .. C .
@ . A @.A
(u(x))m xn
Le jme vecteur colonne de A que lon crit
0 1
a1j
B a3j C
B C
B .. C .
@ . A
amj
reprsente le vecteur u(ej ) dans la base de B 0 .
inversement, une matrice donne A 2 Mmn (K), on peut associer une application linaire cano-
nique u : Kn ! Km de matrice A associe dans les bases canoniques de Kn et Km .
10
Les systmes linaires 1.2 Quelques rappels sur les matrices
et le noyau de A par
ker(A) = {x 2 Kn , Ax = 0}.
rg(A) + dim(ker(A)) = n.
1.2.3 Oprations
Somme
Nous pouvons ajouter deux matrices de mmes dimensions (m, n), et nous avons naturellement
Transpose
Si A 2 Mmn (K), la transpose de A note AT , est la matrice de Mnm (K) dfinie par
(AT )ij = Aji pour tous i = 1, ..., n et j = 1, ..., m.
Si A 2 Mmn (R), nous avons les rsultats suivants :
1. (AT )T = A,
2. (A + B)T = AT + B T ,
3. ( A)T = AT , 2 R,
4. (AB)T = B T AT ,
5. (A 1 )T = (AT ) 1 .
Matrice adjointe
Si A 2 Mmn (K), la matrice adjointe de A, note A , est la matrice de Mnm (K) dfinie par
(A )ij = Aji pour tous i = 1, ..., n et j = 1, ..., m.
Remarque Notons que la matrice adjointe dune matrice A coefficients complexes est la ma-
trice transpose de la matrice conjugue de A, autrement dit
A = AT .
Matrices particulires
Une matrice carre A 2 Mn (K) de coefficients (aij ) 2 K pour tous i, j = 1, ..., n. est
1. diagonale : si ai j = 0 pour tout i 6= j. On note en gnral A = diag(a11 , a22 , ..., ann ),
2. une matrice diagonale de taille n particulire est la matrice identit In dont tous les coeffi-
cients valent 1, autrement dit In = diag(1, 1, ..., 1),
3. triangulaire suprieure si aij = 0 pour tout i > j,
4. triangulaire infrieure si aij = 0 pour tout i < j,
5. symtrique si A est relle et si A = AT ,
6. hermitienne si A est complexe et si A = A ,
7. orthogonale si A est relle et si AAT = AT A = In ,
8. unitaire si A est complexe et si AA = A A = In ,
9. normale si AA = A A.
Remarque Une matrice lments rels est hermitienne si et seulement si elle est symtrique
12
Les systmes linaires 1.2 Quelques rappels sur les matrices
Dterminant
Le dterminant dune matrice carre (n, n) est not det(A) ou encore
o Sn est le groupe des permutations, cest dire des bijections de {1, ..., n} dans lui-mme, et
pour tout 2 Sn , "( ) est la signature de .
Les dterminants possdent les proprits suivantes :
1. det In = 1,
2. det AT = det A,
3. det A = det A,
4. det(AB) = det A det B,
5. pour tout scalaire 2 K, det(A) = n det A,
6. le dterminant dune matrice triangulaire (a fortiori diagonale) est gal au produit de ses
termes diagonaux.
Inverse
On dit que la matrice carre A de taille n est inversible sil existe une matrice B de taille n telle
que AB = BA = In .
La matrice B est appele inverse de A et note A 1 .
13
1.2 Quelques rappels sur les matrices Les systmes linaires
Inverse et oprations
Nous avons les rsultats suivants sur les inverses :
(AB) 1
= B 1 A 1 , (AT ) 1
= (A 1 )T , (A ) 1
= (A 1 ) .
< x, y >= 0.
Si A est orthogonale, elle conserve le produit scalaire euclidien : autrement dit pour tous
vecteurs x, y 2 Rn ,
< Ax, y >=< x, AT Ay >=< x, y >.
2. Cas complexe :
de mme, pour toute matrice A 2 Mn (C), tous vecteurs x, y 2 Cn ,
< Ax, y >=< x, A y >.
Si A est unitaire, elle conserve le produit scalaire hermitien : autrement dit pour tous
vecteurs x, y 2 Cn ,
< Ax, y >=< x, A Ay >=< x, y >.
Nous dirons que A est une matrice dfinie positive si cette forme quadratique vrifie
< Ax, x >> 0 pour tout x 2 Rn , x 6= 0,
et nous dirons que A est une matrice positive si elle vrifie seulement
< Ax, x > 0 pour tout x 2 Rn .
2. Cas complexe :
Soit A une matrice hermitienne dans Mn (C). On peut lui associer une forme hermitienne
sur Cn
Xn
x 7!< Ax, x >= xT Ax = aij xi xj .
i,j=1
Nous remarquerons que cette quantit est toujours relle. Il est assez facile de montrer en
effet, en utilisant la dfinition du produit scalaire et en lappliquant < Ax, x > que lon a
lgalit :
< Ax, x >= < Ax, x >.
Nous dirons que A est dfinie positive si cette forme hermitienne vrifie
< Ax, x >> 0 pour tout x 2 Cn , x 6= 0,
et nous dirons que A est une matrice positive si elle vrifie seulement
< Ax, x > 0 pour tout x 2 Cn .
15
1.2 Quelques rappels sur les matrices Les systmes linaires
A toute valeur propre de A est associ (au-moins) un vecteur x 2 Cn non nul tel que
Ax = x. On dit alors que x est un vecteur propre de A associ la valeur propre .
On appelle sous-espace propre associ la valeur propre le sous-espace vectoriel de Cn :
E = ker(A In ) = {x 2 Cn , Ax = x}.
Rappelons les expressions de la trace et le dterminant en fonction des valeurs propres
n
X n
Y
Tr(A) = i (A), det(A) = i (A).
i=1 i=1
Remarque
16
Les systmes linaires 1.2 Quelques rappels sur les matrices
1. Attention : dans la suite de ce cours, la dfinition de rayon spectral fait intervenir les
valeurs propres dans C mme pour une matrice relle : que A soit dans Mn (C) ou dans
Mn (R) son rayon spectral est dfini comme
(A) = max{| |, racines dans C de PA }.
2. Pour la rduction (diagonalisation,...) des matrices relles, il est important de prciser
dans quel corps nous raisonnons : R ou C.
B=P 1
AP ,
o P est la matrice de passage de la base B = (ej ) la base B 0 = (e0j ). P est la matrice inversible
dont le jme vecteur colonne est form des composantes du vecteur e0j dans la base (ej ).
Une mme application linaire est donc reprsente par diffrentes matrices selon la base choisie.
Le problme de rduction de matrices est de trouver une base pour laquelle la matrice est la plus
simple possible, le cas dune matrice diagonale tant le plus favorable.
Diagonalisation
Une matrice A est dite diagonalisable sur K sil existe une matrice P 2 Mn (K) inversible telle
que P 1 AP soit diagonale.
Cette diagonale contient alors exactement les valeurs propres de A, et les vecteurs colonnes de P
sont des vecteurs propres de A.
Autrement dit, une matrice est diagonalisable si et seulement sil existe une base de vecteurs
propres.
Une matrice dont toutes les valeurs propres sont simples est diagonalisable.
1. Matrices normales :
soit A 2 Mn (C) une matrice normale (cest dire que AA = A A). Alors il
existe une matrice unitaire U (cest dire U U = U U = In ) telle que U AU soit
diagonale, autrement dit U AU = diag( 1 , ..., n ) o 1 , ..., n sont les valeurs
propres de A.
2. Matrices symtriques relles :
une matrice symtrique relle est diagonalisable dans une base orthonormale,
autrement dit, il existe une matrice orthogonale O ( O T O = OO T = In ) telle
que O T AO soit diagonale.
Triangularisation
Il existe des matrices relles ou complexes qui ne sont pas diagonalisables. Mais dans C, nous
pouvons toujours triangulariser une matrice, autrement dit, pour toute matrice A 2 Mn (C), il
existe une matrice inversible P 2 Mn (C) telle que P 1 AP soit une matrice triangulaire.
La rduction sous forme de Jordan, vue en deuxime anne de licence donne une forme rduite
simple. Mais nous nutiliserons pas ce rsultat dans ce cours-ci. Voici un rsultat plus facile
montrer qui nous suffira.
Pour toute matrice A 2 Mn (C), il existe une matrice unitaire U telle que U AU soit
triangulaire.
n
!1/p
X
kxkp = |xj |p .
j=1
1.3.2 Boules
Dfinissons maintenant les boules ouvertes et fermes.
-Pour les boules ouvertes centres en a 2 Kn de rayon r > 0 :
B(a, r) = {x 2 Kn tel que kx ak < r}
-Pour les boules fermes centres en a 2 Kn de rayon r > 0 :
B(a, r) = {x 2 Kn tel que kx ak| r}
et
kAkl1 = max |aij |.
1i,jn
Mais en gnral, ces normes nont pas de bonnes proprits par rapport au produit matriciel.
Do la section suivante.
2. Normes matricielles :
Une norme matricielle est une norme sur Mn (K) qui vrifie de plus
|||AB||| |||A||||||B|||,
pour tous A, B 2 Mn (K).
Exemple
(a) La norme de Frobenius est une norme matricielle,
(b) la norme |||A|||l1 nest pas une norme matricielle comme nous lavons dfinie dans la
section prcdente.
3. Normes subordonnes : nonons une manire de construire des normes matricielles.
Nous nous donnons une norme vectorielle k.k sur K. Nous lui associons ensuite une
norme sur Mn (K), note encore |||.||| que nous dfinissons pour tout A 2 Mn (K) par
kAxk
|||A||| = sup
x2Kn \{0n } kxk
Soit |||.||| une norme subordonne. Nous avons alors les proprits suivantes :
kAxk
(a) |||A||| = sup = sup kAxk,
x2Kn \{0n } kxk kxk=1
|||A||| est bien dfinie, autrement dit le sup est bien < +1,
(b) le sup est atteint, cest dire quil existe un x 2 Kn \{0n } tel que kAxk =
|||A|||kxk,
(c) |||.||| est une norme matricielle,
(d) |||In ||| = 1.
Nous pouvons alors dfinir les normes subordonnes aux normes vectorielles k.k1 , k.k2 ,
k.k1 de la faon suivante :
n
X
(a) |||A|||1 = max |aij |,
j=1,...,n
i=1
Xn
(b) |||A|||1 = max |aij |,
i=1,...,n
j=1
p p
(c) |||A|||2 = (A A) = (AA ) = |||A |||2 ,
(d) si en plus A est normale (A A = AA ), alors |||A|||2 = (A).
1.3.4 Conditionnement
Lobjectif de cette section est de rpondre la question suivante : peut-on dire a priori quune
matrice est sensible aux erreurs et des petites perturbations en gnral ?
Dans toute la section, nous allons considrer A 2 Mn (K) une matrice inversible. Et nous consid-
21
1.3 Normes vectorielles et matricielles Les systmes linaires
rons le systme
Ax = b, (1.2)
o b et x sont des vecteurs de Kn .
Plusieurs cas se prsentent nous.
1. Cas 1 : si nous perturbons b
Nous considrons ici le systme suivant
A(x + x) = b + b, (1.3)
(A + A)(x + x) = b. (1.4)
k xk = kA 1 A(x + x)k,
|||A 1 A|||kx + xk,
|||A 1 |||||| A|||kx + xk.
Et finalement
k xk ||| A|||
(|||A 1 ||||||A|||) ,
kx + xk |||A|||
en supposant bien entendu que la perturbation x nannule pas le vecteur x et A soit une
matrice non nulle.
Dfinition 4 (CONDITIONNEMENT DE A)
Nous pouvons alors noncer un rsultat plus prcis via le thorme suivant.
Il arrive que certains systmes linaires soient trs sensibles aux erreurs, cest dire mal condi-
tionns, indpendamment de la mthode de rsolution utilise. Nous allons donc noncer quelques
proprits sur les conditionnements de matrices qui pourront nous tre fortement utiles dans des
cas pratiques.
23
1.4 Mthodes directes de rsolution de systmes linaires Les systmes linaires
Soit A 2 Mn (K) une matrice inversible, nous avons les proprits suivantes :
1. cond(A) 1,
2. cond(A) = cond(A 1 ),
3. cond(A) = cond(A), pour tout 2 K/{0},
n (A)
4. cond2 (A) = |||A|||2 |||A 1 |||2 = o 0 < 1 (A) < ... < n (A) sont les
1 (A)
racines carres des valeurs propres de A A (valeurs singulires de A),
| max (A)|
5. si A est normale alors cond2 (A) = , o max (A) et min (A) sont res-
| min (A)|
pectivement la plus grande et la plus petite valeur propre en module de A,
6. si U est unitaire, cond2 (U ) = 1.
Ax = b
o
0 1 0 1 0 1
x1 b1 a11 a12 a1n
B x2 C B b2 C B a21 a22 a2n C
B C B C B C
x = B .. C 2 Km , b = B .. C 2 Kn et, A = B .. .. .. .. C 2 Mnm (K).
@ . A @.A @ . . . . A
xm bn am1 am2 amn
Lalgorithme de Gauss
Pour toute matrice A 2 Mn (K), il existe une matrice inversible M telle que T = M A
soit triangulaire.
Remarque
1. Ce rsultat reste vrai pour A non inversible, mais alors T nest pas inversible non plus et
on ne peut rsoudre le systme triangulaire obtenu.
2. Ce rsultat nest pas un thorme de rduction de matrice.
25
1.4 Mthodes directes de rsolution de systmes linaires Les systmes linaires
La factorisation LU
Nous allons montrer ici que lalgorithme permettant de prouver le rsultat du thorme de la section
prcdente permet dcrire (dans certains cas)
A = LU ,
o L est une matrice triangulaire infrieure et U est une matrice triangulaire suprieure.
Par consquent, rsoudre le systme Ax = b revient rsoudre les deux systmes triangulaires
Ly = b,
U x = y.
Cette mthode est intressante quand on doit rsoudre beaucoup de systmes du type
Axj = bj ,
parce que L et U sont calcules une fois pour toute et nous navons plus qu les utiliser pour
chacun des cas.
Notation : on notera dans la suite de ce chapitre, la matrice
0 1
a11 a12 a1k
Ba21 a22 a2k C
B C
k (A) = B .. .. .. .. C 2 Mk (K).
@ . . . . A
ak1 ak2 akk
Thorme 8 (DCOMPOSITION LU )
La mthode de Crout
Il faut environ 2n3 /3 oprations pour calculer les matrices LU . Pour rsoudre un systme tri-
angulaire il faut n2 oprations. Rien voir avec le nombre doprations de lordre de (n + 1)!
ncessaires.
26
Les systmes linaires 1.4 Mthodes directes de rsolution de systmes linaires
-pour le dterminant :
une fois obtenue la dcomposition A = LU , nous avons
Q
n
det A = det U = uii .
i=1
-pour linverse :
on note
A 1 = (x1 |...|xn ),
o chacun des vecteurs xi est solution de Axi = ei , avec ei le ime vecteur de la base canonique
(compos de 0 partout sauf la ime composante qui vaut 1). Nous procdons alors de la faon
suivante :
- nous calculons la dcomposition LU ,
- nous rsolvons
Lyi = ei ,
pour tout i = 1, ..., n.
U x i = yi ,
Recherche de pivot
Si nous tombons sur un pivot nul, nous procdons une permutation. Si nous tombons sur un pivot
trs petit, nous lutilisons alors au risque de commettre de grosses erreurs de calculs darrondis.
Comment y remdier ?
Nous procdons la recherche de pivot.
-pivot partiel : nous recherchons le plus grand coefficient de la ligne (ou de la colonne) considre
et nous faisons une permutation avant de continuer.
-pivot total : nous cherchons le plus grand coefficient dans toute la matrice.
Complexit des algorithmes de tri :
-n2 log2 (n) pour le pivot partiel,
-n3 log2 (n) pour le pivot total.
Or, n2 log2 (n) = o(n3 ) donc en gnral on utilise le pivot partiel.
27
1.5 Mthodes itratives de rsolution de systmes linaires Les systmes linaires
Si A 2 Mn (K) est une matrice symtrique relle dfinie positive, il existe au-moins une
matrice B triangulaire infrieure telle que
A = BB T .
De plus, on peut imposer que les coefficients diagonaux de B soient strictement positifs
et alors la dcomposition est unique.
1.4.4 Factorisation QR
Thorme 10 (DCOMPOSITION QR)
Soit A 2 Mn (K) une matrice inversible. Il existe un unique couple (Q, R) tel que Q est
orthogonale et R est une matrice triangulaire suprieure diagonale strictement positive
telles que A = QR.
Tout le problme consiste ds lors bien choisir la dcomposition M N . Les trois dcompositions
proposes ci-dessous sont les trois mthodes les plus connues.
Mthode de Jacobi
Dans cette mthode, nous prenons
M = D, et N = E + F ,
lavantage de cette mthode est que dans ce cas l, M est trs facile inverser. La mthode de
Jacobi sexprime alors par la suite
x0 2 K n donn,
Dxk+1 = (E + F )xk + b, pour tout entier k 0.
30
Les systmes linaires 1.5 Mthodes itratives de rsolution de systmes linaires
Mthode de Gauss-Seidel
M =D E, et N = F .
x0 2 K n donn,
(D E)xk+1 = F xk + b, pour tout entier k 0.
Mthode de relaxation
Cest une mthode intermdiaire entre les deux mthodes prcdentes. Nous mettons un peu de
diagonale de chaque ct en posant Dans cette mthode, nous prenons
1 1 !
M= D E, et N = D + F,
! !
(
x0 2 K n donn,
1 1 !
( D E)xk+1 = ( D + F )xk + b, pour tout entier k 0.
! !
1. Pour toute norme matricielle sur Mn (C) et pour toute matrice A 2 Mn (C),
(A) kAk.
2. Pour toute matrice A 2 Mn (C) et pour tout " > 0, il existe une norme subordon-
ne telle que kAk (A) + ". Attention : dans ce cas l la norme k.k dpend de
A et de ".
31
1.5 Mthodes itratives de rsolution de systmes linaires Les systmes linaires
Soit A 2 Mn (R) une matrice symtrique relle, dfinie, positive. Nous la dcomposons
sous la forme A = M N , o M est inversible. Alors
1. M T + N est symtrique,
2. si de plus M T + N est dfinie positive, alors (M 1
N ) < 1.
Applications
Notons
0 1 0 1 0 1
y1 (t) m1 0 0 k 1 + k2 k2 0
y(t) = @y2 (t)A , M = @ 0 m2 0 A et M = @ k2 k2 + k3 k 3 A.
y3 (t) 0 0 m3 0 k3 k3
M y 00 (t) + Ky(t) = 0.
y(t) = y(0)ei!t ,
33
1.6 Mthodes numriques de calcul de valeurs propres et vecteurs propres Les systmes linaires
Soit encore,
1
(M K)y(0) = ! 2 y(0).
Les modes qui peuvent se propager sont telles que ! 2 est valeur propre de M 1
K.
1.6.2 Difficults
La recherche des lments propres est un problme beaucoup plus difficile que celui de la rso-
lution de systmes linaires. cest un problme dalgbre linaire mais ce nest pas un problme
linaire. Les valeurs propres de A + B ne sont en gnral pas la somme de celles de A et de celles
de B.
Il nexiste pas de mthode directe (calcul exacte en un nombre fini dtapes). Les valeurs propres
sont les racines dun polynme. Depuis Galois et Abel, nous savons que ce nest pas possible au-
del du degr 5.
Par consquent, il ny a que des mthodes itratives pour rsoudre ce problme.
Il ny a pas de mthodes pour laquelle nous savons prouver la convergence pour toute matrice.
Nous ne calculerons pas le polynme caractristique puis ses racines pour calculer les valeurs
propres (sauf ventuellement pour des petites matrices (infrieur ou gal 3).
Le polynme caractristique de A(") est X"(x) = xn " (matrice compagne) dont les racines sont
"1/n ei2k/n , pour k = 0, ..., n 1.
Une erreur dordre " (par exemple 10 20 ), entranera une erreur dordre "1/n sur les valeurs
propres. Par exemple, pour n = 20, cela donnerait "1/n = 10 1 .
Cette matrice est mal conditionne pour le problme de recherche de valeurs propres.
34
Les systmes linaires 1.6 Mthodes numriques de calcul de valeurs propres et vecteurs propres
Soit A 2 Mn (K) une matrice diagonalisable, de valeurs propres 1, ..., n. Soit |||.||| une
norme subordonne telle que
Remarque
1. Nous obtenons une majoration de lerreur et non de lerreur relative.
35
1.6 Mthodes numriques de calcul de valeurs propres et vecteurs propres Les systmes linaires
Soit A 2 Mn (K) une matrice diagonalisable, de valeurs propres 1, ..., n telles que
| 1| > | 2| ... | n |.
Enfin,
k
1 yk
lim =q
k!+1 | 1 |k kyk kk
un vecteur associ 1
36
Les systmes linaires 1.6 Mthodes numriques de calcul de valeurs propres et vecteurs propres
Remarque
1. Si A est symtrique, il existe
! une base orthonorme de vecteurs propres et la convergence
2k
2
est dordre 0 .
k!+1 1
2. On peut encore montrer un rsultat de convergence dans des cas plus gnraux o
| 1| > | 2| ... | n |.
37
1.6 Mthodes numriques de calcul de valeurs propres et vecteurs propres Les systmes linaires
n X
X n
k k
< yk , zk >= 0 = i j ai (bj k aj ) < vj , vi >.
i=1 j=1
b1
Le terme prpondrant correspond i = j = 1 donc k ' , et
a1
!!
k
k 2
a1 (b1 k a1 ) 1 1+ O =
k!+1 1
!!
k
2
a1 (b1 k a2 )
k
2 < v2 , v1 > + O .
k!+1 1
Donc
!!
k
2
zk = k
2 (b2 k a2 ) v2 < v2 , v1 > v1 + O ,
k!+1 1
autrement dit kk sapproche de v2 < v2 , v1 > v1 qui est le projet orthogonal de v2 sur v1? .
Pour rcuprer 1 et 2 , nous crivons
yk zk
Uk = , .
kyk k2 kzk k2
Alors
1
lim Uk AUk =
k!+1 0 2
Ainsi,
1. Le terme (1, 1) de la matrice prcdente est tel que
hAyk , yk i
lim = 1
k!+1 kyk k2
38
Les systmes linaires 1.6 Mthodes numriques de calcul de valeurs propres et vecteurs propres
Pour obtenir toutes les valeurs propres, nous partons de n vecteurs orthogonaux, et nous utilisons
le mme principe.
La rcriture de cette mthode sous la forme suivante constitue la dcomposition QR de la re-
cherche des valeurs propres. Cest la mthode la plus utilise en pratique, elle a t introduite dans
les annes 60.
Lalgorithme dcrit prcdemment peut se rcrire
1. A0 = A,
2.
pour tout k 2 N,
Ak = Qk Rk , (dcompostion QR)
Ak+1 = Rk Qk , (dfinition de Ak+1 ).
Nous avons ainsi
A0 = Q0 R0 , A1 = R0 Q0 , A2 = R2 Q1 = Q2 R2 , etc.
Pour tout k 2 N, QR est orthogonale (ou unitaire), cest dire que QTk Qk = In ou Qk Qk = In, et
donc
Ak+1 = QTk Ak Qk .
Toutes mes matrices Ak sont semblables, cest dire quelles ont les mmes valeurs propres.
La mthode QR converge pour beaucoup plus de matrice que celles pour lesquelles nous savons
montrer un thorme de convergence.
Quentend-on par converger ici ?
Nous voulons que les matrices Ak deviennent simples : triangulaires ou diagonales.
39
1.6 Mthodes numriques de calcul de valeurs propres et vecteurs propres Les systmes linaires
40
Chapitre 2
(a) Sir Isaac Newton (b) Thomas Simpson (1710-1761), (c) Stefan Banach (1892-1945),
(16421727), Newton qui mathmaticien anglais gnralisa la mathmaticien polonais est lun
partage avec Gottfried Wilhelm mthode de Newton au calcul itra- des fondateurs de lanalyse fonc-
Leibniz la dcouverte du calcul tif des solutions dune quation non tionnelle, qui lon doit entre
infinitsimal, a galement dve- linaire, en utilisant les drives autre un thorme ponyme du
lopp une mthode ponomyme point fixe.
pour trouver un point fixe.
F IGURE 2.1 Quelques mathmaticiens clbres lis ltude des nombres entiers, rationnels et
rels.
2.1 Introduction
Le problme est ici de rsoudre des quations de la forme
f (x) = 0,
41
2.2 Dichotomie Rsolution approche dquations non linaires
2.2 Dichotomie
Cette mthode repose sur le thorme des valeurs intermdiaires. En particulier :
si f : [a, b] ! R continue et si f (a)f (b) < 0, alors il existe c 2]a, b[ tel que f (c) = 0.
'(x) = x.
Soit E un R espace vectoriel norm complet. Soit ' : E ! E une fonction contrac-
tante. Il existe K 2]0, 1[, tel que pour tous x, y 2 E
Alors :
1. ' admet un unique point fixe x 2 E,
2. pour tout xk 2 E, la suite dfinie par
xk+1 = '(xk ),
converge vers x .
quivalent
quivalent
42
Rsolution approche dquations non linaires 2.3 Mthode de type point fixe
Pour montrer cette caractrisation, on utilise dautre part, le thorme des accroissements finis :
Nous souhaitons nous assurer de lexistence dun rel positif K < 1 tel que
|'0 (x)| K,
cest dire
|1 f 0 (x)| K,
ou encore
1 K f 0 (x) 1 + K. (2.1)
En particulier, f 0 (x) > 0 pour tout x 2 [a, b]. Donc f doit tre strictement croissante sur
[a, b].
Par consquent, la condition (2.1) est assez restrictive.
2. Un choix moins contraignant rside dans le choix suivant de ' :
'(x) = x f (x),
est quivalent
1 K f 0 (x) 1 + K. (2.2)
Nous devons encore avoir f 0 de signe constant mais la condition (2.3) reste beaucoup moins
contraignant que la condition (2.1) pour un bien choisi.
Ce qui prcde permet de dduire ce que nous appellerons la mthode de la corde, dcrite par la
suite :
x0 2 [a, b] quelconque,
xk+1 = xk f (xk ).
43
2.4 Mthode de Newton Rsolution approche dquations non linaires
Autrement dit
en K n e0 , pour tout n 2 N,
1 K f 0 (x) 1 + K. (2.3)
et nous dfinissons x1 tel que g(x1 ) = 0. Notons que x1 est bien dfini si f 0 (x0 ) 6= 0.
En ritrant le procd, nous obtenons la dfinition suivante
8
< x0 2 [a, b] donn,
f (xn )
: xn+1 = xn , n 2 N.
f 0 (xn )
Soit f : [a, b] ! R une fonction de classe C 2 sur [a, b]. Nous supposons quil existe
x 2]a, b[ tel que f (x ) = 0 et f 0 (x ) 6= 0. Alors il existe " > 0 tel que pour tout
x 2 [x ", x + "], la suite des itrs de Newton
f (xn )
xn+1 = xn , pour tout n 2 N,
f 0 (xn )
1. soit bien dfinie pour tout n 2 N,
2. reste dans [x ", x + "],
3. converge vers x quand n tend vers +1,
4. admette lexistence dun C > 0 tel que
|xn+1 x | C|xn x |2 , pour tout n 2 N.
en+1 e2n .
45
2.5 Mthode de la scante Rsolution approche dquations non linaires
Soit f : [a, b] ! R une fonction de classe C 2 sur [a, b]. Nous supposons quil existe
x 2]a, b[ tel que f (x ) = 0 et f 0 (x ) 6= 0. Alors il existe " > 0 tel que pour tout
x 2 [x ", x + "], la suite de la mthode de la scante dfinis par
xn xn 1
xn+1 = xn f (xn ) , n 2 N ,
f (xn ) f (xn 1 )
1. soit bien dfinie pour tout n 2 N,
2. reste dans [x ", x + "],
3. converge vers x quand n tend vers +1,
f (x) = 0,
o cette fois-ci f : Rn ! Rn .
'(x) = x f (x),
Remarque Si ' est de classe C 2 , nous avons encore une ingalit des accroissements finis sur
Rn .
Si nous fixons J'(x) , la jacobienne de ' au point x dfinie par
@'i
J' (x) = (x),
@xj 0i,jn
alors
47
2.7 Systmes dquations non linaires Rsolution approche dquations non linaires
ou encore
f (x) = f (x0 ) + Jf (x0 )(x x0 ) + o kx x0 k.
x!x0
On pose
g(x) = f (x0 ) + Jf (x0 )(x x0 ),
et x1 est dfini par g(x1 ) = 0, et on obtient, si Jf (x0 ) est inversible
1
x1 = x0 (Jf (x0 )) f (x0 ).
La mthode scrit alors
x0 , 2 R d donn,
1
xn+1 = xn (Jf (x0 )) f (xn ), n 2 N .
On a un rsultat de convergence similaire celui vu pour d = 1.
48