Vous êtes sur la page 1sur 17

CHAPITRE 3 : RESOLUTION NUMERIQUE DES SYSTEME LINEAIRES

Systmes linaires dquation (S) :AX=b Avec A une matrice (n,n) A=( )

X un vecteur (n,1) X=(

B le vecteur des rsultats b=(

Mthodes de rsolution de :AX=b Mthodes directes Mthode de GAUSS Mthode LU Mthode de Cholesky Ces mthodes sont pratiques pour les matrices pleines. Mthodes itratives Mthodes de GAUSS-Seidel Mthode de Jacobi Efficaces sur les matrices creuses .

Mthodes de relaxation

I. METHODES DIRECTES 1. Pivot de Gauss

Pivot Total : On permute la fois lignes et colonnes Pivot partiel : On permute uniquement les lignes Exemple1 : Rsoudre (S)={ Forme matricielle de (S) : AX=b A=( ) X=( ) b=( )

Rappel : Une ligne pivot Li est telle que son lment diagonal non nul. On ne peut prendre L1 comme ligne pivot pour procder llimination de Gauss il faudra inter-changer, par exemple,L1 et L3 avec L1 L3

Rsolution de (S)

L1

( =

Elimination de x2 :

Elimination de Gauss ( A ) ( )

T :Triangulaire suprieure

Dtermination de x par substitutions rtrogrades

X=(

En rsum :

){

Elimination de x2 : ( ){

),

La mthode du pivot de Gauss implique la transformation de A : Calculs compliqus si la matrice est pleine, on utilise une matrice augmente (A/b) Remarque : Elments pivots proches de O. En calcul numrique, la mthode de Gauss pose un problme de Conditionnement lorsque les lments pivots son proches de zros. Exemples :

{ En notation flottante { Elimination de (0.1502. -0.1401. = 0.2501. =0.2501. =0.1002. prs : (0.15020000. - 0.14030515. ) =(0.25010000. =0.10021433. On retrouve 2 valeurs diffrentes de Exemple2 - 0.14070545. ) -0.1404. ) = )
0.1403.

prs et

prs.

prs :

Ecrire lAlgorithme de rsolution de Ax=b par limination de G.

2. Mthode de Factorisation LU
But= Resoudre AX=b Comment ? En factorisant la matrice A sous forme de 2 matrices triangulaire notes : L(matrice triangulaire infrieure)(lower) et U(matrice triangulaire suprieure)(upper) Exemple :On crit A sous la forme A [ ]= LU =[ ][ ]

La factorisation LU se fait en 2 tapes : Dterminer L Trouver U sachant que AX=LUX=b a. Dtermination de L : Dans une dcomposition LU,la matrice L est une matrice triangulaire infrieure qui est telle que tous ses lments daigonaux sont gaux 1. (S) :AX=b avec A(n,n) L de format (n,n) / {

L =*

On obtient les Les

(i

en utilisant la mthode du pivot de Gauss

sont en fait les coefficients mutiplicateurs. Des lignes de la matrice augment de (s).

b. Calcul de U
Remarque : detL=1 et L EST INVERSIBLE ; AX=b AX=LUX=b b

U est dfinie par :UX = U=[ Exemple : ]

A=[

] b=[

A=[

]=[

][

Aprs identification on a : L=[ ] U=[ ]

Exercice : refaire la dcomposition avec A=[ impossible avec : B=[ ].

] et montrer que la dcomposition est

Rgle de dcomposition LU dune matrice Si un matrice est directement transformable par limination de Gauss alors elle admet une dcomposition LU. Formule de dcomposition LU A=( U=( )1 )1 ,j ,j L=( 1 ,j avec {

avec {

k=1,2,n (1e ligne de U=1e ligne de A) i=2,n - - k=i,,n i ) i=k+1,, n k

3. METHODE DE CHOLESKY
Soit A une matrice carre symtrique dfinie positive ( tXAX On appelle dcomposition de Cholesky toute transformation de A sous la forme A= L.tL (L=matrice triangulaire infrieure) Exemple :

A=[

A symtrique car tA=A A dfinie positive ? Soit X R3 (X


t t

X=( ]( ) 2 (2 ) )

XAX =(

.[ . 4

t t

XAX ==( XAX =(4

Dvelopper et utiliser les proprits de la forme quadratique pour dterminer le signe. a. Dcomposition de Cholesky : A=[ ]= [
L

][
t

]
L

A= L. tL Remarque :La mthode de cholesky est analogue une dcomposition LU avec U= tL (L peut ne pas tre normalise) Forme normalise : A=( )

A= ( )

b. Dcomposition rationnelle de Cholesky

A=LD tL avec A=LU et D=( matrice diagonale) Hypothses (Cholesky) { les 0

Trouver M tel que LD tL= MtM

En effet : D=( =(

1/2

L D1/2 =M
t

(LD1/2) = D1/2 tL =tM

MtM= L D1/2 D1/2 tL = LD tL=A Mthode de cholesky: A =( L D1/2) t(L D1/2 t) L es obtenue par factorisation LU de la matrice A D est la matrice compose des lments diagonaux de A

c. Formule de dcomposition
A= L tL = = i= 2,,n

L= (

, i=2,,n

) , k=j+1,, n

Exemple: Rsoudre AX=b (S) = { Soit A la matrice de (A) A= (


t t

) A symtrique (Adfinie positive)

A =A XAX 0

A= L tL avec L matrice triangulaire A=( = = , ) =( = =2 )( )

= =

= =

=4 =5

=1/4 (-5-(7.1))=-3 Do A =( )( )

On veut rsoudre AX=b AX=b LtLX=b On dcompose le problme en deux symtries

LY=b avec tLX =Y Y connue tLX =Y Rsolution de LY=b (Y= tLX ) Y reprsente les inconnues avec Y=( )

( LY=b {

) ( )=(

do Y= ( (

) =L-1 b

On rsout tLX =Y )( ) = ( )

do X=(

II.

MTHODE ITRATIVE : AX=b


) tel que

Principe : Construire une suite ( = )

g est une application linaire On applique la mthode du point fixe lquation AX=b Soit Q de mme format que A telle que detQ on a : QX=QX AX+b Puisque Q est inversible, on a :

X= X=

(QX AX+b) = (Q A)X+ b

((Q A)X+b) (comme lapplication est linaire)

Relation de reccurence : = = g( (Q A) + b

) avec g linaire.

Mthodes de Relaxation Mthode de Jacobi : Q=D avec D=( Methode de Gauss-Seidel :Q=L+D A=( ) )

1. Methode de Jacobi
But : rsoudre AX=b Les lments dune suite engendre par une itration de Jacobi sont de la forme : = (D A) + b

Conditions de convergence: La methode converge si (I-A)=max{| | ,si le rayon spectral de I-A est infrieur 1.

valeur propre de I-A }.

2. Mthode de Gauss Seidel


But : Rsoudre AX=b { =1/2[(-y-z)+3] =1 =1/3[4x+z+2]=1 ( )

=-1/4(2-x)=1 = ((L+D) A) + b

Exemple : Rsoudre AX=b ( )( ) =( Jacobi Gauss-Seidel donc D est inversible On a : D=( ) L=(

) en utilisant :

Mthode de Jacobi : = =( (D A) + ) b

D-A=(

=(

b=(

)(

=(

+(

Mthode de Gauss-Seidel : = ((L+D) A) + b En posant

Q=L+D = = (I =( (Q A) A) + + ) =( b b )

A=(

)(

)= (

b=(

)(

)= (

A =(

=(

+(

( ) Avec une prcision =

III. CONVERGENCE DES MTHODES ITRATIVES 1. Norme


Dfinition :Norme Vectorielle Soit X , On appelle norme de suivants : i) ii) iii) toute application note qui vrifient les axiomes

et si alors X=0 | | pour tout scalaire

Exemple de Norme : i) ii) iii) Norme euclidienne = Norme =max| | Norme matricielle =

A ( Elle vrifie les axiomes suivants et si alors X=0n | | pour tout scalaire A ( Par definition: =max = max( ) ,

2. Convergence des matrices itratives :

a. Normes matricielles
Soit A (matrice (n,n)) Exemples : Norme de Frobenius | | | | | |

Norme L1 : Norme :

Norme L2 :

Exemple : norme de A (

=max (12,15,18)=18 =max (6,15,24)=24 | =16.85 | = =16.88

b. Condition ncessaire et suffisante de convergence :

Rsoudre : AX=b On construit une suite suivant la rlation : = = THEOREME : Une mthode itrative converge ssi : Ou de faon quivalente si Conditionnement dun systme linaire : Exemple :

Problme bien conditionn Systme de 2 quations 2 inconnues.

Mauvais conditionnement

Exemple : Perturbation du 2nd membre : On considre (S) ={ Solution exacte : xe =0.5 ; ye =-0.5 On introduit un terme derreur trs petit, on a :

(S ) { Solution perturb pour = =0.5+ 5000.5 =-0.5+ 4999.5 Soit : =0.5+ 5 =-0.5+ 4.99 Solution exacte : x=0.5 ;y=-0.5 (S) est mal conditionn car une lgre variation du 2nd membre a entrain une grande perturbation des rsultats. PROPOSITION1 : Un systme (S) est bien conditionn si sa valeur absolue des lments diagonaux de A sont strictement suprieurs aux autres coefficients de A. =0.001

c. Nombre de conditionnement dune matrice


Dfinition :On appelle nombre de conditionnement dun matrice A et on note K(A) la valeur dfinie : K(A)=

est une norme matricielle Remarque : On a toujours K(A) Une matrice est bien conditionne si K(A)=1 Exemple :matrice ortogonales(unitaire) En gnral , on acceptera les matrices A tel que K(A) K(A) est un facteur damplification des erreurs. PROPOSITION2: Perturbation du 2nd membre. Soit Xl solution de AX=b,on note Y=X+ Alors

PROPOSITION3 : Perturbation de A On a :

Conditionnement : on uttilise souvent la norme de Frobenius ou la norme L2.