Académique Documents
Professionnel Documents
Culture Documents
octobre 2021
Table des matières
1 Introduction 2
3 Méthode de Gauss 5
3.1 Pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3.1.1 Approche théorique . . . . . . . . . . . . . . . . . . . . . 5
3.1.2 Algorithmes . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.2 Loi du conditionnement . . . . . . . . . . . . . . . . . . . . . . . 7
3.2.1 Définitions et théorèmes . . . . . . . . . . . . . . . . . . . 7
3.2.2 Approche expérimentale . . . . . . . . . . . . . . . . . . . 8
3.3 Calcul de déterminant . . . . . . . . . . . . . . . . . . . . . . . . 8
4 Résultats informatiques 10
4.1 Matrice de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.1.1 Sans perturbation . . . . . . . . . . . . . . . . . . . . . . 11
4.1.2 Avec perturbation . . . . . . . . . . . . . . . . . . . . . . 14
4.2 Matrice de Wilson . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.2.1 Sans perturbation . . . . . . . . . . . . . . . . . . . . . . 16
4.2.2 Avec perturbation . . . . . . . . . . . . . . . . . . . . . . 17
5 Conclusion 19
6 Bibliographie 20
7 Annexes 21
1
Chapitre 1
Introduction
2
Chapitre 2
Résolution de systèmes
linéaires
Ax=b
3
Parmis les méthodes directes nous retrouvons le pivot de Gauss, la factorisa-
tion LU, la factorisation de Cholesky ou les factorisations de Householder
et QR. Ces méthodes de résolution permettent de résoudre de manière exacte
le système étudié soit par triangularisation ou factorisation de la matrice A.
Pour les méthodes itératives nous pouvons retrouver les méthodes de Jacobi,
de Gauss-Seidel ou du gradient. Ces méthodes introduisent une notion de
convergence vers le vecteur solution x.
Ces méthodes sont définies de manière théorique sur papier mais leur résolution
est uniquement possible par l’implémentation des algorithmes sur machine.
4
Chapitre 3
Méthode de Gauss
ai1
mi1 = a11 , i = 1, ..., n
De cette manière nous calculons les nouvelles lignes (Lj+1 ) pour j = 1, ...n−1
de la matrice tel que :
A la fin de cette première étape nous obtenons donc le premier système mo-
difié A(2) x = b(2) avec que des zéros en dessous du pivot (c’est à dire avec que
5
des zéros en dessous du pivot, sur la première colonne). Par la suite nous procé-
dons à la même manoeuvre en prenant à chaque fois comme pivot le coefficient
(k) (k)
akk ∀k=1,...,n-1, avec : akk ̸= 0 de manière à avoir à chaque passage de l’étape
k à k+1 :
(k)
aik
mik = (k) , i = k + 1, ..., n
akk
Avec A(n) une matrice triangulaire supérieure et b(n) le nouveau vecteur se-
cond membre. Tout l’intêret de cette méthode de triangularisation réside dans le
fait qu’un tel système peut être résolu très simplement ( et très rapidement sur
mahcine ). En effet, nous introduisons un algorithme de remontée qui consiste à
résoudre en premier la dernière ligne n du système qui ne contient qu’un élement
dans le premier membre du système ( la matrice triangulaire supérieure U ) ce
qui nous permet de résoudre une équation à une inconnue :
b′n
unn .xn = b′n ⇔ xn = unn
∀i = n − 1, ..., 1
1
Pn
xi = uii (bi − j=i+1 uij .xj )
3.1.2 Algorithmes
Dans cette section nous pésentons les deux principaux algorithmes qui nous
ont permis tout au long de ce projet de pouvoir tester informatiquement la mé-
thode de Gauss. Premièrement nous retrouvons la traduction algorithmique de
la méthode de Gauss qui transforme la matrice de départ A en une matrice tri-
angulaire supérieure U puis, afin de résoudre le système U x = b′ , nous utilisons
l’algorithme de remontée.
6
3.2 Loi du conditionnement
3.2.1 Définitions et théorèmes
L’intêret de ce projet n’était pas seulement d’étudier la méthode de Gauss
dans le cas général et théorique, il a aussi été intéressant de tester cette méthode
informatiquement avec différentes matrices et surtout avec différentes perturba-
tions sur le premier membre de l’équation, A. L’introduction de ces jeux de tests
avec et sans perturbations nous ont permis d’étudier de manière expérimentale
le comportement du système linéaire à travers la réduction de Gauss.
De plus, cela nous a permis de pouvoir vérifier ce que nous allons introduire
comme étant la loi du conditionnement avec perturbation sur le premier membre.
Pour cela, nous introduisons tout d’abord le conditionnement d’une matrice
carré inversible A par le nombre :
Ax = b
7
||δx||q ||δA||q
||x+δx||q ≤ condq (A) ||A||q
8
donc rapidement que la méthode du pivot de Gauss va nous être très utile pour
les calculs de déterminants.
En effet, la réduction de Gauss, nous permet grâce aux pivots akk de transfor-
mer une matrice quelconque A en une matrice triangulaire supérieure U dans
laquelle tous les éléments diagonaux sont les pivots akk . Ainsi, nous pouvons
dire que pour n’importe quelle étape k de réduction et pour l’étape k=n :
(2)
(2) a11 a12
A2,2 =
0 a22
(2)
det(A2,2 ) = det(A2,2 ) = a11 × a22
(n) Qn
det(An,n ) = det(An,n ) = det(A) = k=1 akk .
Il est évident que ce calcul à n multiplications est bien moins coûteux et bien
plus rapide à éxecuter pour une machine que la formule générale de Leibniz.
9
Chapitre 4
Résultats informatiques
1
.
x=
.
.
1
∀i = 1, .., n.
∀i, j = 1, ..., n.
10
4.1.1 Sans perturbation
Lors des tests sans perturbations nous avons pu remarqur que malgré que
nous ayons conditionné le vecteur b de telle sorte à n’avoir que des 1 en solutions,
les solutions obtenues en double précision, ( soit 16 chiffres après la virgules )
ne sont jamais exactement égales à 1. De plus, nous remarquons que plus la
dimension de la matrice augmente, moins le vecteur solution est proche de 1,
comme nous pouvons le voir sur les captures d’écrans ci dessous :
Matrice h5
Pour la matrice h5, le vecteur solution reste extrêmement proche des résul-
tats théoriques malgré une très faible erreur.
Cette erreur sur le vecteur solution n’est pas évitable, c’est une erreur qui sera
présente dans tous les autres résultats puisqu’elle est causée par l’accumulation
d’arrondis dans les calculs.
11
Matrice h12
Ici pour h12 on remarque que le vecteur solution s’éloigne de 1 sans être
pour autant absurde.
12
Matrice h20
13
4.1.2 Avec perturbation
Lorsque nous introduisons les perturbations sur le premier membre, la ma-
trice A, nous constatons un comportement légèremment différent à celui des
tests sans perturbations puisqu’ici il suffit de deux exemples pour observer une
anomalie conséquente.
Matrice h5
Matrice h12
Dans le premier test de la matrice h12, sans perturbation, nous avons observé
une très faible modification de la solution x et les résultats absurdes n’arrivaient
que sur des dimensions supérieures. En revanche, nous constatons que pour la
14
dimension 12, la méthode de Gauss nous produit des résultats significativement
différents de 1 comme nous pouvons le voir sur la capture d’écrans. Il parait
donc maintenant évident que cette méthode de réduction par pivot réagit très
mal lorsque nous augmentons même faiblement la dimension des matrices.
Loi du conditionnement
Nous pouvons constater sur les captures d’écrans suivantes que l’inégalité
du conditionnement ( définie plus haut dans le rapport ) a pu être vérifié dans
n’importe quel cas :
15
4.2 Matrice de Wilson
Les deuxièmes jeux de test ont été réalisés sur la matrice de Wilson que nous
définissons ci dessous par :
10 7 8 7
7 5 6 5
W =
8
6 10 9
7 5 9 10
16
4.2.2 Avec perturbation
17
Loi du conditionnement
18
Chapitre 5
Conclusion
19
Chapitre 6
Bibliographie
20
Chapitre 7
Annexes
21
22
23