Vous êtes sur la page 1sur 22

Méthode numérique appliquée  :

Analyse numérique  :

L’analyse numérique a commencé bien avant la conception des ordinateurs et leur utilisation quotidienne que
nous connaissons aujourd’hui. Les premières méthodes ont été développées pour essayer de trouver des moyens
rapides et efficaces de s’attaquer à des problèmes soit fastidieux à résoudre à cause de leur grande dimension
(systèmes à plusieurs dizaines d’équations par exemple), soit parce qu’il n’existe pas solutions explicites connues
même pour certaines équations assez simples en apparence. Dès que les premiers ordinateurs sont apparus, ce
domaine des mathématiques a pris son envol et continue encore à se développer de façon très soutenue. Les
applications extraordinairement nombreuses sont entrées dans notre vie quotidienne directement ou
indirectement. Nous les utilisons désormais sans nous en rendre compte mais surtout en ignorant la plupart du
temps toute la théorie, l’expertise, le développement des compétences et l’ingéniosité des chercheurs pour en
arriver là. Nous pouvons téléphoner, communiquer par satellite, faire des recherches sur internet, regarder des
films où plus rien n’est réel sur l’écran, améliorer la sécurité des voitures, des trains, des avions, connaître le
temps qu’il fera une semaine à l’avance,...et ce n’est qu’une infime partie de ce que l’on peut faire. Le but de ce
cours et s’initier aux bases de l’analyse numérique en espérant qu’elles éveilleront de l’intérêt, de la curiosité et
pourquoi pas une vocation.

Résolution des systèmes linéaires:

1. Définitions :
Un système de m équations à n inconnues x1, x2, ...xn s’écrit sous
forme ma- tricielle : AX = B où A est une matrice comportant m
lignes et n colonnes, X est le vecteur colonne dont les composantes
sont les xi et B , le second membre, est aussi un vecteur colonne avec n
composantes.
Le vecteur X est appelé solution du système.
Exemple 1 : Le système suivant de 4 équations à 3 inconnues

2x1 − 2x2 + 4x3   
= 6 2 −2 4  1 6
x

x1 + x3 = 7 1 0 7
s’écrit: 1
 4x1 + x2 − 5x3 = 8   x2  = 

4 1
x1 + 2x2 + 6x3 = 1 x3  
8
 −5 1
1 2
6

La matrice a 4 lignes et 3 colonnes, le second membre a 4 composantes


et le vecteur solution a 3 composantes qui sont les 3 inconnues du
système.
1
Dans ce cas, m 6= n.

2. Résolution par la méthode de Gauss :


Quelles que soient les valeurs m et n du système, on peut déterminer ses
solutions par la méthode d’élimination de Gauss.
Le principe en est le suivant : par des combinaisons linéaires
successives, on transforme le système initial, que l’on prend tel quel
sans changer l’ordre des équations, en un système triangulaire
supérieur, système ensuite résolu en commençant par la dernière des
équations transformées.
On rappelle qu’un système est dit triangulaire supérieur si la matrice
asso- ciée est triangulaire supérieure.

Mise en œuvre de la méthode sur le système suivant :



2x1 + x2 + 4x3 = 9 (eq1)
 x1 + x3 = 3

6x1 + 4x2 + 2x3 = 6 (eq2)

(eq3)

• Dans la première étape de la méthode, on élimine l’inconnue x1


dans les équations (eq2) et (eq3) en les combinant chacune à
(eq1), celle-ci,

2
servant de ligne pivot, reste inchangée. Cela n’est possible que
parce que x1 apparaît dans (eq1). Si ce n’est pas le cas, il faut
permuter (eq1) avec la première des équations suivantes qui
contient x1.
La méthode de Gauss remplace l’équation (eq2) par (eq2) 2 − 1
(eq1) , mais pas (eq2) par 2(eq2) − (eq1), qui éliminerait aussi x1
mais ce qui n’est plus Gauss.
De même, (eq3) est remplacée par (eq3)− 6 (eq1). Après cette première
2
étape, on obtient le système
équivalent : 
(eq1)
 2x1 + x2 + 4x3 = 9
 − 12x2 − x3 = − 2 (eq20 )
x 2 − 10 3 = −21
(eq30 )
x

• Dans la deuxième étape, c’est la deuxième ligne qui joue le


0
rôle de ligne pivot si x2 est présent (sinon on permute (eq2 )
0
avec (eq3−1 )) et, pour éliminer x2 dans la troisième ligne, on
2
0 0 0 0
remplace celle-ci par (eq3 ) − 1 (eq2 ) soit (eq3 ) + 2(eq2
). On obtient alors le système
équivalent, triangulaire supérieur, suivant :

2x1 + x2 + 4x3 = 9
 (eq1)
− 12x2 − x3 = − 2

− 12 3 = −24 (eq20
)
x
(eq3”)

• On résout le système par "remontée" en commençant par la


dernière équation.
(eq3”) donne x3 = 2 ,
(eq20 ) donne −2 1 x2 = −2 3 + x3 = 12 soit x2 = −1

(eq1) donne 2x1 = 9 − x2 − 4x3 = 9 + 1 − 4 ∗ 2 = 2 d’où x1 = 1 et la


 
1
solution unique X =  −1 .
2

Par la suite, les systèmes seront résolus par cette méthode. Pour n
équations, il y aura n − 1 étapes.

2 Nombre de solutions
Résultat fondamental :
Un système possède zero, une ou une infinité de solutions.

Cas où il y a autant d’équations que d’inconnues : m = n


et la matrice A est carrée.
Systèmes homogènes
Un système est dit homogène si le second membre est nul, soit AX = 0 où
1 représente le vecteur colonne dont toutes les composantes sont nulles.
L’ensemble des X tels que AX = 0 constitue le noyau de
l’application associée à A. Le noyau contient toujours le vecteur nul,
mais il peut contenir en plus des vecteurs non nuls ( et aussi leurs
combinaisons linéaires ).
Ce type de système a donc au moins une solution, la solution nulle.

• Si A est inversible ( le déterminant de A est différent de 0 ), le


système a la solution unique : X = 0, vecteur nul.
Le noyau est réduit {à 0 et rang(A) = n.
Formellement, X =}A−10 = 0.
• Si A n’est pas inversible ( le déterminant de A est égal à 0 ),
le système a une infinité de solutions (en plus de la solution
nulle). Dans ce cas, le noyau n’est pas réduit à {0} et si la
dimension du noyau vaut k, alors rang(A) = n − k.

Exemple 2 : Le système
  
123 x1  
 4 5 6   x2  =  00 
7 8 0 x3 0



0
a la solution unique X =  0 . Le déterminant de la matrice vaut 27, le
0
rang de la matrice est 3.
Exemple 3 : Le système
    
123 x1 0
 4 5 6   x2 =0
7 8 9 x3 0

 3 
 x  
 1
a une infinité de solutions X = −2x3 . = x3 −2  où x3 est l’inconnue

x3 1
auxiliaire qui peut prendre une valeur arbitraire.
L’ensemble de ces solutions constitue un espace vectoriel de dimension 1
 
 1
engendré par le vecteur −2 .
1

Le déterminant de la matrice vaut 0, le rang de la matrice est 2.
Exemple 4 : Le système

1 2 3    
  x1 0
2 4 6  5 10 15
x2  =  0 
x3 0
 
−2x2 − 3x3    
 −12+x3  0−3 où
a une infinité de solutions X = x2  = x2
x3 
0
1

x2 et x3 sont les inconnues auxiliaires qui peuvent prendre une valeur


arbi- traire.
L’ensemble de ces solutions constitue un espace vectoriel de dimension 2
   
 −2 −3
engendré par les 2  et  0  .C0 est aussi le plan d’équation
vecteurs 0 1

: x1 + 2x2 + 3x3 = 0.
Le déterminant de la matrice vaut 0, le rang de la matrice est 1.

Système non homogène : AX = B, B 6= 0.


• Si A est inversible , le système a la solution unique : X = A−1B
(écriture formelle). On a X 6= 0.
• Si A est non inversible, pour qu’il y ait au moins une solution,
il faut que le rang de A soit le même que le rang de la matrice
AB, matrice formée par A à laquelle B est accolé.

Si X0 est une solution particulière du système non homogène AX =


B (donc on a AX0 = B), alors A(X − X0 ) = 0 et si l’on note X ∗ =
X − X0 , X ∗ est
solution de l’équation homogène.
La solution du système non homogène est donc : X = X ∗ + X0 , somme
de la solution générale du système homogène et d’une solution
particulière du système non homogène.
Si A est inversible, X ∗ est nul et, sinon, X ∗ est un vecteur non nul.
Exemple 5 : Le système
  
123 x1  
 4 5 6   x2  =  14 
78 9 2
x3

n’a pas de solution. Avec la méthode de Gauss, on aboutit à l’équation


0 ∗ x3 = −5. Le système est impossible.  
1 2 3 1
On peut vérifier que le rang de la matrice 4 5 6 4 celui de A est 2.
7 8 9 2
Exemple 6 : Le système
     est 3 alors que
123 x1

 
 4 5 6   x2  =  24 
78 9 6
x3
 
− 2
+ x3  
 2
3 1
4 −
3
a une infinité de solutions : X =
 3 − 2x3  =  + x3  −2  .
x3 4 1
3

On retrouve la solution générale de l’exemple 3 plus une solution particulière.


à celui de A.
1 2 3 2
On vérifie que le rang de la matrice
 4 5 6 4

7 8 9 6  est égal à 2, donc égal

Cas où le nombre d’équations est différent du nombre


d’inconnues : m 6= n et la matrice A n’est pas
carrée.

m > n : il y a plus d’équations que d’inconnues.


Le système est dit sur-déterminé. En général, le système n’aura pas de
solutions. Pour le vérifier, soit on met en œuvre la méthode de
Gauss, ce qui précisera les impossibilités, soit on détermine le rang de
AB et on compare à celui de A.

m < n : il y a moins d’équations que d’inconnues.


Le système est dit sous-déterminé. Il y aura une infinité de solutions
que l’on pourra expliciter en fonctions d’inconnues arbitraires à
choisir.
Conclusion Quelles que soient les dimensions d’un système

∈ AX = B, si B / Im(A) (image de l’application associée à la


matrice A),
le système a 0 solution.
• si B ∈ Im(A), et si le noyau est réduit {à 0}
, le système a une solution unique.
• si B ∈ Im(A), et si le noyau n’est pas réduit{à
0 , le}système a une infinité de solutions.

Exercice 1 Déterminer les solutions de tous les exemples ci-dessus par la


méthode de Gauss.
Exercice 2 Appliquer la méthode de Gauss pour déterminer toutes les valeurs
possibles de a, b, c telles que le système
  
123 x1  
a
 4 5 6   x2 =b
78 9
x3 c

ait au moins une solution. Donner des exemples de seconds membres possi-
bles et impossibles.
Exercice 3 Déterminer les solutions de tous les systèmes ci-dessous par la
méthode de Gauss :

     
2 2 1 x1 3  x1 − 2x2 + x3 = 0

34 1 x3 6 2x1 − 2x4 + x5 = 0
(a) 1 1 1   x2  =  2  (b) −x1 − x3 + x5 = 0

 
 
 2x + y + 3z = 0  −x + 2y + z − t = 2
(c) x + y − 5z = −3 (d) x − y − z + 2t = 3

 −x + 2y + 7z = 1  −x + 3y + z + t = 4
 
x − 2y − 4z = 3 −2x + 5y + z − 2t = 6

   
1 −1 1   1
u 6
2 3
(e)    =
  2

v 1 −2
 w 
4
2 −1 0
 3    
1 a 4

b 7
 4 −2 1
(f)   = 
1 

6 −3 2 −1 c 8  
8 −4 3 −1 d 11

Exercice 4 Soit le système



3z − 4y = 1 
4x − 2z = 2 
2y − 3x = 3 − λ

1. Ecrire la matrice du système. que remarquez-vous


? Calculer son déterminant.

2. Pour quelle valeur de λ a-t-on au moins une solution ?

Exercice 5 Soit le système



λ 
x

+

λ
y

+
z

λ
z

λ
2

Pour quelles valeurs de λ a-t-on 0, 1 ou une


infinité de solutions. Dans les cas où existent des
solutions, les calculer explicitement.

Méthode des approximations successives


complémentaires :

Dans ce chapitre, on aborde l’analyse asymptotique des


fonctions singulières et l’on rappelle quelles sont les deux
versions essentielles de la méthode des déve- loppements
asymptotiques raccordés (MDAR), leurs qualités et leurs
défauts respectifs. La première, la méthode du raccord
intermédiaire, est la plus uti- lisée parce qu’apparemment la
plus naturelle ; la seconde, la méthode de Van Dyke, est plus
mystérieuse mais d’application plus commode grâce à l’utilisa-
tion d’un principe.
Dans les deux méthodes, il s’agit de relier des développements
asympto- tiques réguliers définis dans des domaines contigus. Le
principe de Van Dyke (PVD) permet de comprendre comment on
peut construire une approximation composite, approximation
uniformément valable (AUV).
Cette analyse mène à un principe modifié (PMVD) qui semble
lever les contre-exemples connus, dus en particulier à la présence
de logarithmes. Cette dernière méthode suggère une nouvelle
approche, la méthode des approxima- tions successives
complémentaires. La MASC, dont la forme régulière, équiva-
lente au principe modifié, libère du raccord asymptotique. De
plus, sa forme générale, avec l’utilisation de développements
asymptotiques généralisés, laisse envisager le traitement de
problèmes que l’utilisation de développements réguliers ne peut
résoudre de façon simple.

Méthode des développements asymptotiques


raccordés
Opérateur d’expansion
On considère une fonction Φ (x, ε) définie dans un domaine D, par exemple
l’intervalle [0, 1], et pour laquelle on peut construire un développement
asymp- totique régulier :

Φ(x, ε) = n δ(i) (ε) Φ(i) (x) Σ(n)


Σ δ , (5.1)
+o .
0 0 0

i=1
5.1 Méthode des développements asymptotiques raccordés 62
et où naturellement,
0 δ (i) (ε) est une suite asymptotique de
fonctions d’ordre. Ces développements sont souvent appelés
développements de Poincaré. Pour le signifier de façon précise,
ECKHAus a défini une notation particulière [28].

Déftnition 1. On appelle opérateur d’expansion E0 (n), l’opérateur qui permet


d’écrire l’approximation asymptotique de Φ à l’ordre δ(n)0. On a donc :

Φ − E0(n) Φ = o .δ (n)0Σ , (5.2)

ce que l’on note parfois de façon imprécise :

Φ (x, ε) ∼= 0E(n) Φ, (5.3)


avec :
Σn
E(n)
0 Φ= δ0(i) (ε) Φ0(i) (x) .
i=1

Il s’agit ici d’un développement asymptotique à n termes, mais ceci est pure-
ment formel car le point essentiel est l’ordre auquel on s’arrête.
Si l’on souhaite obtenir le développement asymptotique
régulier de Φ pour m 0≤ n, il suffit de connaître E(n) Φ. Si l’on
. Σ
utilise des fonctions
0 d’ordre,
0 on0 a : E(m) E0(n) Φ = E(m) Φ + o δ (m) .

(5.4)

Il est avantageux d’utiliser des fonctions de0 jauge δ(i) (ε) car
elles lèvent pour une grande part la non-unicité des
développements asymptotiques. En effet, l’égalité
asymptotique (5.4) est remplacée par une égalité stricte :
(m) (n) (m)
E E Φ=E Φ.
0 0 0

Ceci se révélera très utile pour appliquer les principes de raccord.

Développement extérieur – Développement intérieur


Un cas particulièrement intéressant est celui où la fonction Φ
n’est pas régulière dans D. Le développement asymptotique de

Φ n’est valable que dans un domaine plus restreint D0 : 0 < A0
x 1, où A0 est une constante indé- pendante de ε. Le
développement asymptotique correspondant est appelé, le
plus souvent, développement extérieur ; la variable x associée est
dite variable extérieure.
5.1 Méthode des développements asymptotiques raccordés 63
Pour faciliter la présentation, on se limite au cas
unidimensionnel et à une singularité au voisinage de x = 0. On
suppose donc qu’au voisinage de x = 0, il existe au moins un
développement asymptotique susceptible de représenter une
approximation asymptotique de Φ obtenue par un autre
processus limite
que le « processus limite extérieure » donné par ε→ 0 et x fixé
strictement positif.
Avant de préciser le formalisme utilisé, considérons l’exemple
modèle
suivan
2 . xΣ . √ Σ
t: 1 − 4ε
− s . (5.5)
Φ (x, ε) = √ 2ε
h
exp x > 0,1il−n’est
En supposant

pas
2ε difficile de construire le
développement asymptotique extérieur à deux termes :
−x −x
Φ (x, ε) = e + εe (2 − x)+o (ε) .

On peut aussi poser :


−x −x
E(2)
0 Φ=e + εe (2 − x) .

Ceci signifie que l’on a construit 2 termes d’un développement


asymptotique extérieur tel que :
Φ − E0(2) Φ = o (ε) .

Lorsque l’on a calculé ce développement, on a été amené à


faire l’hypothèse que x était strictement positif, justifiant les
termes « limite extérieure » ou
« développement extérieur ». Ceci peut faire soupçonner la
présence d’une sin- gularité à l’origine confirmée par le fait0 que Φ
−x
(0, ε) = 0 alors que E Φ = e prend la valeur 1 à l’origine. Par
(1)

définition, cette singularité ne peut


0 pas être levée par la seconde
approximation (1)E Φ qui prend
(2)
la valeur 1 + 2 ε à l’ori-
gine. Ainsi, E Φ et E(2) Φ ne sont pas des approximations
asymptotiques de 0
0

Φ au voisinage de l’origine. Il y a perturbation singulière ; il faut introduire

un autre processus limite au voisinage de celle-ci. On parle


classiquement de comportement de couche limite.
L’hypothèse x > 0 s’est révélée nécessaire pour négliger un
terme du type e− ε , ce qui est naturellement faux si x est très
x

petit ou égal à zéro. Le « processus limite intérieure » est donc


indiqué en posant :
x
X= .
ε

Cette nouvelle variable X dite variable intérieure, permet de


construire un développement asymptotique régulier dans un
voisinage de l’origine. Ce déve- loppement, dit développement
intérieur, est obtenu en utilisant le processus limite, X fixé, ε →
0, sur la fonction :
Φ∗ (X, ε) ≡ Φ (εX, ε) .

On obtient sans difficulté :


. − Σ Σ − Σ
Φ (x, ε) = 1 − e X + ε (2 − X) − (2 + X) e X +o (ε) .
On peut aussi poser :
. −
Σ Σ −X
1E
(2)
Φ = 1 − e XΣ + ε (2 − X) − (2 + X) e .

Ceci signifie que l’on a construit 2 termes d’un développement


asymptotique intérieur tel que :
Φ − E1(2) Φ = o (ε) .

Raccord asymptotique

L’idée du raccord asymptotique provient du fait


0 que E(2) Φ est
une approxi- mation de Φ tant que 0 < A1 ≤ x ≤ 1 où A1 est
une constante1 indépendante de ε, alors que E(2) Φ est une
approximation de la même fonction si l’on a
0 < B1 ≤ X ≤ B2 (soit 0 < B1ε ≤ x ≤ B2ε ) où B1 et B2 sont des
constantes indépendantes de ε. Bien que E(2) Φ et E(2) Φ n’aient pas
la même
0 1

structure, il doit exister un lien entre ces deux approximations.


On peut par exemple imaginer que, d’une 0 certaine façon, E(2) Φ
doit rester une approxima-
tion asymptotique de Φ si l’on se rapproche de l’origine 1 ; de
même, E(2) Φ doit aussi être une approximation de Φ si l’on
s’éloigne de l’origine. Ceci amène à la notion de recouvrement.
Le recouvrement de E(2) Φ et E(2) Φ exprime que ces deux
fonctions ont un
0 1

domaine commun de validité. Ceci signifie que l’on s’attend 0


à
ce que
1
E Φ et E Φ soient simultanément des approximations
(2) (2)

de Φ lorsque x est dans un domaine compris entre les


domaines extérieur et intérieur. Cette idée sera reprise plus
loin.
Toutefois, on est sûr que si l’on se rapproche trop 0 de
l’origine, E(2) Φ ne reste pas une approximation de Φ sinon il n’y
aurait pas perturbation singulière.
1 De la même façon, E(2) Φ
n’est pas une approximation de Φ si
l’on s’éloigne trop de l’origine. Néanmoins, comme suggéré par le
modèle de
Friedrichs (Sect. 2.2.1), les deux limites correspondantes
pourraient s’identi- fier. Cette conception très brutale du
raccord asymptotique revient à écrire :
lim E(2) Φ = lim
(2)
x→0 0 E1 Φ.
X→∞

Avec l’exemple (5.5), on voit que :


lim E0(2) Φ = 1+ 2ε,
x→0

alors que limX→∞ E(2) Φ n’est pas bornée, ce qui d’ailleurs n’aurait
pas été le cas si l’on
1 s’était limité au premier ordre.
Pour améliorer cette idée, on peut raisonner sur les
comportements plu- tôt que sur les limites, donc en s’appuyant
sur les développements
0 asympto- tiques. Ainsi, E(2) Φ est une
fonction de x et de ε dont on peut évaluer le
comportement à l’aide du développement asymptotique
obtenu par le proces- sus limite intérieure. En se situant au
même ordre O (ε), on obtient facilement :

0 Φ = 1 + ε (2 − X) ,
E1(2) E(2)

et la limite précédente revient sur cette expression à prendre X =


0.
De même, on obtient :

1 Φ = 1 − x + 2ε.
E0(2) E(2)


La limite n’existe pas car cela revient à écrire x . En revanche, on
observe que les deux développements donnent∞ le même résultat
:
(2) (2) (2) (2)
E 1 E 0 Φ ≡ E0 E 1 Φ.

Sous une forme qui sera précisée plus loin, cette façon
d’opérer est initiale- ment due à VAN DYKE [93] ; elle est
extrêmement commode pour trouver les relations entre les
développements extérieur et intérieur. Il faut noter que les
deux développements utilisent des fonctions de jauge ; dans le
cas contraire, il faudrait remplacer le signe de l’identité par le

signe de l’identité asympto- tique =. On verra que, tel qu’il est
formulé par VAN DYKE, le principe n’est pas toujours
applicable. C’est pourquoi une autre école, initiée par les travaux
de KAPLUN [39], poursuivis par LAGERSTRom [42] utilise la
notion du raccord
intermédiaire [9, 15, 38] avec l’hypothèse sous-jacente qu’il existe des
zones de
recouvrement pour les deux développements asymptotiques
considérés. L’idée peut paraître séduisante, mais nous verrons
que la méthode est très complexe à mettre en œuvre et que, par
ailleurs, elle fonctionne beaucoup moins bien que le principe de
Van Dyke aménagé.
Voyons sur l’exemple (5.5) comment s’applique la règle du raccord
inter- médiaire. Pour ce faire, on introduit le « processus limite
intermédiaire », xδ fixé, ε → 0, où xδ est la variable intermédiaire définie
par :
x
xδ = ,
δ (ε)
avec
:
ε ≺ δ (ε) ≺ 1.

Rappelons que ε δ ≺ se lit « ε est asymptotiquement plus petit que δ » ; cette notion a été
définie Sect. 4.1.2.
On obtient les résultats suivants :
. Σ
Eδ Φ = 1 − δxδ + 2ε + O δ 2 + o (ε) ,
. Σ
Eδ E(2) Φ = 1 − δxδ + 2ε + O δ 2 + o (ε) ,
0

Eδ E(2) Φ = 1 − δxδ + 2ε + O (εn) pour tout n ∈ R,


1

où Eδ est l’opérateur d’expansion qui permet de développer Φ dans le domaine où xδ est


tel que 0 < C1 xδ C2 où C1 et C≤2 sont deux constantes indépendantes de ε.

e41fcc0309300dbdc4aa63e8b57893c0448ea883.svg

Vous aimerez peut-être aussi