Vous êtes sur la page 1sur 63

Cours d’Analyse Num´erique

Henri Bonnel

Licence de Math´ematiques L3

D´epartement des Sciences et Techniques Universit´e de la Nouvelle-Cal´edonie, 2007

Cours d’Analyse Num´erique Henri Bonnel Licence de Math´ematiques L3 D´epartement des Sciences et Techniques Universit´e de

Table des mati`eres

I

Analyse num´erique matricielle

 

1

  • 1 Rappels sur les espaces vectoriels et les matrices

 

1

  • 1.1 Espaces vectoriels, bases, dimension

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

1

  • 1.2 Sous-espace vectoriel, somme de sous-espaces, somme directe

.

.

.

.

.

.

.

.

.

.

.

.

.

.

2

  • 1.3 Applications lin´eaires et matrices

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

3

  • 1.3.1 Changement de base

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

4

  • 1.3.2 Image, noyau et th´eor`eme du rang

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

4

  • 1.3.3 Matrice transpos´ee et matrice adjointe

 

.

5

  • 1.3.4 La trace d’une matrice carr´ee

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

5

  • 1.3.5 Matrice de permutation

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

6

  • 1.3.6 Transformations ´el´ementaires et les matrices watsoniennes (ii)

.

.

.

.

.

.

.

.

.

.

6

  • 1.3.7 D´eterminant d’une matrice carr´ee

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

7

  • 1.4 Produit scalaire, l’espace euclidien R n et l’espace hermitien C n

.

.

.

.

.

.

.

.

.

.

.

.

.

7

  • 1.4.1 Les matrices hermitiennes et d´efinies positives

 

.

9

  • 1.4.2 Matrices orthogonales et unitaires

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

9

Matrice normale

  • 1.4.3 .

.

.

.

.

.

.

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

10

Projecteurs

  • 1.4.4 .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

10

  • 1.5 Valeurs propres, vecteurs propres

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

11

  • 1.6 R´eduction des matrices

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

12

  • 1.7 Normes

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

16

  • 1.8 Conditionnement des syst`emes lin´eaires et des matrices

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

18

  • 1.9 Exercices d’Alg`ebre lin´eaire

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

21

  • 2 M´ethodes directes pour la r´esolution de syst`emes lin´eaires

 

26

  • 2.1 La m´ethode de Gauss

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

26

  • 2.2 Factorisation LU d’une matrice

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

27

  • 2.3 Efficacit´e de l’algorithme de Gauss

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

29

  • 2.3.1 Syst`emes lin´eaires de Cramer ou non ?

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

29

  • 2.3.2 Choix des pivots

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

29

  • 2.3.3 Nombre d’op´erations ´el´ementaires

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

30

  • 2.4 Factorisation des matrices sym´etriques d´efinies positives ; factorisation de Cholesky

.

31

  • 2.4.1 Construction de Λ colonne par colonne

 

.

32

  • 2.5 Matrice de Householder

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

32

  • 2.5.1 D´efinitions et propri´et´es

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

32

  • 2.5.2 Factorisation A = QR par la m´ethode de Householder

.

.

.

.

.

.

.

.

.

.

.

.

.

.

33

  • 3 M´ethodes it´eratives

33

  • 3.1 M´ethode de Jacobi, Gauss-Seidel, de relaxation

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

34

  • 3.1.1 La m´ethode de Jacobi

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

34

  • 3.1.2 La m´ethode de Gauss-Seidel .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

34

  • 3.1.3 La m´ethode de relaxation

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

35

  • 3.2 Convergence des m´ethodes de Jacobi, Gauss-Seidel et relaxation

.

.

.

.

.

.

.

.

.

.

.

.

35

4

M´ethodes num´eriques de calcul des valeurs et vecteurs propres

35

 
  • 4.1 La m´ethode de la puissance

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

35

  • 4.2 M´ethode de la puissance inverse .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

36

  • 4.2.1 Recherche de la valeur propre de plus petit module

 

.

36

  • 4.2.2 Recherche de la valeur propre la plus proche d’un nombre donn´e

.

.

.

.

.

.

.

.

36

  • 4.3 M´ethode QR

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

37

II

Interpolation polynˆomiale

 

37

  • 5 Quelques bases utiles de l’espace vectoriel R n [X]

 

37

  • 6 Evaluation d’un polynˆome en un point : le sch´ema de H¨orner

 

38

  • 7 Existence et unicit´e du polynˆome d’interpolation

 

40

  • 8 Evaluation ´ de l’erreur d’interpolation

 

41

  • 9 L’´ecriture du polynˆome d’interpolation sous la forme de Newton

 

43

III

Int´egration Num´erique

 

46

  • 10 Formules de quadrature

 

47

 
  • 10.1 G´en´eralit´es

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

47

  • 10.2 Formules classiques : Newton-Cotes

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

48

  • 10.2.1 La formule des rectangles

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

49

  • 10.2.2 La formule des trap`ezes

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

50

  • 10.2.3 La formule de Simpson .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

51

  • 11 Int´egration Gaussienne

 

54

 
  • 11.1 La fonction `a int´egrer sur un intervalle non n´ecessairement compact

.

.

.

.

.

.

.

.

.

.

54

  • 11.2 La mani`ere d’approcher l’int´egrale

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

55

  • 11.3 Formule de quadrature de Gauss

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

56

  • 11.3.1 Comment choisir le support d’int´egration pour augmenter la pr´ecision ?

.

.

.

.

56

  • 11.3.2 Polynˆomes orthogonaux : g´en´eralit´es

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

57

  • 11.3.3 Polynˆomes orthogonaux classiques

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

58

  • 12 Exercices

 

59

Premi`ere partie

Analyse num´erique matricielle

  • 1 Rappels sur les espaces vectoriels et les matrices

    • 1.1 Espaces vectoriels, bases, dimension

Un espace vectoriel (ev) sur le corps

K = R ou C est un ensemble non vide E (dont les ´el´ements

s’appellent “ vecteurs”) muni

– d’une loi (op´eration) interne

+ : E × E E,

(x, y)

x + y

commutative (x + y

= y + x), associative x + (y + z) = (x + y) + z, admettant un ´el´ement neutre

0 E :

x + 0 E = x

x E et tout ´el´ement x admet un oppos´e x : x + (x) = 0 E , i.e. (E, +) est un

groupe commutatif,

– d’une loi (op´eration) externe

· : K × E E

(α, x)

αx

qui a les propri´et´es suivantes : α(βx) = (αβ)x, α(x + y) = αx + αy, (α + β)x = αx + βx et 1 · x = x

pour tous les x, y E,

α, β K.

Exemple.

E = K n avec

x = (x 1 ,

, x n ), y = (y 1 ,

, y n ) K n , α K,

x+y = (x 1 +y 1 ,

, x n +y n ),

α·x = (αx 1 ,

.

.

, αx n ).

Premi`ere partie Analyse num´erique matricielle 1 Rappels sur les espaces vectoriels et les matrices 1.1 Espaces

Une famille E = (e i ) iI d’un K-ev E est dite

li´ee s’il existe au moins un vecteur e i qui s’exprime comme combinaison lin´eaire des vecteurs de la

famille, i.e. on peut trouver une partie finie {i 1 ,

. . .

,i p } i de I et les scalaires α 1 ,

. . .

, α p K, tels

que

e i = α 1 e i 1 + · · · + α p e i P ;

libre (on dit ´egalement que les vecteurs de cette famille sont lin´eairement ind´ependants ) si elle

n’est pas li´ee, autrement dit, quels que soient une famille finie d’´el´ements distincts (i 1 ,

,i p ) de I

et les scalaires α 1 ,

, α p K, on a

α 1 e i 1 + · · · + α p e i p = 0 E =α 1 = · · · = α p = 0;

 

g´en´eratrice si

(x E) (p N )((i 1 ,

,i p ) I p ) ((α 1 ,

, α p ) K p ) :

x = α 1 e i 1 + · · · + α p e i p ;

base

si elle est libre et g´en´eratrice.

Si le K-espace vectoriel E admet une base E = (e 1 ,

, e n ), alors toute autre base poss`ede exactement

n ´el´ements et le nombre n est dit la dimension

de E, et on note dim E = n.

A noter que dans un K-ev E de dimension n :

– toute famille libre ayant n ´el´ements est g´en´eratrice ;

– toute famille g´en´eratrice ayant n ´el´ements est une famille libre ;

– toute famille libre poss`ede au plus n ´el´ements ;

– toute famille g´en´eratrice poss`ede au moins n ´el´ements ;

– toute famille libre peut ˆetre compl´et´ee en une base ;

– de toute famille g´en´eratrice on peut extraire une base.

Si dans un K-ev il existe une famille libre infinie, on dit que l’espace est de dimension infinie.

1

1.2

Sous-espace vectoriel, somme de sous-espaces, somme directe

Une partie non vide E du K-ev E est dite sous-espace vectoriel (sev) de E si elle est stable pour les

deux lois :

x, y E ,

α K :

x + y E ,

αx E .

Dans ce cas E est un K-ev avec les lois induites par celles de E.

Si A et B sont deux parties de E, on note A + B = {a + b| a A,

somme (alg´ebrique) de A et B.

b B} la partie de E appel´ee

Exercice 1.

1.

Soient F et G deux sous espaces vectoriels de E. Alors :

  • (a) F + G est un sev de E ;

  • (b) F G est un sev de E ;

  • (c) Si de plus F

et G sont de dimension finie, on a la formule de Grassmann :

dim(F + G) = dim F + dim G dim(F G).

2.

Si (F i ) iI est une famille de sev de E, alors F i est un sev de E.

iI

Soit A une partie non vide de E. L’intersection de la famille de tous les sous-espaces de E contenant

A est le plus petit (au sens de l’inclusion) sev de E contenant A (exercice). On le note Vect (A) et

on l’appelle le sous-espace vectoriel engendr´e par A. Tout ´el´ement x Vect (A) s’exprime comme

une combinaisons lin´eaire des ´el´ements de A. Plus exactement, Vect (A) est l’ensemble de toutes les

combinaisons lin´eaires des ´el´ements de A.

Exercice 2. Soient F et G deux sev de E. Montrer que

Vect (F G) = F + G.

Soient F et G deux sev de E. Si F G = {0 E }, on dit que la somme F + G est directe et on la note

par F G.

Exercice 3. Soient F et G deux sous espaces vectoriels de E. Les assertions suivantes sont ´equivalentes :

  • (i) F + G = F G.

(ii)

Pour tout x F + G il existe un couple unique (y, z) F × G tel que x = y + z.

On dit que les sous-espaces F et G sont suppl´ementaires (ou que G est un suppl´ement de F ) lorsque

E = F G.

Exercice 4. Soient F et G deux sev suppl´ementaires de E. Montrer que, si F = (f 1 ,

, f p ) est une base

de F

et G = (g 1 ,

, g q ) est une base de

G, alors (f 1 ,

, f p , g 1 ,

, g q ) est une

base de E.

Exercice 5. (Gen´ eralisation) ´

Soit

E 1 ,

, E l des sous-espaces vectoriels de

E tels que E = E 1 +

+ E l (i.e. pour tout vecteur x E, il existe les vecteurs e i E i tels que x = e 1 +

+ e l ). Les

affirmations suivantes sont ´equivalentes :

 
  • (i) La d´ecomposition

x = e 1 +

+ e l est unique pour

tout x E.

(ii)

La d´ecomposition de 0 = e 1 +

+ e l est unique (autrement dit e 1 +

+ e l = 0,

e i E i (i =

1,

, l) =e i = 0 i).

 

2

(iii) Si E i = (e i 1 ,

. . .

, e i m i ) est une base de E i (i = 1,

E = (e 1

1

,

. . .

, e m 1 , e 2

1

1

,

. . .

, l) alors la famille obtenue par concat´enation

. . .

, e l

1

,

. . .

l

, e m l ) :=

l

E i

2 , e m 2 ,
2
, e
m 2 ,

i=1

est une base de E.

Si les (une des) conditions de l’exercice pr´ec´edent sont (est) v´erifi´ees (v´erifi´ee) on dit que E est somme

directe de E i et on ´ecrit

E = E 1 ⊕ · · · ⊕ E l =

l

E i .

i=1

  • 1.3 Applications lin´eaires et matrices

Soient E, F deux ev sur le mˆeme corps K. Une application f : E F est dite lin´eaire

si

x, y

E

:

f(x + y) = f(x) + f(y)

α K,

x E

:

f(αx) = αf(x).

L’ensemble des applications lin´eaires de E dans F sera not´e L (E, F) et il est un K espace vectoriel

avec les lois

(f, g)

f + g

:

(f + g)(x) = f(x) + g(x)

x E

(α, f)

α · f :

(α · f)(x) = α · f(x)

x E.

Tous les espaces consid´er´es dans ce chapitre seront de dimension finie.

Soit E = (e 1 ,

. . .

, e n ) une base de E. Si x E, il existe les nombres α 1 ,

  • x = α 1 e 1 + · · · + α n e n . On dit que

x E =

α

1

.

.

.

α

n

. . .

, α n uniques tels que

est la matrice

de x dans la base E.

Soit g L (E, F) et soient E = (e 1 ,

. . .

, e n ) une base de E et F = (f 1 ,

. . .

, f k ) une base de F. La

matrice A = g E,F repr´esentant g dans les bases E, F est le tableau rectangulaire k × n

A = (a ij ) =

a

11

a

21

.

.

.

a

k1

a

12

a

22

.

.

.

a

k2

.

.

.

.

.

.

.

.

.

a

1n

a

2n

.

.

.

a

kn

d´efini par

g(e j ) =

k

a ij f i ,

i=1

j = 1,

. . .

, n.

De plus, si y = g(x) alors on a

y F = Ax E .

Si on se fixe les bases E et F, alors la correspondance g

A est lin´eaire et bijective de L (E, F) dans

l’espace vectoriel des matrices de type k × n (qui est un espace vectoriel de dimension k × n identifi´e

avec K k×n ) et qui sera not´e M k,n (K) (ou tout simplement M k,n ). Donc on peut (avec des bases fix´ees)

identifier une application lin´eaire `a une matrice (ou vice versa).

A noter que si A repr´esente la matrice de g L (E, F) dans la base E de E

et F de F, et si B

repr´esente l’application h L (F, G) dans la base F de F

et la base G du K-ev G, alors

B · A repr´esente l’application compos´ee h g

3

1.3.1

Changement de base

Lorsque F = E, la matrice carr´ee (i) P = (p ij ) M n repr´esentant g = id E : E E d´efinie par

x

g(x) = x dans les bases F = (f 1 ,

. . .

, f n ) et E = (e 1 ,

(ou de passage)

de la base E en la base F et v´erifie donc

. . .

, e n ) de E est la matrice de changement

Si x E alors

f j =

n

p ij e i j = 1,

i=1

. . .

, n.

x E = Px F ,

x F = P 1 x E

o`u P 1 est la matrice inverse de P et repr´esente l’application r´eciproque g 1 c’est-`a-dire la matrice

de changement de la base F en la base E.

Enfin, soient g L