Vous êtes sur la page 1sur 16

Maı̂trise de Mathématiques

Aide-mémoire Analyse Numérique


J-L.Maltret
Octobre 2001
http://lumimath.univ-mrs.fr/~jlm/cours/analnum

1 Equations à une variable


1.1 Méthode du point fixe
On résoud x = f (x) en définissant par récurrence xn+1 = f (xn ) . La suite est conver-
gente si f est contractante : |f (x)−f (y)| ≤ k|x−y| avec k < 1 ; cette condition est vérifiée
si |f 0 | < 1 et en particulier si |f 0 (y)| < 1 pour la solution y = f (y) .
Si x0 est suffisamment proche de y on a |xn+1 − y| < k|xn − y| ; la meilleure conver-
gence est obtenue si f 0 (y) = 0 . On peut essayer de se ramener à ce cas par un procedé
d’accélération de convergence : on remplace la résolution de x = x + (f (x) − x) par celle de
1
x = ϕ(x) = x + α(f (x) − x) et on choisit α pour que ϕ0 (y) = 0, c’est-à-dire α = .
1 − f 0 (y)
En pratique on se contente d’une estimation de f 0 pour déterminer la valeur optimale
f (xn ) − xn
de α, par exemple .
xn − xn−1

1.2 Méthode de Newton


f (xn )
On résoud f (x) = 0 en formant la suite xn+1 = xn − .
f 0 (xn )
xn → y tel que f (y) = 0 si x0 est suffisamment proche de y.
On a alors convergence quadratique : |xn+1 − y| < k|xn − y|2 .
On peut avoir divergence, cyclage ou attraction de racines parasites .

1.3 Cas des polynômes : méthode de Bernoulli


Soit un polynôme P de degré d :

P (x) = xd + a1 xd−1 + . . . + ad−1 x + ad

On suppose qu’il admet des racines réelles r1 , . . . , rd , de modules distincts, ordonnées par
modules décroissants :
|r1 | > |r2 | > · · · |rd |
On considère les suites définies par des termes initiaux u1 , . . . , ud et par la relation de
récurrence
(R) uk = −a1 uk−1 − a2 uk−2 − · · · − ad uk−d

1
On prend le cas particulier où uk = rk : r est alors nécessairement une racine de P .
On note b(i) la suite dont le terme général est rik . Les b(i) , 1 ≤ i ≤ d forment une base
de l’espace des suites qui satisfont (R) . Si uk satisfait (R) on écrit donc :

uk = c1 r1k + c2 r2k + · · · + cd rdk

Quand k → ∞ on a alors
uk+1 gk+1 − r1 r2
gk = → r1 et →
uk gk − r1 r1
D’où l’algorithme :

tant que degré P positif


calculer r limite de la suite gk
diviser P par x-r

1.4 Méthode de Maehly


Soit un polynôme P de degré d :

P = xd + a1 xd−1 + . . . + ad−1 x + ad

On calcule ses racines par la méthode de Newton : x0 donné on forme


P (xk )
xk+1 = xk −
P 0 (xk )
P (x)
Soit r1 la première racine trouvée et P1 (x) = x−r1
, on a

P 0 (x) P (x)
P10 (x) = −
x − r1 (x − r1 )2
La méthode de newton appliquée à P1 donne la relation de récurrence :
P (xk )
xk+1 = xk − P (xk )
P 0 (xk ) − xk −r1

Si on a déjà trouvé j racines réelles de P : r1 , . . . , rj , et si on note

P (x)
Pj (x) =
(x − r1 ) . . . (x − rj )

alors
j
P 0 (x) P (x) 1
Pj0 (x)
X
= −
(x − r1 ) . . . (x − rj ) (x − r1 ) . . . (x − rj ) i=1 x − ri
et la méthode de Newton appliquée à Pj donne la relation de récurrence :

P (xk )
xk+1 = xk −
P 0 (xk ) − P (xk ) ji=1 1
P
x−ri

2
2 Systèmes linéaires
2.1 Méthodes directes
2.1.1 Gauss
Soit une matrice A de dimension n × n, x, b ∈ Rn
Soit A(1) = A, on définit par récurrence A(k+1) à partir de A(k) en faisant des combi-
naisons de lignes :
(k)
aik
`i ← `i − (k) `k i > k
akk
On obtient ainsi des 0 au-dessous de la diagonale dans la colonne k, à condition que
(k)
akk 6= 0. A l’étape n on a un système triangulaire qu’on résoud par remontée :
 1

 xn = b
ann n




 ...
1 P
xi = aii
(− j>i aij xj + bi )




 ...
 1 P

x1 = a11
(− j>1 a1j xj + b1 )
La méthode de Gauss équivaut à écrire la décomposition A = LU où L est triangulaire
inférieure avec des coefficients diagonaux égaux à 1 et U est triangulaire supérieure avec
des coefficients diagonaux 6= 0 .
Stratégie de pivot : à chaque étape on effectue un échange de lignes pour avoir le
coefficient diagonal le plus grand en module .

2.1.2 Cholesky
A symétrique définie positive il existe L triangulaire inférieure inversible telle que
A = LLt .
On détermine L colonne par colonne en commençant par l’élément diagonal :
v
k−1 u k−1
d0 où lkk
u
2 2
X X
2
akk = lkk + lki = takk − lki
i=1 i=1
 
k−1 k−1
1 
d0 où lik =
X X
i>k aik = lik lkk + lij lkj aik − lij lkj 
j=1 lkk j=1

On résoud alors 2 systèmes triangulaires : Lz = b puis Lt x = z .

2.1.3 Householder
On note u ∈ Rn sous forme de vecteur-colonne .
On définit une matrice de Householder par
2
H(u) = I − uut
ut u
H(u) est symétrique et orthogonale .

3
Si a et b sont 2 vecteurs non nuls et non colinéaires v = a± kak
kbk
b est tel que H(v)a = αb
où α est un coefficient réel .
Soit une matrice A de dimension n × n : Il existe une matrice  de  Householder H1 =
x
 0 
 
H(u1 ) telle que A1 = H1 A ait sa première colonne de la forme  .. 

.
 . 
0
Par récurrence il existe n − 1 matrices Hi de la forme
 
1 0 ...
 .. 

 0 . 

 .. 
. 1
 
 
H(ui )

(H(ui ) de dimension n+1−i) et telles que Hn−1 . . . H2 H1 A soit triangulaire supérieure.


On a l’algorithme de résolution du système linéaire Ax = b :
pour i de 1 à n-1
construction matrice Hi
multiplication de A et b par Hi
résolution du système triangulaire

2.2 Méthodes itératives


2.2.1 Convergence
On écrit A, matrice n × n inversible, sous la forme A = M − N avec M inversible .
On forme la suite récurrente définie par :

M xk+1 = N xk + b

Si cette suite converge vers x alors M x = N x + b, x est solution du système Ax = b .


xk → x ssi toutes les valeurs propres de M −1 N sont de module < 1 .

2.2.2 Jacobi
Si aii 6= 0 , 1 ≤ i ≤ n, on écrit A sous la forme : A = D + L + U , où D est diagonale
, L est triangulaire inférieure (lij = aij si i > j , lij = 0 si i ≤ j) , U est triangulaire
supérieure (uij = aij si i < j , uij = 0 si i ≥ j) .
On considère un vecteur x(0) et la suite donnée par

Dx(k+1) = −(L + U )x(k) + b

La suite z (k) = x(k) − x satisfait z (k+1) = Jz (k) . La condition de convergence est vérifiée
si A satisfait X
(C) 1 ≤ i ≤ n |aii | > |aij |
i6=j

(matrice à diagonale dominante)

4
Implémentation de la récurrence :
  
(k+1) 1 (k)

P




x1 = a11 j>1 a1j xj + b1
...




  
(k+1) 1 (k) (k)
− aij xj −
P P

xi = aii j<i j>i aij xj + bi
...




  
1 (k)
x(k+1)


P


n = ann j<n anj xj + bn

2.2.3 Gauss-Seidel
On considère la suite donnée par

(D + L)y (k+1) = −U y (k) + b

w(k) = y (k) − x satisfait une relation w(k+1) = Gw(k) . y (k) → x quand k → ∞ sous la
même condition (C) .
On obtient pour la récurrence :
  
(k+1) 1 (k)

P




y1 = a11 j>1 a1j yj + b1
...




  
(k+1) 1 (k+1) (k)
− −
P P

yi = aii j<i aij yj j>i aij yj + bi
...




  
1 (k+1)
yn(k+1)


P

 = ann j<n anj yj + bn

2.2.4 Relaxation
On se donne ω ∈R et la suite
1 ω−1
   
D + L z (k+1) = − D + U z (k) + b
ω ω
La récurrence devient :
  
(k+1) ω (k) (k)
− ω−1 a11 z1 −
P




z1 = a11 ω j>1 a1j zj + b1
...




  
(k+1) ω (k+1) ω−1 (k) (k)
− − −
P P

zi = aii j<i aij zj ω
aii zi j>i aij zj + bi
...




  
ω (k+1) ω−1
zn(k+1) ann zn(k)

− −
P

 = ann j<n anj zj ω
+ bn

Pour A symétrique définie positive, on a convergence ssi 0 < ω < 2


De plus si A est tridiagonale par blocs il existe un ω0 optimal (assurant la meilleure
vitesse de convergence) :
2
ω0 = q
1 + 1 − ρ[D−1 (L + U )]

5
2.2.5 Méthodes de gradient

A symétrique définie positive, valeurs propres λ1 > . . . > λn , b vecteur donné.


On pose J(x) = 12 (x|Ax) − (b|x), on a G(x) = Ax − b gradient de J(x) .

Ax = b ⇔ J minimum en x
Pour x(0) fixé on construit une suite de vecteurs x(k) par récurrence :

x(k+1) = x(k) − ρk G(x(k) )


G(x(k) ) est la direction de descente, ρk est le pas .

– pas fixe : on choisit ρk = ρ ∀k


2 2
On a convergence si 0 < ρ < λ1
et convergence optimale pour ρ0 = λ1 +λn

– pas optimal : Soit f (ρ) = J(x(k) − ρG(x(k) ), on choisit ρk tel que f (ρk ) = inf ρ f (ρ) .
(G(x(k) )|G(x(k) ))
On a alors ρk = et (G(x(k+1) )|G(x(k) )) = 0.
(G(x(k) )|AG(x(k) ))

3 Systèmes non linéaires


3.1 Point fixe
Soit F une contraction stricte sur un espace métrique complet :

d(F (x), F (y)) ≤ kd(x, y) k < 1

alors la suite définie par x0 et xn+1 = F (xn ) converge vers une solution x telle que
x = F (x)

3.2 Newton-Raphson
F : D → D et y ∈ D tel que F (y) = 0
Si F est différentiable et telle que :

kF 0 (x)−1 kbornée dans D

kF (z) − F (x) − F 0 (x)(z − x)k ≤ kkz − xk2 z, x ∈ D


La suite définie par x0 et

xn+1 = xn − F 0 (xn )−1 F (xn )

converge vers y si x0 est suffisamment proche de cette solution . De plus


n −1 n
kxn − yk ≤ c2 kx0 − yk2

6
3.3 Racines de polynômes : méthode de Bairstow
P polynôme de degré d > 2 :

P (x) = xd + a1 xd−1 + . . . + ad−1 x + ad

On considère sa division par le polynôme du second degré x2 + bx + c :

P (x) = (x2 + bx + c)Q(x) + rx + s

On cherche à déterminer b et c pour que r(b, c) = s(b, c) = 0 .


Pour ceci on calcule b et c par la méthode de Newton-Raphson : à partir d’une esti-
mation de b et c on cherche ∆b et ∆c tels que

r(b + ∆b, c + ∆c) = s(b + ∆b, c + ∆c) = 0

soit au premier ordre :


∂r ∂r
r(b, c) + ∆b + ∆c = 0
∂b ∂c
∂s ∂s
s(b, c) + ∆b + ∆c = 0
∂b ∂c
on calcule ∆b et ∆c en résolvant ce système de 2 équations puis on remplace b par
b + ∆b et c par c + ∆c ; la suite des estimations obtenues converge .
En dérivant la relation entre P et Q par rapport à b et c on calcule les dérivées partielles
∂r ∂r
∂b
, ∂c
, ∂s
∂b
, ∂s
∂c
, qui s’obtiennent par division de Q(x) et de xQ(x) par x2 + bx + c .
On a l’algorithme :

répéter
initialisation de b et c
répeter
calcul de Q par division de P
calcul des dérivées partielles par division de Q et xQ
résolution du système
correction de b et c
jusqu’à test d’arr^et
résolution équation du second degré
division de P
jusqu’à degré 2

4 Valeurs propres
4.1 Cas symétrique : méthode de Jacobi
Si M est une matrice 2 × 2 symétrique et Rθ une matrice de rotation
! !
α β cosθ −sinθ
M= Rθ =
β γ sinθ cosθ

7
on peut choisir θ pour que Rθ M Rθt soit diagonale.
Si on note !
0 α0 β 0
M = = Rθ M Rθt
β0 γ0
alors α0 2 + 2β 0 2 + γ 0 2 = α2 + 2β 2 + γ 2 . d’où α0 2 + γ 0 2 ≥ α2 + γ 2 dans le cas où β 0 = 0 .
Si A est une matrice symétrique n × n on note Uθpq la matrice définie par

upp = uqq = cos θ uii = 1 si i 6= p, q upq = sin θ uqp = − sin θ


uij = 0 dans les autres cas
On pose A0 = Uθpq AUθpq t . et on choisit θ pour que a0pq = 0 . On a alors
n n
2 2 2
a0ii a2ii a0ij = a2ij a0ij ≤ a2ij
X X X X X X

i=1 i=1 i,j i,j i6=j i6=j

En répetant cette transformation pour tous les indices (p, q) la somme des carrés des
coefficients non diagonaux tend vers 0, i.e. la matrice transformée tend vers une matrice
diagonale. Pour cela on peut choisir p et q tels que |apq | = maxi<j |aij | .
On en déduit l’algorithme :
répéter
choisir p et q
calculer cosθ et sinθ
calculer A0
jusqu’à ni6=j a0ij 2 ≤ ε
P

4.2 Cas symétrique : méthode de Givens

Réduction : A ∈ Mn (R), symétrique, ∃P orthogonale, produit de n − 2 matrices de


Householder, telle que P t AP soit tridiagonale .
Bissection : la suite des polynômes pi associés à une matrice tridiagonale a des racines
emboitées ; le nombre de racines de pi qui sont < a est le nombre de changements de signe
dans la suite :
(1, p1 (a), p2 (a), . . . , pi (a))

4.3 Cas général : méthode de la puissance


A diagonalisable, λ1 valeur propre de plus grand module , u0 donné on forme
wk+1
wk+1 = Auk et uk+1 =
kwk+1 k
1 |v1 )
Alors uk → v1 , vecteur propre associé à λ1 et λ1 = (Av
(v1 |v1 )
.
Déflation : soit w ∈R tel que w v1 = 1, alors A − λ1 v1 wt a les mêmes valeurs propres
n t

que A, sauf λ1 qui est remplaçée par 0 .

8
4.4 Cas général : méthode QR

Décomposition QR : A ∈ Mn (R), ∃Q orthogonale et R triangulaire supérieure telles


que A = QR ; si on impose rii > 0 cette décomposition est unique .
Convergence méthode QR : on forme A1 = A puis par récurrence Ak = Qk Rk et on
définit Ak+1 = Rk+1 Qk+1
Si les valeurs propres de A sont toutes de modules différents alors

lim (Ak )ii = λi


k→+∞

4.5 Calcul de vecteurs propres : méthode de la puissance inverse


A diagonalisable, λ valeur propre de A, on choisit µ 6= λ tel que l’intervalle (µ, λ) ne
contienne aucune autre valeur propre de A
Pour u0 donné on définit la suite (uk ) par

(A − µI)uk+1 = uk
uk
Alors → vλ vecteur propre associé à λ .
kuk k

5 Interpolation
5.1 Interpolation polynômiale de Lagrange
Soient des réels distincts : x0 < x1 < . . . < xn et αi ∈ R, 0 ≤ i ≤ n .
Il existe un polynôme P unique de degré ≤ n tel que P (xi ) = αi 0 ≤ i ≤ n.
P = i=n
P
i=0 αi Li où les Li sont les polynômes satisfaisant Li (xj ) = δij :

j=n !
Y x − xj
Li (x) =
j=0j6=i xi − xj

Pour f ∈ C n+1 ([a, b]) on note Lf le polynôme de degré ≤ n tel que

Lf (xi ) = f (xi ) 0≤i≤n

Méthode de Newton
On forme les différences divisées de f :

δ[y] = f (y)

f (y1 ) − f (y2 )
δ[y1 , y2 ] = ,...
y1 − y2
δ[y1 , . . . , yk−1 ] − δ[y2 , . . . , yk ]
δ[y1 , . . . , yk ] =
y1 − yk
On a alors
i=k
X f (yi )
δ[y1 , . . . , yk ] =
j6=i (yi − yj )
Q
i=1

9
k=n−1
X j=k−1
Y
Lf (x) = δ[x0 , . . . , xk ] (x − xj )
k=0 j=0

Approximation de f
∀x ∈ [a, b] ∃c ∈]a, b[ tel que
i=n
1
(x − xi )f (n+1) (c)
Y
f (x) − Lf (x) =
(n + 1)! i=0

1
Soit a > 0 et f : [−a, a] 7→ R définie par f (x) =
1 + x2
Soit h > 0 et 0 < α < a . On définit
1
{xi ; i = 0, . . . , n} = {x ∈ [0, a]; x = α + (k + )h, k ∈ Z}
2
Le polynôme P satisfaisant P (xi ) = f (xi ) et P (−xi ) = f (−xi ), 0 ≤ i ≤ n est pair et de
degré ≤ 2n .
Quand h → 0 on a |f (α) − P (α)| → 0 si 0 < α < b et |f (α) − P (α)| → ∞ si b < α < a

5.2 Interpolation d’Hermite


Soient xi ∈ R, x0 < x1 < . . . < xq , ni ∈ N ∗ , n = i=q k
i=0 ni − 1 et yi ∈ R, 0 ≤ k ≤ ni − 1
P

Il existe un polynôme P unique de degré ≤ n tel que P (k) (xi ) = yik 0 ≤ i ≤ q,


0 ≤ k ≤ ni − 1 .
Soient les polynômes h définis par
!nj
(x − xi )k j=q
Y x − xj
hik (x) = 0 ≤ k ≤ ni − 1
k! j=0j6=i xi − xj

On définit les polynômes H par les relations :

Hi,ni −1 (x) = hi,ni −1 (x)


p=ni −1
X (p)
Hik (x) = hik (x) − hik (xi )Hip (x) k < ni − 1
p=k+1

On a alors
(l)
Hik (xj ) = δij δkl
d’où
X k=n
i=n i −1

yik Hik
X
P =
i=0 k=0

Cas particulier : ∀i ni = 2 i.e. on impose les valeurs P (xi ) = yi0 et P 0 (xi ) = yi1
On pose
k=q
(x − xk )2
Y
Qi (x) =
k=0,k6=i

On a alors q
Q0 (xi ) 0
" ! #
Qi (x)
1 − (x − xi ) i y + (x − xi )yi1
X
P (x) =
i=0 Qi (xi ) Qi (xi ) i

10
(k)
Pour f ∈ C n+1 ([a, b]) on note Pf le polynôme de degré ≤ n tel que Pf (xi ) = f (k) (xi )
0 ≤ i ≤ q, 0 ≤ k ≤ ni − 1 .
Alors ∀x ∈ [a, b] ∃ξ ∈]a, b[ tel que
i=q
1
(x − xi )ni f (n+1) (ξ)
Y
f (x) − Pf (x) =
(n + 1)! i=0
Cas particulier : q = 1, n0 = n1 = m + 1, n = 2m + 1 . On suppose u ∈ C 2m+2 ([x0 , x1 ])
et P (k) (xi ) = u(k) (xi ) i = 0, 1 0 ≤ k ≤ m . On a alors
sup |u(k) (x) − P (k) (x)| ≤ ck (x1 − x0 )2m+2−k sup |u2m+2 (x)|
x0 ≤x≤x1 x0 ≤x≤x1

5.3 Interpolation par splines cubiques


Soient des réels distincts : x0 < x1 < . . . < xn < xn+1
On pose hi = xi+1 − xi et on définit sur [xi , xi+1 ] :
P (xi ) = ai (x − xi )3 + bi (x − xi )2 + ci (x − xi ) + di
Pour avoir continuité, dérivabilité et dérivabilité seconde de P aux points xi 1 ≤ i ≤ n
les bi doivent satisfaire un système linéaire ne dépendant que des di et hi dont on note A
la matrice .
4 1 0 ...
 
..
1

4 1 . 

 . . . . . . 
A = 0
 . . . 
 .. . .

. 1

. 4 1
1 4
4 2
Pour f ∈ C ([x0 , xn+1 ]) il existe g ∈ C ([x0 , xn+1 ]), unique, telle que
– g|[xj ,xj+1 ] est un polynôme de degré 3 pour 0 ≤ j ≤ n
– g(xj ) = f (xj ) 0 ≤ j ≤ n + 1
– g 00 (0) = g 00 (1) = 0
1
On pose h = n+1
, I = [0, 1], xi = ih . Soit f ∈ C 4 (I) et g la fonction associée .
sup |f (k) (x) − g (k) (x)| ≤ Ck h4−k k = 0, 1, 2, 3
0≤x≤1

( C0 , C1 , C2 , C3 constantes indépendantes de h )
On a Z 1 Z 1 Z 1
|f 00 (x)|2 dx = |f 00 (x) − g 00 (x)|2 dx + |g 00 (x)|2 dx
0 0 0
Soit ϕ ∈ C (I) telle que ϕ(xj ) = f (xj ), 0 ≤ j ≤ n + 1 , ϕ00 (0) = ϕ00 (1) = 0 . Alors
2
Z 1 Z 1
|g 00 (x)|2 dx ≤ |ϕ00 (x)|2 dx
0 0
Soit ψ ∈ C 2 (I) polynômiale de degré 3 sur [xj , xj+1 ] pour 0 ≤ j ≤ n et telle que
ψ 00 (0) = ψ 00 (1) = 0 .
Z 1 Z 1
|f 00 (x) − g 00 (x)|2 dx ≤ |f 00 (x) − ψ 00 (x)|2 dx
0 0
Les conditions g 00 (0) = g 00 (1) = 0 peuvent être remplaçées par g 0 (0) = f 0 (0) et g 0 (1) =
f 0 (1)

11
6 Approximation
6.1 Moindres carrés
A matrice m × n, m > n et rang(A)=n . Le système linéaire Ax = b peut-être résolu
aux moindres carrés : ∃x0 unique tel que kAx0 − bk2 = j ((Ax0 )j − bj )2 soit minimum.
P

x0 est solution de At Ax = At b (équations normales du système) .


Moindres carrés pondérés : pour des coefficients wj > 0 on cherche le minimum de

wj ((Ax0 )j − bj )2
X

6.2 Approximation des fonctions


f continue sur [a, b], x1 , . . . , xm dans [a, b] , ϕ1 , . . . , ϕn fonctions fixées . On cherche à
P
approcher f par i αi ϕi . On résoud aux moindres carrés le système :
X
αi ϕi (xj ) = f (xj ) j = 1 . . . m
i

A = (ϕi (xj ))1≤i≤n,1≤j≤m


Le système des équations normales est N α = c où
X X
Nij = ϕi (xk )ϕj (xk ) ci = ϕi (xk )f (xk )
k k

N est symétrique, définie positive si les ϕi et les xj satisfont une condition d’indépendance
Approximation polynômiale : ϕi (x) = xi et les xj tous distincts .

6.3 Polynômes Orthogonaux


6.3.1 Notations
Rb
– w(x) ≥ 0 sur [a, b], (f, g)w = a f (x)g(x)w(x)dx est un produit scalaire

– L2w [a, b] est l’espace de Hilbert des fonctions de carré sommable sur [a, b] pour w(x)

– kf kw = (f, f )1/2 2
w est la norme de Lw [a, b]

– kf k[a,b] = supx∈[a,b] |f (x)| est la norme de la convergence uniforme sur [a, b]

– un polynôme dont le coefficient du terme de plus haut degré est égal à 1 est dit
unitaire

6.3.2 Définitions
Il existe une suite unique de polynômes pn tels que :

– 1) le degré de pn est exactement n et le coefficient de xn est positif


Rb
– 2) les pn sont orthonormés dans L2w [a, b] , a pn (x)pm (x)w(x)dx = δnm

12
Exemples classiques

– Polynômes de Jacobi

Pn(α,β) a = −1 b = 1 w(x) = (1 − x)α (1 + x)β α > −1 β > −1

En particulier :

– Polynômes de Gegenbauer Gαn pour α = β


– Polynômes de Tchebycheff de 1ere espece Tn pour α = β = −1/2
– Polynômes de Tchebycheff de 2eme espece Un pour α = β = 1/2
– Polynômes de Legendre Pn pour α = β = 0

– Polynômes de Laguerre L(α)


n a = 0 b = +∞ w(x) = xα e−x α > −1
2
– Polynômes d’Hermite Hn a = −∞ b = +∞ w(x) = e−x

6.3.3 Propriétés algébriques


– Récurrence : les polynômes pn orthogonaux sur [a, b] pour w(x) satisfont une relation
de récurrence de la forme pn (x) = (An x + Bn )pn−1 (x) − Cn pn−2 (x) où An > 0 et
Cn > 0

– Formule de Christoffel : on a l’identité


i=n
X kn pn+1 (x)pn (y) − pn (x)pn+1 (y)
Kn (x, y) = pi (x)pi (y) =
i=0 kn+1 x−y

où kn est le coefficient du terme de plus haut degré de pn

– Matrices tridiagonales : soient les matrices


 
b1 c 2
 c 2 b2 c 3 0 
 
 
Jn = 
 c3 b3 c4 
 n≥1
 .. .. .. 

 0 . . . 

c n bn

les polynômes caractéristiques des matrices Jn satisfont la relation de récurrence

Pn (x) = (−x + bn )Pn−1 (x) − c2n Pn−2 (x)

6.3.4 Propriétés extrémales


– Approximation hilbertienne : f ∈ L2w [a, b] le polynôme P de degré n qui realise le
minimum de kf − P kw est i=n
P
i=0 fi pi où fi = (f, pi )w

– P (x) polynôme unitaire de degré n, le minimum de kP kw est atteint pour cPn .

13
– x0 ∈ C, P (x) polynôme de degré n tel que kP kw = 1 le maximum de |P (x0 )| est
atteint pour
P (x) = εKn (x0 , x0 )−1/2 Kn (x0 , x) ε = ±1

– Propriété d’alternance : Q ∈ Pn réalise l’approximation uniforme de f ( kf − Qk[a,b]


minimale ) ssi il existe n+2 points xi dans l’intervalle [a, b] tels que

(f − Q)(xi ) = (−1)i kf − Qk[a,b]

– Approximation uniforme : f continue sur [a, b] il existe un polynôme Q unique de


degré n tel que
kf − Qk[a,b] = inf kf − P k[a,b]
P ∈Pn

– Tn satisfait
Tn


n−1 = inf kP k[−1,1]
2 [−1,1] P ∈Qn

6.3.5 Propriétés différentielles


– Les polynômes orthogonaux classiques satisfont une equation différentielle du second
ordre

– Jacobi : (1 − x)y 00 + [β − α − (α + β + 2x]y 0 + n(n + α + β + 1)y = 0


– Laguerre : xy 00 + [α + 1 − x]y0 + ny = 0
– Hermite : y 00 − 2xy 0 + 2ny = 0

– Fonctions propres : en mettant les equations différentielles sous la forme

ay 00 + by 0 + cy = 0

les polynômes orthogonaux apparaissent comme vecteurs propres d’un operateur


différentiel D(y) = ay 00 + by 0

– Formules de Rodrigues : On a les representations


dn  
Pn(α,β) (x) = (1 − x)−α (1 + x)−β cn (1 − x)n+α
(1 + x)n+β
dxn
dn  −x n+α 
Lαn (x) = x−α ex cn e x
dxn
2 dn  2 
Hn (x) = ex (−1)n n e−x
dx

6.3.6 Racines
– Les racines des pn orthogonaux dans L2w [a, b] sont réelles , simples et dans [a, b]

– Entre deux racines de pn il existe une racine de pn+1

– pn (µ) 6= 0, le nombre de racines de pn supérieures à µ est égal au nombre de chan-


gements de signe dans la suite p0 (µ), p1 (µ), . . . , pn (µ)

14
6.3.7 Intégration
– Condition de Haar : ti 1 ≤ i ≤ n réels distincts, la matrice
 
p0 (t1 ) ... p0 (tn )
 .. .. 

 . . 

pn−1 (t1 ) . . . pn−1 (tn )

est non singulière

– Formule de Gauss : Soient x1 < x2 < · · · < xn les zéros de pn , il existe n réels
λ1 , λ2 , . . . , λn tels que ab p(x)w(x)dx = i=n
R P
Pj=n i=1 λi p(xi ) pour tout polynôme p de degré
2
2n − 1 et on a 1/λi = j=0 (pj (xi ) ) = Kn (xi , xi )

6.3.8 Fonction génératrice


– Les polynômes orthogonaux classiques peuvent être obtenus comme coefficients d’un
développement en série entière d’une fonction génératrice :
P∞
– Legendre : n=0 Pn (x)z n = (1 − 2xz + z 2 )−1/2
xz
 
P∞ α n −α−1
– Laguerre : n=0 Ln (x)z = (1 − z) exp −
1−z
P∞ Hn (x) n 2
– Hermite : n=0 n! z = exp(2xz − z )

6.3.9 Polynômes trigonométriques


– Les polynômes complexes z n sont orthogonaux pour le produit scalaire
Z π
(p, q) = p(z)q(z)dz z = eiθ
−π

Pj=n
– g(θ) polynôme trigonométrique de degré n , g(θ) = a0 + j=1 aj cos(θ) + bj sin(θ),
aj , bj ∈ R

– g(θ) est non-négatif pour tout θ ssi il existe p(z) polynôme de degré n tel que
g(θ) = |p(z)|2 pour z = eiθ

– en multipliant p(z) par des expressions de la forme (1 − ᾱz)/(z − α) on peut obtenir


un polynome sans zéros de module < 1 .
π
p(z)q(z)f (z)dz où f (z) ≥ 0 on peut définir des
R
– Pour le produit scalaire (p, q)f = −π
polynômes orthogonaux en z avec des propriétés algébriques analogues à celles du
cas réel .

15
Références
[1] Bakhvalov, N. Méthodes numériques. Mir 1976

[2] Ciarlet, P. Introduction à l’analyse numérique. 2ème Ed. Masson, 1995

[3] Chatelin, F. Valeurs propres de matrices. Masson, 1988

[4] Demailly, J-P. Analyse numérique et équations différentielles Presses Universi-


taires de Grenoble, 1991

[5] Euvrard, D. Résolution numérique des équations aux dérivées partielles Masson,
1988

[6] Golub, G. VanLoan, C. Matrix Computations. 2nd Ed. John Hopkins, 1989

[7] Guilpin, C. Calcul numérique appliqué EDP Sciences, 1999

[8] Lascaux, P. Theodor, R. Analyse numérique matricielle appliquée à l’art de


l’ingénieur Masson, 1986

[9] Rombaldi, J-E. Problèmes d’Analyse numérique Masson, 1996

[10] Schatzman, M. Analyse numérique : cours et exercices InterEditions, 1991

[11] Sibony, M. Mardon, J-C. Analyse numérique I-II-III. Hermann, 1982-1988

[12] Stoer, J. Bulirsch, R. Introduction to numerical analysis. Springer, 1980

16

Vous aimerez peut-être aussi