Vous êtes sur la page 1sur 58

Polynômes orthogonaux, fonctions spéciales et applications

June 1, 2020
Contents

1 GÉNÉRALITÉS 2
1.1 Généralités sur les polynômes orthogonaux. . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2 Représentation par les moments . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Propriétés générales des polynômes. orthogonaux . . . . . . . . . . . . . . . . . . 6
1.2.1 Relation de récurrence à trois termes. . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Formule de Darboux-Christoel. . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.3 Propriétés des zéros. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2 POLYNÔMES ORTHOGONAUX CLASSIQUES 10


2.1 Polynômes hypergéométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2 Polynômes orthogonaux classiques: dénition. . . . . . . . . . . . . . . . . . . . . 12
2.2.1 Polynômes de Jacobi, de Laguerre et de Hermite. . . . . . . . . . . . . . . 14
2.3 Propriétés fondamentales des polynômes orthogonaux classiques. . . . . . . . . . 15
2.3.1 Orthogonalité des dérivées. . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.2 Équation diérentielle des polynômes orthogonaux classiques. . . . . . . . 17
2.3.3 Formule de Rodrigues. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.4 Fonctions génératrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.5 Comportement asymptotique: Méthode de Darboux. . . . . . . . . . . . . 26
2.4 Application 1: méthodes de quadrature approchée du type Gauss. . . . . . . . . . 28
2.4.1 Généralités. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.2 Formules de quadrature de type Gauss. . . . . . . . . . . . . . . . . . . . 29
2.4.3 Exemples de formules de quadrature de type Gauss. . . . . . . . . . . . . 34

3 Problème des moments à une variable: Densité de l'espace des polynômes 38


3.1 Rappels et préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.1.1 Préliminaires d'analyse fonctionnelle . . . . . . . . . . . . . . . . . . . . . 38
3.2 Représentation intégrale des formes linéaires sur les espaces adaptés . . . . . . . . 41
3.2.1 Fonctionnelles de moments et espaces adaptés . . . . . . . . . . . . . . . . 41
3.2.2 Existence de la représentation intégrale . . . . . . . . . . . . . . . . . . . 42
3.3 Le problème des moments sur R: existence . . . . . . . . . . . . . . . . . . . . . . 45
3.3.1 Petite analyse des polynômes positifs et des sommes de carrés . . . . . . . 45
3.3.2 Théorèmes d'existences pour les problèmes de moments classique. . . . . . 48
3.4 Critères d'unicité de la solution au problème des moments . . . . . . . . . . . . . 50
3.4.1 Mesures à support compact . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.4.2 Les conditions de Carleman et de Krein . . . . . . . . . . . . . . . . . . . 51
3.5 Determination d'une solution: Formule d'inverstion de Stieljes-Perron . . . . . . . 54

4 Fonctions spéciales 55
5 Introduction au calcul formel: Calcul dans Maple 56

1
Chapter 1

GÉNÉRALITÉS

1.1 Généralités sur les polynômes orthogonaux.


Dans toute cette section, (a, b) désigne un intervalle de R; dx désigne la mesure de Lebesgue sur
(a, b) et l'expression polynôme désigne une fonction polynôme d'une variable réelle à coecients
dans R. R[x] désigne l'ensemble des polynômes.

1.1.1 Dénitions
Soit ρ : (a, b) → R une fonction presque partout positive.

Dénition 1.1.1. ρ est dite fonction poids sur (a, b) si pour tout entier naturel n, l'intégrale
a x ρdx converge. Et, dans ce cas, le réel
Rb n

Z b
µn = xn ρdx (n = 0, 1, 2, . . . )
a

est appelé moment d'ordre n de la fonction poids ρ sur l'intervalle (a, b).
Dénition 1.1.2. Deux polynômes p et q sont dits orthogonaux sur (a, b) par rapport au poids
ρ si
Z b
ρ(x)p(x)q(x)dx = 0
a

Dénition 1.1.3. Une suite {pn }n de polynômes est dite orthogonale sur (a, b) par rapport au
poids ρ si:
1. 1. pn est de degré n, (n = 0, 1, 2, . . .)
2. ab ρ(x)pn (x)pm (x)dx = 0, (n 6= m)
R

3. ab ρ(x)p2n (x)dx 6= 0, (n = 0, 1, 2, . . .)
R

Rb
Si
a ρ(x)p2n (x)dx = 1, (n = 0, 1, 2, . . .), la suite {pn }n est dite orthonormale.
Notation:
Rb Rb
Dans toute la suite, l'intégrale
a ρ(x)p(x)q(x)dx sera notée (p, q), et a ρ(x)p2n (x)dx
2
sera notée dn .

Théorème 1.1.1. Si ρ est un poids sur l'intervalle (a, b), alors il existe une suite de polynômes
orthogonaux sur l'intervalle (a, b).
Proof.
Rb
Si ρ est un poids sur l'intervalle (a, b) alors pour tout p ∈ R[x], a ρ(x)p(x)dx converge.
Donc ρ induit sur R[x] la forme bilinéaire symétrique (., .) dénie par

Z b
(p, q) = ρ(x)p(x)q(x)dx
a

2
Il est évident que (., .) est dénie positive, donc est un produit scalaire sur le R-espace vectoriel
R[x].
Considérons la base canonique {1, x, x2 , . . . , xn , . . .} de R[x] par le procédé d'orthonormalisation
de Schmidt la base orthonormale {p0 , p1 , p2 , . . . pn , . . .} associée est:
Posons
Z b
p0 (x) = µ−1
0 , où µ0 = ρ(x)dx
a
n−1
xn − Σ (pk , xn )pk
k=0
pn (x) = n≥1
n−1
xn − Σ (pk , xn )pk
k=0

où k·k est la norme associée au produit scalaire (., .).


La famille de polynômes ainsi dénie a les propriétés suivantes:

∀n, deg pn = n et kpn k = 1.

Proposition 1.1.1. Toute suite {pn }n de polynômes orthogonaux est linéairement indépendante.
De plus tout polynôme q de degré ≤ n (n xé) est combinaison linéaire des pk (k ≤ n), i.e.,
Xn
q= ck pk
k=0

avec
(q, pk )
ck = , où d2k = (pk , pk ).
d2k
Exemples.
1. L2 (0, 1) est un espace de Hilbert pour le produit scalaire

Z 1
(f ; g) = f gdx
0

et R[x] ⊂L2 (0, 1), donc L2 (0, 1) induit sur R[x] un produit scalaire déni par

Z 1
(p; q) = pqdx
0

Par le procédé d'orthogonalisation de Schmidt, on associe au poids ρ(x) = 1 une suite de


polynômes orthogonaux sur (0, 1) dont les trois premiers termes sont:

p0 (x) = 1 p2 (x) = 6x2 − 6x + 1


p1 (x) = 2x − 1

2. Nous savons que cos mθ cos nθ = [cos(m + n)θ + cos(m − n)θ] /2. Donc
Z π
1 π
Z
cos mθ cos nθdθ = [cos(m + n)θ + cos(m − n)θ] dθ
0 2 0
π
= {.0 si m 6= n si m = n.
2
Par ailleurs par le changement de variable x = cos θ, on a
Z π Z 1
dx
cos mθ cos nθdθ = cos(mArc cos x) cos(nArc cos x) √
0 −1 1 − x2

3
et de la relation
cos(n + 1)θ + cos(n − 1)θ = cos nθ cos θ
on montre par récurrence que Tn (x) = cos(nArc cos x) (−1 ≤ x ≤ 1) est un polynôme
de degré n. {T } est
D'où une suite de polynômes orthogonaux sur (−1, 1) par rapport
√ n n −1/2
au poids ρ = 1 − x2 . Les Pn sont connus sous l'appelation de polynômes de

Chebyshev de 1
ère espèce.

Théorème 1.1.2. Soit {pn }n une suite de polynômes tels que ∀n ∈ N, deg pn = n. Les assertions
suivantes sont équivalentes:
1) {pn }n est orthogonale par rapport à ρ sur (a, b)
2) (xm , pn ) = Kn δm,n (n, m = 0, 1, 2, ...) où Kn est une constante non nulle et δm,n désigne
le symbole de Kronecker.

Proof. Si {pn }n est une suite de polynômes orthogonaux, alors pour n xé {p0 , ..., pn } est une
base du sous-espace vectoriel des polynômes de degré ≤ n. Soit n, m deux entiers xés. On a
m
xm = (xm , pn ) = Kn δm,n , Kn = cn d2n .
P
ck pk avec cm 6= 0. Donc conséquent D'où 2).
k=0
Réciproquement, supposons que {pn }n satisfait à 2). Soit m, n xé. On a

m
X
(pm , pn ) = ck (xk , pn )
k=0
m
X
= ck Kn δk,n
k=0


Xm
pm = ck xk , cm 6= 0.
k=0

En dénitive (pm ; pn ) = {.0 si m 6= nKn si m = n. D'où {pn }n est une suite de polynômes
orthogonaux.

Dans toute la suite, l'expression suite orthogonale de polynômes désignera une suite de
polynômes orthogonaux sur (a; b) par rapport à un poids ρ.
Corollaire 1.1.1. Si {pn }n est une suite de polynômes orthogonaux, alors pour tout entier
naturel n xé, et pour tout polynôme p tel que deg p ≤ n on a:
(p, pn ) = Kn δk,n

où k est le degré de p, Kn est une constante non nulle et δk,n désigne le symbole de Kronecker.
Corollaire 1.1.2. Une suite orthogonale de polynômes est dénie de manière unique à une
constante multiplicative près.
Proof. En eet vu la proposition 1.1.1, si {qn }n est une autre suite orthogonale de polynômes
n
P (pk ,qn )
alors qn = ck,n pk avec ck,n = . Et, puisque {qn } est une suite orthogonale alors d'après
d2k
k=0
(pn ,qn )
le corollaire1.1.1 on a: (pk , qn ) = 0, ∀k < n. Donc ∀n, qn = cn,n pn avec cn,n = d2n
.

Remarque 1. Le corollaire précédent garantit l'unicité de la suite orthogonale de polynômes si


l'on impose une condition supplémentaire à la suite. Par exemple que chaque terme de la suite
ait pour coecient dominant 1.

4
1.1.2 Représentation par les moments
Soit ρ un poids sur (a, b) dont la suite des moments est (µn ). En vertu du théorème 1.1.2, on
observe que les coecients d'un polynôme orthogonal ne dépendent que des µn du poids ρ.
En eet soit {pn }n la suite de polynômes orthogonaux associée à ρ. Soit n xé. Écrivant
n
pn = Σ ak xk , on déduit du théorème 1.1.2-3) que les ak sont solutions du système
k=0


 a0 µ0 + a1 µ1 + . . . +an µn = 0
 a0 µ1 +

a1 µ2 + . . . +an µn+1 = 0
. . .. . . . (1.1)
. . . . . .

 . . . . .

a0 µn + a1 µn+1 + . . . +an µ2n = Kn

où Kn est une constante réelle non nulle.


En conséquence, le polynôme pn est déterminé de façon unique par la donnée de Kn 6= 0; à
condition que le déterminant


µ0
µ1 · · · µn

µ1 µ2 · · · µn+1
∆n = . (1.2)

. .. .
.. . .

. . .

µn µn+1 · · · µ2n

soit non nul. et, le cas échéant on a:


µ0
µ1 ··· µn

µ1 µ 2 ···
Kn . . .. .

pn (x) = . . . . (1.3)

.
∆n . . .


µn−1 µn
··· µ2n−1

1 x ··· xn

D'où le théorème suivant donnant une condition nécessaire et susante pour qu'une suite de
réels (µn )n dénisse une suite orthogonale de polynômes. Mais avant cela précisons le sens dans
lequel l'orthogonalité sera comprise.
À la suite (µn )n , on associe la forme linéaire L dénie sur le R-espace R[x] de la façon
suivante: on pose
L(xn ) = µn (n = 0, 1, 2, ...).
Ainsi on a:
Xn
L(p) = a k µk
k=0
n
ak xk .
P
où p(x) = La suite (µn )n est alors appelé suite des moments de la forme linéaire L.
k=0
Dénition 1.1.4. Deux polynômes p et q seront dits orthogonaux par rapport à la suite des
moments (µn )n si pq appartient à KerL = {p ∈ R[x] : L(p) = 0}. On dira simplement que p et
q sont L − orthogonaux.
Dénition 1.1.5. Une suite {pn }n de polynômes sera dite L − orthogonale si
1) deg pn = n, ∀n
2) L(pn pm ) = 0, (n 6= m)
3) L(p2n ) 6= 0, ∀n
Le théorème 1.1.2 reste toujours valable avec (p, q) = L(pq).

5
Théorème 1.1.3. Soit L une forme linéaire sur R[x] dont la suite des moments {µn }n . Soit
{pn }n une suite de polynômes tels que deg pn = n, ∀n. La suite {pn }n est dite L − orthogonale
si et seulement si pour tout entier naturel n, le déterminant ∆n déni par (1.2), est non nul.
Proof. La démonstration de ce théorème utilise essentiellement le théorème 1.1.2 et le système
(1.1); et se trouve dans [4, pp. 11 et 12].

Remarque 2. La formule (1.3) détermine explicitement les polynômes orthogonaux associés à


une fonction poids ρ en fonction des moments (µn )n .

1.2 Propriétés générales des polynômes. orthogonaux


1.2.1 Relation de récurrence à trois termes.
Pour toute suite de polynômes orthogonaux, on peut déterminer une relation entre trois termes
consécutifs de la suite.

Théorème 1.2.1. Trois polynômes consécutifs d'une suite de polynômes orthogonaux sont liés
entre eux par une relation linéaire, dite relation de récurrence à trois termes
an−1 d2n
 
an bn bn+1
xpn = pn+1 + − pn + pn−1 (1.4)
an+1 an an+1 an d2n−1

pn (x) = an xn + bn xn−1 et d2n = (pn ; pn ).
Proof. Soit n entier xé. Le polynôme xpn est de degré n + 1. Et par conséquent

n+1
X
xpn = ck,n pk
k=0
avec
(xpn , pk )
ck,n = . (1.5)
d2k
Puisque (xpn , pk ) = (pn , xpk ) et xpk est de degré k+1 on a: ck,n = 0 (0 ≤ k ≤ n − 1). Donc

n+1
X
xpn = ck,n pk . (1.6)
k=n−1

Par identication des coecients de xn+1 et de xn dans (1.6), on obtient:

cn+1,n = an /an+1
(1.7)
cn,n = abnn − abn+1
n+1

En outre, de la relation (1.6), on a:

d2k ck,n = d2n cn,k (n, k = 0, 1, 2, ...) (1.8)

donc

an−1 2
d2n−1 cn−1,n = d2n cn,n−1 , d2n−1 cn−1,n = d .
an n
D'où tenant compte de (1.7) et on obtient:

an−1 d2n
cn−1,n = (1.9)
an d2n−1
Portant (1.7) et (1.9) dans (1.6), on obtient (1.5). Ce qui achève la démonstration.

6
Remarque 3. 1) Supposant p−1 (x) = 0 et p0 (x) = 1, le théorème 1.2.1 ci-dessus détermine ex-
plicitement les polynômes orthogonaux {pn }n connaissant les suites (an )n et (bn )n des coecients
dominants des pn , et la suite (d2n )n des carrés des normes.
Corollaire 1.2.1. Soit {pn } une suite de polynômes orthogonaux. Alors
pn+1 (x) = (αn x + βn )pn (x) + γn pn−1 (x) (1.10)

avec
an+1 bn+1 bn an+1 an−1 an+1 d2n
αn = , βn = − et γn = − (1.11)
an an a2n a2n d2n−1
De plus si les polynômes sont moniques, on a:
pn+1 = (x + βn ) pn + γn pn−1 (1.12)

avec
(xpn , pn ) d2n
βn = − et γn = − .
d2n d2n−1

Proof. an+1 /an , on obtient


Multipliant (1.4) par

an−1 an+1 d2n


 
an+1 bn an+1 bn+1
xpn = pn+1 + − p n + pn−1
an a2n an a2n d2n−1

il vient
an−1 an+1 d2n
 
an+1 bn an+1 bn+1
pn+1 = x− + pn − pn−1
an a2n an a2n d2n−1
D'où la relation (1.10).
n
(xpn ,pk )
De la proposition 1.1.1, on a: xpn = pn+1 + Σ ck,n pk avec ck,n = d2k
(car les pn sont
k=0
(xpn ,pn−1 )
moniques). Il vient: xpn = pn+1 + cn,n pn + cn−1,n pn−1 . De cn−1,n = d2n−1
= (pnd,xp
2
n−1 )
et
n−1
n−1
d2n
xpn−1 = pn + Σ ck,n pk , on a cn−1,n = 2
dn−1
. D'où le résultat.
k=0

1.2.2 Formule de Darboux-Christoel.


De la relation de récurrence (1.4), il découle une relation importante de la théorie des polynômes
orthogonaux dite formule de Darboux-Christoel:

Théorème 1.2.2. Soit {pn }n une suite de polynômes orthogonaux. Alors


n
X pk (x)pk (y) 1 an pn+1 (x)pn (y) − pn+1 (y)pn (x)
2 = 2 (1.13)
dk dn an+1 x−y
k=0

Proof. Pour l'obtenir, nous utilisons les relations (1.6) et (1.9). On a:

ak−1 d2k
xpk (x) = ck+1,k pk+1 (x) + ck,k pk (x) + pk−1 (x) (1.14)
ak d2k−1
ak−1 d2k
ypk (y) = ck+1,k pk+1 (y) + ck,k pk (y) + pk−1 (y) (1.15)
ak d2k−1

Multipliant (1.14) par pk (y) et (1.15) par pk (x), puis divisant chacune d'elle par d2k et
soustrayant la deuxième de la première on obtient:

pk (x)pk (y)
(x − y) = Ak (x, y) − Ak−1 (x, y)
d2k

7

ck+1,k
Ak (x, y) = [pk+1 (x)pk (y) − pk+1 (y)pk (x)]
d2k
Sommant sur k de 0 à n, et en tenant compte des conditions initiales p−1 (x) = 0 et p0 (x) = 1
on obtient:
n
X pk (x)pk (y)
(x − y) = An (x, y)
d2k
k=0

Puisque cn+1,n = an+1 /an , on déduit de la relation ci-dessus la relation(1.13).

1.2.3 Propriétés des zéros.


Théorème 1.2.3. Soit {pn }n une suite de polynômes orthogonaux sur (a, b) de poids ρ. Les
zéros du polynôme pn sont simples et appartiennent à l'intervalle ]a, b[.
Proof. Soit n entier xé, n 6= 0. Soit tn ,1 , ..., tn ,k les racines de pn appartenant à ]a, b[ et d'ordre
de multiplicité impair. Considérons le polynôme

k
Y
qk (x) = (x − tn ,j ).
j=1

qk est un polynôme de degré k et on a

(qk , pn ) = Kn δk,n

où δk,n est le symbole de Kronecker etKn est une constante non nulle.
Puisque toutes les racines deq k p n sont d'ordre de multiplicité pair, il vient: qk pn ≥ 0 sur
Rb
]a, b[. Et par conséquent a ρqk pn dx > 0, i.e., (qk , pn ) 6= 0. Donc nécessairement k = n. D'où
toutes les racines de pn sont simples et appartiennent à ]a, b[.

Notation Dans toute la suite les zéros des pn seront notés xn ,1 , xn ,2 , ..., xn ,n et supposés
rangés par ordre croissant.

Théorème 1.2.4. Soit {pn }n une suite de polynômes orthogonaux sur (a, b) de poids ρ. Alors
pour tout entier n ≥ 1
xn+1 ,k < xn ,k < xn+1 ,k+1 (1 ≤ k ≤ n).

Proof. Soit n entier xé, n ≥ 1. Soit 1 ≤ k ≤ n. Nous allons supposer les pn moniques.
Remplaçant successivement dans la relation(1.13) y par xn+1 ,k et xn+1 ,k+1 on obtient:
n
X pk (x)pk (xn+1 ,k ) 1 pn+1 (x)pn (xn+1 ,k )
= 2 (a)
d2k dn x − xn+1 ,k
k=0

n
X pk (x)pk (xn+1 ,k+1 ) 1 pn+1 (x)pn (xn+1 ,k+1 )
2 = 2 (b)
dk dn x − xn+1 ,k+1
k=0

et faisant tendre x vers xn+1 ,k dans (a) (resp. vers xn+1 ,k+1 dans (b)) on obtient

n
X p2k (xn+1 ,k ) p0n+1 (xn+1 ,k )pn (xn+1 ,k )
= (1.16)
d2k d2n
k=0
taga0 (1.17)
n
X p2k (xn+1 ,k+1 ) p0n+1 (xn+1 ,k+1 )pn (xn+1 ,k+1 )
= (1.18)
d2k d2n
k=0
0
tagb (1.19)

8
D'après le théorème de Rolle, p0n+1 admet exactement un zéro dans
]xn+1 ,k , xn+1 ,k+1 [ (car les zéros de pn+1 sont simples). Il vient que p0n+1 (xn+1 ,k ) et p0n+1 (xn+1 ,k+1 )
sont de signes contraires. De (a') et (b'), on déduit
que pn (xn+1 ,k+1 ) et pn (xn+1 ,k ) sont aussi de signes contraires. D'où par le théorème des valeurs
intermédiaires, pn admet au moins une racine dans ]xn+1 ,k , xn+1 ,k+1 [; ce zéro n'est rien d'autre
que xn ,k .

4. Propriétés des polynômes résultant de la parité du poids.


Soit ρ un poids sur (−a, a) (a > 0 où a = +∞) telle que ρ est paire. Soit {pn } la suite de
polynômes orthogonaux associés à ρ. On a:
Z a Z a
ρ(x)pn (x)pm (x)dx = ρ(x)pn (−x)pm (−x)dx (1.20)
−a −a

Donc {pn (−x)}n est aussi orthogonale sur (−a, a) de poids ρ. Et, par unicité de la suite de
polynômes orthogonaux, on obtient:

pn (−x) = Cn pn (x), ∀n.

Identiant les coecients de xn dans la relation ci-dessus, on trouve: Cn = (−1)n .


En dénitive, on a: ∀n, p2n est paire et p2n+1 est impaire. D'où la proposition suivante:

Proposition 1.2.1. Soit ρ un poids sur (−a, a) telle√


que ρ est paire. Alors:
1) Les polynômes√sn dénis par sn (x) = p2n ( x) sont orthogonaux sur (0, a2 ) par rapport
au poids ρ1 (x) = √1x ρ( x).

2) Les polynômes tn dénis par sn (x) = √1x p2n+1 ( x) sont orthogonaux sur (0, a2 ) par
√ √
rapport au poids ρ2 (x) = xρ( x).
3) La relation de récurrence à trois termes est:
pn+1 = αn xpn + γn pn−1.

Proof. 1) et 2) découlent du changement de variable x2 = t .


3) De la relation (1.10), on a:

αn (xpn , pn ) + βn (pn , pn ) + γn (pn−1 , pn ) = (pn+1 , pn )

i.e.,
βn (pn , pn ) = −αn (xpn , pn )
En outre Z a
(xpn , pn ) = xρ(x)p2n (x)dx = 0
−a

car xρ(x)p2n (x) est impaire. D'où βn = 0.

9
Chapter 2

POLYNÔMES ORTHOGONAUX

CLASSIQUES

Ce chapitre est consacré à l'étude des polynômes orthogonaux classiques. Nous donnons dans la première
partie une caractérisation des polynômes orthogonaux classiques; la deuxième partie est consacrée l'étude
des propriétés spéciques des polynômes orthogonaux classiques dont la plus importante est la formule
de Rodrigues. Nous terminons ce chapitre par une brève étude des fonctions de type p Fq en vue d'établir
des relations fonctionnelles entre ces fonctions et les polynômes orthogonaux classiques.

2.1 Polynômes hypergéométriques


Dans cette section, on se propose de montrer que l'équation diérentielle

σ(x)y 00 + τ (x)y 0 + λy = 0 (2.1)

où σ est un polynôme de degré ≤ 2, τ est un polynôme de degré ≤ 1 et λ est une constante


réelle; admet une solution polynômiale yn pour certaines valeurs λn de λ. Et que sous certaines
conditions les yn sont orthogonaux par rapport au poids ρ solution de l'équation diérentielle

[σρ]0 = τ ρ (2.2)

Proposition 2.1.1. Les dérivées de toute solution de l'équation diérentielle (2.1) sont aussi
des solutions d'équations diérentielles du type (2.1).
Proof. Nous allons raisonner par récurrence.
Soit la propriété P(k) : y (k) est solution de σ(x)y 00 + τk (x)y 0 + µk y = 0". Puisque y est C∞
dans ]a, b[, dérivant (2.1) on obtient:

σ(x)y 00 + [τ (x) + σ 0 (x)]y 0 + [λ + τ 0 (x)]y = 0

donc y0 est solution de


σ(x)y 00 + τ1 (x)y 0 + µ1 y = 0 (2.3)

avec
τ1 (x) = τ (x) + σ 0 (x) et µ1 = λ + τ 0 (x).
D'où P(1) vraie.
Soitk ≥ 1. Supposons P(k) vraie et montrons que P(k + 1) est vraie. P(k) vraie entraine
σ(x)y (k+2) + τk (x)y (k+1) + µk y (k) = 0. Dérivant cette équation, on trouve:

σ(x)y (k+3) + [σ 0 (x) + τk (x)]y (k+2) + [µk + τk0 (x)]y (k+1) = 0

donc y (k+1) est solution de


σ(x)y 00 + τk+1 (x)y 0 + µk+1 y = 0

10
avec
τk+1 (x) = σ 0 (x) + τk (x), µk+1 = µk + τk0 (x).
D'où P(k + 1) est vraie.

De τk+1 (x) = σ 0 (x) + τk (x) et µk+1 = µk + τk0 (x), on déduit

k(k − 1) 00
τk (x) = τ (x) + kσ 0 (x) et µk = λ + kτ 0 + σ .
2
D'où le corolaire suivant:

Corollaire 2.1.1. Soit y une solution de l'équation (2.1). Alors pour tout entier k ≥ 1, y(k) est
solution de l'équation diérentielle
σ(x)y 00 + τk (x)y 0 + µk y = 0 (2.4)

avec
k(k − 1) 00
τk (x) = τ (x) + kσ 0 (x), µk = λ + kτ 0 + σ
2
Proposition 2.1.2. Toute solution de l'equation diérentielle (2.3) avec λ 6= 0 est dérivée d'ordre
1 d'une solution de (2.1).
Proof. Soit v1 une solution de (2.3). Cherchons y1 solution de (2.1) telle que v1 = y10 . Si un tel
y1 existe, on a σy100 + τ y10 + λy1 = 0 et v1 = y10 . D'où on a

1 0 
y1 = − σv1 + τ v1 . (2.5)
λ
Considérant la fonction u dénie par (2.5), on a évidemment u0 = v1 et u00 = v10 . Et par suite on
a
σu00 + τ u0 + λu = σv10 + τ v1 − σv10 − τ v1 = 0.
D'où u est solution de (2.1) et u0 = v1 .

Remarque 4. De proche en proche on montre que toute solution de l'équation diérentielle


(2.4), est la dérivée d'ordre k (k xé, k ≥ 1) d'une solution de l'équation (2.3).
La remarque ci-dessus nous permet de construire une famille de solutions particulières de
(2.1) correspondant à certaines valeurs λn de λ. Pour k xé si µk = 0, l'équation diérentielle
(2.4) admet une solution constante vk . Par conséquent l'équation (2.1) pour

k(k − 1) 00
λ = λk = −kτ 0 − σ (2.6)
2
(k)
admet une solution yk telle que vk = yk . yk est donc un polynôme de degré k.
Dénition 2.1.1. On appelle polynôme hypergéométrique toute solution polynômiale d'une équa-
tion diérentielle du type (2.1).
Théorème 2.1.1. Soit ρ solution de (2.2) sur l'intervalle (a, b). On suppose que
lim xm σ(x)ρ(x) = 0
x→a
et lim xm σ(x)ρ(x) = 0, ∀m ∈ N. (2.7)
x→b

Alors la suite {yk }k de polynômes hypergéométriques correspondant aux valeurs {λk }k de λ (λk
étant déni par la relation (2.6)) est orthogonale sur l'intervalle (a, b) par rapport au poids ρ,
i.e.,
Z b
yn (x)ym (x)ρ(x)dx = 0 (λn 6= λm ).
a

11
Proof. Notons d'abord que si y est solution de (2.1), on a y vérie l'équation diérentielle

[σρy 0 ]0 + λρy = 0. (2.8)

Ainsi si yn et ym sont solutions d'équations diérentielles du type (2.1), avec λn 6= λm , on a:

[σρyn0 ]0 + λρyn = 0 (2.9)

taga (2.10)
0 0
[σρym ] + λρym = 0. (2.11)

tagb (2.12)

En multipliant (a) par ym et (b) par yn et soustrayant on obtient

0 0
yn [σρym ] − ym [σρyn0 ]0 = [σρW (yn , ym )]0 ;

puis intégrant de a à b nous obtenons:

Z b
(λn − λm ) yn (x)ym (x)ρ(x)dx = σρW (yn , ym )|ba .
a

Des conditions aux limites (2.7) et du fait que W (yn , ym ) est un polynôme on a:

σρW (yn , ym )|ba = 0


Rb
Ainsi dès que λn 6= λm , on a
a yn (x)ym (x)ρ(x)dx = 0.

2.2 Polynômes orthogonaux classiques: dénition.


Dénition 2.2.1. Une suite de polynômes orthogonaux sur un intervalle (a, b) de poids ρ est
dite classique si son poids ρ est solution de l'équation diérentielle
[σρ]0 = τ ρ (2.13)

où τ est un polynôme de degré 1 et σ est un polynôme de degré au plus 2, avec


σ(x) > 0 ∀x ∈ (a, b).

On montrera dans la suite que pour avoir des polynômes à coecients réels, il est nécessaire
que σ ait l'une des formes suivantes:



 (b − x)(x − a) si a, b ∈ R
x−a si a ∈ R, b = +∞

σ(x) = (2.14)

 b−x si a = −∞, b ∈ R
1 a = −∞, b = +∞

si

De façon que l'équation (2.13) ne présente aucune singularité dans l'intervalle ]a, b[; et par suite
la fonction ρ est inniment dérivable sur ]a, b[.
Théorème 2.2.1. Soit ρ une solution de l'équation diérentielle (2.13). Pour que ρ dénisse
une suite de polynômes orthogonaux sur (a, b), il est nécessaire que pour tout entier naturel m
lim xm σ(x)ρ(x) = 0; lim xm σ(x)ρ(x) = 0 (2.15)
x→a x→b

12
Proof. Soit m entier naturel xé.
1) Montrons que les limites x→a
lim xm σ(x)ρ(x) = 0 et lim xm σ(x)ρ(x) = 0 sont nies.
x→b
Soit x1 , x2 ∈ ]a, b[, x1 < x2 . On a
Z x2
xm σ(x)ρ(x)|xx21 = [xm σ(x)ρ(x)]0 dx
Zx1x2
xm σ(x)ρ(x)|xx21 = [mxm−1 σ(x) + xm τ (x)]ρ(x)dx (2.16)
x1

Fixant x2 et faisant tendre x1 → a dans (2.16), on obtient:


Z x2
xm
2 σ(x2 )ρ(x2 )
m
− lim x σ(x)ρ(x) = [mxm−1 σ(x) + xm τ (x)]ρ(x)dx
x→a a

le membre de droite de l'égalité ci-dessus est ni, car les moments existent et mxm−1 σ(x)+xm τ (x)
est un polynôme. Donc lim xm σ(x)ρ(x) existe et est nie.
x→a
De façon analogue, on montre en xant x1 dans (2.16) et faisant tendre x2 vers b que lim xm σ(x)ρ(x)
x→b
existe et est nie. Posons:

Am = lim xm σ(x)ρ(x) et Bm = lim xm σ(x)ρ(x)


x→a x→b

2) Montrons que Am = Bm = 0.
Raisonons par l'absurde. Supposons que Am 6= 0 et distinguons deux cas.

1 cas:
er a ∈ R.
Ici Am = am A0 de façon que Am 6= 0 entraîne a 6= 0 et A0 6= 0. Donc pour a 6= 0
σ(x)ρ(x)
lim = 1,
x→a A0
A0
i.e., la fonction
σ(x) est équivalente à ρ(x) a. Plus précisement,
au voisinage de

 
A0
il existe ε>0 tel que (a < x < a + ε) ⇒ ρ(x) > .
σ(x)
A0
Il vient alors que la fonction
σ(x) est intégrable au voisinage a; ce qui est impossible vu les

formules (2.15).
Pour a = 0, on a automatiquement Am = 0 vu la première partie de la preuve.
2 ème cas: a = −∞. On a Am+1 = Am lim x. Ce qui contredit le fait que Am+1
x→−∞
est ni.

Donc dans tous les cas Am = 0. On montre de même que Bm = 0.

Les théorèmes 2.1.1 et 2.2.1 arment que pour τ choisis avec deg σ ≤ 2 et deg τ = 1, ρ
σ et
dénie par (2.14) est un poids sur (a, b) si et seulement si ρ est solution de l'équation diérentielle
(2.13) vériant les conditions aux limites (2.15). D'où le corollaire

Corollaire 2.2.1. Une suite de polynômes orthogonaux sur un intervalle (a, b) de poids ρ est
dite classique si et seulement si ρ est une solution de l'équation diérentielle (2.13) vériant les
conditions aux limites (2.15).
Soit
R polynômes tels que deg σ ≤ 2 et deg τ = 1. Alors ρ solution de (2.13)
σ et τ deux est de
la forme ρ = exp( στ dx); et une décomposition en pôles de στ nous permet de voir que ρ prend
l'une des formes suivantes à un facteur multiplicatif près:

α = − τb−a
(b)
− 1 et β = τb−a
(a)

− 1 si deg σ = 2 et
 (b − x)α (x − a)β


σ admet 2 racines distinctes
ρ(x) = α xτ (x) 0 (2.17)
 (x − Ra) e α = τ (a) − 1 si deg σ = 1


exp( τ (x)dx) si σ est indépendant de x

13
avec a, b, α, et β sont des nombres complexes; a, b étant racines éventuelles de σ.

Le cas deg σ = 2 avec σ admettant une racine double se ramène au cas deg σ = 1 par un
changement de variable.
Puisque dans la cadre de notre travail nous n'utilisons que des poids réels, il est nécessaire
que a et b soient des réels et vu la condition σ > 0 σ devra être à un coecient multiplicatif près
de l'une des formes données par (2.13). Et dans ce cas ρ prend l'une des formes suivantes à un
facteur multiplicatif près:


 (b − x)α (x − a)β , α = − τb−a (b)
−1 et β = τb−a
(a)
− 1 si a, b ∈ R
0

 α
(x − a) e xτ (x) , α = τ (a) − 1 si a ∈ R et b = +∞
ρ(x) = α −xτ 0 (x) (2.18)

 (b − x) e , α = −τ (b) − 1 si a = −∞ et b ∈ R
 exp(R τ (x)dx)

si a = −∞ et b = +∞

En vertu des conditions aux limites (2.15), on déduit que le polynôme τ doit vérier les
contraintes suivantes:
τ (a) > 0 si a ∈ R
1)
τ (b) < 0 si b ∈ R
2)
0
3) τ (x) < 0.
Notons que pour a, b ∈ R la condition 3) découle de 1) et 2).
On déduit de (2.18) et (2.15) que chacune des formes suivantes de ρ

(b − x)α (x − a)β α > −1 β > −1



 et
 (x − a)α exτ 0 (x) ,

α > −1
ρ(x) = 0 (2.19)
 (b − x)α e−xτ (x) ,
 α > −1
 αx2 +βx
e , α<0

dénit une suite de polynômes orthogonaux classiques sur (a, b), (a, +∞), (−∞, b) et R respec-
tivement.

Remarque 5. Un changement linéaire de variable transforme:


1) un polynôme en un polynôme de même degré.
2) l'intervalle (a, b) en l'un des intervalles (−1, 1), (0, +∞), (−∞, +∞) suivant que a, b
sont réels ou non.

2.2.1 Polynômes de Jacobi, de Laguerre et de Hermite.


Dans le cas où a et b sont des réels, le changement de variable

2x − a − b
t=
b−a
n o
(α,β)
transforme l'intervalle (a, b) en l'intervalle (−1, 1). pn
Par conséquent la suite
de polynômes
n o
α β (α,β)
orthogonaux dénie sur (a, b) par le poids ρ = (b−x) (x−a) est transformée en la suite Pn

orthogonale sur (−1, 1) par rapport au poids ρ = (1 − t)α (1 + t)β ; tandis que σ = (b − x)(x − a)
est transformé en σ = (1 − t)(1 + t). Portant σ = (1 − t)(1 + t) et ρ = (1 − t)α (1 + t)β dans
(2.13), on obtient
τ (t) = −(α + β + 2)t + β − α, avec α, β > −1

Dénition 2.2.2. Les polynômes orthogonaux Pn(α,β) correspondant au poids ρ = (1 − t)α


n o

(1 + t)β sur (−1, 1) sont appelés polynômes de Jacobi.

14
Pour a = −∞ et b∈R ou a∈R et b = +∞ les changement de variable

t = {.−x + bx − a
0 0 (x)
transforme (a, b) en (0, +∞) et ρ(x) = {.(x − a)α exτ (x) (b − x)α e−xτ en ρ(t) = tα e−t et σ(x) =
{.b − xx − a en σ(t) = t. Ainsi
τ (t) = −t + α + 1
Dénition 2.2.3. Les polynômes orthogonaux correspondant à ρ(t) = tα e−t sur (0, +∞) son
appelés polynômes de Laguerre et sont notés Lαn (α > −1).
R
Dans le cas où (a, b) = (−∞, +∞), on a σ(x) = 1 et ρ(x) = exp τ (x)dx. Et, le changement
2
τ (x)dx en ρ(t) = e−t et
R
de variable t = −τ (x) transforme σ(x) = 1 en σ(t) = 1, ρ(x) = exp
on a τ (t) = −2t.

Dénition 2.2.4. Les polynômes orthogonaux correspondant à ρ(t) = e−t2 sur dans (−∞, +∞)
sont appelés polynômes de Hermite et sont notés Hn .
Remarque 6. 1) De la parité de e−t2 , il découle de la proposition1.2.1 du chapitre1 que l'on
peut exprimer les polynômes de Hermite en fonction de ceux de Laguerre. Plus précisement nous
−1 1
avons H2n (x) = 22n n!(−1)n Ln 2 (x2 ) et H2n+1 (x) = 22n+1 n!(−1)n xLn2 (x2 ).
2) Les polynômes de Jacobi ont des cas particuliers importants:
1. (a) les polynômes de Legendre Pn correspondant à α = β = 0
(b) les polynômes de Chebyshev de première et de seconde espèces Tn et Un correspondant
respectivement à α = β = − 12 et α = β = 21 .
(c) les polynômes de Gegenbauer Cnλ correspondant à α = β = λ − 21 (λ > − 12 ), encore
appelés polynômes ultrasphériques.
Dans toute la suite l'expression suite de polynômes orthogonaux classiques désignera l'une
des familles ci-dessous:

(α,β)
pn Pn (α, β > −1) Lαn (α > −1) Hn
σ (1 − t)(1 + t) t σ(t) = 1
2
ρ (1 − t)α (1 + t)β t e−t
α e−t
τ −(α + β + 2)t + β − α τ −t+α+1 −2t
Polynômes orthogonaux classiques.

2.3 Propriétés fondamentales des polynômes orthogonaux clas-


siques.
En plus des propriétés communes à tous les polynômes orthogonaux exposés au chapitre 1, les
polynômes orthogonaux classiques possèdent une série de qualités spéciales dues aux propriétés
concrètes de leurs poids.

2.3.1 Orthogonalité des dérivées.


Soit {pn } une suite de polynômes orthogonaux classiques sur un intervalle (a, b),i.e., son poids ρ
est solution de l'équation diérentielle (2.13), et vérie les conditions aux limites (2.15). Soit n
entier xé, on a:

Z b Z b
pn (x)xm−1 τ (x)ρ(x)dx = pn (x)xm−1 [σ(x)ρ(x)]0 dx, m ∈ N.
a a

15
Par une intégration par parties, on obtient:

Z b b b Z
0
m−1 m−1
σρ pn xm−1 dx

pn (x)x τ (x)ρ(x)dx = pn x σρ a −
a a
Z b Z b
= − σρp0n xm−1 dx − (m − 1) σρpn xm−2 dx.
a a

Puisque deg σ ≤ 2 alors on a deg(xm−2 σ) ≤ m, tenant compte de (2.15), on obtient:

Z b Z b
pn (x)x m−1
τ (x)ρ(x)dx = − σ(x)ρ(x)p0n (x)xm−1 dx, (m < n)
a a

il vient: Z b
σ(x)ρ(x)p0n (x)xm−1 dx = 0, (m < n).
a
Donc pour tout entier n, le polynôme p0n de degré n − 1 est orthogonal sur (a, b) par rapport
au poids σρ à tout polynôme de degré< n − 1. En outre on déduit en prenant m = n dans la
relation ( ??) que Z b
σ(x)ρ(x)p0n (x)xn−1 dx 6= 0.
a
Et d'après le théorème 1.1.2 du chapitre 1, la suite {p0n }n≥1 est une suite de polynômes orthog-
onaux sur (a, b) de poids σρ.
De plus on a:

[σρ1 ]0 = σ 0 ρ1 + σρ01 où ρ1 = σρ
= σ 0 + τ ρ1
 

donc vérie une équation diérentielle du type (2.13). Il est évident de voir que ρ1 vérie
des conditions aux limites du type (2.15). D'où la suite {p0n }n≥1 est une suite de polynômes
orthogonaux classiques sur (a, b) de poids σρ.
Reprenant le raisonnement ci-dessus avec la suite {p0n }n≥1 , on montre que {p00n }n≥2 est une
2
suite de polynômes orthogonaux classiques sur (a, b) de poids ρ2 = σ ρ,et ρ2 solution de l'équation
0
diérentielle [σρ2 ] = τ2 ρ2 avec
τ2 = τ + 2σ 0 .
Ainsi par le principe de récurrence, nous obtenons le théorème suivant:

Théorème 2.3.1. Soit m entier xé, m ≥ 1. nSoit {pon }n une suite de polynômes orthogonaux
classiques sur (a, b) de poids ρ. Alors la suite p(m)
n+m des dérivées d'ordre m des polynômes
n
{pn+m }n est aussi classique sur (a, b) de poids

ρm = σ m ρ. (2.20)

De plus ρm satisfait à l'équation diérentielle


[σy]0 = τm y où τm = τ + mσ0 (2.21)

avec les conditions aux limites


lim xk σ(x)ρm (x) = 0, (k = 0, 1, 2, ...) (2.22)
x→a,b

où σ et τ sont des polynômes tels que deg σ ≤ 2 et deg τ = 1.

16
2.3.2 Équation diérentielle des polynômes orthogonaux classiques.
Théorème 2.3.2. Soit {pn }n une suite de polynômes orthogonaux classiques sur (a, b) de poids
ρ. Alors pour tout entier n, pn est solution d'une équation diérentielle du type

σy 00 + τ y 0 + λn y = 0 (2.23)

avec
n(n − 1) 00
λn = −nτ 0 − σ (2.24)
2
Proof. {pn }n suite de polynômes orthogonaux classique entraine que son poids ρ solution de
l'équation diérentielle [σy]0 = τ y où σ est un polynôme de degré ≤ 2 et τ est un polynôme de
degré 1. Soit n entier
0
xé. pn est un polynôme orthogonal sur (a, b) par rapport au poids σρ.
Donc pour tout m < n, on a

Z b
p0n (x)(xm )0 σ(x)ρ(x)dx = 0
a

Intégrant par parties, on obtient:

Z b Z b
0
p0n (x)(xm )0 σ(x)ρ(x)dx = pn (x)xm σ(x)ρ(x)|ba − σ(x)ρ(x)p0n (x) xm dx

a a
Z b
σ(x)p00n (x) + τ (x)p0n (x) xm ρ(x)dx
 
= −
a

i.e.,
Z b
σ(x)p00n (x) + τ (x)p0n (x) xm ρ(x)dx = 0, (m < n).

a

Étant donné que p̃n = σp00n + τ p0n est de degré n et

Z b Z b
1
σ(x)p00n (x) τ (x)p0n (x) n
p0n (x)(xn )0 σ(x)ρ(x)dx 6= 0,

+ x ρ(x)dx = −
a n a

{p̃n }n est une suite de polynômes orthogonaux sur (a, b) de poids ρ. D'où par unicité de la suite
de polynômes orthogonaux, on a: p̃n = −λn pn (n = 0, 1, 2, ...), i.e.,

σp00n + τ p0n + λn pn = 0 (2.25)

Égalant le coecient de xn à zéro dans (2.25), on trouve

n(n − 1) 00
λn an + nτ 0 an + σ an = 0
2
où an est le coecient dominant de pn . D'où

n(n − 1) 00
λn = −nτ 0 − σ .
2
Ce qui achève la preuve du théorème.

On a le théorème suivant:

Théorème 2.3.3. Soit σ et τ deux polynômes de degré au plus 2 et 1 respectivement. Soit ρ une
solution bornée sur (a, b) de l'équation diérentielle
[σρ]0 = τ ρ

17
telle que
lim xm σ(x)ρ(x) = 0 (m = 0, 1, 2, ...).
x→a,b

Soit y une solution non triviale de l'équation diérentielle σy00 +τ y0 +λy = 0. Alors y(x) ρ(x)
p

bornée et à carré intégrable si et seulement si


n(n − 1) 00
λ = λn = −nτ 0 − σ (n = 0, 1, 2, ...)
2
De plus y est de la forme
Bn dn n
y(x, λn ) = yn (x) = [σ (x)ρ(x)]
ρ(x) dxn

La preuve de ce théorème peut être lue dans [7].


Conséquence. Pour deg τ = 1 et τ 0 < 0, les polynômes orthogonaux classiques sont les
seules solutions de l'équation
00 0
diérentielle σy + τ y + λy = 0 dont le carré est intégrable par
rapport à ρ.

Pn Equation diérentielle
(α,β)
Pn (α, β > −1) (1 − t2 )y 00 + [β − α − (α + β + 2)t]y 0 + n(nα + β + 1)y = 0
Lαn (α > −1) ty 00 + (α + 1 − t)y 0 + ny = 0
Hn y 00 − 2ty 0 + 2ny = 0

Table 2.1: Équation di ?rentielle pour les polyn?mes de Jacobi, de Laguerre et de Hermite

2.3.3 Formule de Rodrigues.


On se propose dans cette sous-section d'exprimer les polynômes orthogonaux classiques en fonc-
tion de leur poids. Reconsidérons l'équation

σy 00 + τ y 0 + λy = 0. (2.1)

Soit ρ solution de l'équation diérentielle [σy]0 = τ y . Multipliant (2.1) par ρ, on obtient:

σρy 00 + ρτ y 0 + λyρ = 0

i.e., 0
σ(x)ρy 0 + λρy = 0.

(2.26)

Donc (2.1) est équivalente à (2.26), avec ρ vériant (2.13). En particulier (2.25) est équivalente
0 0 (m)
à [σρpn ] + λn ρpn = 0. Par ailleurs du corollaire 2.1.1 on a pn (m ≤ n) est solution σy 00 + τm y 0 +
µn,m y = 0 avec

τm = τ + mσ 0
m(m − 1) 00
µn,m = λn + mτ 0 + σ
2
= λn − λm .

Donc pour ρm solution de [σy]0 = τm y, et on a:


h i0
σρm p(m+1)
n + µn,m ρm p(m)
n = 0.

Il vient h i0
σρm p(m+1)
n = −µn,m ρm p(m)
n , (m ≤ n) (2.27)

18
avec  
1 0 00
µn,m = −(n − m) τ + (n + m − 1)σ . (2.28)
2
De (2.27) on déduit la série d'égalité suivantes:

1  0 0
ρpn = − ρ 1 pn
µn,0
1  00 0
ρ1 p0n = − ρ 2 pn
µn,1
.
.
.
1 h i0
ρm−1 p(m−1)
n = − ρm p(m)
n
µn,m−1

et, portant chacune de ces relations dans la précédente, on obtient:

(−1)m h (m)
i(m)
ρpn = m−1
ρ m p n , (m ≤ n). (2.29)

Π µn,k
k=0

Donc les polynômes orthogonaux classiques vérie l'équation diérentielle d'ordre 2m, (m ≤
n);
dm h (m)
i
ρm y = An,m ρy (2.30)
dxm

m−1
An,m = (−1)m Π µn,k , An,0 = 1. (2.31)
k=0
(n)
Ainsi de l'égalité (2.31) pour m=n et pn = n!an , on déduit:

1 dn n!an
pn = An [ρn ] où An = (2.32)
ρ dxn An,n

an coecient dominant de pn . L'égalité (2.32) s'écrit encore

1 dn n
p n = An [σ ρ] . (2.33)
ρ dxn

La relation (2.33) qui exprime les polynômes orthogonaux classiques en fonction de leur poids
est connue sous l'appelation de formule généralisée de Rodrigues.
La formule généralisée de Rodrigues dérive essentiellement de l'équation diérentielle (2.1);
elle est donc valable pour les polynômes hypergéométriques. Ce qui permet de généraliser les
polynômes de Jacobi, et de
n Laguerre
o dans le cas où α, β prennent des valeurs quelconques.
(m)
Puisque les dérivées pn+m des polynômes orthogonaux classiques {pn } sont aussi des

polynômes orthogonaux classiques, il existe aussi une relation du type (2.33) pour les dérivées
(m)
pn (m ≤ n) de pn . Plus précisement on a:

1 dn−m n
p(m)
n = Bn,m [σ ρ] (2.34)
σ m ρ dxn−m

Portant (2.34) dans(2.30), on trouve

Bn,m = An An,m (2.35)

D'où la proposition:

19
Proposition 2.3.1. Soit {pn } une suite de polynômes orthogonaux classiques. Alors on a:
1 dn n
pn (x) = Cn [σ ρ] , (n = 0, 1, 2, ...).
ρ dxn
De plus
1 dn−m
∀n ∈ N, p(m)
n = Cn,m [σ n ρ] (m ≤ n),
σ m ρ dxn−m
où σ estdonné par l'équation du poids, Cn et Cn,m sont des constantes à déterminer.
Remarque 7. Si {pn } est une suite de polynômes orthogonaux classiques, il découle de (2.33)
que p1 est proportionnel au polynôme τ gurant dans l'équation du poids.
Dans toute la suite, les expressions polynômes
n de Jacobi,
o de Laguerre et de Hermite dans
(α,β)
le cas classique seront reservées aux polynômes Pn , Lαn , Hn pour lesquels la constante An
(−1)n 1
dans (2.33) prend respectivement les valeurs
2n n! , n! et (−1)n . On a:

(−1)n 1 dn h i
Pn(α,β) (x) = (1 − x) α+n
(1 + x) β+n
, (α, β > −1).
2n n! (1 − x)α (1 + x)β dxn
1 ex dn  α+n −x 
Lαn (x) = x e , (α > −1).
n! xα dxn
n −x2
2d e
Hn (x) = (−1)n ex .
dxn
Puisque toute solution de l'équation diérentielle [σρ]0 = τ ρ est analytique dans le plus petit
dn
disque ouvert du plan complexe contenant son intervalle de dénition, on peut exprimer
dxn [σ n ρ]
dans (2.33) à l'aide de la formule intégrale de Cauchy. On a

dn n σ n (z)ρ(z)
Z
n!
n
[σ ρ] = dz
dx 2πi C (z − x)n+1
où C est un cercle de centre z=x contenu dans le domaine d'analyticité de ρ. Il vient

σ n (z)ρ(z)
Z
An n!
pn (x) = dz. (2.36)
ρ(x) 2πi C (z − x)n+1
La formule (2.36) est la forme intégrale de la formule de Rodrigues.

Conséquences de la formule de Rodrigues.


1. Formules de dérivation. Soit {pn } une suite de polynômes orthogonaux classiques. Nous
avons par la formule de Rodrigues (2.33)

An+1 dn+1  n+1 


pn+1 = σ ρ
ρ dxn+1
An+1 dn+1
= [σρn ]
ρ dxn+1
An+1 dn
= [τn ρn ] .
ρ dxn
Et, par les formules de dérivation de Leibnitz, on obtient

dn n n−1
 
An+1 0 d n
pn+1 = τn n [σ ρ] + nτn n−1 [σ ρ]
ρ dx dx
donc  
An+1 ρ 0 σρ 0
pn+1 = τn pn + nτn p
ρ An An An,1 n

20
tenant compte de (2.31), on a: An,1 = λn . D'où

 
λn An
σp0n = pn+1 + τn pn . (2.37)
nτn0 An+1

La formule (2.37) donne explicitement les dérivées p0n des polynômes orthogonaux classiques pn
connaissant leurs formules explicites.
De plus en utilisant les relations de récurrence, on parvient à exprimer σp0n en fonction de pn
et pn−1 . Plus précisement, on a:
 
1
σp0n 00
= Cn + nxσ pn + Dn pn−1 (2.38)
2
où Cn et Dn sont des constantes à déterminer.

Cas des polynômes de Jacobi, de Laguerre et de Hermite. On a les relations suivantes:

(α,β)
dPn 1
= (n + α + β + 1)Pn(α,β)
dx 2
dLαn
= −Lα+1
n−1 (2.39)
dx
dHn
= 2nHn−1
dx
(α,β)
(α,β)dPn
En eet, pour les polynômes de Jacobi Pn , on a
dx orthogonal sur (−1, 1) par rapport
(α,β)
dPn (α+1,β+1)
au poids ρ(x) = (1 − x)α+1 (1 + x)β+1 . Par conséquent
dx et Pn−1 sont égaux à un
coecient multiplicatif près, i.e.,

(α,β)
dPn (α+1,β+1)
= Cn(α,β) Pn−1 .
dx
(α,β) (−1)n
Et par application des formules de Rodrigues, on obtient: Cn = − λAnn−1
An
, avec An = 2n n!
n(n−1) 00
et λn = −nτ 0 − 2 σ . Puisque τ (x) = −(α + β + 2)x + β − α et σ(x) = 1 − x2 , alors
(α,β) 1
Cn = 2 (n + α + β + 1).
De façon analogue, on obtient les formules de dérivation pour Laguerre et Hermite.
Appliquant la formule (2.38) au cas particulier de Jacobi, Laguerre et Hermite, nous obtenons:

(α,β)
dPn
(2n + α + β)(1 − x2 ) = n [α − β − (2n + α + β)x] Pn(α,β)
dx
(α,β)
+2(n + α)(n + β)Pn−1 .
dLαn
x = nLαn − (n + α)Lαn−1 .
dx
dHn
= 2nHn−1 .
dx
En n de (2.37), on a:

(α,β)
2n + α + β + 2 dPn
(1 − x2 ) = − [β − α + (2n + α + β + 2) x] Pn(α,β)
n+α+β+1 dx
(α,β)
+2(n + 1)Pn+1
dLαn
(n − 1)x = (n + 1)Lαn+1 − [1 + α + (n − 1)x] Lαn
dx
dHn
= 2nHn−1
dx

21
2. Détermination des coecients an , bn et des carrés des normes d2n , avec pn (x) =
an xn + bn xn−1 + ... pour les polynômes de Jacobi, de Laguerre et de Hermite.
Les formules de dérivation (2.39) entrainent:


1 (α+n,β+n)

 2n (n + α + β + 1) · · · (2n + α + β)P0
n!an = (α+n)
 (−1)n L0
 (2n)2(n − 1) · · · 2H0
or
(α+n,β+n) (α+n)
P0 = L0 = H0 = 1
donc 
Γ(2n+α+β+1)
pour Jacobi.
2n n!Γ(n+α+β+1)


an = (−1)n (2.40)
pour Laguerre.
 n!
2n pour Hermite.

n(n−1) 00
Puisque pn vérie l'équation σp00n + τ p0n + λn pn = 0 avec λn = −nτ 0 − 2 σ , on obtient:

σ 00 (0)
n(n − 1)σ 0 (0)an + (n − 1)(n − 2) + nan τ (0) + (n − 1)τ 0 (0)bn + λn bn = 0
2
i.e.
n τ (0) + (n − 1)σ 0 (0) an + (λn − λn−1 ) bn = 0.


D'où
bn nτn−1 (0)
= 0 où τn−1 = τ + (n − 1)σ 0 . (2.41)
an τn−1 (0)
Et par suite on a en vertu de (2.40)

(β−α)Γ(2n+α+β+1)

pour Jacobi.

 2n (2n+α+β)(n−1)!Γ(n+α+β+1)
bn = (−1)n+1 (α+n) (2.42)
pour Laguerre.
 (n−1)!

0 pour Hermite.

La formule de Rodrigues permet d'obtenir une expression plus commode pour les carrés des
normes d2n dans le cas classique. On a:

Z b Z b
d2n = p2n (x)ρ(x)dx = an xn pn (x)ρ(x)dx
a a
b
dn n
Z
= an An xn [σ (x)ρ(x)] dx.
a dxn

Et par n intégrations par parties successives, on obtient en dénitive

Z b
d2n = an An (−1) n! n
σ n (x)ρ(x)dx (2.43)
a

Appliquant la formule (2.43) au cas particulier de polynômes orthogonaux classiques on


obtient: 
2n+α+β+1 a A (−1)n n! 1 tβ+n (1 − t)α+n dt
R
 2
 n n
R +∞ 0 pour Jacobi
d2n = an An (−1)n n! 0 e−t tn+α dt pour Laguerre
 a A (−1)n n! R +∞ e−t2 dt

pour Hermite
n n −∞

i.e.,

22
 2n+α+β+1
 2 an An (−1)n n!B(n + β + 1, α + n + 1) pour Jacobi
d2n = an An (−1)n n!Γ(n + α + 1) pour Laguerre
R +∞ 2
an An (−1)n n! −∞ e−t dt

pour Hermite

où B et Γ désigne respectivement la fonction Bêta et la fonction Gamma.


De la relation (2.40) et de la relation(1.8) du chapitre 1 on a

2α+β+1 Γ(n+α+1)Γ(n+β+1)

 pour Jacobi
 n!(2n+α+β+1)Γ(n+β+α+1)
d2n = Γ(n+α+1)
pour Laguerre (2.44)
 √
n!
2n n! π

pour Hermite

Des formules (2.40),(2.42) (2.44) et la relation de récurrence (1.4) du chapitre 1, on détermine


explicitement les polynômes de Jacobi, Laguerre et Hermite.
−1 1
Etant donné que H2n (x) = Cn Ln 2 (x2 ) et H2n+1 (x) = Dn xLn2 (x2 ), on déduit par comparai-
son des coecients de plus haut degré dans ces relations et en utilisant les relations (2.41)

Dn = 22n+1 n!(−1)n et Cn = 22n n!(−1)n .

Donc
−1 1
H2n (x) = 22n n!(−1)n Ln 2 (x2 ) et H2n+1 (x) = 22n+1 n!(−1)n xLn2 (x2 ) (2.45)

2.3.4 Fonctions génératrices.


Dénition 2.3.1. Soit {pn } une suite de polynômes orthogonaux. On appelle fonction généra-
trice de la suite de polynômes orthogonaux {pn } toute fonction Φ(x, t) dont le développement en
série entière suivant la variable t est de la forme

pn (x) n
xé
X
Φ(x, t) = cn t , x (2.46)
n!
n=0

où (cn ) est une suite de réels.


Remarque 8. Par le principe du prolongement analytique, le développement (2.46) est valable
dans la région du plan complexe de la variable t où les deux membres de (2.46) sont analytiques,
i.e., dans le disque {t : |t| < R} où R = inf {|a| : a point singulier de Φ(x, t)} (x xé).
Proposition 2.3.2. Soit {pn } une suite de polynômes orthogonaux classiques. Alors la fonction

ρ(s) 1
Φ(x, t) = 0
(2.47)
ρ(x) 1 − σ (s)t s=ξ(x,t)

est une fonction génératrice de {pn }, où ξ(x, t) est la racine du polynôme s − x − σ(s)t qui est
la plus proche de x (x xé).
Proof. En vertu de (2.36), on a

σ n (z)ρ(z)
Z
An n!
pn (x) = dz
ρ(x) 2πi C (z − x)n+1
où C est le cercle frontière d'un disque fermé contenu dans le domaine d'analyticité de ρ. Posons

_ pn (x) 1 n!
Z
σ n (z)ρ(z)
p n (x) = = dz (2.48)
An ρ(x) 2πi C (z − x)n+1
Soit x xé. Etudions la série entière
∞ _
X p n (x) n
t (2.49)
n!
n=0

23
En portant (2.48) dans (2.49), on obtient

∞ _ ∞ 
p n (x) n σ n (z)ρ(z)
Z 
X X 1 1
t = dz tn
n! ρ(x) 2πi C (z − x)n+1
n=0 n=0
∞ Z
ρ(z) σ(z)t n
 
1 X
= dz
2πiρ(x) C z−x z−x n=0

σ(z) 1
La fonction z→ z−x est bornée sur C, notant M sa borne supérieure sur C et prenant |t| < 2M ,
on a  n
σ(z)t 1
≤ , ∀n et ∀z ∈ C .
z−x 2n
∞ h in
P σ(z)t
Il vient que la série
z−x est normalement convergente sur C, donc y est uniformément
n=0
convergente. Par conséquent

∞ Z ∞ 
ρ(z) σ(z)t n ρ(z) X σ(z)t n
X   Z 
dz = dz,
C z−x z−x C z−x z−x
n=0 n=0

ρ(z)
car la fonction
z−x est bornée sur C. Par ailleurs

∞ 
σ(z)t n

X z−x
= ;
z−x z − x − σ(z)t
n=0

d'où
∞ _
p n (x) n
Z
X 1 ρ(z)
t = dz
n! 2πiρ(x) C z − x − σ(z)t
n=0
i.e., Z
1 ρ(z)
Φ(x, t) = dz .
2πiρ(x) C z − x − σ(z)t
Le polynômez − x − σ(z)t a deux racines dont l'une tend vers x lorsque t → 0, et l'autre
tend vers l'inni quand t → 0. Donc on est en droit de supposer qu'il y a une seule des racines
de z − x − σ(z)t intérieur à C (à l'occurence la plus proche de x). Par conséquent, la fonction
ρ(z)
z−x−σ(z)t admet un seul pôle à l'intérieur de C , donc par le théorème des résidus
Z
ρ(z) ρ(z)
dz = 2πi
C z − x − σ(z)t 1 − σ 0 (z)t z=ξ(x,t)

où ξ(x, t) est la racine de z − x − σ(z)t la plus proche de x. D'où

∞ _
p n (x) n

X ρ(z) 1
t = 0

n! ρ(x) 1 − σ (z)t z=ξ(x,t)
n=0

i.e.,

ρ(z) 1 X 1 pn (x) n
0
= t
ρ(x) 1 − σ (z)t z=ξ(x,t)
An n!
n=0

Ce qui achève la démonstration du théorème.

Cas particuliers des polynômes de Jacobi, de Laguerre et de Hermite.

24
1) Pour les polynômes de Laguerre, l'équation z − x − σ(z)t = 0 devient z − x − zt = 0. Donc
ξ(x, t) = x/1 − t, et par suite Φ(x, t) = (1 − t)−α−1 e−xt/1−t . D'où


(1 − t)−α−1 e−xt/1−t =
X
Lαn (x)tn (2.50)
n=0

i.e., Φ(x, t) = (1 − t)−α−1 e−x/1−t est une fonction génératrice de {Lαn }.


2) Dans le cas de Hermite l'équation
2
z − x − σ(z)t = 0 prend la forme z − x − t = 0. De façon
2 2
que ξ(x, t) = x + t et Φ(x, t) = e−(x+t) +x = e−2xt−t . Il vient:

2
Φ(x, −t) = e2xt−t ,

et on obtient en dénitive

2
X tn
e2xt−t = Hn (x) (2.51)
n!
n=0

3) Pour les polynômes de Jacobi, l'équation z − x − σ(z)t = 0 devient s − x − (1 − s2 )t = 0,


donc p
−1 + 1 + 4t(t + x)
ξ(x, t) = .
2t
Et, il vient:

 p α  p β
2t + 1 − 1 + 4t(t + x) 2t − 1 + 1 + 4t(t + x)
Φ(x, t) =
(2t − 2tx)α (2t + 2tx)β 1 + 4t(t + x)
p

par suite
 √ α √ β
t 1−t− 1 − 2tx + t2 1 + t − 1 − 2tx + t2
Φ(x, − ) = √ .
2 (tx − t)α (tx + t)β 1 − 2tx + t2
Utilisant les égalités:

p 2 (tx − t)
1−t− 1 + 4t(t + x) = √
1 − t + 1 − 2tx + t2
p 2 (tx + t)
1+t− 1 + 4t(t + x) = √
1 + t + 1 − 2tx + t2
on déduit
t
Φ(x, − ) = 2α+β (1 + t + R)−β (1 − t + R)−α R−1
2
où p
R= 1 − 2tx + t2
D'où

X
Pn(α,β) (x)tn = 2α+β (1 + t + R)−β 1 − t + R)−α R−1 .
n=0
n o
(α,β)
Donc une fonction génératrice de Pn est

Φ(x, t) = 2α+β (1 + t + R)−β (1 − t + R)−α R−1

où p
R= 1 − 2tx + t2 .

25
En particulier pour les polynômes de Legendre Pn correspondant à α = β = 0, on a


1 X
√ = Pn (x)tn (2.52)
1 − 2xt + t2 n=0

Les points singuliers de 1/ 1 − 2xt + t2 étant t1,2 = e±iφ où x = cos φ (x xé dans [−1; 1])
il résulte que la relation (2.52) est valable dans ]−1; 1[, pour x xé dans [−1; 1].
La formule (2.52) est utilisé en physique théorique sous la forme


X rn
1 <
= n+1 Pn (cos θ) (2.53)
|r1 − r2 | r
n=0 >

où r< = min(|r1 | , |r2 |), r> = max(|r1 | , |r2 |), θ est l'angle en radians entre les vecteurs r1 et r2 ,
et |r| désigne la norme du vecteur r. En eet
s  2
r< r<
q
|r1 − r2 | = r12 + r22 − 2r1 r2 cos θ = r> 1 − 2 cos θ + .
r> r>
D'où de la relation (2.52), on obtient (2.53).

Remarque 9. Les fonctions génératrices sont très utiles lorsqu'il s'agit de calculer des valeurs
particulières des polynômes orthogonaux classiques. Par exemple, posant dans (2.52) x = 1, on
obtient ∞
1 X
= Pn (1)tn
1−t
n=0
et par unicité du développement en série entière, on déduit:
Pn (1) = 1, (n = 0, 1, 2, ...).

De même, posant x = 0 dans (2.51) on obtient e−t = Hn (0) tn! . Puisque
2 P n

n=0
∞ n ∞
−t2
X −t2 X t2n
e = = (−1)n ,
n! n!
n=0 n=0

on déduit par unicité du développement en série entière


(2n)!
H2n+1 (0) = 0 et H2n (0) = (−1)n .
n!

2.3.5 Comportement asymptotique: Méthode de Darboux.


Théorème 2.3.4. Soient f, g deux fonctions analytiques sur le disque D = {z ∈ C; |z| < r}.
Si f-g est continue sur le disque fermé {z ∈ C; |z| ≤ r}, alors les coecients fn et gn des
développements en série entière de f et g sont liés par la relation fn = gn + o r1n .
+∞ +∞
Proof.
X X
n
Posons C = ∂D. Sur D, f (z) = fn z et g(z) = gn z n . D'où d'après la formule de

1 f (z)dz 1
R n=0
g(z)dz
n=0
z = reiθ
R
Cauchy, fn = 2iπ C z n+1 et gn = 2iπ C z n+1 . En eectuant le changement de variable
on obtient Z 2π
1
fn − gn = (f − g)(reiθ )e−inθ dθ
2rn π 0
. Comme f-g est continue sur le cercle C
Z 2π
lim (f − g)(reiθ )e−inθ dθ = 0.
n→+∞ 0

D'où le résultat.

26
Exemple 2.3.1. Détermine le comportement asymptotique des polynômes de Legendre.
Ind: poser x = cos θ, décomposer la fonction génératrice de ces polynômes en éléments simples
et en déduire le résultat.
Solution 2.3.5. Comme les polynômes de Legendre sont orthogonaux sur l'intervalle (−1, 1),
en prenant x = cos α dans 2.52, on obtient

1 X
1 1 = Pn (cos θ)tn
(eiθ − t) 2 (e−iθ − t) 2
n=0

Une décomposition du membre de gauche en éléments simples donne


iπ iθ iπ iθ
1 e− 4 + 2 1 e4−2 1
1 1 = 1 1 + 1 1
(eiθ − t) (e−iθ − t)
2 2 (2 sin θ) (1 − e−iθ t)
2 2 (2 sin θ) (1 − eiθ t) 2
2

Par application de la formule (elle sera établie au chapitre 3)



1 X (a)n
a
= z n , |z| < 1, a > 0
(1 − z) n!
n=0

où (a)n est le symbole de pochhammer déni par (a)0 = 1, (a)n = a(a + 1)...(a + n − 1) On
obtient ∞
π ( 12 )n n
 
1 1 X 1
1 1 = 1 cos (n + )θ − t
(eiθ − t) 2 (e−iθ − t) 2 (2 sin θ) 2 2 4 n!
n=0

Par identication on a
π ( 12 )n
 
− 12 1
Pn (cos θ) = 2(2 sin θ) cos (n + )θ −
2 4 n!

En utilisant la relation
Γ(a + z)
lim z b−a =1
z→∞ Γ(b + z)
et le fait que Γ(a + n) = (a)n Γ(a) on a
( 12 )n
 
1 1
= 1 + o 3
n! Γ( 12 )n 2 n2
. Par conséquent,
   
− 21 − 12 − 21 1 π 1
Pn (cos θ) = 2π n (2 sin θ) cos (n + )θ − +o 3 , 0<θ<π
2 4 n2

car Γ( 12 ) = π.
Exemple 2.3.2. Montre que les polynômes de Jacobi satisfont
 
1
Pn (cos θ) = k(θ) cos(N θ + γ) + o 3 , 0<θ<π
n2
−α− 21 −β− 12
où k(θ) = √1
π
sin θ
2 cos θ
2 , N = n + (α+β+1)
2 et γ = −(α + 12 ) π2 .

27
2.4 Application 1: méthodes de quadrature approchée du type
Gauss.
2.4.1 Généralités.
f désigne une application dénie de l'intervalle (a, b) vers R (a, b ∈ R tels que a < b; a et b
pouvant être inni.). On notera Pn le R-espace vectoriel des polynômes de degré ≤ n.
Soit x1 , x2 , ..., xn n réels distincts rangés par ordre croissant.

Dénition 2.4.1. On dit qu'un polynôme P interpole f en x1 , x2 , ..., xn si


P (xi ) = f (xi ), (i = 1, 2, ..., n).

Théorème 2.4.1. Il existe un unique polynôme Ln−1 de degré n − 1 qui interpole f en x1 , x2 , ...,
xn ; à condition que f ne s'annule pas en au moins un xi .

Proof. Existence: Posons


Yn
F (x) = (x − xi ) (2.54)
i=1
F (x)
F est un polynôme de degré n, et x−xk (k = 1, 2, ..., n) est un polynôme de degré n−1 qui n'admet
pas xk pour racine.
Il vient:
F (x)
lim = F 0 (xk ) 6= 0
x→xk x − xk
de façon que pour k xé,
F (x)
`k (x) = (2.55)
F 0 (xk )(x − xk )
est un polynôme de degré n−1 ayant la propriété suivante:

`k (xj ) = δj,k (j = 1, 2, ..., n) (2.56)

où δj,k désigne le symbole de Kronecker.


Par conséquent, le polynôme
Xn
Ln−1 (x) = f (xk )`k (x) (2.57)
k=1
est de degré n et vérie
Ln−1 (xk ) = f (xk ) (k = 1, 2, ..., n). (2.58)

unicité. Supposons qu'il existe un autre polynôme Q tel que

Q(xk ) = f (xk ) (k = 1, 2, ..., n).

AlorsLn−1 − Q est de degré au plus n−1 et admet n racines distinctes. Donc nécessairement
Ln−1 − Q = 0. D'où Ln−1 = Q.

Dénition 2.4.2. Le polynôme Ln−1 est appelé polynôme d'interpolation de Lagrange de f , au


points x1 , x2 , ..., xn .
Dénition 2.4.3. Soit ρ une fonction poids sur (a, b). On appelle formule de quadrature ap-
prochée à n points x1 , x2 , ..., xn de l'intervalle ]a, b[ , toute formule du type
n
où λk est une constante indépendante de f
X
In (f ) = λk f (xk ),
k=1

donnant une valeur approchée de f (x)ρ(x)dx, à condition que converge.


Rb Rb
a a f (x)ρ(x)dx

28
Dénition 2.4.4. Une formule de quadrature approchée à n points x1 , x2 , ..., xn donc les coe-
cients sont λ1 , λ2 , ..., λn, est dite
1) exacte sur un sous-ensemble E de Lρ (a, b) si
1

Z b Xn
f (x)ρ(x)dx = λk f (xk ), ∀f ∈ E.
a k=1

2 ) de type interpolation si Z b
In (f ) = Ln−1 (f )dx
a
où Ln−1 (f ) est le polynôme d'interpolation de Lagrange de f, aux points x1 , x2 , ..., xn .
3) d'ordre m (m ≥ 1) si elle est exacte sur Pm et non exacte sur Pm+1 .

Il est clair qu'une formule de quadrature approchée à n points x1 , x2 , ..., xn est de type
interpolation si et seulement si

Z b
λk = `k (x)ρ(x)dx (k = 1, 2, ..., n).
a

où `k est le polynôme déni par (2.55).

Proposition 2.4.1. Une formule de quadrature approchée à n points x1 , x2 , ..., xn est exacte sur
Pn−1 si et seulement si elle est de type interpolation.

Proof. Si la formule est exacte sur Pn−1 , elle est en particulier exacte sur les `k , donc on a

Z b
`k (x)ρ(x)dx = λk .
a

D'où la formule est de type interpolation.


Réciproquement, si la formule est de type interpolation, pour tout Q ∈ Pn−1 puisque Ln−1 (Q) =
Q on a
Z b Z b
Q(x)ρ(x)dx = Ln−1 (Q)ρ(x)dx = In−1 (Q).
a a
D'où la formule est exacte sur Pn−1 .

2.4.2 Formules de quadrature de type Gauss.


Le but ici est de faire un choix (si cela est possible) des points x1 , x2 , ..., xn tels que la formule
de quadrature approchée, à n points, de type interpolation associée soit de degré 2n − 1.
Proposition 2.4.2. Soit ρ une fonction poids sur (a, b). Si une formule de quadrature approchée
à n points x1 , x2 , ..., xn est exacte sur P2n−1 alors
Z b
P F ρdx = 0 ∀P ∈ Pn−1
a

où n
Y
F (x) = (x − xi ).
i=1
n
Proof.
Rb P
Si la formule est exacte sur P2n−1 , soit P ∈ Pn−1 . On a: P F ∈ P2n−1 et
a P F ρdx =
k=1
λk P F (xk ) = 0. ce qui achève la démonstration.

La réciproque est vraie si la formule est de type interpolation.

29
Corollaire 2.4.1. Une formule de quadrature approchée à n points exacte sur P2n−1 est d'ordre
2n − 1.
Théorème 2.4.2. Une formule de quadrature approchée à n points x1 , x2 , ..., xn de type inter-
polation est d'ordre 2n − 1 si et seulement si les xk (k = 1, 2, ..., n) sont les racines du n-ième
polynôme orthogonal associé au poids ρ.
Proof. On suppose la formule de type interpolation. Si elle est d'ordre 2n − 1Ralors elle est exacte
b
sur P2n−1 . Donc pour tout polynôme P ∈ Pn−1 , on a:
a P F ρdx = 0.
Par ailleurs Z b
F 2 ρdx > 0.
a
Donc F appartient à l'orthogonal de Pn−1
Pn . D'où F est colinéaire au n-ième polynôme or-
dans
thogonal associé au poids ρ. Et, par conséquent x1 , x2 , ..., xn sont racines du n-ième polynôme or-
thogonal associé au poids ρ.

Réciproquement, suppposons x1 , x2 , ..., xn racines du n-ième polynôme orthogonal associé au


poids ρ. Montrons que la formule de quadrature à n points (de type interpolation) associée est
d'ordre 2n − 1.
Soit Q ∈ P2n−1 , Q = RF + S où R, S ∈ Pn−1 . Il vient:
Z b Z b Z b
Qρdx = RF ρdx + Sρdx
a a a
Z b

= Sρdx car F ∈ Pn−1 .
a

Par ailleurs
Ln−1 (Q) = Ln−1 (S) car Q(xk ) = S(xk )
et la formule étant de type interpolation, elle est exacte sur Pn−1 (cf.proposition 2.4.1), donc on
a Z b Z b Z b Z b
Qρdx = Sρdx = Ln−1 (S)ρdx = Ln−1 (Q)ρdx.
a a a a
D'où la formule est exacte sur P2n−1 .

En outre, on a
Z b Z b
2
F ρdx > 0 et Ln−1 (F 2 )ρdx = 0, car Ln−1 (F 2 ) = 0,
a a

c-à-d. la formule est inexacte sur P2n . D'où la formule est d'ordre 2n − 1.

Théorème 2.4.3. Il existe un unique choix des points x1 , x2 , ..., xn de ]a, b[ et des coecients
λ1 , λ2 , ..., λn tels que la formule de quadrature à n points de type interpolation assocée soit d'ordre
2n − 1.

Proof. Appliquer le théorème 2.4.2 et le fait qu'une formule est de type interpolation si et seule-
ment si Z b
λk = `k ρdx (k = 1, 2, ..., n) (2.59)
a

n
Q
(x − xi )
i=1,i6=k
`k (x) = n .
Q
(xi − xk )
i=1,i6=k

30
Soit ρ une fonction poids sur un intervalle (a, b) , {Pn } la suite de polynômes orthogonaux
moniques associés à ρ. Soit (xn,k )1≤k≤n les zéros de Pn , (n xé, n ≥ 1).
Dénition 2.4.5. On appelle formules de quadrature de type Gauss toute formule de quadrature
approchée, de type interpolation, d'ordre 2n − 1, i.e., toute formule du type
Z b n
f ρdx ∼ xé, n ≥ 1)
X
= λn,k f (xn,k ) (n (2.60)
a k=1

telle que Z b Xn
pρdx = λn,k p(xn,k ), ∀p ∈ P2n−1
a k=1

avec λn,k sont dénis par (2.59).

31
Théorème 2.4.4. Pour n xé, n ≥ 1 on a
Z b
Pn (x)
λn,k = ρ(x) 0
dx (2.61)
a (x − x n,k )Pn (xn,k )
Z b  2
Pn (x)
= ρ(x) dx (2.62)
a (x − xn,k )Pn0 (xn,k )
 −1
n
X Pj2 (xn,k )
=  2
 (2.63)
j=0
d j

d2n
= − (2.64)
Pn+1 (xn,k )Pn0 (xn,k )
où Z b
d2j = ρ(x)Pj2 (x)dx.
a

Proof. D'après la formule de Darboux-Christoel, on a


n
X Pj (x)Pj (y) 1 Pn+1 (x)Pn (y) − Pn+1 (y)Pn (x)
2 = 2 .
dj dn x−y
j=0

En particulier pour y = xn,k , on obtient:

n
X Pj (x)Pj (xn,k ) 1 Pn+1 (xn,k )Pn (x)
2 =− 2 (∗)
dj dn x − xn,k
j=0

Multipliant (∗) par ρ et intégrant sur (a, b), on obtient:

b
d2n
Z
Pn (x)
ρ(x) dx = − (∗∗)
a (x − xn,k ) Pn+1 (xn,k )
De (6.a) et (∗∗), on obtient (6.d).

En faisant tendre x vers xn,k dans (∗), et utilisant la règle de l'Hospital, on obtient

n−1
Pn+1 (xn,k )Pn0 (xn,k ) X Pj2 (xn,k )
− =
d2n
j=0
d2j

d'où en inversant on obtient (6.c) à partir de (6.d).

Les points d'interpolation étant les zéros du polynôme Pn , d'après le théorème 2.4.2, la
formule de quadrature approchée à n points de type interpolation assocée est d'ordre 2n − 1 de
coecients λn,k . Donc on a:
Z b Xn
`2k ρdx = λn,k `2k (xn,k ) = λn,k
a j=1

d'où (6.b).

Théorème 2.4.5. On suppose que l'intervalle (a, b) est borné, i.e., (a, b ∈ R). Soit n un entier
naturel, n ≥ 1.
Si f est une fonction de classe C 2n sur [a, b] alors
b n
f (2n) (ξ) b 2
Z X Z
f (x)ρ(x)dx = λn,k f (xn,k ) + P (x)(x)ρ(x)dx (2.65)
a (2n)! a n
k=1

où Pn est le polynôme orthogonal monique de degré n associé à ρ, ξ ∈ [a, b] et xn,k


(k = 1, 2, ..., n) sont les racines de Pn .

32
Lemme 2.4.1. Pour tout x ∈ [a, b], il existe ηx ∈ [x, x̄] tel que
f (2n) (ηx ) 2
f (x) = H(x) + Pn (x) (2.66)
(2n)!
avec
n n
Pn00 (xn,j )
X   X
H(x) = f (xn,j ) 1 − 0 (x − xn,j ) `2j (x)+ f 0 (xn,j )(x − xn,j )`2j (x) (2.67)
Pn (xn,j )
j=1 j=1

et
x = min(x, xn,1 , xn,2 , ..., xn,n ); x̄ = max(x, xn,1 , xn,2 , ..., xn,n ).

Preuve du lemme.
Notons que puisque Pn est monique et admet n racines distinctes xn,1 , xn,2 , ..., xn,n on a

Yn
Pn (x) = (x − xn,i ).
i=1

Soit x xé dans [a, b] , x 6= xn,k (k = 1, 2, ..., n). considérons la fonction F dénie sur [a, b] par

F (t) = f (t) − H(t) − APn2 (t)


Aest une constante réelle telle que F (x) = 0.

Le polynôme H déni par (2.67) a les propriétés suivantes:

H(xn,k ) = f (xn,k ) et H 0 (xn,k ) = f 0 (xn,k ) (k = 1, 2, ..., n).

Il vient: F C 2n et admet n + 1 zéros distincts à savoir x, xn,1 , xn,2 , ..., xn,n dans
est de classe
0
l'intervalle . [x, x̄], donc F admet n zéros distincts dans [x, x̄] \ {x, xn,1 , xn,2 , ..., xn,n } . De plus
0 0
on a: F (xn,k ) = 0, donc F admet 2n zéros dans [x, x̄] .

Par une application repétée du théorème de Rolle, on montre que F (2n) admet une racine
dans [x, x̄] . Soit ηx cette racine, puisque

F (2n) (t) = f (2n) (t) − A(2n)!

on a: F (2n) (ηx ) = 0 entraine f (2n) (ηx ) − A(2n)! = 0, i.e.,

f (2n) (ηx )
A= (2.68)
(2n)!

On déduit alors la relation (2.66) en faisant t = x.

Remarque 10. La fonction x → f (2n) (ηx ) est continue sur [a, b] . En eet cette fonction n'est
autre chose que le prolongement par continuité de
−F (x) + f (x) − H(x)
Pn2 (x)

aux points xn,k (xn,k , k = 1, 2, ..., n).

33
Preuve du théorème.
D'après le lemme 2.4.1 on a

b b b
f (2n) (ηx ) 2
Z Z Z
f (x)ρ(x)dx = H(x)ρ(x)dx + Pn (x)ρ(x)dx
a a a (2n)!
Z b Z b (2n)
f (ηx ) 2
= Ln−1 (H)(x)ρ(x)dx + Pn (x)ρ(x)dx
a a (2n)!
n Z b (2n)
X f (ηx ) 2
= λn,k f (xn,k ) + Pn (x)ρ(x)dx
a (2n)!
k=1

D'après la formule de la moyenne, on a

b b
f (2n) (ηx ) 2 f (2n) (ξ)
Z Z
Pn (x)ρ(x)dx = Pn2 (x)ρ(x)dx, ξ ∈ [a, b] .
a (2n)! (2n)! a

D'où
b n
f (2n) (ξ) b 2
Z X Z
f (x)ρ(x)dx = λn,k f (xn,k ) + P (x)ρ(x)dx, ξ ∈ [a, b] .
a (2n)! a n
k=1

Théorème 2.4.6. Si f est continue sur [a, b] , (a, b ∈ R) alors


n
X Z b
lim λn,k f (xn,k ) = f (x)ρ(x)dx. (2.69)
n→+∞ a
k=1

Proof. Soit ε > 0, ε xé.


Par le théorème d'approximation de Weierstrass [ ], il existe un polynôme ? p tel que

n
X
sup |f (x) − p(x)| < ε/2 λn,j
a≤x≤b j=1

Rb n
P
Posant I(f ) = a f (x)ρ(x)dx, In (f ) = λn,j f (xn,j ), on obtient:
j=1

|I(f ) − I(p)| < ε/2 et |In (f ) − In (p)| < ε/2

de façon que de la relation

|I(f ) − In (f )| < |I(f ) − I(p)| + |I(p) − In (p)| + |In (f ) − In (p)|

on déduit
|I(f ) − In (f )| < |I(p) − In (p)| + ε.
De plus, on a pour tout entier naturel n tel que n ≥ deg p + 1, I(p) = In (p), donc

|I(f ) − In (f )| < ε, ∀n ≥ deg p + 1.


n
P Rb
D'où lim In (f ) = I(f ), i.e., lim λn,k f (xn,k ) = a f (x)ρ(x)dx.
n→+∞ n→+∞ k=1

2.4.3 Exemples de formules de quadrature de type Gauss.


Dans cette sous-section, nous écrivons la formule (2.65) dans certains cas concrets.

34
1) Fomules de quadrature de Gauss-Legendre:[a, b] = [−1, 1], ρ(x) = 1.
Les points d'interpolation dans ce cas sont les racines des polynômes de Legendre. Du théorème
??, on a
1 n
f (2n) (ξ) 1 2
Z X Z
f (x)dx = λn,k f (xn,k ) + p (x)dx
−1 (2n)! −1 n
k=1

où pn est le polynôme unitaire de Legendre, ξ ∈ [−1, 1] .


Utilisant le lien entre les polynômes de Legendre et ceux de Jacobi, on déduit des relations ( ??)
et ( ??) du chapitre 2:
(2n)! 2
an = et d2n =
2n (n!)2 2n + 1
R1
où an est le coecient dominant du polynôme de Legendre Pn et d2n = 2
−1 Pn (x)dx.
De la formule de Darboux-Christoel, on obtient

Z 1
Pn (x)Pn (xn,k ) 2
dx = , (k = 1, 2, ..., n)
−1 x − xn,k n

il vient
2
λn,k = (k = 1, 2, ..., n)
nPn−1 (xn,k )Pn0 (xn,k )
En outre, on a

Z 1 Z 1
1
p2n (x)dx = Pn2 (x)dx
−1 a2n −1
d2n
=
a2n
22n+1 (n!)4
=
((2n)!)2 (2n + 1)

où pn est le polynôme de Legendre unitaire.


D'où ∀n ≥ 1, ∀f ∈ C 2n ([−1, 1] , R)
1 n
22n+1 (n!)4 f (2n) (ξ)
Z X 2f (xn,k )
f (x)dx = 0
+ 3
−1 nPn−1 (xn,k )Pn (xn,k ) ((2n)!) (2n + 1) 2n + 1
k=1

où ξ ∈ [−1, 1] , n ≥ 1.

2) Formules de quadrature de Gauss-Chebyshev:[a, b] = [−1, 1], ρ(x) = √ 1


1−x2
.

Soit n entier xé, n ≥ 1.D'après le théorème 2.4.5 pour toute fonction f de classe C 2n sur [−1, 1],
on a
1 n
f (2n) (ξ) 1 t2n (x)
Z Z
f (x) X
√ dx = λn,k f (xn,k ) + √ dx
−1 1 − x2 (2n)! −1 1 − x2
k=1

où ξ ∈ [−1, 1], ettn est le polynôme monique de Chebyshev de 1ère espèce, xn,k (k = 1, 2, ..., n)
sont les racines de tn .
1
Rappelons que tn (x) = n−1 Tn (x), t0 (x) = 1 où Tn (x) = cos nθ avec x = cos θ. Il vient:
2

2k − 1
xn,k = cos π, (k = 1, 2, ..., n)
2n

35
Donc
 
π 2k − 1
Tn+1 (xn,k ) = cos (2k − 1) + π (2.70)
2 2n
tag1 (2.71)
q
= ε(−1)k 1 − x2n,k où ε = ±1

et
(−1)k−1 n
Tn0 (xn,k ) = ε q où ε = ±1 (2)
1 − x2n,k
De plus, on a
1 π
t2 (x)
Z Z
1 π
d2n = √n = 2n−2 cos2 nθdθ = (3)
−1 1−x 2 2 0 22n−1
Ainsi de
d2n
λn,k = − , (k = 1, 2, ..., n)
tn+1 (xn,k )t0n (xn,k )
et tenant compte de (1), (2) et (3) on obtient

π
λn,k = (k = 1, 2, ..., n).
n
D'où

1 nX
2k − 1 π f (2n) (ξ)
Z
f (x) π
√ dx = k=1 f (cos π) + 2n−1 , ∀f ∈ C 2n ([−1, 1] ; R)
−1 1 − x2 n 2n 2 (2n)!

ξ ∈ [−1, 1] .
En utilisant les polynômes de Chebyshev de seconde espèce, on a: ∀f ∈ C 2n ([−1, 1] ; R),
1 nX
π f (2n) (ξ)
Z p π kπ k
f (x) 1 − x2 dx = k=1 sin2 f (cos π) + 2n+1 ,ξ ∈
−1 n+1 n+1 n+1 2 (2n)!
[−1, 1] .

En eet du théorème 2.4.5, on a

1 n
f (2n) (ξ) 1 2 p
Z p X Z
2
f (x) 1 − x dx = λn,k f (xn,k ) + u (x) 1 − x2 dx
−1 (2n)! −1 n
k=1

où un est le polynôme unitaire de Chebyshev de seconde espèce, i.e., le polynôme unitaire associé
au polynôme
sin(n + 1)θ
Un (x) = où x = cos θ.
sin θ
Les xn,k étant les racines de Un , on a


xn,k = cos , (k = 1, 2, ..., n)
n+1
Puisque

1 (n + 1) sin θ cos(n + 1)θ − cos θ sin(n + 1)θ


u0n (x) = − où x = cos θ
2n sin3 θ
on déduit
(−1)k+1 (n + 1)
u0n (xn,k ) = kπ
2n sin2 n+1

36
et
(−1)k
un+1 (xn,k ) = .
2n+1
R1 √
2 (x) 1 − x2 dx = π/2
Par ailleurs
−1 Un entraine

Z 1 p π
u2n (x) 1 − x2 dx = .
−1 22n+1

Donc
π kπ
λn,k = sin2 .
n+1 n+1

37
Chapter 3

Problème des moments à une variable:

Densité de l'espace des polynômes

3.1 Rappels et préliminaires


3.1.1 Préliminaires d'analyse fonctionnelle
Théorème 3.1.1. Soit E un espace vectoriel et soit p : E −→ R une application vériant:
(i) p(λx) = λp(x), pour tout x ∈ E et tout λ > 0;
(ii) p(x + y) ≤ p(x) + p(y) pour tout x, y ∈ E .
Soit d'autre part G ⊆ E , un sous-espace vectoriel et soit g : G −→ R une forme linéaire telle
que g(x) ≤ p(x) pour tout x ∈ G. Alors, il existe une forme linéaire f sur E, qui prolonge g
c'est-à-dire g(x) = f (x) pour tout x ∈ G, et telle que f (x) ≤ p(x) pour tout x ∈ E .
Proof. On considère l'ensemble

P = {h : D(h) ⊂ E −→ R},
vériant les propriétés suivantes:

ˆ D(h) est un sous-espace vectoriel de E et h est linéaire;

ˆ G ⊂ D(h), h prolonge g et h(x) ≤ p(x), pour tout x ∈ E.

On muni P de la relation d'ordre dénie par:

(h1 ≤ h2 ) ⇐⇒ (D(h1 ) ⊂ D(h2 ) et h2 prolonge h1 )).

g ∈ P . De plus, P est inductif. En eet, soit Q un sous-ensemble totalement


P est non vide car
ordonné de P. On note Q = (hi )i∈I . Considérons l'application h : D(h) = ∪i∈I D(hi ) −→ R
dénie par: h(x) = hi (x) si x ∈ D(hi ). Il est clair que l'application h est bien dénie. De plus,
Q étant totalement ordonné, h ∈ P et h est un majorant de Q. Ainsi, Q est inductif. Il résulte
du lemme de Zorn que P admet un élément maximal noté f.
Montrons que D(f ) = E.
Raisonnons par l'absurde et supposons que D(f ) 6= E . Soit x0 ∈ D(f ). Posons D(h) = D(f ) +
Rx0 et pour tout x ∈ D(f ), h(x + tx0 ) = f (x) + tα où t ∈ R et α est une constante qui sera xée
ultérieurement de sorte h ∈ P . Il est donc nécessaire de s'assurer que

f (x) + tα ≤ p(x + tx0 ), ∀x ∈ D(f ), ∀t ∈ R.

Grâce à (i), il sut de vérier que

38
1 f (x) + α ≤ p(x + x0 )∀x ∈ D(f )

2 f (x) − α ≤ p(x − x0 )∀x ∈ D(f )


Autrement dit, il sut de choisir α tel que

sup {f (y) − p(y − x0 )} ≤ α ≤ inf {p(x + x0 ) − f (x)}.


y∈D(f ) x∈D(f )

Un tel choix est possible puisque

f (y) − p(y − x0 ) ≤ p(x + x0 ) − f (x) ∀x ∈ D(f ), y ∈ D(f ).

En eet, on notera au vu de la linéarité de f et de la condition (ii) que

f (x) + f (y) ≤ p(x + y) ≤ p(x + x0 ) + p(x − x0 ) ∀x ∈ D(f ), y ∈ D(f ).


On conclut donc que h prolonge f et que f 6= h; ce qui contredit le fait que f est l'élément maximal
de P.

Soit E un espace vectoriel.

Dénition 3.1.1. Une parie C de E est dite convexe si et seulement si


λC + (1 − λ)C ⊂ C ∀λ ∈ [0, 1].
Dénition 3.1.2. Une parie C de E est un cône si λC ⊂ C ∀λ > 0.
Dénition 3.1.3. Une parie C de E est un cône convexe si et seulement si
C +C ⊂C et λC ⊂ C ∀λ ≥ 0.
Dénition 3.1.4. Soit C ⊂ E . Le plus petit cône convexe contenant C s'appelle le cône convexe
engendré par C . On le note cone(C).
n
Proposition 3.1.1. λi xi | n ≥ 1, xi ∈ C, λi ≥ 0}.
X
cone(C) = {
i=1

Dénition 3.1.5. Un cône convexe Γ de E est dit Saillant si Γ ∩ (−Γ) ⊂ {0E }.


Proposition 3.1.2 (Décomposition des cône convexes en dimension nie). Tout cône convexe
contenant 0E d'un espace vectoriel de dimension nie E admet un décomposition de la forme
Γ = N (Γ) + Γ0 .

où Γ0 est un cône convexe saillant inclut dans un supplémentaire de


N (Γ) = {0E } ∪ (Γ ∩ (−Γ)). De plus, si Γ est fermé, Γ0 l'est aussi.

Proof. Puisque 0E ∈ Γ, N (Γ) = Γ ∩ (−Γ) et N (Γ) est le plus grand sous-espace vectoriel inclut
dans Γ. Soit W , un supplémentaire algébrique de N (Γ). On pose Γ0 = Γ ∩ W . Il est clair que
N (Γ) + Γ0 ⊂ Γ.
Réciproquement, tout élément x de Γ se décompose selon x = v + y , avec v ∈ N (Γ) et y ∈ W ;
alors y = x − v ∈ Γ car −v ∈ Γ et donc y ∈ Γ0 .
Donc, Γ = N (Γ) + Γ0 .
Le cône Γ0 ne peut contenir de droite vectorielle car sinon, elle serait incluse dans N (Γ). Il est
donc saillant.
Comme Γ0 = Γ ∩ W et que W est fermé, il est clair que si Γ est fermé, Γ0 l'est aussi.

Remarque 11. Par construction, Γ0 est la projection de Γ sur W , parallèlement à N (Γ).


Corollaire 3.1.1. Le cône convexe cone(u1 , ...us ) engendré par un ensemble ni de points est
fermé.

39
Proof. Γ = cone(u1 , ...us ) et considérons une décomposition de Γ = N (Γ) + Γ0 , donnée par
Soit
la proposition 3.1.2. Comme Γ0 est la projection de Γ su un supplémentaire W de N (Γ), alors
on a Γ0 = cone(y1 , ..., ys ) où les yi sont les projeté des ui .
Montrons que Γ0 est fermé. On peut supposer que les yi sont non nuls pour i ≤ k et nuls pour
k < i ≤ s. Alors, Γ0 = cone(y1 , ..., yk ). Le convexe K = cone(y1 , ..., yk ) est compact et ne
contient pas {0E }: en eet, {y1 , ...yk } ⊂ Γ0 \{0E } qui est encore convexe car Γ0 est saillant. La
distance d(0E , K) est donc strictement positive. Soit (zn )n∈N une suite dans Γ0 , qui converge
vers le point z ∈ E . On peut écrire zn = λn xn ; avec λn ≥ 0 et xn ∈ K . Alors la suite (λn )n∈N
est bornée car
kzn k kzn k
λn = ≤ sup .
kxn k n∈N d
On notera que (zn )n∈N est convergente, donc borné, ce qui nous assure l'existence de supn∈N kzn k.
Quitte à passer à une sous-suite, on peut supposer que lim λn = λ ∈ R+ et lim = x ∈ K .
n→∞ n→∞
Alors, lim zn = z = λx ∈ Γ0 . Donc, Γ0 est fermé. Comme N (Γ) est fermé et Γ0 est inclut dans
n→∞
le supplémentaire W de N (Γ), Γ = Γ0 + N (Γ) est fermée: en eet, si une suite de Γ
la somme
converge dans E , les suites projetées sur N Γ et W convergent, et leurs limites sont nécessairement
dans N (Γ) et W respectivement.

Théorème 3.1.2 (Théorème de séparation des convexes.). Soit E , un espace vectoriel topologique
localement convexe. Soient A ⊂ E , B ⊂ E , deux ensembles convexes, non vides et disjoints.
(i) Si B est ouvert, alors il existe une forme linéaire L : E → R et a ∈ R tel que L(x) ≤ a <
L(y), pour tout x ∈ A et tout y ∈ B .

(ii) Si A est compact et B et fermé, alors il existe une forme linéaire L : E → R et des nombres
a, b ∈ R tels que L(x) ≤ a < b ≤ L(y) pour tout x ∈ A et tout y ∈ B .

Si B est un cône, alors a < 0 dans (i) et (ii).


Proof. cf. [13]

Dénition 3.1.6. Soit E un espace vectoriel et soit A ⊂ E , un sous-ensemble de E . Un point


x0 ∈ A est un point interne à A si, étant donné x ∈ E , il existe δx > 0 tel que x0 + δv ∈ E pour
tout δ ∈ R, |δ| ≤ δx .
Théorème 3.1.3 (Théorème de Eidelheit). Soient A et B deux sous-ensembles convexes, non
vides et disjoints d'un espace vectoriel E . On suppose que B possède au moins un point interne.
Alors, il existe une forme linéaire L sur E telle que L(x) ≤ L(y) pour tout x ∈ A et tout y ∈ B .
Si B est un cône, alors L est B -positive.
Proof. cf. [13]

Lemme 3.1.1 (Lemme de Urysohn). Soit K un compact et U un ouvert de l'espace topologique


localement copact X , tels que K ⊂ U . Il existe une fonction f ∈ Cc (X) telle que 0 ≤ f ≤ 1,
f (x) = 1 pour tout x ∈ K et supp(f ) ⊂ U .

Espace de Hardy H 1(R)


Soit H = {z ∈ C : =z ≥ 0}
Dénition 3.1.7. Soit f une fonction analytique sur H . On dit que f ∈ H 1 (R) si
Z
sup |f (x + ıy)| dx < +∞.
y>0 R

40
Théorème 3.1.4. Soit f ∈ L1 (R), une fonction positive, non identiquement nulle. Alors il
existe une fonction h ∈ H 1 (R) telle que |f (x)| = h(x) presque partout sur R.
Proof. cf. [10].

Théorème 3.1.5. Soit f ∈ H 1 (R). Alors itx f (x) dx pour tout t ≥ 0.


R
Re =0

Proof. cf. [10].

3.2 Représentation intégrale des formes linéaires sur les espaces


adaptés
Dans toute cette section, X désigne un espace localement compact séparé au sens de Hausdor,
E est un sous-espace vectoriel de l'espace C (X,R) des fonctions numériques continues sur X , et
L est une forme linéaire surE .
Soit K un compact de X . Il est question pour nous dans cette section de donner les conditions
pour lesquelles il existe une mesure µ sur X , à support dans K telle que
Z
L(f ) = f (x) dµ(x). (3.1)
K

Notation 3.2.1. On désigne par M+ (X), l'ensemble des mesures de Radon sur X .

3.2.1 Fonctionnelles de moments et espaces adaptés


Soit C un sous-ensemble de E. La fonctionnelle L est dite C -positive si

L(f ) ≥ 0 pour tout f ∈ C.

On dénit l'ensemble
E+ = { f ∈ E | f (x) ≥ 0 pour x ∈ X}.
Si µ ∈ M+ (X) est telle que E ⊆ L1 (X, µ), on dénit la forme linéaire E+ -positive Lµ sur E par:

Z
Lµ (f ) = f (x) dµ(x), f ∈ E. (3.2)
X

Dénition 3.2.1. Une forme linéaire L sur E est une fonctionnelle de moments s'il existe une
mesure µ ∈ M+ (X) telle que L = Lµ . Une telle mesure est appelée mesure représentative de L.
Dénition 3.2.2.
ML,K = { µ ∈ M+ (X) | L = Lµ }.
désigne l'ensemble des mesures représentatives de la fonctionnelle de moments L.
Dénition 3.2.3. Une fonctionnelle de moments L sur K est dite déterminée si elle admet une
unique mesure représentative ou encore si l'ensemble ML,K se réduit un singleton. Dans le cas
contraire, on dit que L est indéterminée.
Dénition 3.2.4. Pour f, g ∈ C(X, R) on dit que g domine f si pour tout ε > 0, il existe un
compact Kε tel que g(x) < ε pour tout x ∈ X \ Kε .
f (x)

f (x)
En d'autres termes, g domine f signie lim = 0.

x→∞ g(x)

Dénition 3.2.5. Un sous-espace vectoriel E de C(X, R) est dit adapté si les conditions suivantes
sont satisfaites:
(i) E = E+ − E+ ;

41
(ii) Pour tout x ∈ X il existe f ∈ E+ tel que f (x) > 0;
(iii) Pour tout f ∈ E+ il existe g ∈ E+ tel que g domine f.
Lemme 3.2.1. Cc (X, R) est sous-espace vectoriel adapté de C(X, R).
Proof. f de Cc (X, R) admet une décomposition de la forme f = f + − f − , où
(i) tout élement
f+ = max(f, 0) et f

= max(−f, 0). Donc, Cc (X, R) = Cc + (X, R) − Cc + (X, R).
+
(ii) Soit x0 ∈ X cherchons f ∈ Cc (X, R) tel que f (x0 ) > 0. Puisque X est un espace
localement compact, alors x0 admet un voisinage compact Kx0 . D'après le lemme de Urysohn
+
(Lemme 3.1.1), il existe une fonction ϕ ∈ Cc (X, R) telle que ϕ(x) = 1, pour tout x ∈ Kx0 .
Donc en particulier, ϕ(x0 ) > 0. Il sut de prendre f = ϕ.
+ +
(iii) Soit f ∈ Cc (X, R). Cherchons g ∈ Cc (X, R) tel que g domine f . Soit ε > 0. Pour
K = supp(f ), on a f (x) ≤ εf (x) pour tout x ∈ X\K . Donc il sut de prendre g = f . Nous
venons ainsi de prouver que Cc (X, R) est sous-espace vectoriel adapté de C(X, R).

Lemme 3.2.2. Si E est un sous-espace adapté de C(X , R), alors pour tout f ∈ Cc+ (X, R) il
existe g ∈ E+ tel que g(x) ≥ f (x) pour tout x ∈ X .
Proof. f ∈ Cc+ (X, R) et soit x ∈ supp(f ). Comme E est adapté, alors il existe gx ∈ E+ tel
Soit
que gx (x) > 0. Comme f ∈ Cc+ (X, R) ⊆ Cb+ (X, R), alors on peut trouver une constante λx > 0
telle que la relation
λx gx (x) ≥ f (x). (3.3)

reste valable dans un voisinage Vx de x. La famille (Vx )x∈supp(f ) où Vx est un voisinage ouvert
de x forme un recouvrement ouvert de supp(f ); comme supp(f ) est compact, alors il existe un
[n
nombre ni de x1 ,...,xn tels que supp(f ) ⊂ Vxi . Pour tout i, on construit la fonction λxi gxi
i=1
n
X
comme en (3.3) et on considère la fonction g= λxi gxi . Nous allons montrer que la fonction
i=1
g ainsi dénie satisfait la propriété souhaitée. Soit x ∈ X.
Si x ∈ supp(f ) alors x ∈ Vxi0 , i0 ∈ {1, ...n}. On a:

n
X n
X
g(x) = λxi0 gxi0 + λxj gxj (x) ≥ f (x) + λxj gxj (x)
j=1j6=i0 j=1j6=i0
n
X
≥ f (x) car λxj gxj (x) ≥ 0.
j=1j6=i0

Si x∈
/ supp(f ) alors f (x) = 0 et par conséquent, f (x) ≤ g(x).

3.2.2 Existence de la représentation intégrale


Proposition 3.2.1. Soit E un sous-espace vectoriel d'un espace vectoriel F et soit C un cône
convexe de F tel que F = E + C . Alors toute forme linéaire (C ∩ E )-positive L sur E peut être
prolongée en une forme linéaire C -positive Le sur F .
Proof. Soit L une forme linéaire (C ∩ E )-positive sur E. Soit f ∈ F. On dénit la fonctionnelle
q par:
q(f ) = inf{L(g) : g ∈ E, g − f ∈ C}. (3.4)

On a: F = E + C ⇒ E − F = C car E et F sont des espaces vectoriels; donc l'ensemble


O = {L(g) : g ∈ E, g − f ∈ C} est non vide. Nous allons montrer que q est sous-additive,
positivement homogène et que L(g) = q(g), pour g ∈ E .

42
(i) Montrons que q est positivement homogène .
Soit λ > 0 montrons que q(λf ) = λq(f ).
Posons P = {L(g) : g ∈ E, g − λf ∈ C} et Q = λ{L(g) : g ∈ E, g − f ∈ C}. Soit α ∈ P alors
λg g
on a: α = L(g) = L(
λ ) = λL( λ ), avec g ∈ E et g − λf ∈ C .
E étant un sous-espace vectoriel de F , on a λg ∈ E . Il ne reste plus qu'à montrer que λg − f ∈ C .
1 1
On a: g − λf ∈ C ⇒
λ (g − λf ) ∈ C car C est un cône convexe. Ainsi λ g − f ∈ C et par
conséquent α ∈ Q.
Soit α ∈ Q montrons que α ∈ P . On a: α ∈ λQ =⇒ α = λL(g) avec g ∈ E et g − λf ∈ C .
Donc α = λL(g) = L(λg) et λg ∈ E . Il ne reste plus qu'à monter que λg − λf ∈ C .
Par dénition, on a: g − f ∈ C et par conséquent λ(g − f ) ∈ C car λ > 0 et C est un cône. Il
suit que α ∈ P . Ainsi, q(λf ) = λq(f ). Donc q est positivement homogène.
(ii) Montrons que q(f1 + f2 ) ≤ q(f1 ) + q(f2 ).
on pose: A = {L(g) : g ∈ E, g − f1 ∈ C}, B = {L(h) : h ∈ E, h − f2 ∈ C} et
D = {L(g) : g ∈ E, g − (f1 + f2 ) ∈ C}.
Soient α ∈ A et β ∈ B , on a: α + β = L(g) + L(h) = L(g + h) avec g + h ∈ E .
Comme g − f1 ∈ C et h − f2 ∈ C alors g − f1 + h − f2 = g + h − (f1 + f2 ) ∈ C car C est un cône
convexe. Ainsi, α + β ∈ D ie A + B ⊂ D et par conséquent,

inf D 6 inf(A + B) = inf A + inf B.

D'où q(f1 + f2 ) ≤ q(f1 ) + q(f2 ). Donc q est sous-additive.


(iii) Montrons que L(g) = q(g), pour g ∈ E .
Soit g ∈ E , alors par dénition de q(g), on a q(g) ≤ L(g) car g ∈ E et g − g = 0 ∈ C .
Maintenant, soit f ∈ E tel que f − g ∈ C . Alors , f − g ∈ E ∩ C . Puisque L est E ∩ C -positive
alors, L(f ) ≥ L(g). Ainsi, inf {L(f ) : f − g ∈ C} ≥ L(g). D'où L(g) ≤ q(g).
Puisque q est sous-additive, positivement homogène, et L(g) = q(g), pour g ∈ E , alors d'après
le théorème de Hahn-Banach (théorème 3.1.1), on peut prolonger L en une forme linéaire L e sur
F telle que: L(f ) 6 q(f ), ∀f ∈ F .
e
e est C -positive. En eet, soit h ∈ C . Pour g = 0 et f = −h
Par ailleurs, L
on a g − f ∈ C et q(−h) 6 L(0) = 0. Ainsi, L(−h)e 6 q(−h) 6 0 et par suite, L(−h)
e > 0. Donc,
L est C-positive. Ce qui achève la preuve.
e

Théorème 3.2.1 (Théorème de représentation de Gustave Choquet ) . Soit E un sous-espace


adapté de C(X, R). Pour toute forme linéaire
L : E → R les assertions suivantes sont équivalentes:
(i) La fonctionnelle L est E+ -positive, i.e L(f ) > 0 ∀f ∈ E+ ;
(ii) Pour tout f ∈ E+ il existe un h ∈ E+ tel que L(f + εh) > 0, ∀ε > 0;
(iii) L est une fonctionnelle de moments i.e qu'il existe une mesure µ ∈ M+ (X) telle que
L = Lµ .
Proof. (i) =⇒ (ii) Soit ε ≥ 0. Pour h ≡ 1, on a: f + εh ∈ E+ ; donc par hypothèse,
L(f + εh) ≥ 0.
(ii) =⇒ (i) Soit f ∈ E+ montrons que L(f ) > 0. Or par hypothèse, il existe h ∈ E+ tel que

(f + εh) = L(f ) + εL(h) > 0, ∀ε > 0. (3.5)

ε → 0 dans (3.5), on obtient L(f ) > 0.


En passant à la limite lorsque
(iii) =⇒ (i) Supposons que L est uneR fonctionnelle de moments et montrons que L(f ) > 0,
pour f ∈ E+ . Pour f ∈ E+ on a L(f ) =
X f dµ > 0 car f > 0.
(i) =⇒ (iii) Supposons que L est E+ -positive et montrons que L est une fonctionnelle de
moments. Considérons l'ensemble:

e = {f ∈ C(X, R) : |f (x)| 6 g(x), x ∈ X, g ∈ E}.


E (3.6)

43
On a: E
e =E+E
e+ . En eet,
(a) Montrons que E+E e+ ⊂ E e.
Soient f1 ∈ E et f2 ∈ E e+ alors on a: f1 + f2 ∈ C(X, R).
De plus, |f1 (x) + f2 (x)| 6 |f1 (x)| + |f2 (x)|, ∀x ∈ X .
Comme f2 ∈ E e+ ⊂ Ee alors il existe g2 ∈ E tel que f2 (x) 6 g2 (x), ∀x ∈ X . Ainsi, |f1 (x)+f2 (x)| 6
g1 (x) + g2 (x), ∀x ∈ X ; avec g1 = |f1 | ∈ E+ . Donc f1 + f2 ∈ E e ; et par suite E + Ee+ ⊂ E.
e

(b) Montrons que E e ⊂E+E e+ .


Soit f ∈ E , on choisit g ∈ E+ tel que |f | 6 g . Alors on a:
e
f +g ∈E e+ , −g ∈ E et f = −g + (g − f ) ∈ E + E e+ ; i.e f ∈ E + E e+ .
Donc, E = E + E+ .
e e
Par ailleurs, E
e+ est un cône convexe de E e . Donc d'après la proposition (3.2.1) L se prolonge
en une forme linéaire E e+ -positive sur E
e que l'on note L e . D'autre part on sait d'après le lemme
3.2.2 que Cc (X, R) ⊂ E . Ainsi, d'après le théorème de représentation de Riesz (Théorème ??),
e
R
il existe une mesure µ ∈ M+ (X) telle que: L(f
X f dµ , ∀fR ∈ Cc (X, R). Pour achever la
e ) =
1
preuve, il faut montrer que E ⊂ L (X, µ) et que L(f ) = L(f
X f dµ, ∀f ∈ E.
e )=
Comme E = E+ − E+ , il sut de le faire pour E+ . Soit f ∈ E+ et soit K un compact de X.
Alors on a 1K ≤ 1 =⇒ 1K f ≤ f. Puisque L e est Ee+ -positive, alors
Z Z Z
L(1K f ) =
e f dµ ≤ L(f ) < +∞ =⇒
e f dµ = sup f dµ < +∞.
K X K∈K K

D'où E+ ⊆ L1µ et donc E ⊆ L1µ .


Soit g ∈ E+ tel que g domine f et soit ε > 0. On choisit un compact K tel que f (x) ≤ g(x),
∀x ∈ X\K . Soit ϕ ∈ Cc+ tel que 1K ≤ ϕ ≤ 1. Alors, on a:

0 ≤ (1 − ϕ)f ≤ εg et donc 0 ≤ L(f


e ) − L(f
e ϕ) ≤ εL(g).
e
R R
e ) ≤ L(f
Il vient donc que: L(f e ϕ)+εL(g)e = X f ϕ dµ+εL(g)
e ≤ X f dµ. Puisque ε est quelconque
R
e )≤
et indépendant de g , alors L(f
X f dµ. D'où
Z
L(f ) = L(f ) =
e f dµ, f ∈ E+ .
X
R
Comme E = E+ − E+ alors, L(f ) = L(f
e ) =
X f dµ, f ∈ E, ce qui montre que L est une
fonctionnelle de moments.

Remarque 12. Puisque Cc (X, R) est un sous espace adapté de C(X, R) (d'après le lemme 3.2.1)
alors on peut constater que le théorème de représentation de Riesz (théorème ??) n'est q'un cas
particulier du théorème de représentation de Choquet (théorème 3.2.1).
Théorème 3.2.2 ( Théorème de Haviland ). Soit K un sous-ensemble fermé de Rd et soit L
une forme linéaire sur R[x1 , x2 , · · · , xd ]. Les assertions suivantes sont équivalentes:
1. L(p) ≥ 0 pour tout p ∈ P os(K);
2. L(p + ε1) ≥ 0 pour tout p ∈ P os(K) et ε > 0;
3. Pour tout p ∈ P os(K), il existe q ∈ P os(K) tel que L(p + qε) ≥ 0 pour tout ε > 0.
4. L est une fonctionnelle de moments sur K c'est-à-dire qu'il existe une mesure µ ∈ M+ (Rd )
à support dans K telle que R[x] ⊆ L1 (Rd ; µ) et
Z
L(p) = p dµ, p ∈ R[x].
Rd

44
Proof. Posons X = K. Alors, E = R[x] est un sous-espace adapté de C(K). En eet, pour
p ∈ R[x], on a:
p+1 2 P −1 2
p=( ) −( ) .
2 2
Donc, E ⊆ E+ − E+ .
d
De plus, pour tout p, q ∈ E , p − p ∈ E et par suite E = E+ − E+ . Soit x ∈ R le polynôme
p ≡ 1 satisfait la condition p(x) > 0.
2 2 p
Si p ∈ E+ alors q = (x1 + ... + xd )p domine p car: lim = 0. Ainsi, E est un sous-espace
kxk→+∞ q
adapté de C(K). Donc d'après le théorème (3.2.1) les assertions (i), (ii) et (iv) sont équivalentes.
De plus, (i) et (iii) sont équivalentes.

3.3 Le problème des moments sur R: existence


Le but de cette partie est de résoudre le problème des moments pour K = R ( problème des
moments de Hamburger ), K = R+ ( problème des moments de Stieltjes) et K = [a; b] dont le
cas particulier K = [0; 1] (problème des moments de Hausdor ).

3.3.1 Petite analyse des polynômes positifs et des sommes de carrés


Proposition 3.3.1. Tout polynôme P , à coecients réels se factorise comme suit:
p(x) = a(x − α1 )n1 ...(x − αr )nr (x − λ1 )j1 (x − λ1 )j1 ...(x − λk )jk (x − λk )jk (3.7)
n1 nr 2
= a(x − α1 ) ...(x − αr ) ((x − u1 ) + v12 )j1 ((x 2
− uk ) + vk2 )jk . (3.8)

où:

n1 , ..., nr , j1 , ..., jk ∈ N; a, α1 , ..., αr ∈ R;


λ1 = u1 + iv1 , ..., λk = uk + ivk , u1 , ..., uk ∈ R, v1 > 0, ..., vk > 0;
αi 6= αj si i 6= j, et λi 6= λj , λi 6= λj si i 6= j.

Proof. Ce n'est qu'une simple application du théorème fondamentale de l'algèbre.

Proposition 3.3.2.
(i) P os(R) = R[x]2 = {f 2 + g 2 : f, g ∈ R[x]};
P

(ii) P os(R)2n = 2n = {f 2 + g 2 : f, g ∈ R[x]n }.


P

Proof. (i) Il sut de montrer que P os(R) ⊂ {f 2 + g 2 : f, g ∈ R[x]}.


Soit p ∈ P os(R), p 6= 0. Puisque p ≥ 0 alors a > 0 et les nombres j1 , ..., Jr en (2.3) sont tous
pairs. En suivant la représentation (2.1) du polynôme p, il vient que p admet une factorisation
de la forme p(x) = q(x)q(x), x ∈ R; avec

q(x) = a(x − α1 ) · · · (x − αr )mr (x − λ1 )j1 · · · (x − αk )jk . Puisque q(x) ∈ C pour tout x ∈ R,
m1

alors q = q1 + iq2 , q1 , q2 ∈ R[x]. Ainsi,


p = qq = (q1 + iq2 )q1 + iq2 = q1 2 + q2 2 .

(ii) le (ii) découle directement de (i) car deg(f 2 + g 2 ) = 2 max(deg(f ), deg(g))


Lemme 3.3.1. Soit A un anneau commutatif. Alors
(a2 + b2 )(c2 + d2 ) = (ac − bd)2 + (ad + bc)2 ∀a, b, c, d ∈ A. (3.9)

Proof. Découle directement de la dénition d'un anneau commutatif.

45
Proposition 3.3.3.
X
P os([0; +∞)) = {f + xg : f, g ∈ R[x]2 }. (3.10)

Proof.
X
R[x]2 +x R[x]2 .
P
On dénit l'ensemble Q= Par dénition, on a: Q ⊆ P os([0; +∞)).

Il reste donc à montrer que

Pos([0;2+∞)) ⊆ Q.
P L'ensemble Q est invariant pour la multiplication. En eet, pour f1 , f2 , g1 , g2 ∈
R[x] on a:

(f1 + xg1 )(f2 + xg2 ) = (f1 f2 + x2 g1 g2 ) + x(f1 g2 + f2 g1 ) ∈ Q.

Soit p ∈ P os([0; +∞)), p 6= 0. Puisque Q est stable pour la multiplication alors en considérant la
représentation (2.3) du polynôme p on voit qu'il sut de montrer que tous les facteurs dans (2.3)
2 2 j
sont des éléments de Q. On sait grâce à (3.9) que tous les facteurs de la formes ((x − uk ) + vk ) k
sont des éléments de Q car ce sont des sommes de deux carrés. Les facteurs (x − αk ) k pour
n

lesquels nk est pair sont dans Q car ce sont des carrés de polynômes. Il reste donc à montrer
que la constante a et les facteurs x − αi pour toute racine αi d'ordre de multiplicité impair
appartiennent à Q. Soit αi une racine d'ordre de multiplicité impair de p. Puisque p(x) ≥ 0 sur
[0; +∞) alors en passant à la limite lorsque x → +∞ dans (2.3) on obtient a > 0 et αi ≤ 0 car
p change de signe lorsqu'il traverse une racine d'ordre de multiplicité impair.
R[x]2 + x R[x]2 .
P P
Ainsi, a∈Q et x − αi = (−αi + x) ∈ Q =

Proposition 3.3.4. soient a, b ∈ R, a < b alors:


X
P os([a, b]) = {f + (b − x)(x − a)g : f, g ∈ R[x]2 }. (3.11)

2
X 2
X
P os([a, b])2n = {f + (b − x)(x − a)g : f ∈ R[x], g ∈ R[x]}. (3.12)
n n−1
2
X
P os([a, b])2n+1 = {(b − x)f + (x − a)g : f, g ∈ R[x]}. (3.13)
n

Proof. L'égalité (3.11) est une conséquence immédiate des égalités (3.12) et (3.13).
Par dénition, on a les inclusions
2
X
{(b − x)f + (x − a)g : f, g ∈ R[x]} ⊆ P os([a, b])2n+1
n
2
X
P2
et {f + (b − x)(x − a)g : f ∈ n R[x], g ∈ R[x]} ⊆ P os([a, b])2n . Nous allons montrer les
n−1
inclusions inverses de (3.12) et (3.13) par récurrence. Pour n=0 les inclusions (3.12) et (3.13)
sont triviales.
Supposons que les inclusions inverses de (3.12) et (3.13) sont vériées pour n. Soit p ∈ P os([a, b])2n+2
ou p ∈ P os([a, b])2n+3 .

Supposons que p possède un facteur quadratique q qui n'a aucune racine réelle dans la représen-
tation (2.2). En multipliant si nécessaire par -1, on peut supposer que q ≥ 0 sur R. Alors p = qp0
avec p0 ∈ P os([a, b]) et deg(p0 ) ≤ deg(p) − 2. En appliquant l'hypothèse d'induction à p0 , il suit
que p est dans le membre de gauche des égalitéss (3.12) et (3.13).
Traitons le cas où p possède une racine réelle α. En considérant la bijection ψ : [a; b] →
[0; 1]; t 7→ (1 − a)t + a, on peut supposer sans nuire à la généralité que a = 0 et b = 1. Alors
(b − x)(x − a) = x(x − 1).

46
Supposons que α ∈ (0, 1). Alors α est d'ordre de multiplicité pair. Donc p peut se factoriser
comme p = (x − α)2 p0 avec p0 ∈ P os([a, b]) et deg(p0 ) ≤ deg(p) − 2. En appliquant l'hypothèse
d'induction à p0 , il suit que p est dans le membre de gauche des égalités (3.12) et (3.13).
Supposons que α ∈ / (0, 1).

Cas 1: p ∈ P os([0; 1])2n+2 . Supposons premièrement que α ≤ 0. Alors x − α ≥ 0. On


peut donc écrire p = (x − α)p0 avec p0 ∈ P os([0; 1])2n+1 . Par hypothèse d'induction, on a:
2
X
p0 = (1 − x)f + xg , avec f, g ∈ R[x]. Donc l'égalité
n

p = (x − α)p0 = x(1 − x)f + x2 g − α[x(1 − x)(f + g) + (1 − x)2 f + x2 g].


2
X 2
X
nous permet donc de conclure que p∈ R[x] + x(1 − x) R[x].
n+1 n
Supposons que α ≥ 1. Alors p = (α − x)p0 avec p0 ∈ P os([0; 1])2n+1 .
Donc l'égalité

p = (α − x)p0 = (1 − x)p0 + (α − 1)p0


= (1 − x)2 f + x(1 − x)g + (α − 1)[x(1 − x)(f + g) + (1 − x)2 f + x2 g].

2
X 2
X
nous permet de conclure que p∈ R[x] + x(1 − x) R[x].
n+1 n

Cas 2:p ∈ P os([0; 1])2n+3


1. Supposons que α ≤ 0. Alors p = (x − α)p0 avec p0 ∈ P os([0; 1])2n+2 . Donc par hypothèse
d'induction,
2
X 2
X
p0 = (1 − x)f + xg , avec f ∈ R[x], g ∈ R[x].
n+1 n

Donc l'égalité

p = (α − x)p0
α
= xf + (1 − x)x2 g − [x(2f + (1 − x)2 g) + (1 − x)(2f + x2 g)].
2
2
X 2
X
nous permet de conclure que :p ∈ (1 − x) R[x] + x R[x].
n+1 n+1

2. Supposons que α ≥ 1. Alors, comme précédemment, l'égalité

p = (α − x)p0 = (1 − x)p0 + (α − 1)p0


= (1 − x)f + x(1 − x)2 g + (α − 1)/2[x(2f + (1 − x)2 g) + (1 − x)(2f + x2 g)].

2
X 2
X
nous permet de conclure que: p ∈ (1 − x) R[x] + x R[x].
n+1 n+1

47
3.3.2 Théorèmes d'existences pour les problèmes de moments classique.
Dans cette partie on résout le problèmes des moments pour les intervalles fermés K ⊂ R en
combinant le théorème de Haviland(théorème 3.2.2) et la description des polynômes positifs
faite dans la section précédente.

Dénition 3.3.1. Une suite s = (sn )n∈N de nombres réels est dite positive si pour tout c0 , c1 , ..., cn ∈
Ret n ∈ N on a: n X
sk+l ck cl ≥ 0. (3.14)
k,l=0

Notation 3.3.1. On désigne par P(N), l'ensemble des suites numériques positives.
Soit s = (sn )n∈N une suite de nombres réels. On rappelle que la fonctionnelle de Riesz
associée à s est l'application dénie par Ls (xn ) = sn , n ∈ N. Soit Es la suite "shift avant"
dénie par: (Es )n = sn+1 . On dénie la matrice symétrique

 
s0 s1 s2 ... sn
 s1 s2 s3 ... sn+1 
 
Hn (s) = (si+j )0≤i,j≤n =  s2
 s3 s4 ... sn+2 . (3.15)
 ... ... ... ... ... 
sn sn+1 sn+2 ... s2n

Dénition 3.3.2. Pour n ∈ N, la matrice Hn (s) est appelée matrice de Hankel associée à la
suite s = (sn )n∈N .
Théorème 3.3.1 (Solution au problème des moments de Hamburger). Pour toute suite de
nombres réels s = (sn )n∈N les assertions suivantes sont équivalentes:
(i) s est une suite de moments de Hamburger, c'est-à-dire qu'il existe une mesure µ ∈ M+ (R)
telle que xn ∈ L1 (R, µ) et Z
sn = xn n ∈ N. (3.16)
R

(ii) s ∈ P(N) c'est-à-dire que s est positive;


(iii) Toutes les matrices de Hankel Hn (s), n ∈ N sont positives;
(iv) Ls est une forme linéaire positive sur R[x]. c'est-à-dire Ls (p2 ) ≥ 0 pour p ∈ R[x].
Proof. (3.14) n'est rien d' autre que l'expression de la forme quadratique associée à la matrice
symétrique Hn (s). Donc (ii) et (iii) sont équivalentes car une matrice symétrique est dénie
positive si et seulement si la forme quadratique associée l'est.
n
X
(ii) =⇒ (iv) Soit p(x) = cj xj ∈ R[x] alors on a:
j=1
n
X n
X n
X
j+k j+k
p2 (x) = cj ck x . D'où Ls (p2 ) = cj ck Ls (x )= cj ck sj+k ≥ 0, car s est positive.
j,k=1 j,k=1 j,k=1
(i) =⇒ (iv) Puisque s est une suite de moments de Hamburger alors Ls admet une représentation
2
R R 2
intégrale de la forme: Ls (p) =
R p(x) dµ(x), ∀p ∈ R[x]. Donc Ls (p ) =
R p (x) dµ(x) ≥ 0.
2
R 2
(iv) =⇒ (i) Puisque Ls (p ) = R p (x) dµ(x) ≥ 0, ∀p ∈ R[x] alors d'après la proposition (3.3.2),
Ls est positive sur P os(R) donc d'après le théorème de Haviland(théorème 3.2.2), Ls est une
fonctionnelle de moments sur R c'est-à-dire qu'il existe une mesure µ ∈ M+ (R) telle que
Z
Ls (p) = p(x) dµ(x), ∀p ∈ R[x].
R

sn = Ls (xn ) = n dµ(x).
R
D'où
Rx

48
Remarque 13. Pour toute suite s = (sn )n∈N de nombres réels, la matrice de Hankel Hn (Es)
est la matrice symétrique dénie par: Hn (Es) = ((Es)i+j )0≤i,j≤n .

Théorème 3.3.2 (Théorème d'existence du problème des moments de Stieltjes). Pour toute
suite s = (sn )n∈N de nombres réels, les propriétés suivantes sont équivalentes:
(i) s est une suite de moments de Stieltjes c'est-à-dire qu'il existe une mesure µ ∈ M+ (R) à
support dans R+ telle que xn ∈ L1 (R, µ) et
Z ∞
sn = xn n ∈ N. (3.17)
0

(ii) s ∈ P(N) et Es ∈ P(N),


(iii) Toutes les matrices de Hankel Hn (s) et Hn (Es ), n ∈ N sont positives,
(iv ) Ls (p2 ) ≥ 0 et Ls (xp2 ) ≥ 0,pour tout p ∈ R[x].
Proof. Montrons que (ii) et (iii) sont équivalents. Les formes quadratiques associées à Hn (s) et
n
X n
X
Hn (Es) sont respectivement données par qs (c) = ci cj si+j et qEs (c) = ci cj si+j+1 ceci
i,j=0 i,j=0
quelque soit c = (c0 , c1 , ..., cn ) ∈ Rn+1 . Donc, par dénition d'une suite positive on a l'équivalence
entre (ii) et (iii).
Montrons que (ii) et (iv) sont équivalents. Dans la preuve du théorème (3.3.1) nous avons
2
montrer l'équivalence entre les armations s ∈ P(N) et Ls (p ) ≥ 0, ∀p ∈ R[x].
Xn
Supposons que Hn (Es) ∈ P(N). Soit p(x) = cj xj ∈ R[x] on a:
j=0
n
X n
X
2 i+j+1
Ls (xp ) = ci ck js (x )= ci cj si+j+1 ≥ 0.
i,j=0 i,j=0

car Hn (Es) est positive.


Réciproquement, si Ls (xp2 ) ≥ 0, pour tout p ∈ R[x] alors
Xn
Hn (Es ) ∈ P(N), car Ls (xp2 ) = ci cj si+j+1 ≥ 0; ce qui par dénition signie que Hn (Es ) est
i,j=0
positive. Donc,(ii) et (iv) sont équivalents.
Montrons que (i) et (iv) sont équivalents.
Supposons la condition (i) est satisfaite. Alors d'après le théorème de Haviland(théorème 3.2.2),
Ls admet une représentation intégrale de la forme
Z +∞
Ls (p) = p(x) dµ(x), ∀p ∈ R[x].
0
R +∞ R +∞ 2
D'où Ls (p2 ) =
0 p(x) dµ(x) ≥ 0 2
et Ls (xp ) =
0 xp (x) dµ(x) ≥ 0.
Réciproquement, si (iv) est satisfaite alors, puisque
R[x]2 }, Ls est positive sur P os([0; +∞)) donc d'après le
P
P os([0; +∞)) = {f + xg : f, g ∈
théorème de Haviland (théorème 3.2.2), Ls est une fonctionnelle de moments sur R+ et par
1
conséquent il existe µ ∈ M+ (R) à support dans R+ telle que R[x] ⊆ L (R, µ) et Ls (p) =
R∞ n
R ∞ n
0 p(x) dµ , ∀p ∈ R[x]. D'où sn = Ls (x ) = 0 x dµ ∀n ∈ N. Donc (i) et (iv) sont équiva-
lents.

Théorème 3.3.3 (Théorème d'existence pour un intervalle fermé borné). Soient a, b ∈ R, a < b.
Pour toute suite s = (sn )n∈N de nombres réels les assertions suivantes sont équivalentes:
(i) s est une suite de moments sur [a;b],

49
(ii) s ∈ P(N) et ((a + b)Es − E(Es) − abs) ∈ P(N);
(ii) Ls (p2 ) ≥ 0 et Ls ((b − x)(x − a)p2 ) ≥ 0 pour tout p ∈ R[x].
Proof. Montrons que (ii) et (iii) sont équivalents.
D'après la preuve du théorème (3.2.1) on sait que s ∈ P(N) si et seulement si Ls (p2 ) ≥ 0, ∀p ∈
R[x].
n
X
Supposons que Ls ((b − x)(x − a)p2 ) ≥ 0 pour tout p ∈ R[x]. Soit p(x) = ci xi ∈ R[x]. on a:
i=0

Ls ((b − x)(x − a)p2 )


n
X
2
= Ls ((bx − ab − x + ax) ci cj xi+j )
i,j=0
n
X n
X n
X
= (a + b)ci cj Ls (xi+j+1 ) − ab ci cj Ls (xi+j ) − ci cj Ls (xi+j+2 )
i,j=0 i,j=0 i,j=0
n
X n
X n
X
= (a + b) ci cj si+j+1 − ab ci cj si+j − ci cj si+j+2
i,j=0 i,j=0 i,j=0
n
X
= ci cj ((a + b)Es − E(Es) − abs)i+j .
i,j=0

Ainsi, Ls ((b − x)(x − a)p2 ) ≥ 0 si et seulement si

n
X
ci cj ((a + b)Es − E(Es) − abs)i+j ≥ 0.
i,j=0

Donc, (ii) et (iii) sont équivalents.


Montrons que (i) et (iii) sont équivalents. Supposons que s est une suite de moments sur
[a; b]. Alors Ls p2 et (b − x)(x − a)p2
admet une représentation intégrale. Comme les polynômes
2 2
sont positifs sur [a; b], pour tout p ∈ R[x] alors Ls (P ) ≥ 0 et Ls ((b − x)(x − a)p ) ≥ 0.
2 2
Réciproquement, si Ls (P ) ≥ 0 et Ls ((b − x)(x − a)p ) ≥ 0, pour tout p ∈ R[x] alors Ls
est positive sur P os([a; b]) donc d'après le théorème de Haviland(théorème 3.2.2) Ls est une
fonctionnelle de moments sur [a; b] et par conséquent, il existe une mesure µ ∈ M+ (R) à support
1
Rb n
dans [a; b] telle que R[x] ⊆ L (R, µ) et Ls (p) =
Rb n a p(x) dµ , ∀p ∈ R[x]. D'où sn = Ls (x ) =

a x dµ ∀n ∈ N.

3.4 Critères d'unicité de la solution au problème des moments


Le but de cette partie est de donner des résultats utiles concernant l'unicité de la solution aux
problèmes des moments en dimension 1 principalement celui de Stieltjes et celui de Hamburger.
Les principaux résultats allant dans ce sens sont: le critère de Carleman et la condition de Krein.
Nous commençons par donner un résultat général pour les mesures à support compact(problème
des moments de Hamburger).

3.4.1 Mesures à support compact


Théorème 3.4.1. Toute mesure µ ∈ M+ (Rd ) à support compact est dans M+ (Rd ) et est déter-
minée.

50
Proof. µ ∈ M+ (R) telle que supp(µ) soit compact alors µ ∈ M+ (Rd ) xα dµ 6
R
Soit car
Rd
α
sup ˙ αd ) ∈ Nd .
|x |µ(supp(µ)) < ∞, pour tout α = (α1 , ...,
x∈supp(µ)

Soita > 0 tel que supp(µ) ⊂ [−a; a]d et soit ν ∈ M+ (Rd ) alors
supp(µ) ⊂ [−a; a]d . En eet, si y ∈ Rd \ [−a; a]d , alors il existe une coordonnée yj de y telle que
|yj | > a. Soit U un voisinage ouvert de y tel que |yj | > a + ε pour tout y ∈ U et tout ε > 0 on a:
Z Z
2n
yj dν(y) > yj2n dν(y) > (a + ε)2n ν(U ).
Rd U

a 2n
yj2n dν(y) =
yj2n dµ(y) 6 a2n µ(Rd ). Ainsi, ν(U ) 6 ( a+ε ) µ(Rd ).
R R
Mais
Rd Rd
En passant à la limite lorsque n → ∞ dans l'inégalité précédente, on obtient ν(U ) = 0. Ainsi,
c
U est un voisinage ouvert de y , de mesure nulle; ce qui montre que y ∈ supp(ν) et par suite,
d d
supp(µ) ⊂ [−a; a] . Soit f ∈ Cc (R ) et soit ε > 0, d'après le théorème d'approximation de
d
Weierstrass, il existe un polynôme p à d-variables tel que l'on ait: |f (y)−p(y)| ≤ ε, ∀y ∈ [−a; a] .
R R
Puisque
Rd p dµ = Rd p dν , alors
Z Z Z Z
| f dµ − f dν| 6 |f − p| dµ + |f − p| dν
Rd Rd Rd Rd
d d
6 ε(µ(R ) + ν(R )).

En passant à la limite lorsque


R R ε→0 dans l'inégalité précédente, on obtient:

Rd f dµ = Rd f dν .
Cc (Rd , R)
R
Comme l'application L : f 7→ Rd f dµ est une forme linéaire positive sur alors d'après
le théorème de représentation de Riesz (théorème
R ??), µ est l'unique mesure de Radon sur
R Rd
telle que L(f ) = Rd f dµ. Or d'après ce qui précède on a: L(f ) = Rd f dν donc par unicité de
la mesure µ, µ = ν . Donc µ est déterminée.

Corollaire 3.4.1. Lorsquelle existe, la solution à un problème des moments sur un compact K
de Rd est unique. Un tel problème est donc déterminé.
Proof. Ce n'est qu'une conséquence immédiate du théorème 3.4.2.

3.4.2 Les conditions de Carleman et de Krein


Comme nous venons de le démontrer le problème des moments sur tout compact de Rd , d > 1
est déterminé nous allons donc prêter une attention particulière aux critères d'unicité de la
mesure pour les problèmes de moments de Stieltjes et de Hamburger.

Dénition 3.4.1. Soit (mn )n∈N une suite positive et J ⊂ R un intervalle ouvert. Soit C{mn },
l'ensemble des fonctions f ∈ C ∞ (J) pour lesquelles il existe une constante kf > 0, telle que
sup|f (n) (t)| ≤ kf n mn , ∀n ∈ N. (3.18)
t∈J

On dit que C{mn } est une est une famille de fonctions quasi-analytiques si la propriété suivante
est satisfaite: si f ∈ C{mn } et il existe un point t0 ∈ J tel que f n (t0 ) = 0 pour tout n ∈ N alors
f ≡ 0 sur J . Dans ce cas, les fonctions de C{mn } sont dites quasi-analytiques.
Théorème 3.4.2. C{mn } est une famille de fonctions quasi-analytiques si et seulement si

X 1
( inf mkk )−1 = ∞. (3.19)
k>n
n=1

51
Corollaire 3.4.2. Soit (mn )n∈N une suite positive telle que

X −1
mnn . (3.20)
n=1

Soit f ∈ C ∞ (J) on suppose qu'il existe une constante kf ≥ 0 telle que (3.18) soit satisfaite. S'il
existe une un t0 ∈ J tel que f (n) (t0 ) = 0, ∀n ∈ N, alors f (t) ≡ 0 sur J.
1 1
Proof. Puisque mnn > inf k>n mnk , (3.19) entraine (3.20) et par conséquent C{mn } est une famille
de fonctions quasi-analytiques d'après le théorème 3.4.2

Lemme 3.4.1. Soit µ ∈ M+ et soit ξ ∈ L∞ (R, µ). Alors la fonction


Z
g(t) = eitx ξ(x) dµ(x). (3.21)
R

est dans C(R) et vérie


Z
(n)
g (t) = (ix)n eitx ξ(x) dµ(x), pour n ∈ N, t ∈ R. (3.22)
R

Proof. On procède par induction sur n. Pour n = 0 on a le résultat par dénition.


Supposons que (3.22) est vraie pour n et tout t ∈ R. Posons
φh (x) = h−1 (eihx − 1); ψh (x) = φh (x)(ix)n eitx ξ(x) pour h ∈ R, h 6= 0.
Alors ψh (x) → (ix)
n+1 ξ(x) sur R lorsque h → 0. D'après le théorème de la moyenne (version
pour nombres complexes), on a:

0
|φh (x)| = |φh (x) − φh (0)| 6 |x| sup{|φh (y)| : |y| 6 |x|, y ∈ R}.
0
Ainsi, puisque |φh (y)| = |eihy | = 1, alors

|ψh (x)| = |φh (x)(ix)n eitx ξ(x)| 6 |xn+1 |kξkL∞ (R,µ) pp sur R.

Ainsi, puisque µ ∈ M+ (R) et xn+1 ∈ L1 (R, µ) alors d'après le théorème de convergence dominée
de Lebesgue(Théorème ??), on a:
g (n) (t + h) − g (n) (t)
Z Z
lim = lim ψh (x) dµ(x) = (ix)n+1 eitx ξ(x) dµ(x).
h→0 h h→0 R R

ce qui prouve (3.22) pour n + 1.

Corollaire 3.4.3. Soit µ ∈ M+ (R). Alors la transformée de Fourier


dµ(x) de la mesure est un élément de C ∞ (R) et
R −itx
fµ (t) = R e
Z
fµ(n) (t) = (−ix)n e−itx dµ(x) pour n ∈ N et t ∈ R. (3.23)
R

En particulier, Z
sn (µ) = xn dµ(x) = (−i)n fµ (0) pour n ∈ N. (3.24)
R
Théorème 3.4.3 (Théorème de Carleman). Soit s = (sn )n∈N une suite positive. Si s vérie la
condition de Carleman ∞ X −1
2n
s2n = +∞, (3.25)
n=1
alors le problème des moments de Hamburger associé à la suite s est déterminé.

52
Proof. D'après le théorème de Hamburger(théorème 3.3.1), il sut de prouver l'unicité de la
mesure. Soient µ1 , µ2 ∈ Ms ; on pose f = fµ1 − fµ2 alors d'après le corollaire 3.4.3 f ∈ C ∞ (R).
Posons mn = supt∈R |f (n) (t)|, pour n ∈ N. D'après (3.23),
Z Z
(2n) (2n) 2n
m2n 6 sup(|fµ1 (t)| + |fµ2 (t)|) 6 x dµ1 (x) + x2n dµ2 (x) = 2s2n .
t∈R R R

pour n ∈ N. Ainsi la condition (3.20) est vériée car

∞ ∞ ∞ ∞
X −1 X − 1 X 1 − 1 1 X − 2n
1
mn n > m2n2n > 2− 2n s2n2n > s2n = ∞.
2
n=1 n=1 n=1 n=1

En appliquant (3.23) une fois de plus, on obtient, pour n ∈ N,


Z Z
f (n) (0) = fµ(n)
1
(0) − fµ(n)
2
(0) = x2n dµ1 (x) − x2n dµ2 (x) = in sn − in sn = 0.
R R

Ainsi, les conditions du corollaire 3.4.3 sont satisfaites; par conséquent, f (t) ≡ 0 donc fµ1 (t) ≡
fµ2 (t), ∀t ∈ R. Puisque la transformée de Fourier est uniquement déterminée par une mesure
nie alors µ1 = µ2 . Ainsi, s est déterminée. Donc le problème des moments de Hamburger
associé à la suite s est déterminé.

Corollaire 3.4.4. Soit s = (sn )n∈N une suite positive. S'il existe une constante M >0 telle que

s2n 6 M n (2n) !, pour n ∈ N. (3.26)

alors la condition de Carleman est satisfaite et le problème des moments de Hamburger associé
à la suite s est déterminé.
Proof.
1 1
Pour n ∈ N, on a: (2n)! ≤ (2n)2n d'où [(2n)!]− 2n 6 2n et par suite
1
2n 6 [(2n)!]− 2n .
1 −1/2n
D'où M −1/2 2n
1
≤ M −1/2 [(2n)!]− 2n ≤ s2n , n ∈ N.
P∞ 1 P∞ −1/2n
Comme la série n=1 2n est divergente alors n=1 s2n = +∞. Donc la condition de Carleman
est satisfaite.

Corollaire 3.4.5.

(i) Soit µ ∈ M+ (R). S'il existe un ε > 0 tel que


Z
eε|x| dµ(x) < +∞, (3.27)
R

alors µ ∈ M+ (R), la condition (3.26) est satisfaite et le problème des moments de Ham-
burger associé à µ est déterminé.

(ii) Soit µ ∈ M+ ([0; ∞)). S'il existe un ε > 0 tel que


Z √
eε |x| dµ(x) < +∞. (3.28)
R

alors µ ∈ M+ ([0; ∞)), la condition (3.24) est satisfaite, et le problème des moments de
Stieltjes associé à µ est déterminé.

53
Proof. (i) Soit n∈N et soit x∈R la fonction x 7→ x2n e−ε|x| est bornée car lim x2n e−ε|x| = 0,
|x|→∞
et par conséquent elle admet une borne supérieure.Il vient donc que:

Z Z Z
2n 2n −ε|x| ε|x| 2n −ε|x|
x dµ(x) = x e e dµ(x) ≤ sup(x e ) eε|x| dµ(x). (3.29)
R R x∈R R
2n dµ(x) k
R R
Donc
Rx < ∞ et par conséquent,
R |x | dµx < +∞ ∀k ∈ N . D'où µ ∈ M+ (R). De
plus, d'après (3.29) on a:
Z Z
2n 2n −ε|x|
s2n = x dµ(x) ≤ (2n)! sup(x e ) eε|x| dµ(x).
R x∈R R

Donc il existe une constante M >0 telle que s2n ≤ M n (2n)! pour n ∈ N. Ainsi, la condition
(3.26) est satisfaites. Donc d'après la condition (i) du corollaire 3.4.5 le problème des moments
de Hamburger associé à µ est déterminé.
(ii) en utilisant un raisonnement similaire à celui employé pour (i) on obtient le résultat pour
x ∈ R+ .
Théorème 3.4.4 (condition de Krein). Soit f une fonction de borélienne non positive
R n sur R.
Supposons que la mesure µ dénie par dµ = f (x)dx ∈ M+ (R) et que sn := R x dµ(x) <
+∞ ∀ n ∈ N. Si Z
ln f (x)
dx > −∞ (3.30)
R 1 + x2
alors la suite de moments s = (sn )n∈N de la mesure est indéterminée. De plus l'espace de
polynômes C[x] n'est pas dense dans L2 (R, µ).
Proof. Supposons que la condition (3.30) est vériée. Puisque dµ = f (x)dx ∈ M+ (R), alors
f ∈ L1 (R). Donc d'après le théorème 3.1.4, il existe h ∈ H 1 (R) tels que |h(x)| = f (x) p.p sur
R. Puisque h ∈ H 1 (R), il suit du théorème de Paley-Wiener (théorème 3.1.5) que
Z
eitx h(x)dx = 0 pour t ≥ 0. (3.31)
R
On pose ξ(x) = h(x)f (x)−1 si f (x) 6= 0 et ξ(x) = 0 si f (x) = 0. Alors |ξ(x)| ≤ 1 sur R et
dµ = f dx. Ainsi, la fonction
Z Z
itx
g(t) := e h(x)dx = eitx ξ(x)dµ(x)
R R
vérie les hypothèses du lemme 3.4.1. D'après (3.31), g(t) = 0 pour t ≥ 0. De plus, d'après la
formule (3.22) du Lemme 3.4.1, on a
Z Z
n (n) n
(−i) g (0) = x ξ(x)dµ(x) = xn h(x)dx = 0 pour n ∈ N0 . (3.32)
R R
Posons h1 (x) := Reh(x) et h2 (x) := Imh(x). D'après (3.32), on obtient
Z Z
xn h1 (x)dx = xn h2 (x)dx = 0 pourn ∈ N0 . (3.33)
R R
Puisque f 6= 0 par (3.30) et |h(x)| = f (x) p.p sur R, l'une au moins des deux fonctions h1 et h2
est non nulle, nous la noterons hj . On a f (x) − hj (x) ≥ 0 sur R. Ainsi, d'après (3.33) la mesure
de Radon ν sur R donnée par dν := (f (x) − hj (x))dx a les mêmes moments que µ. Mais ν 6= µ
carhj 6= 0.
Puisque h est non nulle,ξ l'est aussi. D'après (3.32), ξ ∈ L2 (R, µ) est orthogonale à C[x] dans
2
L (R, µ). Par 2
conséquent C[x] n'est pas dense dans L (R, µ).

3.5 Determination d'une solution: Formule d'inverstion de Stieljes-


Perron

54
Chapter 4

Fonctions spéciales

55
Chapter 5

Introduction au calcul formel: Calcul

dans Maple

56
Bibliography

[1] ANDREWS E.G., ASKEY R., ROY Ranjan, Special functions, Encyclopedia of mathematics
and its applications, volume 71, Cambridge University Press, 1999.

[2] BREZIS Haïm, Analyse fonctionnelle: théorie et applications, Masson, Paris, 1993.
[3] CAGNAC G., COMMEAU J., RAMIS E., Traité de Mathématiques Spéciales, Tome 2 . Anal-
yse, Masson et Cie,Paris, 1970.
[4] CHIHARA T.S. An introduction to orthogonal polynômials, Gordon and Breach Science Pub-
lisher, New-York, 1978.

[5] LANG Serge, Complex analysis, Springer-Verlag, Second edition, 1985.


[6] NIKIFOROV A.F., UVAROV B.V., Eléments de la théorie des fonctions spéciales, traduit
du Russe par VLADIMIR KOTLIAR, Editions Mir, Moscow, 1976.

[7] NIKIFOROV A.F., UVAROV B.V., Special functions of mathematical physics : An introduc-
tion with applications, translated from the Russian by R.P. BOAS, Basel; Boston: Birkhaüser,
1988.

[8] RUDIN Walter, Real and complex analysis, Mc Graw-Hill, Second edition, 1976.

[9] TEMME Nico M., Special functions: An introduction to the classical functions of mathemat-
ical physics, John Wiley & Sons.Inc.,1996.
[10] Garnett,J.B. : Bounded Analytics Functions, Springer-Verlag, New York, 2006.
[11] Schmüdgen, K: Unbounded Self-adjoint Operator on Hilbert Spaces, Springer-Verlag, New
York, 2012.

[12] Prestel, A and B. Reznick:Positive Polynomials-from Hilbert's 17th Problem to Real Alge-
bra, Springer-Verlag, New York, 2001.
[13] Rudin, W.: Real and Complex Analysys, Third Edition, MacGraw-Hill Inc., New York, 1987.

57

Vous aimerez peut-être aussi