Vous êtes sur la page 1sur 1178

Universite catholique de Louvain Analyse numerique 1a Approximation, interpolation, integration.

MATH2171 2005-2006 Alphonse Magnus, Institut de Mathematique Pure et Appliquee, Universite Catholique de Louvain, Chemin du Cyclotron,2, B-1348 Louvain-la-Neuve (Belgium) (0)(10)473157 , magnus@inma.ucl.ac.be , http://www.math.ucl.ac.be/~magnus/ Je suis fatigue des chires mais amoureux de leur monde truque John Maeda MATH2171 2005-06 { 0 { Table { 2 Table des matieres. Preface. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Analyse numerique et theorie de l'approximation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1. Qu'est ce que l'analyse numerique? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.1. Analyse numerique et analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.2. Analyse numerique et calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2. Theorie de l'approximation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.1. Les trois niveaux d'une theorie de l'approximation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 3. Quelques approximations de fonctions utilisees dans les calculatrices et les o rdinateurs 13 3.1. Calculatrices scienti

ques: le systeme CORDIC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 3.2. Approximations polynomiales et rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 3.3. AGM, etc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 3.4. Approximations et nombres irrationnels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 3.5. Approximations les plus simples: bien commencer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 CHAPITRE 1. Theoremes generaux d'existence et d'unicite de meilleure approximation. 18 1. Distances et normes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.2. Exercices et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.3. Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.4. Normes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.5. Exemples, exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.6. Exercices, exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.7. Formes et applications lineaires continues sur des espaces vectoriels normes de fonctions 20 2. Existence d'une meilleure approximation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.1. Theoreme d'existence de meilleure approximation dans un sous-espace de dimens ion

nie 21 2.2. Contre-exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Remarque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Unicite de la meilleure approximation. . . . . . . . . . . . . . . . . . . . . . . . . . 22 3.1. De

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . 22 . . . . . .

. . . . . . . . . . 22 . . . . . .

nition. Convexite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 3.2. Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 3.3. De

nition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3.4. Une condition susante d'unicite. Theoreme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 MATH2171 2005-06 { 0 { Table { 3 3.5. Exercice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 4. Continuite du projecteur de meilleure approximation. . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 4.1. Theoreme de continuite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 4.2. Forte unicite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 5. Dualite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 6. Exemples et exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 6.1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 6.2. Moyenne et mediane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 6.3. Principaux sous-espaces de fonctions utilises en approximation . . . . . . . . . . . . . . . . 25 6.4. Centre et rayon de Tchebyche d'une partie P de X . . . . . . . . . . . . . . . . . . . . . . . . . . 26 6.5. Largeurs de Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 6.6. Coapproximation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 CHAPITRE 2. Approximation au sens de Tchebyche. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1. Theoreme d'equioscillation de Tchebyche. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.1. Theoreme d'equioscillation de Tchebyche (1853) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.2. Preuve de la condition necessaire: ^p optimal dans Pn ) (3) . . . . . . . . . . . . . . . . . . 28 1.3. Preuve de la condition susante (3) ) ^p optimal dans Pn . . . . . . . . . . . . . . . . . . . . 29 1.4. Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 1.5. Theoreme d'unicite de la meilleure approximation polynomiale au sens de Tcheby che 29 2. Proprietes de la meilleure approximation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.1. Symetrie. Theoreme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.2. Theoreme (de La Vallee Poussin) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.3. Unicite forte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 2.4. Signes alternes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 2.5. Algorithme d'echange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.6. Meilleure approximation au sens k k1 sur un compact quelconque . . . . . . . . . . . . . 33 3. Polyn^omes de Tchebyche. . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.1. Meilleure approximation d'un polyn^ome de degre n dans Pn1 . . . . . . . . . . . . . . . . 34 3.2. De

nition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.3. Premieres proprietes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 3.4. Premiers echantillons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.5. Exercice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.6. Relation de recurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.7. Polyn^ome de moindre norme sur un intervalle, sous contrainte p(0) = 1 . . . . . . . . 39 3.8. Meilleure approximation d'un polyn^ome de degre n dans Pn2 . . . . . . . . . . . . . . . . 39 3.9. Meilleure approximation de fonction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 3.10. Fonctions rationnelles de moindre et plus grande deviation . . . . . . . . . . . . . . . . . . . 39 3.11. Proprietes extremales des polyn^omes de Tchebyche . . . . . . . . . . . . . . . . . . . . . . . . 40 3.12. Autres proprietes des Tn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.13. Equation dierentielle lineaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 3.14. Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 3.15. Polyn^omes de Tchebyche et problemes de Sturm-Liouville . . . . . . . . . . . . . . . . . . 47 3.16. Coecients, derivees et primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.17. Primitives iterees de Tn(x) p1 x2 et formule de Rodrigues . . . . . . . . . . . . . . . . . . . . . . . 49 MATH2171 2005-06 { 0 { Table { 4 3.18. Orthogonalite et base duale de PN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 4. Bonne approximation; series de polyn^omes de Tchebyche, relation avec series de Fourier. 53 4.1. Cascade de meilleures approximations et developpements dans la base des poly n^omes de Tchebyche53 4.2. Serie de Fourier d'une fonction continue periodique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 4.3. Series de polyn^omes de Tchebyche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 4.4. Vitesse de decroissance des coecients et bornes de norme de fonction d'erreur 58 4.5. Theoreme de Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 4.6. Calcul des coecients de Tchebyche et autres algorithmes . . . . . . . . . . . . . . . . . . . 61 4.7. Algorithmes en representation de Tchebyche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 5. Approximation par fonction rationnelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 6. Lecture. Tchebyche et de La Vallee Poussin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 CHAPITRE 3. Approximation en moyenne quadratique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

1. Produit scalaire, orthogonalite, espace prehilbertien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 1.1. Produits scalaires sur Pn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 1.2. Espace prehilbertien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 2. Meilleure approximation dans un espace prehilbertien. . . . . . . . . . . . . . . . . . . . . . . . . . . 74 2.1. Base d'un espace de dimension

nie, matrice de Gram . . . . . . . . . . . . . . . . . . . . . . . . . 74 2.2. Meilleure approximation = projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 2.3. Methode d'orthogonalisation de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 2.4. Hauteurs, volumes et determinants de Gram . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 2.5. Factorisation de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 3. Polyn^omes orthogonaux. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 3.1. Construction d'une base orthogonale de Pn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 3.2. Relation de recurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 3.3. Quelques algorithmes utilisant la recurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 3.4. Zeros des polyn^omes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 3.5. Zeros de polyn^omes orthogonaux et valeurs propres de matrices tridiagonales symetriques 91 3.6. Formules d'integration de Gauss. Premiere approche . . . . . . . . . . . . . . . . . . . . . . . . . . 92 3.7. Formule d'integration de Gauss et fractions continues . . . . . . . . . . . . . . . . . . . . . . . . . 94 3.8. Formule de Christoel-Darboux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 3.9. Orthogonalite et operateurs (formellement) hermitiens . . . . . . . . . . . . . . . . . . . . . . . . 97 3.10. Polyn^omes orthogonaux classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 3.11. Orthogonalite et derivees nemes: formule de Rodrigues . . . . . . . . . . . . . . . . . . . . . . . . 100 3.12. Usages et varietes de polyn^omes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 3.13. Harmoniques spheriques et fonctions de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 3.14. Polyn^omes d'Hermite et mecanique quantique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 3.15. Orthogonalite et equioscillation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 3.16. Noyaux reproduisants, polyn^omes noyaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 4. Moindres carres, regression. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 5. Approximation en norme k k1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 6. Series de Fourier en analyse numerique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 6.1. Comportement des coecients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 6.2. Transformee de Fourier discrete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 MATH2171 2005-06 { 0 { Table { 5 6.3. Tranformee de Fourier rapide (Fast Fourier Transform FFT) . . . . . . . . . . . . . . . . . . 121 6.4. Analyse en ondelettes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 7. Convergence, espace de Hilbert . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . 127 7.1. Suites totales et maximales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 7.2. Theoreme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 7.3. Exemples de suites totales dans C [a; b] et L2([a; b]; ). . . . . . . . . . . . . . . . . . . . . . . . . . 129 7.4. Theoreme d'approximation de Weierstrass. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 7.5. Theoreme de Stone-Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 7.6. Intervalles non bornes, probleme des moments. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 7.7. Arcs de Bezier en typographie informatique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 CHAPITRE 4. Interpolation et applications. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 1. Interpolation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 1.1. Interpolation polynomiale classique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 1.2. Interpolation: cadre general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 1.3. Interpolation polynomiale classique en formulation de Newton, dierences divise es. 145 1.4. Extrapolation a la limite de Richardson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 1.5. Formulation de Newton en general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 1.6. Dierences divisees et derivees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 1.7. Reste de l'interpolation polynomiale classique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 1.8. Interpolation d'Hermite-Fejer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 2. Formules d'integration basees sur l'interpolation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 2.1. Reste de la formule de quadrature de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 2.2. Formules de quadratures de Gauss avec points imposes . . . . . . . . . . . . . . . . . . . . . . . . 156 2.3. Points de Tchebyche: regle de Clenshaw-Curtis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 2.4. Regles adaptatives d'integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 3. Representation du reste: theoreme de Peano. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 3.1. Theoreme (Peano) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 CHAPITRE 5. Dierences

nies. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 1. Les operateurs du calcul aux dierences. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 2. Interpolation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 3. Derivation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 4. Integration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 4.1. Formules de Newton-Cotes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 5. Noyaux de Peano de regles d'integration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 5.1. Formule du trapeze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 5.2. Formule de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 5.3. Noyaux de Peano de formules composees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 5.4. La formule de Simpson avant Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 6. Formule d'Euler-Maclaurin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 6.1. Identites des nombres et polyn^omes de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 6.2. Schema d'integration de Romberg. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 6.3. Formule d'Euler-Maclaurin en tant que formule sommatoire . . . . . . . . . . . . . . . . . . . 176 CHAPITRE 6. Recapitulation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 MATH2171 2005-06 { 0 { Table { 6 CHAPITRE 7. Appendices: alphabets grec, cyrillique, petit dico, index. . . . . . . . . . . . . . 181 1. Alphabets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 2. Petit dico mathematical English ! francais mathematique. . . . . . . . . . . . . . . . . . . . . . 182 Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 MATH2171 2005-06 { 0 { Bib { 7 Preface. L'analyse numerique a longtemps ete incorporee au cours d'analyse generale, dont elle representait le versant applique et constructif. Le fort developpement des moyens de calcul automatique a rendu necessaire l'appari tion d'un enseignement speci

que. La discipline put se developper sous l'impulsion de mathematiciens avises, tels P. Henrici [Hen] et E. Stiefel [Sti]. Le present cours fut cree par Jean Meinguet, Professeur a l'Universite. On trouvera ici l'essentiel de la partie \approximation, interpolation, integration" de son e nseignement. D'autres cours reprennent les themes de resolution numeriques des equations (y compr is dierentielles et fonctionnelles), d'algebre lineaire numerique (theorie des matrices) et d'algorithmique numerique: ECTS MATH 2171 Analyse numerique I a : [22,5-30] 4 A. Magnus approximation, interpolation, integration MATH 2172 Analyse numerique Ib : [22,5-30] 4 P. Van Dooren resolution numerique des equations MATH 2180 Analyse numerique II [45-0] Q1+Q2 4.5 A. Magnus INMA 2380 Theorie des matrices [30-22,5] Q2 5 P. Van Dooren MATH 2830 Seminaire d'analyse numerique [30] Q1 2 Y. Genin, A. Magnus, P. Van Door en INMA 2111 Analyse de complexite d'algorithmes [30-15] Q2 4 V. Blondel, E. Huens (Bisannuel) INMA 2710 Algorithmique numerique [30-15] Q1 4 P. Van Dooren Le Professeur Meinguet est egalement a l'origine de l'enseignement de la programma tion et de l'informatique dans notre universite, mais cela est une autre histoire. . . Les grands principes de la theorie de l'approximation sont d'abord deduits de conc epts d'analyse fonctionnelle (chap. 1). Ces resultats sont alors appliques a des situati ons plus concretes: on examine en detail l'approximation par des polyn^omes et par des poly n^omes trigonometriques, selon la norme du maximum (chap. 2) et en moyenne quadratique ( chap. 3). Avec l'interpolation (chap. 4) et le calcul aux dierences

nies (chap. 5), on dispose des outils permettant de traiter tous les problemes de l'analyse numerique classique, en particulier l'integration numerique. MATH2171 2005-06 { 0 { Bib { 8 Quelques ouvrages frequemment cites ici (par une mention du type [xxx]), normaleme nt disponibles en bibliotheques de MATH, PHYS et BSE: [Abr] M. Abramowitz, I.A. Stegun, ed., Handbook of Mathematical Functions, Nat. Bureau of Standards, Washington, 1964 = Dover, New York, 1965 etc. http://members.fortunecity.com/aan ds/, http://www.convertit.com/Go/ConvertIt/Reference/AMS55.ASP [Ach] N.I. Achieser, Theory of Approximation, F. Ungar, 1956 =Dover, 1992. [Atk] K. Atkinson, W. Han, Theoretical Numerical Analysis, A Functional Analysis Framework, Springer texts in Applied Mathematics 39, Springer 2001; Elementary Numerical Analysis, 3 rd edition, John Wiley, 2003. Notes et programmes dans http://www.math.uiowa.edu/~atkinson/ [Che] E.W. Cheney, Introduction to Approximation Theory, McGraw-Hill, 1966. [CheK] E.W. Cheney, D. Kincaid, Numerical Mathematics and Computing, Brooks/Cole , 4th ed., 1999. [CheL] E.W. Cheney, W. Light, A Course in Approximation Theory, Brooks/Cole, 199 9. [Chi] T.S. Chihara, An Introduction to Orthogonal Polynomials, Gordon & Breach, New York, 1978. [Clen] C.W. Clenshaw, Math. Tables 5 Chebyshev Series for Mathematical Functions , Nat. Physical Laboratory, London: Her Majesty's Stationery Oce, 1962. [Dav] P.J. Davis, Interpolation and Approximation, Blaisdell, Waltham, 1963 = Do ver, New York, 1975. [DaR] P.J. Davis, Ph. Rabinowitz, Methods of Numerical Integration, 2eme edition, Academic Press, New York, 1984. [deB] C. de Boor, Numerical Functional Analysis, notes du cours CS717 de l'Unive rsite du Wisconsin http://www.cs.wisc.edu/~deboor/717/notes.html [DeVLor] R.A. DeVore, G.G. Lorentz, Constructive Approximation, Springer, Berlin , 1993. [Erd] A. Erdelyi, W. Magnus, F. Oberhettinger, F.G. Tricomi, Higher Transcendenta l Functions, 3 vol., Tables of Integral Transforms, 2 vol., (The Bateman Manuscript Project), McGraw-Hill, N ew York, 1953-1955. [FoxP] L. Fox, I.B. Parker, Chebyshev Polynomials in Numerical Analysis, Oxford U.P., 1968. [GasW] C. Gasquet, P. Witomski, Analyse de Fourier et applications. Filtrage, ca lcul numerique, ondelettes, Masson, Paris, 1990. [Gau] W. Gautschi, Numerical Analysis. An Introduction, Birkh auser, 1997. [Gau2] W. Gautschi, Orthogonal Polynomials: Computation and Approximation, Oxfor d U. Press, 2004. [Hai] E. Hairer, Introduction a l'analyse numerique, cours Universite de Geneve, 199 3, cf "Polycopies" dans http://www.unige.ch/math/folks/hairer/ [Hammer] G. H ammerlin, K.H. Homann, Numerische Mathematik, Springer-Verlag, 1989 = Numerical Mathematics, Springer-Verlag, New York, 1991. [Ham] R.W. Hamming, Numerical Methods for Scientists and Engineers, 2nd ed., McG raw-Hill, New York, 1973 = Dover

[Has] C. Hastings, Jr., Approximations for Digital Computers, Princeton U.P., 19 55. [Hen] P. Henrici, Elements of Numerical Analysis, Wiley, New York, 1964. [Hen82] P. Henrici, Essentials of Numerical Analysis, Wiley, New York, 1982. [Kah] D. Kahaner, C. Moler, S. Nash, Numerical Methods and Software, Prentice-Ha ll, 1989. [Kun] J. Kuntzmann, Methodes numeriques, Hermann, Paris, 1969. [Lanc] C. Lanczos, Applied Analysis, Prentice Hall, Englewood Clis, 1956 = Dover [Mei] G. Meinardus, Approximation von Funktionen und ihre numerische Behandlung, Springer, Berlin, 1964 = Approximation of Functions: Theory and Numerical Methods, Springer, 1967. [Mha] Mhaskar, Hrushikesh N.; Pai, Devidas V., Fundamentals of approximation the ory, Alpha Science International, 2000. [Nat] I.P. Natanson, Constructive Theory of Functions, Moscou-Leningrad 1949 = T ranslation Series, U.S. Atomic Energy Commission AET-tr-4503. [Nurn] G. N urnberger, Approximation by spline functions, Springer-Verlag. Berlin, 1989. [Pas] S. Paszkowski, Polyn^omes et series de Tchebichev, Report ANO 140, Univ. Li lle1, Juillet 1984. [Pow] M.J.D. Powell, Approximation Theory and Methods, Cambridge U.P., Cambridge , 1981. [RalR] A. Ralston, P. Rabinowitz, A First Course in Numerical Analysis, 2nd ed., McGraw-Hill, 1978. [Rap] J. Rappaz, M. Picasso, Introduction a l'analyse numerique, PPUR (Presses Pol ytechniques et Universitaires Romandes), Lausanne, 1998, http://dmawww.epfl.ch/rappaz.mosaic [Riv1] T.J. Rivlin, An Introduction to the Approximation of Functions, Blaisdell , Waltham, 1969 = Dover, New York, 1981. [Riv2] T.J. Rivlin, The Chebyshev Polynomials, From Approximation Theory to Alge bra and Number Theory, Wiley, New York, 2eme edition, 1990. MATH2171 2005-06 { 0 { Bib { 9 [Sti] E. Stiefel, Introduction a la mathematique numerique, Dunod, Paris 1967 = Ein f uhrung in die numerische Mathematik, Teubner, Suttgart, 1961 = An Introduction to Numerical Mathematics, Academic Press, New York 1963. [Sze] G. Szeg}o, Orthogonal Polynomials, 4th ed., Amer. Math. Soc. , Colloquium Publications, vol. 23, Providence, 1975. [Tche] P.L. Tchebychef, Oeuvres, publiees par les soins de MM. A. Marko et N. Soni n, 2vol., Chelsea, New York [dLVP] C.J. de La Vallee Poussin, Lecons sur l'approximation des fonctions d'une v ariable reelle, GauthierVillars, Paris, 2eme edition, 1919 = Chelsea, New York, 1970. [dLVP2] C.J. de La Vallee Poussin, uvres, rassemblees dans la bibliotheque MATH. Periodiques. http://www.ams.org/mathweb/mi-journals.html ACM1 Transactions on Mathematical Software, http://math.nist.gov/toms/, Advances in Computational Mathematics, Annals of Numerical Mathematics, Applied Numerical Mathematics, App roximation Theory and its Applications, Calcolo, Constructive Approximation, Electronic Transactio ns on Numerical Analysis http://etna.mcs.kent.edu/html/, Journal of Approximation Theory, Journal of Comp utational and

Applied Mathematics http://www.elsevier.nl/locate/cam, Mathematics of Computatio n, Numerical Algorithms, Numerische Mathematik, SIAM2 Journal of Numerical Analysis. Ressources reseau. Usenet news:sci.math.num-analysis FAQ FAQ: Numerical Analysis and Associated Fields Resource Guide, by Steve Sulli van (Mathcom, Inc.), voir \Tech Info" dans http://www.mathcom.com/ Lille Ecole d'ingenieurs de Lille http://www.eudil.fr/ Conc Numerical Analysis at Concordia. http://indy.cs.concordia.ca/na/ ATNet Approximation Theory net. Contient des notes de cours (voir a \Classroom no tes") http://www.mi.uni-erlangen.de/at-net Matlab, Java http://www.mathworks.com, http://www.mathtools.net Matlab, Atkinson ftp://ftp.math.uiowa.edu/pub//atkinson/ENA Materials/GUI/ ,http ://www.math.uiowa.edu/~atkinson/netlib Netlib: tres nombreux programmes, http://w ww.netlib.org/ tw FFTW: tranformee de Fourier rapide, http://www.fftw.org/ Laval Analyse numerique a l'univ. Laval3 http://www.mat.ulaval.ca/anum/ NumRec W.H. Press, S.A. Teukolsky, W.A. Vetterling, B.P. Flannery, Numerical Rec ipes: programmes dans http://nr.harvard.edu/numerical-recipes/, texte dans http://cfatab.harvard.edu/nr/nronline.html, voir aussi http://math.jpl.nasa.gov/nr/ pour une critique severe et d'autres informations. . . GSL New Release of GNU Scienti

c Library. Version 1.6 of the GNU Scienti

c Library (GSL) is now available for download at: http://www.gnu.org/software/gsl/ GSL is a free numerical library written in C using modern coding conventions. It is distributed under the GNU General Public License. CodeCogs Date: Tue, 15 Mar 2005 Subject: CodeCogs, Open Source C/C++ Library This is to inform you about the website called "Code Cogs", which is "A New Open Source Scienti

c Library / Database in C++". The web site is free to use with all software being open source. 1ACM= Association for Computing Machinery. 2SIAM = Society for Industrial and Applied Mathematics. 3Merci a C. Debieve pour cette information. MATH2171 2005-06 { 0 { Bib { 10 The main homepage is at: http://www.codecogs.com CodeCogs is a new online scienti

c numerical repository of C/C++ code that has been created for scientists, engineers, mathematicians and

nancial workers. MATH2171 2005-06 { 0 { Intro { 11 Analyse numerique et theorie de l'approximation. 1. Qu'est ce que l'analyse numerique? Vaste programme. Gal de Gaulle 1.1. Analyse numerique et analyse. Les mathematiciens du passe m^elaient allegrement les constructions calculatoires a ux vastes generalisations. On pouvait passer du dessin de la coque d'un navire ou du volume des tonneaux de biere aux considerations les plus philosophiques. On est aujourd'hui plus disciplinaire, si pas plus disc ipline, et on enferme la pensee dans toutes sortes de sous-regions. L'analyse etudie les nombres reels et les fonctions de variables reelles. On conside re, d'ailleurs a juste titre, que le progres en analyse consiste a etablir la verite d'une proposition en utilisant un minimum de moyens. Ceci conduit a eliminer autant que possible toute construction detaillee, donc a evite r toute representation explicite inutile. Ainsi, on prefere parler en analyse de formes ou d'operateurs, v oire d'endomorphismes, plut^ot que de matrices qui renvoient a des representations dans des bases imposees. A un n iveau plus fondamental, utiliser la representation decimale d'un nombre reel serait une lourde faute de go^ ut. L'analyse numerique est precisement liee a cette ancienne partie de l'analyse qui decr it ces constructions qui ne sont plus essentielles a la comprehension de la theorie. On ne se contente p as d'exhumer d'anciens secrets et de les rassembler dans de gros formulaires, ces constructions sont pre sentees de facon aussi ordonnee et systematique que possible: Henrici [Hen] de

nit l'analyse numerique comme la theorie des methodes constructives de l'analyse, Natanson intitule son ouvrage [Nat] Theorie constructive des foncti ons, Trefethen4 dit que l'analyse numerique est l'etude des algorithmes de resolution des problemes des mathematiques continues. L'analyse numerique commente, illustre, concretise5 et applique l'analyse. 1.2. Analyse numerique et calcul. Tout projet scienti

que ou technique comporte une importante phase de calculs. Parlett6 decrit la tou r Programmes d'applications 5 Grands logiciels orientes vers les applications 4 Bibliotheques de programmes pour matrices, approximation, 3 equadi, optimisation, etc. Fonctions elementaires: log(x), etc. 2 Langages de programmation 1 Unite arithmetique + = Assembleur 0 du calcul scienti

que (cf.

gure de gauche) mise a la disposition de l'utilisateur. Chaque niveau utilise des niveaux inferieurs. L'analyse numerique intervient surtout aux niveaux 2 (\bo^tes noires": problemes banalises) et 3, ou les problemes sont d'ailleurs explicitement formules en termes mathematiques. On ne s'occupera donc pas beaucoup ici des representations en machine des reels, ni de questions d'erreurs d'arrondi, qui ressortissent plut^ot de l'algorithmique numerique. Quant aux niveaux superieurs, ils interessent speci

quement des utilisateurs d'un domaine des sciences et techniques (niveau 4), et la mise au point d'une application particuliere. 4 L.N. Trefethen, The De

nition of Numerical Analysis, SIAM News, November 1992 = Bulletin of the Institute of Mathematics and Applications, March/April 19 93 = http://www.comlab.ox.ac.uk/oucl/users/nick.trefethen/defn.ps, copie dans trefeth ennuman.ps 5L'analyse numerique ne remplace pas l'analyse par un projet ou ne

gureraient que des objets d^ument construits (mathematique intuitionniste), toutes les methodes de l'analyse sont pa rfaitement valides en analyse numerique, ou on peut donc tres bien trouver des demonstrations non constructives! 6B. Parlett, Progress in numerical analysis, SIAM Review 20 (1978) 443-456. MATH2171 2005-06 { 0 { Intro { 12 G. Strang distingue7 distingue six etapes dans le traitement d'un probleme dicile: (1) Modelisation. Arriver au probleme mathematique traduisant le mieux le phenomene c onsidere, (2) Representation. Choisir une famille de fonctions susceptibles de bien approch er la solution de 1., et la base qui servira a cette representation, (3) Parametres. Bien choisir les degres, points de grille ou d'interpolation, qui assureront une erreur susamment faible, (4) Algorithme. Decrire les etapes de calcul aboutissant a la solution numerique, (5) Programmation. Tenir compte des moyens de calcul disponibles, (6) Visualisation. La reponse peut se limiter a quelques nombres, mais peut necessi ter une presentation sous forme de tables, graphes, etc. L'analyse numerique est concernee par les points (2), (3), et (4) pour une certain e part (l'algorithmique numerique pour une autre part). 2. Theorie de l'approximation. Errare humanum est 2.1. Les trois niveaux d'une theorie de l'approximation. La theorie de l'approxima tion est la plus aimable des sciences exactes. Le droit a l'erreur y est autorise, et m ^eme encourage. Un objet f (nombre reel, fonction, operateur, etc.) mathematiquement de

ni mais inaccessible a des representations elementaires, est approche par un objet plus simple p. Au premier niveau, il s'agit de construire une approximation acceptable p, par exemple p = 0:3333 si f = 1=3. Jusque dans les annees 1950, on voyait dans les formulaires la \serie de Renard", dite encore des \nombres normaux", qui consiste en la suite des 10 puissances successives de 1.25 et qui donne tres approximativement des constantes mathematiques, physiques et technologiques remarquables: 21=3 =2 cm/in in/dm 2 g 101=10 2 1.25 1.6 2 2.5 3.15 4 5 6.3 8 10 Au deuxieme niveau, on examine si une loi permet d'expliquer la forme de diverses approximations successives 0:33, 0:333, etc. A ce niveau, on ne s'occupe plus des approximations proprement dites. Au troisieme niveau, on caracterise des classes d'objets f a partir de dispositifs initialement destines a fournir des approximations. Autre exemple moins trivial: soit f = p2, p est un nombre rationnel a=b avec 0 < b 6 n, et la distance jp2 a=bj la plus petite possible. On a donc de

ni une meilleure approximation dans un ensemble, pour une distance donnee. On fait varier n et on note les nouvelles fractions qui appa raissent. En fait, il sut de prendre m = entier le plus proche de np2 et de conserver les fractions donnant u ne erreur plus petite que la plus petite erreur precedente8: C'est plein, plein de force, et plein, plein de nombre la-dedans. Alfred Jarry9 p2 1=1 = 0.4142135623730950488016887 p2 3=2 = 0.0857864376269049511 983113 p2 4=3 = 0.0808802290397617154683554 p2 7=5 = 0.0142135623730950488016887 p2 17=12 = 0.0024531042935716178649779 p2 24=17 = 0.0024488564907421076252181 p2 41=29 = 0.0004204589248191867327232 p2 99=70 = 0.0000721519126192369125970 p2 14 0=99 = 0.0000721482316809073875473 7 http://www.ipam.ucla.edu/publications/inauguration/strang.html 8On dispose donc deja d'une approximation 1:4142135623730950488016887 : : : de p2. 9dans Le surm^ale, a propos d'un automate-boxeur de foire. MATH2171 2005-06 { 0 { Intro { 13 Au premier niveau, on recueille donc ces approximations. Au deuxieme niveau, on e xamine comment decrire les approximations retenues10. Au troisieme niveau, on apprend quelque cho se sur f = p2, par exemple que 2 ne peut ^etre le carre d'un nombre rationnel (voir p. 15), m^eme si on conna^t des demonstrations non constructives beaucoup plus courtes11. Perseverare diabolicum Autre exemple: Ponceleta cherche a approcher pa2 + b2 par une expression plus simple a +

b. Il trouve

= 0:961 et

= 0:398 assurant une erreur relative 6 4% si on a choisi a > b: premier niveau. Mais comment a-t-il obtenu ces valeurs? Pour tout couple (;

), on considere l'erreur relative a +

b pa2 + b2 +

1 =

x p1 + x2 1, et on determine pour quelles valeurs de x = b=a 2 [0; 1] l'erreur relative a la plus grande valeur absolue. On constate qu'il faut examiner trois valeurs de x, et que la plus grande erreur relative est minimisee quand les erreurs en ces trois valeurs de x ont une m^eme valeur absolue et des signes alternes, principe qui sera considerablement developpe par Tchebyche (tout le chap. 2): deuxieme niveau. aVoir V.L. Goncharov, The theory of best approximations of functions, J. Approx. Theory 106 (2000) 2-57. x y 1 0.04 0:04 La meilleure fonction d'erreur relative +

x p1 + x2 1 Dernier exemple, relatif a l'analyse proprement dite cette fois, qui sera etudie da ns ce cours (p. 58 et

n du chap. 3): des fonctions tres lisses, disons C m sur un intervalle compact, son t susceptibles d'^etre approchees par des polyn^omes de degre 6 n avec une erreur se comportant comme une puissance negative de n. Quelles sont les fonctions pour lesquelles l'erreur se comporte comme une puissance faib lement negative de n? On obtient des fonctions continues partout et derivables nulle part. . . , question d'analyse pure (troisieme niveau) fort bien eclairee par ce recours a l'approximation. "Je vis dans l'approximatif et je m'en rapproche de plus en plus" Julos Beaucarne 3. Quelques approximations de fonctions utilisees dans les calculatrices et les ordinateurs 3.1. Calculatrices scienti

ques: le systeme CORDIC. Beaucoup de calculatrices scienti

ques et les premiers coprocesseurs mathematiques ont comme operations de base l'addition, la soustraction et le decalage (= multiplication ou division par 10). On accumule de telles operations pour multiplier et diviser (comme \a la main"). On peut egalement incorp orer la racine carree a ce niveau. Pour l'exponentielle et le logarithme, on dispose en memoire les logarithmes k = l n(1 + 10k) pour susamment de valeurs de k. Calcul de y = ln x: on se ramene a 1 < x < 10, on part d e y = 1, ensuite: 10Le secret consiste a ne retenir d'abord que le dernier element des groupes de p c onsecutifs avec f p de m^eme signe. Ce sous-ensemble d'approximations (reduites) f1=1; 3=2; 7=5; 17=1 2; 41=29; : : :g presente une structure tout a fait interessante (fraction continue: cf. C. Brezinski, History o f Continued Fractions and Pade Approximants, Springer, 1991), I. Niven, Irrational Numbers, AMS & Wiley 11Les premieres preuves de transcendance de e et etaient aussi basees sur des const ructions d'approximations. Voir aussi p. 15. MATH2171 2005-06 { 0 { Intro { 14 pour k=0,1,2,... { x'=x*(1+10^(-k)) ; tant que x'<10 {y=y-lambda_k;x=x';x'=x'*(1+10^(-k)); } } Calcul de y = ex: soit x > 0, on part de y = 1, et pour k=0,1,2,... { x'=x-lambda_k; tant que x'>0 {y=y*(1+10^(-k)); x=x'; x'=x'-lambda_k; } } Pour les fonctions trigonometriques, hyperboliques et leurs inverses, on utilise intelligemment les formules d'addition de ces fonctions. Il sut de se munir d'une table supplementaire constit uee des k = arctg (10k). C'est le systeme CORDIC ( COordinate Rotation DIgital Computer) realise par Volder en 1959, mais on fait remonter l'idee a Henry Briggs (1561-1631), l'un des inventeurs des logarithmes! Cf: J. Laporte, Le secret des algorithmes, L'Ordinateur Individuel n24, 1981, 8992, C.W. Schelin, Calculator function approximation, Amer. Math. Monthly 90 (1983) 3 17-325, cordic.txt, http://devil.ece.utexas.edu/cordic.html 3.2. Approximations polynomiales et rationnelles. Les ordinateurs utilisent le plus souvent l'addition, la soustraction, la multip lication, la division, et souvent aussi la racine carree de nombres \ ottants" (mantisse fois baseexposant, presque toujours en binaire) comme operations elementaires. Le but est alors d'obtenir la precision demandee avec un min imum d'operations, c'est a dire d'approcher la fonction par un polyn^ome ou une fonction rationnelle. Cet exercice n'est pas etranger a ce qu'il y a de plus classique dans l'analyse, un developpement tronque de Taylor servant souvent de point de depart. Ainsi, Hastings [Has, pp.132{137 et 84] propose quelques approximations de arctg x, 1 6 x 6 1: (cf. aussi [Abr, p.81]) 0:995354 x 0:288679 x3 + 0:079331 x5 avec erreur 6 6:08 104, 0:9992150 x 0:3211819 x3 + 0:1462766 x5 0:0389929 x7 (8:14 105),

0:9998660 x 0:3302995 x3 + 0:1801410 x5 0:0851330 x7 + 0:0208351 x9 (1:14 105) 0:99997726x 0:33262347x3 + 0:19354346x5 0:11643287x7 + 0:05265332x9 0:01172120x11 (1:66 106) qui ressemblent a des developpements tronques de la serie de Taylor-Maclaurin arctg x = x x3 3 + x5 5 x7 7 + . On verra comment construire de telles approximations. On devine qu'il faudra une dizaine de termes pour arriver a une erreur 6 108 (pour cette fonction, chaque fois que l'on ajoute un te rme, l'erreur est a peu pres divisee par (p2 + 1)2, on verra cela aussi). D'autres formules plus economiques ont ete imaginees, par exemple, d'apres VS FORTRAN Application Programming: Library Reference, IBM Program Product SC26-3989, 198112, on se rame ne d'abord a 0 6 x 6 1, puis a tg(=12) 6 x 6 tg(=12) = 2 p3 par arctg x = 6 + arctg p3 x 1 x + p3 ! si 1 > x > tg(=12), en

n, l'approximation donnant arctg x dans tg(=12) 6 x 6 tg(=12) est x 0:60310579 0:05160454x2 + 0:55913709 x2 + 1:4087812 avec une erreur < 108. Pour l'exponentielle, le m^eme document propose 2x 1 2x 0:034657359x2 + x + 9:9545948 617:97227 x2 + 87:417497 avec une erreur < 108 quand on s'est ramene a 0 6 x 6 1. 12Grand merci a M. J.L. Marrion qui a fourni cette documentation. MATH2171 2005-06 { 0 { Intro { 15 Des formules de m^eme type sont utilisees pour sin, ln, etc. Cf. aussi J.F. Hart & al., Computer Approximations, Wiley, 1968. 3.3. AGM, etc. Plus recemment, on a imagine de nouvelles categories d'algorithmes pour calculer de s nombres remarquables en tres haute precision (jusqu'a des milliards de decimales pour ). L'algorithme AGM (Arithmetic-geometric mean) consiste, a partir de a0 et b0, a cal culer la suite de moyennes arithmetiques et geometriques successives an+1 = (an + bn)=2 et bn+1 = pan bn. On calcule egalement les cn+1 = (an bn)=2 sous la forme c0 = p a20 b20 , cn+1 = c2 n=(4an+1). Gauss avait deja montre que les suites fang et fbng tendent tres rapidement (quadratiquement) vers une li mite commune AGM(a0; b0) liee a une integrale elliptique: 2 AGM(a0; b0) = Z =2 0 d q a20 c20 sin2 . L'usage de cet algorithme curieux est longtemps reste con

ne au calcul d'integrales de ce type. Puis, R.P Brent (Fast multiple-precision eva luation of elementary functions, J. ACM 23 (1976), 242-251) et E. Salamin (Computation o f using arithmeticgeometric mean, Math. Comp. 30 (1976), 565-570) trouverent d'autres applications, a commence r par une formule rapide pour : = 2( AGM(1; 1=p2))2 1 1X i=0 2ic2i : De plus, [cn=(4an)]1=2n1 tend rapidement vers l'exponentielle de AGM(a0; b0)=AGM(a0; c0), ce qui donne un moyen de calcul rapide des exponentielles et logarithmes, etc. Cf. D.H. Bailey, Algorithm 719: Multiprecision translation and execution of FORT RAN programs, ACM Trans. Math. Soft. 19 (1993) 288-319; A FORTRAN 90- based multiprecision system, ibid. 21 (1995) 379-387. J.M. Borwein, P.B. Borwein, The arithmetic-geometric mean and fast computation o f elementary functions, SIAM Rev. 26 (1984) 351-366, J.M. Borwein, P.B. Borwein, Pi and the AGM, Wiley, 1986, Center for Experimental and Constructive Mathematics, Simon Fraser Univ., http:/ /www.cecm.sfu.ca/ R. Preston, The mountains of pi, The New Yorker, 2 mars 1992. 3.4. Approximations et nombres irrationnels. Les fractions 1=1; 3=2; 7=5; 17=12; 41=29; : : : apparaissant dans la note 10 de p. 13 sont yn=xn avec y2n 2x2 n = (1)n. On peut trouver une in

nite de nombres entiers de plus en plus grands veri

ant cette egalite: en eet, si xn; yn conviennent, on constate que xn+1 = xn +yn et yn+1 = 2xn +yn donne nt bien y2n +1 2x2 n+1 = (y2n 2x2 n). On voit13 aussi que cela revient a appliquer la methode de la puissance xn+1 yn+1 = A[ xn yn ] a la matrice A = [ 1 1 2 1 ] et a obtenir des vecteurs de mieux en mieux alignes sur le vecteur propre [1 ;p2]T : yn+1 p2 xn+1 = (1 p2)(yn p2 xn). Donc, xn et yn ! 1, yn p2 xn 6= 0 et jyn p2 xnj ! 0. On en deduit l'irrationnalite de p2 selon la proposition: Si on trouve une in

nite d'entiers xn et yn, avec xn ! 1, tels que 6= yn=xn et jxn ynj ! 0 quand n ! 1, alors est irrationnel. (En eet, si = A=B avec A et B entiers, on aurait xn yn = (Axn Byn)=B = entier=B, d onc exactement zero ou de valeur absolue bornee inferieurement par 1=jBj. ) Ici, jxnp2 ynj = j2x2 n y2n j=(xnp2 + yn) = 1=(xnp2 + yn) ! 0. Des possibilites de montrer l'irrationnalite de nombres remarquables sont donc liee s a leurs facultes d'approximation. Par exemple, 0 <

e 1 1! 1 2! 1 n!

< 1 (n + 1)! 1 1 1 n + 2 ) e est irrationnel. 13Remarque aimablement communiquee par Michel Coyette. MATH2171 2005-06 { 0 { Intro { 16 On appelle constante de Markov (ou de Lagrange) d'un reel " lim inf x;y2Z x!1 x2j y=xj # , applications en equadi et mecanique celeste14. Les reduites successives Y1 X1 = a1 b1 , Y2 X2 = a1 b1 + a2 b2 , Y3 X3 = a1 b1 + a2 b2 + a3 b3 etc. de la fraction continue = a1 b1 + a2 b2 + veri

l'expressionM() = 1=

ent Xn+1 = bn+1Xn + an+1Xn1, Yn+1 = bn+1Yn + an+1Yn1, et Yn+1 Xn+1 Yn Xn = (1)na1a2 : : : an+1 XnXn+1 . Si on trouve Zn tel que XnZn et YnZn sont entiers, et si la fraction continue converge, on peut parfois tirer une condition d'irrationnalite de jZnXn ZnYnj 6 ZnXn

1X k=n (1)ka1a2 : : : ak+1 XkXk+1

Quelques fractions continues remarquables de fonctions: tg x = x 1 x2 3 x2 5 x2 7 ; ex = 1 + x 1 x 2 + x 3 x 2 + x 5 x 2 + x 7 x 2 + permettent d'etablir que tg x et ex sont irrationnels quand x est rationnel 6= 0. On en deduit que est irrationnel: sinon, tg serait irrationnel. . . Mais comment obtient-on de telles formules? Lagrange15: si y = f(x) veri

e l'equation de Riccati xa(x)y0 = b(x)y2 + c(x)y + d(x), ou a, b, c 2 Pm, et d 2 Pm1, alors, si f(x) = f(0) 1 xf1(x) , f1 veri

e une equation de m^eme type, avec les m^emes degres. En eet, on a xa(x)[xf01 + f1] = b(x)f(0) + c(x)[1 xf1(x)]+d(x)[1xf1(x)]2=f(0), d'ou une equation de Riccati pour f1 avec le m^eme a(x), b1(x) = xd(x)=f(0), c1(x) = c(x) 2d(x)=f(0) a(x), et d1(x) = [b(x)f(0) + c(x) + d(x)=f(0)]=x (qui est bien un polyn^ome si f est developpable en Taylor-Maclaurin). On itere ensuite fn(x) = fn(0) 1 xfn+1(x) , n = 0; 1; : : : : bn+1(x) = xdn(x)=fn(0); cn+1(x) = cn(x)2dn(x)=fn(0)a(x); dn+1(x) = [bn(x)fn(0)+cn(x)+dn(x)=fn (0)]=x; fn+1(0) = dn+1(0)=cn+1(0). Evidemment, ca marche si fn(0) 6= 0, n = 0; 1; : : : Pour la tangente, partir de f0(x) = tgpx px , alors, a(x) = 2, b0(x) = x; c0 = 1; d0 = 1. On trouve pour n > 0, bn(x) = (2n 1)x; cn = (2n + 1); dn = 1=(2n 1); fn(0) = 1=(4n2 1). 14K. Ben-Naoum & J. Mawhin, The periodic Dirichlet problem for some semilinear w ave equations, J. Di. Eq. 96 (1992) 340{354; A.K. Ben-Naoum, On the Dirichlet problem for the nonlinea r wave equation in bounded domains with corner points, Bull. Belg. Math. Soc. Simon Stevin 3 (1996) 345{361 ; A.K. Ben-Naoum, Some results on the Markov number from the theory of Diophantine approximations, Rapp orts Seminaire Math. UCL n254 (1996). 15A.N. Khovanskii, The Application of Continued Fractions and their Generalizati on to Problems in Approximation Theory, P. Noordho, Groningen, 1963. MATH2171 2005-06 { 0 { Intro { 17 En

n, (2n 1)fn(x) = 1 2n + 1 x(2n + 1)fn+1(x) . Pour l'exponentielle, on transforme a partir de ex 1 ex + 1 = tanh(x=2). L'etablissement de criteres d'irrationnalite et de transcendance a partir d'approxim ations de fonctions est une manifestation remarquable du troisieme niveau de la theorie de l'approximation . Dernier resultat sensationnel trouve a ce jour: en 1979, R. Apery montrait que (3) = P 11 n3 est irrationnel au moyen de n3Xn(34n351n2+27n5)Xn1+(n1)3Xn2 = 0 et n3Yn(34n351n2+27n 5)Yn1 + ( n 1)3Yn2 = 0, X0 = 1;X1 = 5; Y0 = 0; Y1 = 6. Une demonstration fait appel aux poly n^omes de Legendre, cf. M. Prevost, A new proof of the irrationality of (2) and (3) using Pa de approximants, J. Comp. Appl. Math. 67 (1996) 219-235. Voir aussi de nombreuses publications dans http:/ /www.cecm.sfu.ca/ 3.5. Approximations les plus simples: bien commencer. Martin Rebas, auteur du do cument \Approximations of Natural Numbers", http://www.dtek.chalmers.se/~d3rebas/humor/irrational.html, (copie dans approxnat.html), qui est aussi le president du club des gens-qui-ne-connaissent-q ue-deux-decimales-de-pi, a juge bon d'aider le debutant en fournissant des approximations des objets mathemati ques les plus simples qui soient, les nombres entiers: 2 p e p2; 3 pe + + ; 4 p2 pe + ; 5 p2 p p2 + ; 6 1 p + e + e, 7 pp1 + e p2 + + ; 8 ep2 p p4 2 + ; 9 e + + ; 10 p2 1 e + + . MATH2171 2005-06 { 1 { Theor. generaux { 18 CHAPITRE 1 Theoremes generaux d'existence et d'unicite de meilleure approximation. Pour un element f d'un ensemble X, il est question d'examiner si on peut trouver p 2 V X le plus proche de f. 1. Distances et normes. 1.1. Rappelons qu'une distance sur un ensemble X est une fonction d de

nie pour tout couple d'elements de X, avec (1) 8(f; g) 2 X X; d(f; g) > 0 , (2) (f = g) () (d(f; g) = 0) , (3) 8(f; g) 2 X X; d(f; g) = d(g; f) (symetrie), (4) 8(f; g; h) 2 X X X; d(f; g) 6 d(f; h) + d(h; g) (inegalite triangulaire). On appelle espace metrique tout ensemble X muni d'une distance. 1.2. Exercices et exemples. Exemples triviaux, grands cercles sur la sphere, dist ance cordale sur la sphere, sur C identi

e a la sphere de Riemann, geodesiques sur une variete, demi-plan de Poincare, lire les pages 65-68 de H. Poincare: La science et l'hypothese1, Flammarion, 1902 = \Champs Flammarion", 1968. Distance padique sur Q. Distance de Hausdor D(A;B) = max sup a2A inf b2B d(a; b) ; sup b2B inf a2A d(a; b) . Distance de Mahalanabis dans Rn: d(x; y) = (x y)TV 1(x y) 1=2 , ou V est une matrice de variancecovariance. 1.3. Remarques. Choquet (Cours d'analyse II, topologie, Masson, 1969) de

nit egalement (pp.60-62) les ecarts et les jauges. On est tres habitue maintenant a voir ces notions topologiques exprimees en termes d 'inegalites non strictes 6 et >. Il n'en a pas toujours ete ainsi: Laurent Schwartz est conscient d'innover en ecrivant2 dans son Cours d'analyse (Hermann, 1967) a la page 17: \Notons que nous rompons ici avec l'usage anterieurement acquis en appelant inferi eur ce qu'on appelait inferieur ou egal, et strictement inferieur ce qu'on appelait inferieur3. La raison d'^etre de ces changements, pleinement justi

es par la suite, est que la notion la plus generalement utilisee est 6 , et qu'il es t bon qu'elle ait l'appellation la plus courte. On devra toujours utiliser 6 plut^ot que < , toute s les fois que cela sera possible; quand on ecrira une inegalite stricte avec < , ce sera pour avertir le lecteur qu'i l y a un point delicat, et que l'inegalite large 6 ne conviendrait pas. Par exemple, la continuite d'une fonction reelle d'une variable reelle en un point a s'ecrira ainsi: quel que soit " > 0; il existe > 0 tel que jx aj 6 entra^ne jf(x) f(a)j 6 " 1Voir http://cedric.cnam.fr/ABU/BIB/auteurs/poincareh.html 2Remarque aimablement communiquee par J. Meinguet. 3En anglais, 6 et > sont toujours \less or equal" et \greater or equal" (note de l'A.) MATH2171 2005-06 { 1 { Theor. generaux { 19 Nous avons mis le symbole d'inegalite large toutes les fois que c'etait possible, e t nous n'avons employe l'inegalite stricte > 0 que la ou c'etait absolument necessaire a l'enonce." Sans transition, la suite PPDA 1.4. Normes. Une norme sur un espace vectoriel X (sur R ou C) doit veri

er (1) 8f 2 X; kfk > 0, (2) f = 0 () kfk = 0, (3) kfk = jj kfk, (4) 8f; g 2 X; kf + gk 6 kfk + kgk. Alors, kf gk est une distance valide. 1.5. Exemples, exercices. Montrez que kf gk > kfk kgk (dans tout triangle, tout c^ote est superieur a la dieren ce des deux autres). Normes de H older sur Rm ou Cm: kxkp = ( Pm 1 jxkjp)1=p ; 1 6 p 6 1 (kxk1 = maxk jxkj). Cf. [Dav] pp. 130{133. Normes de H older sur Lp(A): kfkp = ( R A jf(t)jp)1=p ; 1 6 p 6 1 (kfk1 = supt2A jf(t)j. Normes ponderees: si wk > 0, k = 1; : : : ;m, kxkw = kyk, avec yk = wkxk est encor e une norme; si w(t) > 0 presque partout sur A, kw(t)f(t)k est encore une norme de f. La norme est une fonction continue sur X: si limn!1 fn = f, c'est-a-dire si kf fn k ! 0 quand n ! 1, on a kfnk ! kfk, puisque j kfkkfnk j = j kfn+(ffn)kkfnk j 6 kffnk. La norme est m^eme une fonction lipschitzienne:

kfk kgk kf gk

6 L = 1. Sur un espace de dimension

nie V , la norme est une fonction continue des coordonnees dans une base quelconque: soient fa1; : : : ; ang et fb1; : : : ; bmg les compos antes de f et g dans V de base '1; : : : ; 'mg. Alors, kf gk = k Pk 1(ak bk)'kk 6 Pk 1 jak bkj k'kk 6 C maxk jak bkj, avec C = Pk 1 k'kk. Inversement, les composantes sont continues selon toute norme donnee sur V de dim ension

nie: si f = Pm 1 aj'j et g = Pm 1 bj'j , montrons que jak bkj 6 C0kf gk, ou C0 ne depend que de la base f'1; : : : ; 'mg de V . Sinon, on pourrait trouver une in

nite d'elements fn 6= 0 de V avec fn = Pm 1 a(n) j 'j , et ja(n) k j=kfnk ! 1. Divisons les composantes de chaque fn par la plus grande d'entre e lles: on a maintenant une suite fgng de composantes bornees (par l'unite), avec kgnk ! 0. Extrayons des suites convergentes de composantes, on obtient une suite fgnigi convergente, et on peut s'arranger pour que l'une des composantes de la limite soit egale a 1. Comme kgnk ! 0, on a une representation de limn!1 gni = le vecteur nul avec des composantes non nulles, ce qui est impossible si f'kg est une base de V . Tout ceci con

rme la proposition bien connue d'equivalence des normes sur un espace vectoriel de dimension

nie: si k k et k k

sont deux normes valides sur V de dimension

nie, 8f 2 V;Dkfk

6 kfk 6 Ckfk

; avec 0 < D 6 C < 1. Si k k est une norme donnee, et si k k

est une norme, utile aux calculs, construite a partir d'une representation dans une base, la base est d'autant plus interessante que le rapport C=D MATH2171 2005-06 { 1 { Theor. generaux { 20 est petit (proche de l'unite). En eet, pour estimer la proximite de deux elements de X en erreur relative kf gk=kfk en ne connaissant que la valeur des normes k k

, on a 1 K = D C 6 kf gk=kfk kf gk

=kfk

6 C D = K (nombre de condition, ou conditionnement) (1) Savoir que C=D < 1, c'est de l'analyse; savoir estimer C=D, c'est de l'analyse n umerique. Notation. On designe par Pn l'ensemble des polyn^omes de degre 6 n. C'est une espa ce vectoriel de dimension n + 1. N.B.: L'ensemble des polyn^omes de degre exact n n'est pas un espace vectoriel! 1.6. Exercices, exemples. On prend k k = norme du maximum pour des fonctions cont inues sur [0; 1], V = P1;P2,. . . , k k

= maximum des jcoecientsj dans la base des mon^omes 1; x; x2,. . . Ce n'est just ement pas une tres bonne base quand le degre augmente: 1 2 max(jaj; jbj) 6 max 06x61 jax + bj 6 2 max(jaj; jbj) ; 1 8 max(jaj; jbj; jcj) 6 max 06x61 jax2 + bx + cj 6 3 max(jaj; jbj; jcj) ; comment les choses evoluent-elles avec le degre? (voir plus loin (point 3, p. 41). On notera Br la boule ff 2 X : kfk 6 rg (fermee) de centre 0 et de rayon r, Br(c) la boule ff 2 X : kf ck 6 rg de centre c 2 X et de rayon r. Formes de la boule unite B1 de R2: 6 k k1 6 k k2 6 k k1 1.7. Formes et applications lineaires continues sur des espaces vectoriels normes de fonctions. 1.7.1. .L'expression generique d'une forme continue sur l'espace C [a; b] des fonc tions continues sur [a; b], norme par k k1, est ' : '(f) = Z b a f(x) (x) dx; ou est une fonction integrable sur [a; b]. On etablit d'ailleurs que la norme de ce tte forme ' vaut k'k = sup kfk161

Z b a f(x) (x) dx

= Z b a j (x)j dx = k k1 MATH2171 2005-06 { Ce ne sont pas les nctuelles ' : '(f) = XM k=1 k f(xk); (2) ou les k et les xk

: 1 { Theor. generaux { 21 seules expressions possibles: toute combinaison de valeurs po

sont

xes, convient egalement. On trouve alors (c'est encore plus facile), k'k = XM k=1 jkj : Voir aussi les integrales de Riemann-Stieltjes Z b a f(x) d(x) au chap. 3, (53), p. 73. 1.7.2. . Une forme contenant des derivees, comme '(f) = Z b a f0(x) (x) dx ; ou '(f) = XM k=1 k f0(xk); n'est normalement pas bornee dans un espace de fonctions norme par k k1. On doit p rendre une autre norme, par exemple kfk = kfk1 + kf0k1. 1.7.3. . Dans un espace X de dimension

nie de fonctions continues, toute forme de

nie partout est continue et peut d'ailleurs s'exprimer comme (2): si fb0; : : : ; bNg est une base de X, on peut ecrire, 8f 2 X, f = PN 0 cibi. Alors, on voit que ' ne depend que des '(bi): '(f) = PN 0 ci'(bi). Eliminons les ci a partir de N +1 valeurs de f en des points x0; : : : ; xN: f(xi ) = PN 0 cjbj(xi), d'ou [0; : : : ; N] = ['(b0); : : : ; '(bN)][bj(xi)]1; valable si la matrices des bj(xi) est non singuliere (unisolvance, voir plus loin , probleme d'interpolation en general, x 1.2, p. 141). 1.7.4. . Dans Lp, utiliser H older: '(f) = Z b a f(x) (x) dx ) k'k = k kq; si 2 Lq, p1 + q1 = 1. 2. Existence d'une meilleure approximation. Pouvez-vous dire mieux? Coluche 2.1. Theoreme d'existence de meilleure approximation dans un sous-espace de dimension

nie. Soit X un espace vectoriel norme sur R ou C et V un sous-espace vectoriel de dimension

nie de X. Alors, 8f 2 X, il existe au moins un p 2 V tel que kf pk = infq2V kf qk. MATH2171 2005-06 { 1 { Theor. generaux { 22 V 0 f Bkfk(f) p Demonstration: en eet, soit E = infq2V kf qk. Comme q = 0 est dans V , on a E 6 kfk. Il sut donc d'examiner kfqk sur la partie fermee bornee K = Bkfk(f) T V de V de dimension

nie. La fonction continue kf

qk atteint son in

mum E en au moins un point q = p du compact K. Sur la

gure, on a note Bkfk(f) qui contient 0 sur sa frontiere, et aussi BE(f) (en trait plus gras) qui touche V en p. La demonstration peut se faire en termes des composantes de q dans une base de V . La norme kf qk appara^t alors comme une fonction continue de ces composantes ree lles ou complexes, que l'on minimise donc sur une partie compacte eK de Rm ou Cm, avec eK = fa1; : : : ; am : Pm 1 ak'k 2 Kg. Remarquons que K est entierement contenu dans la boule B2kfk: si kf qk = kq fk 6 kfk, kqk = kf + (q f)k 6 kfk + kq fk 6 2kfk. Le vecteur des composantes de q veri

e donc kak 6 2kfk=D. 2.2. Contre-exemple. Voici un exemple de non-existence quand on approche sur une partie de X qui n'est pas un sous-espace vectoriel : on prend X = C [1; 1], la norme du maximum, f(t) = t, V = faebt + cedtga;b;c;d2R. On trouve E = 0: prendre q(t) = N(et=N et=N)=2 = N sinh(t=N) = t + t3=(6N2) + , on a donc kt q(t)k1 aussi petit que l'on veut, mais il n'existe pas de q 2 V tel qu e kq fk = E = 0, f(t) = t n'est pas une combinaison d'exponentielles. Cf. aussi [Dav, p.153]. Autre exemple de supremum inaccessible: soit F une fonction positive strictement decroissante sur [0;1). Probleme 1: maximiser la moyenne de F, R 1 0 F(x) d(x) sur les mesures de probabilite . Le resultat ne peut depasser F(0) et est evidemment realise avec la mesure ponctuelle 0 en 0. Probleme 2: on se limite maintenant aux mesures de moyenne m > 0. On peut encore s'approcher autant que l'on veut de F(0): prendre les mesures (1")0+"m=" qui ont bien une moyenne R x d(x) egale a m, et qui donnent R F d = (1")F(0)+"F (m="). Le supremum est donc encore F(0). Mais il n'est atteint que par 0 qui a une moyen ne 0 6= m. . . 2.3. Remarque. Si p est une meilleure approximation de f dans V et si q 2 V , p + q est une meilleure approximation de f +q dans V . Ou encore: f p est l'element de no rme minimale de l'espace ane f + V . En eet, soit E = kf pk. On a kf +q (p+q)k = kf pk = E. S'il y avait un element r de V veri

ant kf + q rk < E, r q serait une meilleure approximation de f que p. 3. Unicite de la meilleure approximation. 3.1. De

nition. Convexite. Une partie P d'un espace vectoriel X est convexe si f et g 2 P =) f + (1 )g 2 P pour 8 2 [0; 1] (combinaison convexe de f et g). Toute boule Br(f) = fg 2 X : kg fk 6 rg d'un espace metrique X est convexe. Toute variete lineai re de X est convexe. 3.2. Proposition. Dans les conditions du theoreme precedent, l'ensemble des meilleur es approximations de f dans V est une partie convexe de V . En eet, cet ensemble est BE(f) T V , l'intersection de deux convexes est convexe. Par exemple, prendre la norme du maximum sur [1; 1], f(t) = t, V = fat2 + bga;b2R. MATH2171 2005-06 { 1 { Theor. generaux { 23 3.3. De

nition. Une norme est stricte si la boule unite est strictement convexe, c'est-adi re si kfk 6 1; kgk 6 1; kf + gk = 2 ) f = g. Les normes k k1 et k k1 ne sont pas st rictes. La norme k kp est stricte si 1 < p < 1 ([Dav, p.141]). On verra plus tard (chap. 3) qu'une norme derivant d'un produit scalaire est touj ours stricte: kf +gk2 = kfk2 + 2(f; g) + kgk2 ne vaut 4 que si kfk = kgk = (f; g) = 1 ) kf gk2 = kfk2 2( f; g) + kgk2 = 0. 3.4. Une condition susante d'unicite. Theoreme. Le probleme pose au theoreme 2.1 a une solution unique si la norme de X est stricte. En eet, toujours avec E := minq2V kf qk, soit E > 0 (si E = 0, la seule meilleure approximation est f lui-m^eme). Supposons que p1 et p2 sont deux meilleures appr oximations distinctes de f. On a

f p1 E

= 1,

f p2 E

= 1, donc

2f p1 p2 E

< 2, ou encore kf (p1 + p2)=2k < E: (p1 + p2)=2 serait un element de V meilleur que p1 ou p2. Dans le cas des normes non strictes, des theoremes d'unicite pourront encore ^etre e tablis, on verra un cas au chapitre suivant. 3.5. Exercice. En plus de l'exemple dans 3.2, voir ces deux exemples de non unic ite

([Pow, pp. 18-19]): X = C [1; 1] avec k k1, f = la constante 1, V = fxg2R; le m^eme X, mais avec k k1, le m^eme f, V = f(1 + x)g2R. 4. Continuite du projecteur de meilleure approximation. Que la norme soit stricte ou non, si X et V sont tels que 8f 2 X possede exacteme nt une meilleure approximation dans V , on peut de

nir le projecteur P: Pf = meilleure approximation de f dans V: Ce projecteur (P2 = P) est normalement une application non lineaire X ! V . Par exemple, prendre X = C [1; 1], la norme du maximum, V = constantes, f(t) = t, g(t) = t2, on a Pf = 0, Pg = 1=2, P(f + g) = 7=8 6= Pf + Pg. (Sur les constantes, Pf = (maxt2A f (t) + mint2A f(t))=2.) On a quand m^eme P(f) = Pf pour tout scalaire . 4.1. Theoreme de continuite. Dans les conditions du theoreme 2.1, si tout f de X admet exactement une meilleure approximation Pf dans V , l'application P est con tinue sur X. En eet ([Che] pp. 23{24), soit f 2 X. Il faut montrer que, 8 > 0, il existe un vo isinage non vide fg : kg fk 6 g entierement envoye par P dans la boule de centre Pf et de r ayon . Supposons qu'il n'en est rien: il existe donc un > 0 tel que tous les voisinage s de f ont des images par P contenant au moins un element situe a distance > de Pf. . . Il y a donc une suite ffng convergeant vers f: fn !n!1 f dans X, et dont les ima ges ne tendent pas vers Pf: kPfn Pfk >

xe > 0. Comme kfnk ! kfk (continuite de la norme), toutes les normes kfnk sont bornees par un m^eme nombre M; on a vu que Pfn se trouve necessairement dans la boule de centre fn et de rayon kfnk, donc dans B2kfnk B2M. Tous les Pfn et Pf sont donc dans le compact B 2M T V de V (compact parce que V est de dimension

nie). Nous pouvons donc considerer une suite extraite convergente fPfnig des Pfn, de limite h 2 V , necessairement distinct de Pf, mais MATH2171 2005-06 { 1 { Theor. generaux { 24 alors kh fk = lim j!1kPfnj fnjk 6 lim j!1kPf fnjk puisque Pfnj est meilleure que Pf 6 kPf fk impossible si h 6= Pf, puisque Pf est la seule meilleure approximation de f dans V . 4.2. Forte unicite. On peut parfois quanti

er la distance entre f et un element quelconque q de V par une inegalite de la forme kf qk > kf Pfk + kPf qk; avec > 0 dependant de f et V , mais pas de q. Cela revient a une condition de z pour le projecteur P: kPf Pgk kf gk 6 ; avec = 2= ([Che] pp. 80{82). 5. Dualite. Si est une forme lineaire 6= 0 continue sur X, de noyau contenant V , on q) pour 8q 2 V , en particulier avec la meilleure approximation p de f: j(f)j = j(f p)j 6 kkE(f), ou E(f) := kf pk. On a donc la borne inferieure E(f) > j(f)j=kk si (q) = On aura l'occasion de concretiser cette propriete au chapitre suivant (xx 4). Theoreme. Si X est un espace de Banach, V un sous-espace de dimension

Lipschit

a (f) = (f

0; 8q 2 V . 2.2 et 2.

nie de X, E(f) = max 2V ? kk=1 (f): On applique le theoreme de Hahn-Banach ([DeVLor] p.61, [Mei] x 1.3). Extension a la meilleure approximation sur une partie convexe de X: Theoreme de Fenchel. Si W est une partie convexe de l'espace norme X, on a E(f) := inf q2W kf qk = sup 2X kk61 (f) sup q2W (q) : Cf. [DeVLor] p.61{62. 6. Exemples et exercices. 6.1. (1) Prendre X = C [a; b], V = les constantes, et (a) k k1: on obtient p = (max f + min f)=2. Remarquer que kf qk1 a un point critique non derivable en q = p. (b) k k2: kf qk22 est simplement un trin^ome du second degre en q. On obtient p = (b a)1 R b a f(x)dx. (c) k k1: supposer d'abord f monotone ) p = f((a + b)=2). (3) Prendre X = ff 2 C [0; 1] : f(0) = 0g et V = fq(x) = axga2R. Comparer avec T aylor xf0(0) pour quelques fonctions simples de V , par exemple sin x, etc. MATH2171 2005-06 { 1 { Theor. generaux { 25 (4) Systemes surdetermines d'equations lineaires. On ne peut (normalement) pas resoudre exactement N equations lineaires a n inconnues si N > n. On choisit x 2 Rn tel que kbAxk soit minimum selon une norme de RN. Cela correspond a X = RN et V = espace sous-tendu par les colonnes de A. k k2: moindres carres Cf. G.A. Watson, Approximation Theory and Numerical Methods, Wiley, 1980, pour k k1 et programmation lineaire: [Sti] x 2.7. 6.2. Moyenne et mediane. Reprendre les constantes, mais pour approcher une fonction discrete, par exemple des cotes d'etudiants (exemple purement imaginaire4): x 1 2 3 4 5 f(x) 18 17 16 14 2 Le bon sens suggere que l'examen a ete bien reussi, qu'il n'y a qu'un cas malheureux a deplorer. Pourtant, la meilleure constante selon la norme du maximum k k1 est (mini f(xi) + maxi f(xi))=2 = 10 suggere une assez mediocre performance d'ensemble: cette norme est trop sensible aux cas extr^emes pour ^etre utile ici. Selon k k2, on obtient la moyenne 67=5 = 13:4, encore curieusement basse: tous l es etudiants sauf un seraient au-dessus de la moyenne. . . La vraie performance moyenne (au demeurant excellente) est evidemment celle de l'e tudiant classe en (n=2)eme position (mediane). Elle est obtenue en minimisant

kf ck1 = Xn i=1 jf(xi) cj selon c, ce qui donne bien c = f(xn=2). (Plus precisement: f(x(n+1)=2) si n est impair; f(xn=2) ou f(x1+n=2) si n est pair: exemple de non unicite). 6.3. Principaux sous-espaces de fonctions utilises en approximation. (1) Pn, polyn^omes de degre 6 n. Base usuelle: f1; x; x2; : : : ; xng. Dimension n + 1. On se preoccupera beaucoup de determiner des bases plus ecaces. . . (2) Tn, polyn^omes trigonometriques de degre 6 n. Bases les plus utilisees: ff1; cos x; cos 2x; : : : ; cos nxg; fsin x; sin 2x; : : : ; sin nxgg; feinx; ei(n1)x; : : : ; eix; 1; eix; : : : ; einxg. Dimension 2n + 1. (3) Sk n(), fonctions spline de

nies sur [a; b] a partir d'un decoupage = fa = x1 < x2 < < xN1 < xN = bg. f 2 Sk n() si (a) f est de classe C k dans [a; b], et (b) la restriction de f a un sous-intervalle [xi; xi+1] est un polyn^ome de degre 6 n. Une base: f1; x; : : : ; xn; (xx2)k+1 + ; : : : ; (xx2)n +; (xx3)k+1 + ; : : : ; (xx3)n +; : : : ; : : : ; (x xN1)k+1 + ; : : : ; (xxN1)n +g, ou F+ designe la fonction qui vaut zero quand F(x) 6 0, et qui vaut F(x) quand F(x) > 0. Dimension: n + 1 + (n k)(N 2). Base la plus elegante: B-splines, nulles sur le plus grand nombre possible de sous intervalles. (4) Ek n, combinaisons de polyn^omes et d'exponentielles donnees: Xk j=1 pj(x)ejx; pj 2 Pn. 4d'apres un exemple donne par J. Buijs, KULeuven. MATH2171 2005-06 { 1 { Theor. generaux { 26 6.4. Centre et rayon de Tchebyche d'une partie P de X. A C B c 2 X est un centre de Tchebyche de P si supx2P kcxk est la plus petite possible, cette norme minimale est appelee rayon de Tchebyche de P. C'est donc le rayon de la plus petite boule contenant P. Par exemple5, tous les points du segment vertical (0;1) (0; 1) sont des centres du segment horizontal (1; 0) (1; 0) de R2 muni de k k1. Plus etonnant: ou est (sont) le(s) centre(s) du triangle de sommets A = (1;1;1), B = (1; 1; 1) et C = (1; 1;1) de R3 muni de k k1? Le triangle est entierement contenu dans la boule de rayon 1 centree a l'origine (le cube de la

gure ci-contre). Tout autre centre presume (c1; c2; c3) ne convient pas car au moins une des dierences ci la ieme coordonnee d'un des points A, B, ou C a une valeur absolue > 1 (il y a toujours une de ces coordonnees qui vaut 1 et une qui vaut 1). La curiosite est donc que le centre n'est pas dans P. On montre que toute partie de X admet un centre dans son enveloppe convexe si et seulement si X est prehilbertien (voir ce mot en p. 74). Cf. Klee, Victor, Circumspheres and inner products. Math. Scand. 8 1960 363{370. Garkavi, A. L. On the Cebysev center and convex hull of a set. (Russian) Uspehi Mat. Nauk 19 1964 no. 6 (120), 139{145. Holmes, Richard B. A co urse on optimization and best approximation. Lecture Notes in Mathematics, Vol. 257. Springer-Verlag, Berlin-New York, 1972. viii+233 pp. 6.5. Largeurs de Kolmogorov. A un degre plus eleve de maturite, la theorie de l'appro ximation se pose le probleme suivant: pour une norme donnee, et une partie P donnee de X, on co nsidere tous les sous-espaces V de dimension m de X, et on evalue pour chaque V l'erreur du \plus mauvais" f de P: M(V ) = supf2P minq2V kf qk. On minimise alors M(V ) selon V . . . On ne sait do nc pas a l'avance quelle sera la nature des approximations. Exemple (A. Pinkus, n-Widths in Approximation Theory, Springer, 1985): X = ff : f 2 C r[0; 2] avec f(0) = f(2), f0(0) = f0(2),. . . f(r1)(0) = f(r1)(2)g muni de la norme de L2, P = ff : f 2 X; kf(r)k 6 1g. On trouve V = T n1, espace des polyn^omes trigonometriques de degre 6 n 1 = plus gr and entier < m=2; M(V ) minimum = 1=nr . C'est une facon de justi

er l'inter^et numerique des series de Fourier. Cf. aussi C.A. Micchelli, T.J. Rivlin, Editors: Optimal Estimation in Approximat ion Theory, Plenum Press, New York, 1977. 6.6. Coapproximation. \Soit E un espace vectoriel norme, G un sous-espace de E et x 2 E. Tout element g0 2 G veri

ant 8g 2 G : kg0 gk 6 kx gk est appele element de meilleure coapproximation de x par de s elements de G." Dans un prehilbertien, approximation et coapproximation sont equivalentes. Cf. Papini, Pier Luigi; Singer, Ivan: Best coapproximation in normed linear spac es. Monatsh. Math. 88, 27-44 (1979). Rao, Geetha S.; Swaminathan, M.: Best coapproximation and Schauder bases in Banach spaces. Acta Sci. Math. 54, No.3/4, 339-354 (1990). Rao, Geeta S.; Muthukumar, S.: Semicontinuity properties of the coapproximation operator. Math. Today 5, 37-48 (1987). Rao, Geetha S.; Ch andrasekaran, K.R.: Characterizations of elements of best coapproximation in normed linear spaces. P ure Appl. Math. Sci. 26, 139-147 (1987). Rao, Geetha S.; Swaminathan, M.: On normal bases. Bull. Calcutta Math. Soc. 88, No.2, 107-112 (1996). 5Exemples et references fournis par Michel Coyette. MATH2171 2005-06 { 2 { Tchebyche { 27 CHAPITRE 2 Approximation au sens de Tchebyche. 1. Theoreme d'equioscillation de Tchebyche. \Approximation au sens de Tchebyche" signi

e simplement meilleure approximation utilisant la norme du maximum k k1, ce qui n'a rien que de tres banal, semble-t-il1. La con tribution cruciale de P.L. Tchebyche (1821-1894) consista a decrire de facon saisissante cette meilleure approximation. Voyons immediatement le theoreme essentiel de Tchebyche: 1.1. Theoreme d'equioscillation de Tchebyche (1853). 2 Soit X = C [a; b] l'espace des fonctions continues reelles sur l'intervalle compa ct [a; b], V l'espace Pn des polyn^omes reels de degre 6 n. Alors ^p est la meilleure approxima tion de f dans Pn au sens de la norme du maximum si et seulement si on peut trouver n + 2 points distincts dans [a; b] a 6 xn+1 < xn < xn1 < : : : < x1 < x0 6 b ou f ^p prend des valeurs de m^eme valeur absolue E = kf ^pk1 et de signes alterne s: f(xi) ^p(xi) = E(1)i ; i = 0; 1; : : : ; n + 1; (3) ou est le signe de f(x0) ^p(x0). Un tel ensemble de points est appele alternant . Il est en eet indispensable qu'il ne soit, en aucun endroit, susceptible de plus ou de moins. . . . Le point a partir duquel il est egal en tout sens tend egalement vers ses limites. Parmenide On peut donc avoir plusieurs points, ou m^eme tout un intervalle, ou f ^p atteint un extremum, ces points ne comptent que pour un point tant que f ^p n'atteint pas l' extremum oppose (voir

gure qui represente un exemple de graphe de f ^p). 1On dit aussi \approximation minimax". 2 Tres exactement, dans \Theorie des mecanismes connus sous le nom de parallelogramm es", Memoires presentes a l'Academie Imperiale des sciences de St.-Petersbourg par divers savants, V II, 1854, pp. 539{568, Lu le 28 janvier 1853, ou le theoreme d'equioscillation est esquisse. Tchebyche reprend l a question de maniere beaucoup plus detaillee dans un article de 1859 (lu le 9 octobre 1857) \Sur les qu estions de minima qui se rattachent a la representation approximative des fonctions" [Tche]. Il a fallu att endre le 20eme siecle et le developpement de la notion de compacite (Borel) pour arriver a la demonstration comp lete [Che]. MATH2171 2005-06 { 2 { Tchebyche { 28 a b E E x1 z1 x0 z2 : : :u5 u4 u3 u2 u1 d6 d5 d4 d3 d2 d1 f(x) ^p(x)

Les points on ete numerotes a partir de la droite, on verra plus loin que c'est plus commode. 1.2. Preuve de la condition necessaire: ^p optimal dans Pn ) (3). 1.2.1. Deux premiers points. On a donc E = kf^pk = maxa6x6b jf(x)^p(x)j. La foncti on continue jf ^pj atteint en au moins un point de [a; b] son maximum E. En fait, f ^p atteint sa valeur maximale Emax en au moins un point, et sa valeur minimale Emin en au m oins un autre point. Par de

nition de E, E = max(Emax;Emin). En fait, E = Emax = Emin: s'il en etait autrement, par exemple si minx(f(x) ^p(x)) = > E, soit := (E + )=2. Remarquons que 6= 0.Alors, ^p + serait meilleur que ^p: (E ) = = min x (f(x) ^p(x) ) 6 max x (f(x) ^p(x) ) = E ; on aurait donc kf ^p k1 = E < E. M^eme raisonnement si on avait maxx(f(x) ^p(x)) < E. On a donc deja un alternant d'au moins deux points. Prenons n > 0 puisqu'il n'y a plus rien a demontrer si n = 0. 1.2.2. Decoupage. Comme f ^p est continue sur le compact [a; b], elle y est unifo rmement continue: 8" > 0, 9 > 0 tel que dans tout intervalle de longueur dans [a; b], l'o scillation de f ^p est inferieure a ". Prenons le correspondant a " = E=2 et divisons [a; b] e n s 1 intervalles3 [us; us1], [us1; us2],. . . , [u2; u1] de longueurs 6 , avec a = us < u s1 < : : : u2 < u1 = b. Sur les intervalles [uk+1; uk] ou jf ^pj atteint son maximum E, jf ^pj ne peut prendre des valeurs inferieures a E=2, de sorte que f ^p garde un signe constant sur ces i ntervalles-la (il y en a au moins deux). Notons, a partir de la droite, d1, d2,. . . , dN ces i ntervalles. Sur les autres intervalles (fermes) [ui+1; ui], la fonction continue jf ^pj n'atteint jam ais la valeur E, elle atteint donc une valeur maximale que nous notons E. On a E < E. Soit = +1 ou 1 le signe de f ^p sur d1. Regroupons ces intervalles tant que f ^p y garde le m^e me signe: d1; d2; : : : ; dk1 signe = dk1+1; dk1+2; : : : dk2 signe = : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : dkm1+1; dkm1+2; : : : dkm signe = (1)m1 9>>>>= >>>>; Dans le cas de la

gure, on a = 1, k1 = 4, k2 = 5, k3 > 6. . . Montrons que m > n + 2. 3Ici, on suit [a peu pres] les notations de Natanson [Nat] pp. 26 et suivantes; vo ir aussi [Riv1, chap. 1, x 1.2]. MATH2171 2005-06 { 2 { Tchebyche { 29 Supposons que m < n+2. Comme la fonction continue f ^p a le signe sur tout l'int ervalle dk1 et le signe oppose sur tout l'intervalle dk1+1, il y a au moins un intervalle [ur+1; ur] entre dk1+1 et dk1 . Soit z1 2 (ur+1; ur) (l'intervalle ouvert!). On peut d'aill eurs prendre un point entre dk1+1 et dk1 ou f ^p s'annule. De m^eme, on choisit z2 entre dk2+1 et dk2 , . . . , zm1 entre dkm1+1 et dkm1 . 1.2.3. Construction d'un polyn^ome meilleur que ^p si m < n + 2. . On construit alors (x) = (x z1)(x z2) : : : (x zm1): C'est un polyn^ome de degre m 1 < n + 1, donc un element de V = Pn. Le polyn^ome ne s'annule qu'aux zi, donc garde un signe constant sur chaque intervalle di. Le polyn^ome a precisement le m^eme signe que f ^p sur chaque di: sur d1,. . . , dk1 , (x) et f(x ) ^p(x) ont tous deux le signe puisque x > z1 > z2 > : (x) > 0; sur dk1+1,. . . , dk2 , (x) et f(x) ^p(x) ont tous deux le signe puisque z1 > x > z2 > : (x) < 0, etc. Montrons que l'on peut trouver > 0 assez petit tel que ^p + soit meilleur que ^p: sur les d i, f(x) ^p(x)(x) garde le signe de f(x) ^p(x) pourvu que j(x)j soit toujours plus petit que jf(x) ^p(x)j > E=2, il sut donc de prendre 0 < < E=(2kk1) .Le maximum de jf ^p j sur les di sera donc reduit a un nombre inferieur a E minx2[di j(x)j < E. En

n, sur les intervalles [ui+1; ui] qui ne sont pas des di, on sait que jf(x) ^p(x )j ne depasse pas E < E, donc, avec < (EE)=kk, le maximum de jf ^pj reste encore inferieur a maxx62[di jf ^pj + kk < E. Si m < n+2, on peut donc construire une approximation meilleure que ^p dans Pn, ce qui est impossible: m > n + 2. 1.3. Preuve de la condition susante (3) ) ^p optimal dans Pn. Montrons que, si on a pu construire ^p 2 Pn tel que f ^p possede un alternant de n + 2 points, ^p ne peut ^etre ameliore: si q 2 Pn etait meilleure approximation que ^p, on aurait kf qk1 < E = kf ^pk1 (on ne considere que le cas f 62 Pn : E > 0). Examinons ce qui se passe en x0, x1,. . . , xn+1: f(x0) ^p(x0) = E et jf(x0) q(x0)j < E, do nc, q(x0) ^p(x0) = f(x0) ^p(x0) (f(x0) q(x0)) est non nul avec le signe . En x1, q ^p a le signe , etc. Le polyn^ome q ^p devrait donc s'annuler en n+1 points distincts separ ant les n + 2 points xi, ce qui n'est pas possible avec un polyn^ome non nul de degre 6 n . 1.4. Exemple. La fonction f(x) = sin 6x ne peut ^etre approchee sur [0; 1] par un polyn^ome meilleur que le polyn^ome nul tant que le degre reste 6 4. En eet, avec p(x) 0, f p presente un alternant de 6 points en 1=12; 3=12; : : : ; 11=12, de sorte que 0 est optimal dans P0,. . . , P4. 1.5. Theoreme d'unicite de la meilleure approximation polynomiale au sens de Tchebyche. La meilleure approximation polynomiale de degre 6 n au sens de Tchebych e d'une fonction reelle continue sur un compact [a; b] est unique. Comme la norme de Tchebyche n'est pas stricte, on ne peut appliquer un theoreme general, mais le raisonnement particulier suivant etablit la proposition: Si p et q sont deux polyn^omes de meilleure approximation, il en est de m^eme de (p + q)=2 (combinaison convexe). Donc, par le theoreme d'equioscillation, f (p + q)=2 possede un alternant de n + 2 points fx0; x1; : : : ; xn+1g (condition necessaire). En un de ces points, soit xk, on a f(xk) (p(xk) + q(xk))=2 = kE, ou k = (1)k est le signe approprie, donc f(xk) p(xk) + f(xk) q(xk) = 2kE. Comme jf(xk) p(xk)j et jf(xk) q(xk)j sont tous MATH2171 2005-06 { 2 { Tchebyche { 30 deux 6 E, cela n'est possible que si f(xk) p(xk) = kE et f(xk) q(xk) = kE, donc q(xk) = p(xk) en n+2 points distincts, le polyn^ome qp devrait s'annuler en ces n +2 points, impossible avec un polyn^ome non nul de degre 6 n. 2. Proprietes de la meilleure approximation. 2.1. Symetrie. Theoreme. Si f est une fonction paire sur un intervalle de la forme [a; a], c'est-a-dire si 8x 2 [a; a]; f(x) = f(x), alors sa meilleure approximation ^ p de degre 6 n au sens de Tchebyche est egalement une fonction paire. De m^eme, si f est une fonction impaire (f(x) = f(x)), ^p est une fonction impaire4. En eet, soit f(x) = sf(x) avec s = 1 (fonction paire) ou s = 1 (fonction impaire). On a E = kf(x) ^p(x)k1 = kf(x) ^p(x)k1 = ksf(x) s^p(x)k1 = kf(x) s^p(x)k1; d'ou on conclut que s^p(x) est egalement une meilleure approximation de f sur le m^ eme intervalle [a; a], d'ou, par unicite, s^p(x) = ^p(x). Si f est paire sur [a; a], la meilleure approximation de degre 6 2n presente donc ne cessairement

un alternant d'au moins 2n+3 points (puisque le m^eme ^p est egalement optimal da ns P2n+1)! Par exemple, x2 + 1=8 est la meilleure approximation de degre 6 3 de jxj sur [1; 1 ]. Les points extremaux de la fonction d'erreur sont bien a nombre de 5: 0, 1=2 et 1. 2.2. Theoreme (de La Vallee Poussin). Soit f continue sur le compact [a; b] et ^p s a meilleure approximation de degre 6 n au sens de Tchebyche. Soit E = kf ^pk1. Alors, si on conna^t p 2 Pn et des points a 6 x0 n+1 < x0 n < : : : < x0 1 < x0 0 6 b ou f p prend des valeurs de signes alternes, on a min 06i6n+1 jf(x0 i) p(x0 i)j 6 E: En eet, si tous les jf(x0 i)p(x0 i)j etaient > E, chaque ^p(x0 i) p(x0 i) serait du m^eme signe que f(x0 i) p(x0 i), puisque ^p(x0 i) p(x0 i) = f(x0 i) p(x0 i) (f(x0 i) ^p(x0 i)) et que f(x0 i) ^p(x0 i) n'est pas assez grand (sa valeur absolue est 6 E) pour renverser le signe de f(x 0 i) p(x0 i). Le polyn^ome ^pp 2 Pn devrait donc prendre des signes alternes en n+2 points, donc changer de signe en n + 1 points intermediaires, ce qui est impossible5. Ce dernier theoreme permet d'apprecier dans quelle mesure un polyn^ome p 2 Pn est proche de ^p: si p est tel que les signes des f(x0 i) p(x0 i) soient alternes, on a l'encadrement pour E min i jf(x0 i) p(x0 i)j 6 E 6 max a6x6b jf(x) p(x)j; puisque p n'est (normalement) pas optimal et que le dernier terme n'est autre qu e kf pk1. Si les deux normes E = kf ^pk et kf pk sont proches, p et ^p sont egalement proch es, par forte unicite (Chap. 1, x 4.2, p. 24, qu'on demontrera dans un instant): kp ^pk 6 (kf pk E)= . 4Cas particulier d'un theoreme d'invariance, [Mei] pp. 25-26. 5Exercice. Montrez cette variante: soit un polyn^ome p 2 Pn tel que f p a des sig

nes alternes en n+2 points a 6 x0n+1 < x0n < : : : < x00 6 b, alors, pour tout polyn^ome q 2 Pn, on a, en au moins un des points x0i, jf(x0i) p(x0i)j 6 jf(x0i) q(x0i)j. On en deduit evidemment mini jf(x0i) p(x0i)j 6 kf qk1. (J. Hendrickx, MAP 22, 2002-2003.) (En eet, s'il n'en etait pas ainsi, q p = f p(f q) presenterait des signes alternes en les n + 2 points x0j ). MATH2171 2005-06 { 2 { Tchebyche { 31 2.3. Unicite forte. [Che] essayons d'apprecier dans quelle mesure kf pk est plus g rand que kf ^pk quand p 6= ^p. En chacun des n + 2 points de l'alternant de f ^p , on a f(xi) p(xi) = f(xi) ^p(xi) + ^p(xi) p(xi) = (1)i E + k^p Q(xi) (1)i pk

; ou Q est le polyn^ome de norme unite (^pp)=k^ppk 2 Pn. Les n+2 valeurs Q(xi)=((1)i) ne peuvent ^etre toutes 6 0, sinon Q aurait au moins n+1 zeros. On montre que maxi(1)iQ(xi) est une fonction strictement positive, continue en les coecients de Q sur le compact B1 T Pn, elle admet donc un minimum egalement strictement positif que l'on note . En un xi ou (1)iQ(xi) > , on a donc jf(xi) p(xi)j > E + k^p pk , d'ou kf pk > E + k^p pk. 2.4. Signes alternes. A partir d'une approximation quelconque p, il n'est pas tou jours possible de trouver n+2 points x0 i ou f p prend des valeurs de signes alternes, mais on peut se donner n + 2 points x0 i arbitraires (toujours avec a 6 x0 n+1 < : : : < x0 0 6 b, bien s^ur), et construire p 2 Pn tel que les valeurs f(x0 i) p(x0 i) soient de signes alternes. Propriete de Haar, espaces de Haar. Les fonctions continues1,2,. . . ,m de A vers R ou C ont la propriete de Haar si (1) A contient au moins m points, (2) toute combinaison lineaire Pm 1 ai est, soit la fonction nulle sur A, soit a au plus m 1 zeros i distincts dans A. L'espace Hm sous-tendu par1,2,. . . ,m est alors appele espace de Haar ([DeVLor] pp.67{73, [Mei] x 4.1). Exemples. (1) Pn, avec m = n + 1; (2) l'espace des polyn^omes ponderes p(x) = w(x)q(x), q 2 Pn sur un ensemble A ou w ne s'annule pas; ceci permet de traiter des problemes de meilleure erreur relative avec w = 1=f si f ne s'annule pas sur A;

(3) l'espace Tn des polyn^omes trigonometriques p() = a0+ Pn 1 (ak cos(k)+bk sin(k)) sur A = [; ): p() = einq(ei) avec q 2 P2n, on a donc m = 2n + 1; (4) les combinaisons lineaires reelles d'exponentielles reelles f(x) = Pm 1 akekx, sur un intervalle reel A, avec 1,. . . , m distincts: la propriete est vraie pour m = 1, si elle est pour m 1, f ne peut avoir m zeros reels distincts, car il en serait de m^eme pour g: g(x) (x), donc g0 aurait encore m1 zeros reels distincts dans A (th. de Rolle), mais g0 est une naison de m1 exponentielles. Soit1,2,. . . ,m une suite libre, donc une base de Hm. Si Hm est un espace de ar, et si x1, x2,. . . , xm sont des points distincts de A, le determinant D(x1; x2; : : : ; xm) =

vraie = emxf combi Ha

1(x1) ... ... 1(xm)

m(x1) m(xm)

(4) est non nul: si on veut exprimer qu'une combinaison lineaire Pm 1 aj s'annule en x = x1; x2; : : : ; xm, on j aboutit au systeme d'equations lineaires homogenes Pm 1j (xi) aj = 0, i = 1; : : : ;m, qui ne peut admettre que la solution triviale a1 = : : : = am = 0, donc le determinant, qui n'est autr e que (4), doit ^etre non nul. Passons maintenant au cas de fonctions reelles sur un intervalle reel A. Soit x1 > x2 > : : : > xm. D(x1; x2; : : : ; xm) est alors de signe constant, soit : en eet, D(x1; x2; : : : ; xm) est une fonction reelle continue de chaque xi qui ne peut s'annuler tant que x1, x2; : : : ; xm sont distincts6. Ensuite: sign D(x; x1; x2; : : : ; xm1) = (1)k si xk+1 < x < xk, en eet, on permute la premier e et la keme ligne pour retrouver un determinant de signe . 6Par homotopie: soit fx(0) 1 ; : : : ; x(0) m g, avec x(0) 1 > x(0) 2 > : : : > x(0) m une con

guration de depart, et soit le signe de D(x(0) 1 ; : : : ; x(0) m ), alors D((1 t)x(0) 1 + tx1; : : : ; (1 t)x(0) m + txm) est une fonction reelle continue de t qui ne peut pas s'annuler sur t 2 [0; 1], doit donc garder le signe . MATH2171 2005-06 { 2 { Tchebyche { 32 On voit maintenant comment construire p dans un espace de Haar reel Hm de base1; : : : ; sur m A R, tel que f p prenne des valeurs de m^eme valeur absolue et de signes alternes en m+1 points donnes x1 > x2 > : : : > xm+1 de A: les m+ 1 equations sont f(xi) p(xi) = f(xi) Xm j=1 j (xi) aj = e(1)i1; i = 1; 2; : : : ;m+ 1; ou les m+ 1 inconnues sont a1; : : : ; am et e. Le systeme est donc 2 666664 1(x1) m(x1) 1 1(x2) m(x2) 1 1(x3) m(x3) 1 ... ... ... 1(xm+1) m(xm+1) (1)m 3 777775 2 666664 a1 a2 ... am e 3 777775 = 2 666664 f(x1) f(x2) f(x3) ... f(xm+1) 3 777775 de determinant mX+1 i=1 (1)mD(x1; : : : ; xi1; xi+1; : : : ; xm+1); somme de termes non nuls tous de m^eme signe (1)m, donc non nul. 2.5. Algorithme d'echange. (Remez7) A partir d'un alternant d'essai a 6 x0 n+1 < x0 n < : : : x0 0 6 b, on determine p 2 Pn tel que les n + 2 valeurs f(x0 i) p(x0

i), i = 0; : : : alternes, par la f(x0 i) p(x0 i) = (1)ie0; i = On examine alors

; n + 1 soient de m^eme valeur absolue et de signes methode vue plus haut: 0; : : : ; n + 1: f(x) p(x) sur tout [a; b] (ou sur une grille

ne ou les valeurs de f sont donnees). Soit x00 un point de [a; b] ou jf me de La Vallee Poussin et la de

pj atteint son maximum E0. Par le theore

nition de E, norme de l'erreur de meilleure approximation, on a je0j 6 E 6 E0: On va maintenant construire un nouvel alternant d'essai contenant x00 et n + 1 d es points de l'ancien alternant d'essai, en veillant a ce que les signes de f p soient encore alternes sur le nouvel alternant. Ainsi, Si x00 est situe entre deux points x0 j+1 et x0 j , on rejette celui de ces deux points ou f p a le m^eme signe que f(x00) p(x00), Si a 6 x00 < x0 n+1, on rejette x0 n+1 si f p y a le m^eme signe qu'en x00; sinon, le nouvel alternant se compose de x00; x0 n+1; x0 n; : : : ; x0 1 (donc, on rejette x0 0). Si x0 0 < x00 6 b, on rejette x0 0 si f p y a le m^eme signe qu'en x00; sinon, le nouvel alternant se compose de x0 n; : : : ; x0 1; x0 0; x00 (donc, on rejette x0 n+1). 7Yevgeny Yakovlevich Remez, 17 fevrier 1896{ 31 ao^ut 1975, cf. J. Approx. Theory 84 (1996) pp. 119{120. MATH2171 2005-06 { 2 { Tchebyche { 33 sqrt degree 3, step 1 0.07017 -0.024864

sqrt degree 3, step 2 0.07774 -0.040999

sqrt degree 3, step 3 0.05515 -0.045288

Etapes de l'algorithme d'echange. On calcule maintenant q 2 Pn tel que les valeurs de f q soient de m^eme valeur a bsolue je00j et de signes alternes sur le nouvel alternant. Ce polyn^ome q est la meille ure approximation possible de f sur le nouvel alternant (equioscillation), donc, en appliquant le t

heoreme de La Vallee Poussin sur le nouvel alternant: je0j = min x2 nouvel alternant jf(x) p(x)j 6 je00j 6 E: On obtient ainsi une suite croissante je0j 6 je00j 6 : : : bornee superieurement p ar E, donc convergente (vers E). La

gure ci-dessus montre un exemple d'application (px sur [0; 1]; n = 3). Chaque co n-

guration est precedee des valeurs de E0 et e0 correspondantes. On est parti d'un al ternant d'essai donnant . . . je0j = 0:025, nettement plus petite que E0 = kf pessaik1 = 0:070. Puis, les echanges successifs rapprochent ces deux bornes, jusqu'a arriver a E = 0:045929 . Exercice: essayer jxj sur [1; 1], degre 6. . . remezp.htm) Variantes (echanges multiples), vitesse de convergence: cf. [Pow, chap. 8 & 9]. Programmes matlab : remezp.m; java: remezp.htm; javascript: remezjs.htm 2.6. Meilleure approximation au sens k k1 sur un compact quelconque. Soit f une fonction continue a valeurs reelles ou complexes de

nie sur le compact quelconque A, et V un espace vectoriel de dimension

nie de fonctions continues sur A. p 2 V est alors une meilleure approximation de f dans V si et seulement si on a, pour 8q 2 V , max x2A0 Re n [f(x) p(x)]q(x) o > 0; ou A0 est l'ensemble des points de A ou jf(x)p(x)j = kf pk1. (Theoreme de Kolmogorov, [DeVLor] pp.63{67, [Mei] x 3.1). MATH2171 2005-06 { 2 { Tchebyche { 34 3. Polyn^omes de Tchebyche. 3.1. Meilleure approximation d'un polyn^ome de degre n dans Pn1. La fonction continue la plus simple qui ne soit pas dans V = Pn1 est un polyn^ome f(x) = xn + de degre n. La fonction d'erreur ^e := f ^p est encore un polyn^ome de degre n ayant en commun avec f son coecient de xn. Les deux problemes suivants sont equivalents: (1) Construire la meilleure approximation ^p de f(x) = xn+0xn1+ dans Pn1 sur [a; b], (2) Construire

0;

00; : : : tels que ^e(x) = xn +

0xn1 +

00xn2 + soit de norme k k1 minimale sur [a; b]. En eet, si on resout 1), il sut de prendre ^e = f^p; si on resout 2), ^p = f^e. La for mulation 2) montre qu'il sut de s'occuper de ; a et b. De plus, si on resout 1) ou 2) avec = 1, il sura de multiplier la reponse ^p ou ^e par . On peut donc se limiter au probleme: (3) Construire la meilleure approximation de xn dans Pn1 sur [a; b]. En

n, on se ramene a l'intervalle canonique [1; 1] par le changement de variable: t parcourt [1; 1] () x = a + b 2 + b a 2 t parcourt [a; b]: (5) On peut donc se limiter a: (4) Construire la meilleure approximation de xn dans Pn1 sur [1; 1]. 3.2. De

nition. Pour n > 1, le polyn^ome de Tchebyche de degre n est Tn(x) = ^en(x) En = xn ^pn1(x) En ; (6) ou ^pn1 est la meilleure approximation au sens de Tchebyche de xn sur [1; 1], et En = k^enk1 est la norme de l'erreur de meilleure approximation; pour n = 0, on de

nit T0(x) 1. 3.3. Premieres proprietes. Comme ^en est une fonction d'erreur de meilleure approxi mation dans Pn1, elle atteint les valeurs En et En en au moins n 1 + 2 = n + 1 points distincts de [1; 1], par le theoreme d'equioscillation: 1 6 xn < xn1 < : : : < x1 < x0 6 1 en prenant des signes alternes: ^en(xk) = (1)kEn, k = 0; : : : ; n, ou encore Tn(xk ) = (1)k, k = 0; : : : ; n. Le polyn^ome Tn de degre n doit donc s'annuler en un point de c haque intervalle (ouvert) (xk+1; xk), k = 0; : : : ; n 1, ce qui fait deja n zeros, il ne peut y en avoir plus: (1) Si n > 1, les zeros de Tn sont tous reels et distincts dans (1; 1). Soient z0; z1; : : : ; zn1 ces n zeros. Entre deux zeros de Tn, on est assure de trouver au moins un zero de la derivee T0n (theoreme de Rolle), mais T0n est de degre n 1 et a donc n 1 zeros au plus: (2) Si n > 2, les zeros de la derivee T0n sont tous reels et distincts dans (1; 1). Ces n 1 points de (1; 1) sont des extrema possibles de Tn. Mais comme il faut n + 1 extrema dans [1; 1], on doit bien prendre ces n 1 points interieurs et leur adjoin dre les deux extremites 1 et 1: Tn(1) = ; Tn(1) = (1)n ; Tn(xk) = (1)k et T0n (xk) = 0; k = 1; : : : ; n 1: (7) MATH2171 2005-06 { 2 { Tchebyche { 35 Remarquons que = 1: le polyn^ome de degre n xn ^pn1(x) a un coecient unite de xn et n zeros z0; : : : ; zn1, donc xn ^pn1(x) = nY1 k=0 (x zk), qui est strictement positif en x = 1 puisque tous les zk < 1. Et comme Tn a le m^eme signe que xn ^pn1(x) (En etant > 0 dans (6)), Tn(1) > 0. Exploitons maintenant (7): 1 T2 n est un polyn^ome > 0 (puisque kTnk1 = 1 ) 1 6 Tn(x) 6 1) dans [1; 1], qui s'annule en 1, 1, et en x1; : : : ; xn1. En ces n1 derni ers points interieurs, 1 T 2 n a des zeros de multiplicite paire, car 1 T 2 n ne devient < 0 nulle part dans [1; 1]. Comme le degre de 1T 2 n vaut 2n, on ne peut avoir que des zeros interieurs doubles: 1 Tn(x)2 = 1 E2n (1 x2) nY1 k=1 (x xk)2; (8) ou la constante 1=E2n assure l'egalite des coecients de x2n dans les deux membres de (8) (d'apres (6), le coecient de xn de Tn(x) est 1=En). Exprimons maintenant que les xk interieurs (k = 1; : : : ; n 1) sont les zeros de la derivee T0n (de coecient de xn1 egal a n=En): T0n

(x) = n En nY1 k=1 (x xk) (T0n (x))2 = n2 E2n nY1 k=1 (x xk)2; et comparons avec (8)! (1 x2) (T0n (x))2 = n2 (1 Tn(x)2): (9) Cette relation (9) est une equation dierentielle dont Tn est une solution. On va en tirer une premiere formule explicite de Tn: (3) Proposition. Pour toute determination de la fonction arccos, on a Tn(x) = cos(n arccos x) 1 6 x 6 1 ; n = 0; 1; : : : (10) ce qui s'exprime aussi par la representation parametrique x = cos ; Tn(x) = cos(n) reel ; n = 0; 1; : : : (11) En eet, soit y = Tn. L'equation (9) (1 x2)y02 = n2(1 y2) est singuliere en x = 1 et ne permet pas a elle seule de determiner y = Tn. Mais nous savons que y(1) = 1, que y est un polyn^ome croissant entre x1 (encore inconnu) et x0 = 1, donc, (a) si x1 < x < x0 = 1, y0(x) > 0, 1 < y(x) < 1, d'ou y0 p 1 y2 = n p1 x2 ; toutes les quantites presentes sont positives. On integre aisement: arccos y = C n arccos x; soit y = cos(n arccos x C). En x = 1, toute determination de arccos est un multiple entier de 2, et on doit avoir y = 1, donc C est un multiple entier MATH2171 2005-06 { 2 { Tchebyche { 36 arbitraire de 2 et la solution est bien (10). Remarquons que l'on peut donner une formulation correcte, mais moins elegante, en termes de la fonction arcsin. En

n, x1 est la premiere abscisse < 1 (en parcourant (1; 1) de droite a gauche) ou y = 1. On trouve x1 = cos(=n). (b) Si x2 < x < x1 = cos(=n), y0(x) < 0, 1 < y(x) < 1, d'ou y0 p 1 y2 = n p1 x2 ; qui s'integre maintenant en arccos y = C0+n arccos x; ou encore y = cos(n arccos x C0) (parite du cosinus!). C'est encore la forme (10), et la condition limite y(x1) = 1 donne encore C0 = 0 (a un multiple entier de 2 pres, mais ca ne change rien a y). (c) Les autres intervalles [xk+1; xk] reproduisent la situation des deux premier s. Nous pouvons maintenant preciser la position des extrema et des zeros: (4) Les n + 1 extrema de Tn sur [1; 1] sont xk = cos(k=n) ; k = 0; 1; : : : ; n: (5) Les n zeros de Tn sont zk = cos((k + 1=2)=n) ; k = 0; 1; : : : ; n 1: En principe, nous pouvons maintenant evaluer En = k^enk1 par En = j valeur de ^en j en n'importe quel extremum xm: En =

nY1 k=0 (xm

zk)

= nY1 k=0 j cos(m=n) cos((k + 1=2)=n)j = 2n Y2n p=1 j sin((p 1=2)=(2n))j = 2n Y2n p=1

1 ei(p1=2)=n 2

= 21n; les ei(p1=2)=n etant les racines 2nemes de 1. (cf. un theoreme de Cotes-Wessel). Exercice. Examiner complexe: = r+ii, alors, x = cos = (ei+ei)=2 = (eieir+eieir )=2 = cosh i cos r i sinh i sin r; Tn(x) = cosh ni cos nr i sinh ni sin nr. 3.4. Premiers echantillons. Un peu de virtuosite en formules trigonometriques perme t d'obtenir quelques premiers polyn^omes de Tchebyche. T0(x) = 1: Par convention (compatible avec la formule (10)). T1(x) = x: cos 2 = cos2 sin2 = 2 cos2 1 : T2(x) = 2x2 1: cos 3 = cos 2 cos sin 2 sin = (2 cos2 1) cos 2(1cos2 ) cos : T3(x) = 4x33x: cos 4 = cos(2(2)) = 2 cos2(2) 1 = 2(2 cos2 1)2 1 : T4(x) = 8x4 8x2 + 1: MATH2171 2005-06 { 2 { Tchebyche { 37 1 1 1 1 1 1 1 1 1 1 1 1 Graphes de T1 a T6. La

gure suivante represente une superposition de quelques dizaines de polyn^omes de Tchebyche. -1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1 -1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1 Elle fut concue et realisee, dans l'enthousiasme que l'on devine, par Y. Brandsteer t et A. Ninane, alors (1980) etudiants en physique. Leur ouvrage ne manqua la possibilite d'une publicat ion que de peu, suite a la parution d'un article8 sur ce phenomene interessant. 8E.L. Ortiz, T.J. Rivlin, Another look at the Chebyshev polynomials, The America n Math. Monthly 90 (1983) 3-10. MATH2171 2005-06 { 2 { Tchebyche { 38 3.5. Exercice. Montrez que Tn(0) ne peut prendre que les valeurs 1; 0 et 1; que T n(1=2) ne peut prendre que les deux valeurs 1=2 et 1. Utilisez (11). Quelles sont les solutions de Tm(x) = Tn(x)? (m 6= n). On peut maintenant expliquer quelques proprietes de la

gure ci-dessus. . . Tm(x) = Tn(x) ) cosm = cos n ) (m n) = 2k. Les abscisses des points d'intersection s ont donc des cosinus de multiples rationnels de , et il en est de m^eme des ordonnees cosm. Voir aussi dans http://icm.mcs.kent.edu/reports/1999/chebpol.pdf, http://icm.mcs.kent.edu/reports/1998/cheby1.pdf des relations, par M.O. Rayes, e ntre polyn^omes de Tchebyche et nombres premiers, discussion dans CHEBPRIM.HTM Figures de Lissajous9. La courbe (11) (x; y = Tn(x)) : (cos ; cos(n)) est un cas p articulier de

gure de Lissajous. Ces

gures permettent d'etudier des phenomenes ondulatoires. Vois un programme java dans http://isolatium.uhh.hawaii.edu/Media/JavaTools/funcliss.html 3.6. Relation de recurrence. La relation suivante est des plus importantes: on a Tn+1(x) = 2xTn(x) Tn1(x) ; n = 1; 2; : : : (12) En eet, Tn+1(x) = cos(n + 1) = cos cos n sin sin n Tn1(x) = cos(n 1) = cos cos n + sin sin n Tn+1(x) + Tn1(x) = 2 cos cos n = 2xTn(x) ou on a bien s^ur utilise la representation (11). La recurrence (12) livre aussi la facon la plus simple de se persuader que Tn est bien un polyn^ome de degre n: a partir des conditions initiales (en n) T0(x) = 1 et T1(x) = x, on voit bien que Tn+1 est un polyn^ome dont le degre vaut une unite de plus que le degre de Tn. De plus, Proposition. Si n > 1, le coecient de xn de Tn(x) vaut 2n1. En eet, d'apres (12), le coecient de xn+1 de Tn+1(x) est le double du coecient de xn de Tn(x), puisque Tn1 n'est que de degre n 1 et n'a pas de coecient de xn+1. Le coecien t de xn de Tn(x) est donc constante fois 2n, determine par le cas n = 1; T1(x) = x: la constante vaut 1=2. On peut en

n preciser maintenant la norme d'erreur de la meilleure approximation de xn dans Pn1: Proposition. Si n > 1, la norme En d'erreur de la meilleure approximation de xn par un polyn^ome de degre 6 n 1 vaut En = k^enk1 = kxn ^pn1(x)k1 = 1 2n1 : En eet, par la de

nition (6) de Tn quand n > 1, Tn(x) = (xn^pn1(x))=En, donc le coecient de xn de Tn, que nous savons valoir 2n1, est l'inverse de En. On peut maintenant donner completement la solution du probleme donne en 3.1 ,1 : Remarque. La meilleure approximation d'un polyn^ome de degre n f(x) = xn+0xn1+ dans P n1 sur [a; b] est ^pn1 tel que f(x) ^pn1(x) = 2 b a 4 n Tn 2x a b a b

: (13) La norme d'erreur vaut donc 2jj[(b a)=4]n. 9Remarque faite par L. Demanet, printemps 2000. MATH2171 2005-06 { 2 { Tchebyche { 39 En eet, on se ramene d'abord a un probleme sur [1; 1] par (5): f(x) = xn + = [(a+b)=2+t(ba)=2]n+ , ou les termes negliges ne contiennent que des puissances 6 n1 de t. f est donc un polyn^ome de degre n en t, de coecient de tn egal a

:= [(b a)=2]n. La meilleure approximation sur t 2 [1; 1] donnera la fonction d'erreur (

=2n1)Tn(t), et on revient a la variable x par t = [x (a + b)=2]=[(b a)=2]. 3.7. Polyn^ome de moindre norme sur un intervalle, sous contrainte p(0) = 1. Le probleme se rencontre dans l'etude de methodes iteratives (Flanders-Shortley): tr ouver p 2 Pn de norme minimale sur [a; b], avec p(0) = 1 (on suppose 0 < a < b). Solut ion: p(x) = Tn 2x a b a b

Tn((a b)=(b a)) : Demonstration directe: si q 2 Pn etait meilleur que p, p(x) q(x) prendrait des val eurs de signes alternes aux n + 1 points de l'alternant de p sur [a; b] ) p q devrait s'a nnuler en au moins n points de (a; b) ET en 0. . . 3.8. Meilleure approximation d'un polyn^ome de degre n dans Pn2. Ne s'obtient (gener alement) pas en passant de n a n 1, puis a n 2! Le polyn^ome de la forme xn +

xn1 +

, avec

impose, de moindre norme est de la forme constante Tn( x + ) si j

j 6 n tg2 2n , sinon, c'est beaucoup plus complique (premier probleme de Zolotarev, [Ach] appendice E, J. Todd, Applications of trans formation theory: a legacy from Zolotarev (1847{1878), pp. 207{245 in Approximation Theory and Spline Funct ions, S.P. Singh & al., eds., Reidel, 1984, Math. Intelligencer 10 (1988) 50{53.). 3.9. Meilleure approximation de fonction rationnelle. cf. [Ach] avec f(x) = 1=(x a); a > 1, on trouve f(x) ^pn(x) = 4n+2 (1 2)2 ein ei 1 ei + ein 1 ei ei

; ou = a pa2 1 < 1. Exercice. La meilleure approximation de degre 6 n de f(x) = (1 + a2x2)1 en erreur relative est l'interpolant de f aux zeros de T2m, ou m = bn=2c + 1. Cf. R. Freund: On some approximation problems for complex polynomials, Constr. A pprox. 4 (1988) 111-121, D.S.Lubinsky: Best approximation and interpolation of (1+(ax)2)1 and its transforms, J. Approx. Th. 125 (2003) 106-115. En eet, p(x) = 1 CmT2m(x) 1 a2x2 , ou Cm est tel que le numerateur soit divisible par le denominateur, a bien un degre = 2m 2 6 n, veri

e f(x) p(x) f(x) = CmT2m(x) qui presente un alternant de 2m+ 1 > n + 2 points dans [1; 1]. 3.10. Fonctions rationnelles de moindre et plus grande deviation. Trouver r ratio nnelle, aussi petite que possible sur [; ] par rapport a ses valeurs sur (1;

] S [

;1), c'est-a-dire qui minimise le rapport maxjxj6 jr(x)j minjxj>

jr(x)j ( et

, 0 <

<

donnes). Troisieme probleme de Zolotarev ([Ach], Todd, op. cit.). On trouve une equation dierentielle de la forme r02 (E2 r2)(r2 F2) = c (x2 2)(

2 x2) : Par un changement de variable, on obtient une representation parametrique r(x) =(u ), x = (u), ou et sont des solutions d'equations dierentielles de la forme Y 0 = p P(Y ), avec P polyn^ome de degre 3 ou 4 (fonctions elliptiques). Applications:

ltres, methodes iteratives (directions alternees). MATH2171 2005-06 { 2 { Tchebyche { 40 3.11. Proprietes extremales des polyn^omes de Tchebyche. On va examiner ici des enonces assurant que le polyn^ome de Tchebyche Tn maximise t elle ou telle propriete parmi tous les poyn^omes de Pn de norme unite. La propriete en que stion sera d'abord la valeur absolue d'une forme sur Pn, et il s'agira d'evaluer la nor me d'une forme, aussi para^t-il utile de rappeler l'equivalence suivante: Proposition. Soit une forme (c'est-a-dire une application lineaire vers R ou C) su r un espace vectoriel norme V de dimension

nie. Alors, si n'est pas la forme nulle sur V , kk = max f2V f6=0 j(f)j kfk = 1 min g2V (g)=1 kgk = 1 min g02V (g0)=0 kg1 g0k ; (14) ou g1 est un element particulier de V veri

ant (g1) = 1. (Si V est de dimension in

nie, il faut remplacer les 'max' et 'min' par des 'sup' et 'inf'). En eet, j(f)j=kfk = j(Cf)j=kCfk pour tout scalaire C 6= 0. On passe d'une egalite a l'autre en prenant g = Cf avec C = 1=(f). Tous les g possibles parcourent un espa ce ane, et on peut les representer par g = g1 g0, avec g0 2 V0 = V T Ker(). La forme en 1= min kg1 g0k est evidemment un probleme de meilleure approximation dans l'espace vectoriel V0. On doit donc estimer min kg1 g0k sur tous les g0 2 V 0, erreur de meilleure approximation de g1 dans V0. Voici quelques-uns de ces enonces: (1) Parmi tous les polyn^omes reels de Pn de norme k k1 unite sur [1; 1], le polyn^ ome de Tchebyche Tn a le plus grand coecient de xn. En eet, soit f(x) = Pn 0 ak(f)xk, ici, (f) = an(f). On a g(x) = f(x)=an(f) = xn+ , g1(x) = xn (par exemple), V0 = Pn1. Donc, par la de

nition (6) (p. 34) des polyn^omes de Tchebyche, g = g1 g0 de norme minimale = EnTn, jan(f)j=kfk1 = 1=En = an(Tn) qui vaut, rappelons-le, 2n1 (si n > 1). (2) Parmi tous les polyn^omes reels de Pn de norme k k1 unite sur [1; 1], le polyn^ ome de Tchebyche Tn a le plus grand coecient de xk si k et n ont la m^eme parite; Tn1 a le plus grand coecient de xk si k et n sont de parites dierentes. Bien s^ur, on a deja traite k = n au point precedent; k = 0 est assez trivial; on ne demontrera ici que le cas k = n 1: il faut montrer que ^g(x) = Tn1(x)=an1(Tn1) = xn1 + est le polyn^ome de Pn de moindr e norme k k1 sur [1; 1] parmi les polyn^omes ayant un coecient de xn1 egal a l'unite. Su pposons que soit un tel polyn^ome, c'est-a-dire (x) = an()xn+xn1+an2xn2+ de norme strictement inferieure a celle de ^g, et examinons ^g aux n extrema xk = cos(k=(n 1)); k = 0; : : : ; n 1 de ^g. En xk, ^g a le m^eme signe (1)k que ^g (comme chaque fois que l'on a compare u n polyn^ome a un polyn^ome de Tchebyche), donc ^g a au moins n 1 zeros z1; : : : ; zn1 dans (1; 1 ), avec xk < zk < xk1; k = 1; : : : ; n 1. ^g est un polyn^ome de Pn sans coecient de xn1. Si le coecient de xn etait lui-m^eme nul, ^g ne serait que de degre 6 n 2 et ne pourrait admettre n 1 zeros, donc ^g est de degre exact n, admet deja n 1 zeros reels, donc un neme zero re el zn. Ou se trouve zn? La somme des zeros d'un polyn^ome de degre n vaut l'oppose du r apport du coecient de xn1 et de celui, non nul, de xn, ici, 0: 1 = xn = x0 xn1 < zn = z1 zn1 < x1 xn = x0 = 1: Tous les n zeros de ^g sont donc dans (1; 1), mais alors le signe de ^g(1)(1) vaut (1)n+ 1 et non (1)n, contradiction, ouf! Bel exemple de demonstration ad hoc. Le cas des coecients de Taylor en x = 1 est plus facile a etablir: MATH2171 2005-06 { 2 { Tchebyche { 41 (3) Parmi tous les polyn^omes reels de Pn de norme k k1 unite sur [1; 1], le polyn^ ome de Tchebyche Tn a les plus grands coecients de Taylor en x = 1. En eet, soit f(x) = Pn j=0 bj(f)(x1)j le developpement de Taylor autour de 1 d'un element f 2 Pn. Il faut montrer que ^g = Tn=bk(Tn) est le polyn^ome de Pn, ayant son coecient de Taylor bk

xe a 1, de moindre norme. Supposons que 2 Pn, avec bk() = 1 ait une norme strictement plus petite que celle de ^g. On examine alors (air connu) la dierence ^g aux n + 1 extrema x` = cos(`=n); ` = 0; : : : ; n de ^g, et o n trouve, bien entendu, que ^g(x`)(x`) a le m^eme signe (1)` que ^g(x`). ^g a donc tous ses n zeros dans (1; 1). Appliquons k fois le theoreme de Rolle: la derivee keme ^g(k) (k) a tous ses n k zeros dans (1; 1), mais alors 0 = bk(^g ) = ^g(k)(1) (k)(1) k! ne peut pas ^etre nul: contradiction. Au fait, les valeurs extremales de ces coecients sont b0(Tn) = 1; b1(Tn) = n2; bk(Tn) = 2k n2(n2 1)(n2 4) (n2 (k 1)2) (2k)! (deriver k 1 fois (21) et porter x = 1). Ces coecients sont tres eleves quand n est grand. Comme tous les bk(Tn) sont positifs, on obtient leur somme en evaluant Tn(x) = Pn k=0 bk(Tn)(x1)n en x = 2, et Tn(2) > (2+p3)n=2, le plus grand des bk(Tn) est donc superieur a (2+p3)n=(2(n+1)). Valeur en un point

xe 62 (1; 1): (4) Parmi tous les polyn^omes reels dePn de norme k k1 unite sur [1; 1], le polyn^o me de Tchebyche Tn prend la plus grande valeur absolue en tout point reel

xe 62 (1; 1). Montrons que ^g(x) = Tn(x)=Tn() a la plus petite norme possible parmi tous les polyn^omes qui prennent la valeur 1 en : sinon, si etait un tel polyn^ome de Pn de norme strictement inferieure a celle de ^g, ^g(xk) (xk) prendrait le m^eme signe qu e ^g(xk) = constante Tn(xk) aux n + 1 extrema xk = cos(k=n); k = 0; : : : ; n de Tn, donc ^g aurait n zeros dans (1; 1), mais ce polyn^ome de Pn doit deja s'annuler en 62 (1; 1). . . Ce raisonnement a deja ete utilise dans le x 3.7, p. 39. Le polyn^ome de Tchebyche est encore extremal avec une valeur ponctuelle d'une derivee d'ordre quelconque: f reel 2 Pn; reel 62 (1; 1) ) jf(k)()j 6 jT (k) n ()j kfk1 ; k = 0; 1; : : : ; n: cf. [Riv2, x 2.7]. Bien s^ur, il n'y a pas lieu de discuter des valeurs dans (1; 1), fatalement borne es par k k1, mais on peut examiner les plus grandes valeurs prises par des derivees d 'un polyn^ome dans [1; 1]. Remarquons que l'on a deja rencontre des derivees en 0 et en 1 avec les coecients ak et bk. Mais il s'agit maintenant de normes d'operateurs. (5) Inegalites de Bernstein et des Marko MATH2171 2005-06 { 2 { Tchebyche { 42 (a) Si g est un polyn^ome trigonometrique de degre 6 n (c'est-a-dire une combinaiso n lineaire de 1, sin ; cos ; sin 2; cos 2; : : : ; sin n; cos n: g 2 Tn),

dg d

1 6 nkgk1 (inegalite de Bernstein). (b) f 2 Pn =) kf0k1 6 T0n (1) kfk1 = n2kfk1 (A.A. Marko, 1890). (c) f 2 Pn =) kf(k)k1 6 T(k) n (1) kfk1 = n2(n2 1)(n2 4) (n2 (k 1)2) 1 3 5 (2k 1) kfk1; k = 1; 2; : : : ; n (W.A. Marko). (d) Les inegalites precedentes restent valables si on remplace kfk1 par max06j6n jf(cos(j=n))j (Dun & Schaeer, 1941). (i) Preuve de Bernstein [Mha, III.3 B]: (A) inegalite de Stechkin: g 2 Tn ! kdg=dk1 6 (n=2)!g(=n). (B) Lemme de M. Riesz (1915): si h 2 Tn est extremal en 0, jh()j > khk1 cos(n[ 0]) dan s j 0j < =(2n). Preuve du lemme: sinon, la fonction sign h(0)h() cos(n[ 0])khk, qui a deja un zero double en 0, aurait au moins un zero de plus dans l'intervalle de longueur =n centre en 0, et doit encore s'annuler dans les 2n 1 autres intervalles de longueur =n constituant une periode complete (h est partout inferieur a sa norme). Cela fait 2n+1 zeros sur une periode, impossible (propriete de Haar p. 31).

(C) Preuve de Stechkin: soit h = g0. Donc, g0 ne change pas de signe dans (0 =(2n) ; 0 +=(2n), et l'integrale de g0 sur cet intervalle, qui est une dierence de deux valeurs de g, donc 6 !g(=n), a une valeur absolue superieure a l'integrale de kg0k fois cos(n[ 0]), ce qui est bien (2=n)kg0k. (D) En

n, 8u, !g(u) 6 2kgk. (ii) Preuve de Marko. Pour une demonstration moderne complete de l'inegalite de W.A. Marko, voir [Riv2] x 2.7. Voici une facon d'arriver a prouver l'inegalite de A.A. Marko et d'autres rela tions interessantes (J. Todd, Introduction to the Constructive Theory of Functions, Birkh auser (ISNM 1), 1963, chap. 4): (A) f 2 Pn1 ) kfk1 6 n max16x61(1 x2)1=2jf(x)j: Demonstration par interpolation aux zeros de Tn. (B) f 2 Pn =) jf0(x)j 6 nkfk1=(1 x2)1=2; 1 < x < 1: Consequence de l'inegalite de Bernstein avec g() = f(cos ). (C) On etablit en

n l'inegalite de A.A. Marko en appliquant le point ci-dessus a f 0: kf0k1 6 n max(1 x2)1=2jf0(x)j 6 n nkfk1. Cf. aussi [DeVLor] pp. 97-104 (e) Inegalite de Remez: 8f 2 Pn, si (f) est la somme des longueurs des intervalles ou jf(x)j 6 dans [1; 1], alors kfk1 6 Tn 4 (f) 1

. ([Fr], pp. 119-121). MATH2171 2005-06 { 2 { Tchebyche { 43 3.12. Autres proprietes des Tn. (1) Tn est une fonction paire ou impaire selon la parite de n. En eet, f(x) = xn est une fonction paire ou impaire sur [1; 1] selon la parite de n. D'apres 2.1 p. 30, il en est donc de m^eme pour ^pn1, ^en = f ^pn1, donc pour Tn = ^en=En d'apres la de

nition (6). Veri

cation directe d'apres (10): Tn(x) = cos[n arccos(x)] = cos[n( + arccos x)] = (1)n cos[n arccos x] = (1)nTn(x): (2) Tm( Tn(x) ) = Tmn(x): En eet, les deux membres valent cos mn, d'apres (11). Probleme. Montrez que fn de degre exact n, n = 0; 1; : : : , fn fm = fm fn, m; n = 0; 1; : : : ) fn(x) = c + an1(x c)n ou fn(x) = c + aTn((x c)=a), n = 0; 1; : : : En eet, soit f0 = ) tous les fn() = . Si

est la deuxieme racine de f2(x) = , on a f2(x) = + (x )(x

) =

)2=4 + (x

c)2, ou c = ( +

)=2. fn f2 = f2 fn et fn de degre exact n ) fn c est de parite n en x

c. f3(x) = x + 2(x

)(x

c)(x

) et on trouve (

) = 2 ou 4. Il reste alors bn=2c inconnues dans fn(x) = c + bXn=2c 0 k(x c)n2k, avec 0 = n1. On trouve alors de proche en proche 1, 2; : : : en egalant les coecients de (x c)2n2; (x c)2n4; : : : dans fn(f2(x)) f2(fn(x)). Il n'y a donc que deux famille s possibles, que l'on identi

e alors aisement (!). En particulier, les polyn^omes de Tchebyche sur [0; 1] sont T n(x) := Tn(2x 1) = T2n(px): (3) On a l'expression algebrique explicite Tn(x) = (x + px2 1)n + (x px2 1)n 2 : (15) On etablit cette formule au moyen de la notion de solution de recurrence: De

nition. Une suite u = fung1 n=0 veri

e une relation de recurrence (ou simplement recurrence, ou encore equation aux dierences) d'ordre p si ses elements veri

ent des equations de la forme suivante: Fn(un; un+1; : : : ; un+p) = 0 ; n = 0; 1; : : : L'expression \equation aux dierences" se justi

e par la possibilite que l'on a toujours de reecrire une recurrence comme une relation entre un, un,. . . ,pun, ou un := un+1 un, 2un := un+1 un,. . . , pun := p1un+1 p1un. Comme pour les equations dierentielles, la solution d'une recurrence d'ordre p est normale ment determinee par p conditions, par exemple par la determination des p conditions initiales u0; u1; : : : ; up1. Proposition. L'ensemble des solutions de la recurrence lineaire homogene d'ordre p un+p = anun+p1 + bnun+p2 + + znun; n = 0; 1; : : : (16) est un espace vectoriel de dimension p. En eet, on voit que toute combinaison lineaire fun +

vng10 de deux solutions de (16) est encore une solution, et que les solutions u(k), k = 1; : : : ; p dete rminees par: [u(k) 0 ; u(k) 1 ; : : : ; u(k) p1] = keme ligne de la matrice unite d'ordre p constituent une base MATH2171 2005-06 { 2 { Tchebyche { 44 de l'ensemble des solutions. Toute solution est u donnee par u = u0u(1) + u1u(2) + + up1u(p) Changement de base: les p solutions v(1); : : : ; v(p) forment encore une base s i le determinant des v(j) i , i = 0; 1; : : : ; p 1, j = 1; : : : ; p est non nul. Une base remarquable: soit 1 et 2 les deux racines de 2 a b = 0. La recurrence d'ordre 2 a coecients constants un+2 = aun+1 + bun admet la base ffn1 g; fn2 gg si 1 6= 2; ffn1 g; fnn1 gg si 1 = 2. Interessantes considerations sur la suite de Fibonacci dans le cours de X. Hubaut http://bib3.ulb.ac.be/coursmath/fibo.html Demontrons maintenant (15): on a a = 2x et b = 1. La recurrence (12) admet comme solutions des combinaisons des puissances nemes de 1 et 2, ou 1 et 2 sont les deux racines (normalement distinctes) de 2 2x + 1 = 0. On trouve bien = x px2 1. On

xe la combinaison lineaire appropriee de n1 et n2 a partir des conditions initiales T0(x) = 1 et T1(x) = x. Voir aussi Hey, here's a nicer write up of the non-recurrence relation: http://w ww2.edc.org/http://www.maths.lancs.ac.uk/gilbert/m245/node7.html Obtention directe de (15), extensions de Galois. On peut reprendre (9) sous la forme: trouver yn de degre n et xn 2 Pn1 tels que y2n p x2 n = constante; (17) ou p est le polyn^ome p(x) = x2 1. (9) implique bien yn = Tn et xn = T0n =n dans (17), mais on peut retrouver toutes les proprietes de Tn sans utiliser le fait que xn est lie a la derivee de yn. Comme Tchebyche lui-m^ eme10 [Tche], on considere (ce que l'on appelle maintenant) l'extension de Galois G = fr + spp; r; s 2 Cfxgg du corps des fonctions rationnelles. G est bien un champ (= corps commutatif) : l'addition est triviale; multiplication: si r1, r2, s1 et s2 sont des fonctions rationnelles, ( r1 + s1pp)(r2 + s2pp) = r1r2 + s1s2p + (r1s2 + r2s1)pp; inversion: 1 r + spp = r spp r2 s2p . Un entier de G est r + spp ou r et s sont des polyn^omes. Une unite de G est un entier dont l'inverse est encore un entier, donc, tel que r2 s2p = constante, nous y voila. Avec p(x) = x2 1, x + px2 1 et x px2 1 sont des unites, puisqu'ils sont inverses l'un de l'autre. (x px2 1)n sont aussi des unites, donc de la forme Yn(x) Zn(x)px 2 1 ou Yn et Zn sont des polyn^omes. A une constante multiplicative pres, il n'y a pas d'autre unite yn(x) + xn(x)px2 1 avec yn de degre n: de y2n px2 n = constante, on tire qu'une determination de la racine carree de p(x) = x2 1 assure yn(x) xn(x)px2 1 const.=xn quand x ! 1. Soit z = x + px2 1 avec z ! 1 quand x ! 1. De x = (z + z1)=2, yn(x) xn(x)px2 1 = yn z + z1 2 z z1 2 xn z + z1 2 se presente comme une combinaison de puissances zn, zn+1,. . . , zn1, zn. Mais le comportement quand x ! 1, donc quand z ! 1 impose qu e seul le mon^ome en zn est present. On deduit alors (15) de yn(x) xn(x)px2 1 = Tn(x) Un1(x)px2 1 =

x px2 1 n : Quand p est de degre > 2, on ne trouve plus d'unite yn xnpp non triviale, mais on a encore des polyn^omes tels que y2n px2 n soit de degre 6 g, ou g (genre) est le plus petit entier tel que 2g + 2 > degre de p (theorie de Abel et Jacobi). Les fonctions rationnelles yn=xn sont alors de tres interessantes approximations rationnelles de pp. 10Grand merci a M. J. Meinguet d'avoir fourni cette information. MATH2171 2005-06 { 2 { Tchebyche { 45 (4) Fonction generatrice. X1 n=0 tn Tn(x) = 1 tx 1 2tx + t2 ; jtj < 1;1 6 x 6 1: (18) Comme 1 6 x 6 1, jTn(x)j 6 1, la serie du membre de gauche est absolument convergente. Multiplions-la par 1 2tx + t2 et rearrangeons: (1 2tx + t2) X1 n=0 tnTn(x) = X1 n=0 tnTn(x) 2tx X1 n=0 tnTn(x) + t2 X1 n=0 tnTn(x) = X1 n=0 tnTn(x) 2x X1 n=0 tn+1Tn(x) + X1 n=0 tn+2Tn(x) = 1 tx + X1 n=2 tn [Tn(x) 2xTn1(x) + Tn2(x)] = 1 tx: Voir aussi division de polyn^omes selon les puissances croissantes: dividende = diviseur quotient + reste, pourvu que l'ordre (plus petite puissance

gurant dans le polyn^ome) du reste soit strictement superieur a l'ordre du diviseur. Ici, on a, selon les puissances croissantes de t: 1 xt = (1 2xt + t2) 1 + xt t2 xt t2 = (1 2xt + t2) xt + (2x2 1)t2 xt3 (2x2 1)t2 xt3 = (1 2xt + t2) (2x2 1)t2 + (4x3 3x)t3 (2x2 1)t4 etc.: 1 xt = (1 2xt + t2)[1 + tT1(x) + + tnTn(x)] + tn+1Tn+1(x) tn+2Tn(x). La serie (18) converge dans l'ellipse jx + px2 1j < 1=jtj: prendre complexe, la se rie est une combinaison des deux series geometriques P k>0 tn exp(in) et P k>0 tn exp(in), qui convergent donc tant que jeij et jeij < 1=jtj, donc tant que jij < ln(1=jtj). Cas particulier.11 X1 n=0 xn Tn(x) 1; 1 < x < 1. Que se passe-t-il si on ne garde qu'un nombre

ni de termes (plus de probleme de convergence!)? On a (1 2tx + t2) XN n=0 tnTn(x) = 1 tx tN+1TN+1(x) + tN+2TN(x): Donc valable m^eme si jtj = 1. Prenons t = exp(i'), divisons par tN+2, et soustr ayons de la m^eme expression en 1=t: (t12x+t) XN n=0 (tN+1ntnN1)Tn(x) = tN+2t2N x(tN+1t1N)+(tt1)TN+1(x); en

n, avec y = cos ', UN(y) + 2 XN n=1 UNn(y)Tn(x) = TN+1(x) TN+1(y) x y : (19) 11Trouve par un etudiant, printemps 1999. MATH2171 2005-06 { 2 { Tchebyche { 46 (5) Formule de Christoel-Darboux. Tn+1(x)Tn(y) Tn(x)Tn+1(y) x y = 2 Xn 0 k=0 Tk(x)Tk(y): (20) En eet, 1. Vrai si n = 0; 2. n 1 ! n: on applique la relation de recurrence (12) pour se ramener a l'ancien numerateur Tn+1(x)Tn(y)Tn(x)Tn+1(y) = [2xTn(x)Tn1(x)]Tn(y)Tn(x)[2yTn(y)Tn1(y)] = 2(xy)Tn(x)Tn(y)+e t on divise par x y. (6) Solutions d'equations du 3eme degre par polyn^omes de Tchebyche. On porte x = b 3a + t 2pb2 3ac 3a dans ax3 + bx2 + cx + d = 0 pour obtenir 4t3 3t = T3(t) = A, ou A = [2b3 +9abc27a2d]=[2(b2 3ac)3=2]. Les racines sont donc t = cos([arccosA+2k]=3); k = 0; 1; 2. Formule algebrique: t = les 3 determinations de T1=3(A), donc, d'apres (15), t = (u + 1=u)=2, ou u est une des trois racines cubiques complexes de A + pA2 1. 3.13. Equation dierentielle lineaire. Theoreme. y = Tn(x) est une solution de (1 x2)y00 xy0 + n2y = 0: (21) En eet, on peut deriver (9): 2xy02 + 2(1 x2)y0y00 = 2n2yy0 et diviser par y0 (aux zeros de y0, (21) est etablie par continuite de y, y0 et y00 ). On peut aussi partir de(11) : y = cos n ) d2y d2 = n2y; (22) et utiliser x = cos : d=d = d=d arccos x = p1 x2 d=dx, d2y d2 = d d d d y = p1 x2 p1 x2 y0 0 ; d'ou une forme interessante (formellement autoadjointe) p1 x2

p1 x2 y00 = n2y: (23) equivalente a (21). 3.14. Proposition. La solution generale de la recurrence (12) aussi bien que de l'eq uation dierentielle (21) est ATn(x) + B p1 x2 Un1(x); (24) ou Un1 est le polyn^ome de Tchebyche de deuxieme espece de degre n 1, de

ni par Un1(x) = sin n sin ; (x = cos ): (25) Lorsque (24) designe la solution generale de la recurrence (12), A et B peuvent depen dre de x, mais pas de n; si (24) designe la solution generale de l'equation dierentielle (21) , A et B peuvent dependre de n, mais pas de x. En eet, on peut reprendre la demonstration de (12) et constater que toute expressi on C cos(n + ') convient, ou C et ' peuvent dependre de , donc de x = cos , mais pas de n. MATH2171 2005-06 { 2 { Tchebyche { 47 On retrouve ainsi cos n avec ' = 0, mais aussi sin n avec ' = =2, ou encore sin(n 1) avec ' = ( + =2). On obtient donc bien la dependance annoncee en n. On voit bien que deux solutions independantes de (21) mise sous la forme (22) son t cos n = Tn(x) et sin n = p1 x2Un1(x). 3.15. Polyn^omes de Tchebyche et problemes de Sturm-Liouville. L'equation (23) est bien de la forme de Sturm-Liouville (p(x)y0(x))0 + q(x)y(x) = w(x)y(x) ; a < x < b; (26) avec p(x) > 0 et w(x) > 0 sur (a; b). Un probleme de Sturm-Liouville regulier cons iste a trouver des solutions non nulles (fonctions propres) de (26) veri

ant des conditions aux limites homogenes, si p(a) et p(b) 6= 0. Ici, p(x) = p1 x2, on a un probleme singu lier : p(a) = p(b) = 0. Les fonctions propres sont alors simplement de

nies par des conditions de regularite aux limites: valeurs et derivees

nies quand x ! a et b. Ici, avec p(x) = p1 x2, q(x) = 0 et w(x) = 1=p1 x2, la solution generale de (26) e st une combinaison de cos et sin , ou = 2 (comme d'habitude, faire x = cos pour obtenir d2y=d2 = 2y). Les derivees en x sont les derivees en divisees par sin = p1 x2, et restent donc

nies en 1 si les derivees en sont nulles en = 0 et . Ceci impose sin = 0 ) 2 Z, donc, = n2; n = 0; 1; : : : et la fonction propre correspond ante = cos n = Tn(x). Pour traiter convenablement les problemes de Sturm-Liouville, il faut les de

nir sur des espaces de Hilbert (espaces de Sobolev ). Derivees d'ordre quelconque: en derivant (21) p fois, on obtient (1 x2) dp+2Tn(x) dxp+2 (2p + 1)x dp+1Tn(x) dxp+1 + (n2 p2) dpTn(x) dxp = 0; (27) (par recurrence [sur p], ou en utilisant une formule de Leibniz de la derivee peme d 'un produit), ou encore d dx (1 x2)p+1=2 dp+1Tn(x) dxp+1 + (n2 p2)(1 x2)p1=2 dpTn(x) dxp = 0: (28) 3.16. Coecients, derivees et primitives. (1) Tn(x) = X j>0 2j6n (1)jn(n j 1)!2n12j j!(n 2j)! xn2j : En eet, nous savons deja que le coe cient de xn est 2n1, et que les coecients non nuls sont ceux de m^eme parite que n. Ensuite, par (27) avec p = n 2j, le coecient de xn2j est 1=(n 2j)! fois dn2jTn(0) dxn2j = 1 n2 (n 2j)2 dn2j+2Tn(0) dxn2j+2 = 1 4j(n j) dn2j+2Tn(0) dxn2j+2 = (1)j 4jj(j 1) 1 (n j)(n j + 1) (n 1) 2n1n! MATH2171 2005-06 { 2 { Tchebyche { 48 Le rapport des valeurs absolues des coecients de xn2j et de xn2j+2 est (n 2j + 2)(n 2j 4j(n j) ou = j=(n2j). Ce rapport est donc > 1 tant que < (p21)=2. A ce moment, c'est-a-dire quand j n(2 p2)=4, on est en presence du plus grand coecient, qui est de l'ordre de (p2 + 1)n (par Stirling, voir p. 178) (2) Plus interessante est l'expression des puissances de x dans la base des polyn ^omes de Tchebyche, base que l'on va s'habituer a utiliser dans la suite: xn = 1 2n1 0 @ k=b n X2 c

k=0 n k Tn2k(x) 1 + n2k;0 1 A; (b c = partie entiere par defaut), ou n k = n! k!(n k)! est le nombre de combinaisons de n objects pris k a k (coecient binomial). En eet, x = cos = (ei + ei)=2, xn = 2nPk=n k=0 n k ei(n2k), (3) T0n = nUn1 = 2n Tn1 + Tn3 + T0 2 + T1 ou

: (29) T0n (x) = dTn(x) dx = d cos n d cos = = n sin n sin = nUn1(x) = n ein ein ei ei = n(ei(n1) + ei(n3) + ei(n3) + ei(n1)) = 2n(Tn1(x) + Tn3(x) + ) ou on termine sur ei + ei = 2T1(x) si n est pair, et sur ei0 = 1 = T0 si n est impair. Remarquons que l'on a aussi montre Un(x) Un2(x) = 2Tn(x). (4) Z Tn(x)dx = Tn+1(x) 2(n + 1) Tn1(x)

|2(n{z 1)} si n>1 +C: (30) Z Tn(x)dx = Z cos n sin d = 1 2 Z [sin(n + 1) sin(n 1)]d = cos(n + 1) 2(n + 1) cos(n 1) 2(n 1) ( si n 6= 1) + C (5) Z Tn(x) p1 x2 dx = Tn+1(x) Tn1(x) 2np1 x2 + C (31) MATH2171 2005-06 { 2 { Tchebyche { 49 Z Tn(x) p1 x2 dx = Z cos n d = sin n n + C = sin n sin n sin + C = cos(n + 1) cos(n 1) 2n sin + C (n > 0) (6) Exercice: primitive de Tn(x) log(x c). La primitive est de la forme An(x) log(x c) Bn(x), ou An est une primitive de Tn et Bn est un polyn^ome. Choisissons pour An la primitive de Tn qui s'annule en x = c, soit , par (30), An(x) = Tn+1(x) Tn+1(c) 2(n + 1) Tn1(x) Tn1(c) 2(n 1) . Bn(x) est alors une primitive de An(x)=(x c). D'apres (19), An(x) x c = Un(c) 2(n + 1) +

Xn k=1 Unk(c) n + 1 Tk(x) Un2(c) 2(n 1) nX2 k=1 Un2k(c) n 1 Tk(x). Donc, Bn(x) = x Un(c) 2(n + 1) + Xn k=1 Unk(c) n + 1 Ak(x) x Un2(c) 2(n 1) nX2 k=1 Un2k(c) n 1 Ak(x). 3.17. Primitives iterees de Tn(x) p1 x2 et formule de Rodrigues. Reprenons (31) et appelons Vn;1(x) := Z x 1 Vn;0(t) dt := Z x 1 Tn(t) p1 t2 dt (n > 0): On a donc vu que Vn;1 est une combinaison des V:;0: Vn;1 = Vn+1;0 2n Vn1;0 2n ; et que Vn;1(x) = sin(n)=n. Vn;1 est une fonction continue, bornee par 1=n sur [1; 1], nulle en 1. Les integrales successives Vn;p(x) := Z x 1 Vn;p1(t) dt; p = 1; 2; : : : n > p (32) sont donc encore des combinaisons des V : ;0, tres exactement de Vnp;0; : : : ; Vn +p;0, ou encore, si p > 1, de Vnp+1;1; : : : ; Vn+p1;1, soit Vn;p(x) = n+Xp1 k=np+1 (p) k;n sin(k); On s'interesse particulierement aux sommes

S(p) n = n+Xp1 k=np+1 j(p) k;nj, bornes superieures de kVn;pk1. On trouve Proposition. Les integrales success ives (32) admettent les bornes jVn;p(x)j 6 1 (n p + 1)(n p + 3) (n + p 3)(n + p 1) ; 1 6 x 6 1; p = 1; 2; : : : n > p: (33) On a aussi la forme interessante Proposition. Les integrales successives (32) sont donnees par Vn;p(x) = (1)p n2(n2 1) (n2 (p 1)2) (1 x2)p1=2 dpTn(x) dxp ; p = 0; 1; : : : ; n: (34) En eet, on passe de p a p + 1 par (28). En p = n, (1 x2)1=2Tn(x) = (1)n2nn! (2n)! dn dxn (1 x2)n1=2

; (35) une formule de Rodrigues12 (cf. p. 100). 12La prmiere parution de (35)est au bas de la p. 4 de C.G.J. Jacobi, Formula tran sformationis integralium de

nitorum, J. reine angew. Math. 15 (1836) 1{38 (remarque aimablement communiquee p ar A. Ronveaux, nov. 2003). MATH2171 2005-06 { 2 { Tchebyche { 50 3.18. Orthogonalite et base duale de PN . 3.18.1. Orthogonalite des polyn^omes de Tchebyche. Z 1 1 Tn(x) Tm(x) dx p1 x2 = 8>>>>>>< >>>>>>: si m = n = 0; 2 si m = n 6= 0 0 si m 6= n (36) La veri

cation est immediate, en passant comme d'habitude par les fonctions trigonometriqu es: nous devons evaluer Z 0 cos(m) cos(n) d = 1 2 Z 0 [cos((m + n)) + cos((m n))] d, et on utilise Z 0 cos(p) d = si p = 0; = sin(p) sin 0 p = 0 si p est un entier non nul. On peut aussi utiliser l' 3.18.2. orthogonalite de deux fonctions propres relatives a deux valeurs propres d istinctes du probleme de Sturm-Liouville. (26): si yn est une solution de (p(x)y0n (x))0 + q(x)yn(x) = nw(x)yn(x) ; a < x < b; avec p(x)yn(x) = 0 en x = a et x = b, multiplions par ym(x) et integrons par part ies: [p(x)y0n (x)ym(x)]b a Z b a p(x)y0n (x)y0m (x) dx+ Z b a q(x)yn(x)ym(x) dx = n Z b a w(x)yn(x)ym(x) dx; en remarquant que la contribution des termes aux limites est nulle. Reprenons en intervertissant m et n, et soustrayons. Il vient Z b a w(x)yn(x)ym(x) dx = 0 si m 6= n. 3.18.3. Base duale de PN . Toute forme sur un espace vectoriel V de dimension

nie est entierement decrite par son action sur tous les elements d'une base fb0; b1; : : : ; bNg de V . En eet, (f) pour f 2 V s'obtient a partir de la representation de f dans la base choisi e: f = XN 0 ckbk ) (f) = XN 0 ck(bk): Des formes 0; 1; : : : sont donc entierement decrites par les vecteurs [0(b0); : : : ; 0(bN)], [1(b0); : : : ; 1(bN)],. . . de RN+1 ou CN+1. Le dual V de V est donc egalement un espace vectoriel de m^eme dimension que celle de V . Les coecients ck sont eux-m^emes les resultats de l'action de formes de V sur f! C es formes c0; : : : ; cN constituent ce que l'on appelle la base duale de V relativ ement a la base fb0; : : : ; bNg de V . On a cm(bn) = m;n, on dit que fcmgN0 est la base de V biorthogonale a la base fbngN0 de V . La propriete d'orthogonalite (36) des polyn^omes de Tchebyche permet d'expliciter la base de PN duale relativement a la base des polyn^omes de Tchebyche de PN: MATH2171 2005-06 { 2 { Tchebyche { 51 Proposition. La base de PN duale relativement a la base T0 2 ; T1; : : : ; TN de PN est ck : ck(f) = 2 Z 1 1 f(x) Tk(x) dx p1 x2 = 2 Z 0 f(cos ) cos(k) d ; (37) pour k = 0; : : : ;N. En eet, veri

ons que cm(bn) = m;n: 1.) avec b0 = T0=2, on a cm(b0) = 2 Z 1 1 T0 2 Tm(x) dx p1 x2 = m;0, par (36) avec n = 0; 2). avec bn = Tn, n > 0, cm(bn) = 2 Z 1 1 Tn(x) Tm(x) dx p1 x2 = m;n, par (36) avec n > 0. L'avantage d'avoir pris T0=2 au lieu de T0 dans la base de PN est d'avoir une fo rmule uniforme dans (37). On a donc 8f 2 PN; f = c0(f) 2 T0 + c1(f)T1 + + cN(f)TN := XN 0 k=0 ck(f)Tk; (38) avec ck(f) donne par (37); la notation X0 signi

ant que la somme s'eectue en prenant la moitie du premier terme indique, les autres etant inchanges. On a d'ailleurs encore un autre eclairage tres interessant de (38) comme somme de Fourier: 8f 2 PN, f(cos ) = c0(f) 2 +c1(f) cos + +cN(f) cos(N) = XN 0 j=0 cj(f) cos(j) = 1 2 XN j=N cjjjeij (39) 3.18.4. Orthogonalite discrete des Tn. . Comme on a vu en p. 20 que toute forme su r un espace de dimension

nie peut s'exprimer comme '(f) = PN 0 mf(xm), il doit en ^etre de m^eme pour (37). On dispose de deux formules particulierement utiles: Proposition. Si N > 0, on a les deux formules discretes valables pour 8f 2 PN (Trapezes:) ck(f) = 2 N XN 00 m=0 f cos m N cos km N : (40) X00 designant une somme ou le premier et le dernier terme sont divises par 2; (Rectangles:) ck(f) = 2 N + 1 XN m=0 f cos (m + 1=2) N + 1 cos k(m + 1=2) N + 1 : (41) Les denominations 'trapezes' et 'rectangles' viennent de l'interpretation de (40) e t (41) comme somme d'aires de trapezes ou de rectangles equivalentes a l'integrale (37) donnant l 'aire sous le graphe de la fonction 2f(cos ) cos(k)=: MATH2171 2005-06 { 2 { Tchebyche { 52 0 (2=)f(cos ) cos(k)

N 0

(2=)f(cos ) cos(k)

N + 1 Ces formules d'integration, apparemment tres rudimentaires, sont donc exactes pour f 2 PN! Demonstration de (40) et (41). Entrons (39) dans (40) et (41): nous devons veri

er ck(f) = Xm2 m=m1 m " 1 2 XN j=N cjjjeijm # cos(km); ou les m et les m dependent de la formule discrete, il nous sut de savoir que les m son t en progression arithmetique. Par parite du cosinus, on peut d'ailleurs considerer q ue l'on a m = 1=N;m1 = N;m2 = N 1 dans (40); m = 1=(N + 1);m1 = N 1;m2 = N dans (41). La double somme se rearrange en 1 2 XN j=N cjjj " Xm2 m=m1 meijm cos(km) # = 1 4 XN j=N cjjj " Xm2 m=m1 m(ei(j+k)m + ei(jk)m)) # La somme interieure est une progression geometrique de raison exp(i(j k)), ou est la raison de la progression arithmetique des m (=N ou =(N + 1)). Cette raison vaut l'un ite quand j = k, la somme interieure vaut alors m fois le nombre de termes = 2; si j 6= k, la progression geometrique vaut une expression de numerateur raison1+nombre de termes 1, ce qui vaut 0 car la raison elevee a une puissance egale au nombre de termes +1 donne exp(2i ) = 1. Si on prend f = Tn, on a d'ailleurs des formules d'orthogonalite discrete dont voi ci le detail: XN 00 m=0 Tp cos m N

Tq cos m N = 8>>>>>>>>>< >>>>>>>>>: N si p + q et p q sont des multiples de 2N; N 2 si un seul des deux nombres p + q ou p q est multiples de 2N 0 dans les autres cas (42) MATH2171 2005-06 { 2 { Tchebyche { 53 NX1 m=0 Tp cos (m + 1=2) N Tq (m+ 1=2) N = 8>>>>>>>>>>>>>>< >>>>>>>>>>>>>>: N si p + q et p q sont des multiples de 4N; N si p + q et p q sont des multiples impairs de 2N; (1)(pq)=(2N) N 2 si un seul des deux nombres p + q ou p q est multiple de 2N 0 dans les autres cas (43) 4. Bonne approximation; series de polyn^omes de Tchebyche, relation avec series de Fourier. On a vu appara^tre les polyn^omes de Tchebyche en resolvant le probleme tres particul ier de la meilleure approximation d'un polyn^ome par un polyn^ome de degre immediateme nt inferieur. On va decrire maintenant une maniere d'utiliser cette technique particuliere pour c onstruire une approximation polynomiale raisonnable (bonne approximation) d'une fonction c ontinue arbitraire. 4.1. Cascade de meilleures approximations et developpements dans la base des polyn^omes de Tchebyche. Partons d'un polyn^ome p de degre N. Nous savons construire la meilleure approxim

ation de degre 6 N 1 de p 2 PN: on l'obtient en soustrayant de p un multiple scalaire appro prie de TN de facon a aboutir a un degre < N. Appelons MN l'operateur PN ! PN1 qui realise cette extraction de meilleure approximation: 8p 2 PN; MN(p) = p aN(p) aN(TN) TN, ou ak(p) est, rappelons-le, le coecient de xk de p. Le multiplicateur de TN utilise dans la construction de MN(p) est evidemment cN(p), le coecient de TN dans le developpement de p dans la base des polyn^omes de Tchebyche (38). Appliquons maintenant MN1 a MN(p) 2 PN1: MN1MN(p) =MN1(p cN(p)TN) = p cN(p)TN cN1(p)TN1. MN1MN(p) n'est normalement pas la meilleure approximation de p dans PN2, mais comme MN1MN(p) diere de p d'une combinaison de deux polyn^omes de Tchebyche de degres eleves, on peut penser que la fonction d'erreur n'est pas trop eloignee d'une fonction equioscillante. En considerant des de ations successivesMkMk+1 MN(p), on voit appara^tre le developpement de p dans la base des polyn^omes de Tchebyche: Mn+1Mn+2 MN(p) = p XN k=n+1 ck(p)Tk = Xn 0 k=0 ck(p)Tk si p = XN 0 k=0 ck(p)Tk: Donc: la succession Sn(p) :=Mn+1Mn+2 MN(p) de meilleures approximations (( (PN ! P N1) ) ! Pn+1) ! Pn est ce qu'on appelle ici la bonne approximation Sn(p) de degre 6 n de p 2 PN. Elle consiste exactement en la somme des termes en T0; T1; : : : ; Tn du developpement de p dans la base fT0; T1; : : : ; TNg de PN. MATH2171 2005-06 { 2 { Tchebyche { 54 Il faudra encore de

nir ce que c'est une bonne approximation d'une fonction continue f, donc ce que devrait ^etre ck(f). Constatons en tout cas que (39) est une somme partielle de Fourier de la fonctio n periodique F : F() := f(cos ): F() = XN 0 j=0 cj(f) cos(j) = 1 2 XN j=N cjjj(f)eij 4.2. Serie de Fourier d'une fonction continue periodique. Il existe une theorie tres riche13 du developpement en serie de Fourier d'une foncti on periodique sur R. Soit F periodique de periode 2: F(x+2) = F(x), 8x 2 R. Il est quest ion d'etablir quand la suite des sommes partielles de Fourier Sn(F)() := A0(F) 2 + Xn k=1 [Ak(F) cos(k) + Bk(F) sin(k)] = 1 2 Xn n Ck(F)eik converge vers F, ou Ck(F) := 1 Z F(')eik' d', k 2 Z. Avec cette de

nition, Ck(F) co ncide avec le coecient de Tchebyche ck(f) de (37) si F() = f(cos(): ck(f) = 2 Z 0 f(cos ) cos(k) d = 1 Z F() cos(k) d = 1 Z F() eik d = Ck(F) car, F etant ici une fonction paire (en ), Z F() sin(k) d = 0. Nos sommes de Tchebyche (38) et (39) sont donc bien des sommes de Fourier de F. P ar l'argumentation developpee dans le x 4.1, nous pouvons soupconner que cette somme S n(f) n'est pas eloignee de la meilleure approximation de f dans Pn, ou encore que Sn(F) approche bien la fonction periodique F. Pour plus de rigueur, et aussi a

n de pouvoir quanti

er l'erreur f Sn(f) = F Sn(F), nous devons d'abord etablir des conditions de convergence de la serie de Fourier d e F. Le theoreme le plus utile en cette matiere est Theoreme de Dirichlet. Les sommes partielles de Fourier d'une fonction continue per iodique a variation bornee sur une periode convergent uniformement vers la fonction. Voir R. Godement, Analyse mathematique II, Springer, 1998, http://www.pourlascience.com/numeros/pls-254/livres.htm Une fonction F est a variation bornee sur l'intervalle I si V = sup xj2I X j jF(xj+1) F(xj)j < 1. La fonction F() = sin(1=) est continue, mais de variation non bornee sur un interva lle contenant 0. Une fonction croissante bornee est a variation bornee; toute fonction reelle a variation bornee sur un intervalle est la dierence de deux fonctions croissantes. Le caractere a variation bornee est m^eme ici plus important que le caractere contin u, puisqu'une fonction periodique a variation bornee, eventuellement discontinue, est encore la limite ponc tuelle de ses somme de Fourier (theoreme de Jordan). 13M. Willem, Analyse harmonique reelle, Hermann, Paris, 1995. MATH2171 2005-06 { 2 { Tchebyche { 55 N.B. Une fonction C 1, ou m^eme seulement Lipschitzienne, sur I est forcement a va riation bornee: V = sup xj2I X j jF(xj+1) F(xj)j 6 const. longueur de I. Sans demontrer completement ici le theoreme de Dirichlet, voyons avec R. Godement (pp. 282{293) quelques enonces voisins: Lemme de Riemann-Lebesgue. Les coecients de Fourier d'une fonction periodique integrable tendent vers 0. Sans demontrer ce lemme dans toute sa generalite, nous voyons deja qu'il vaut pour la classe plus restreinte des fonctions de carre integrable. Par l'inegalite de Bessel (chap. 3, x 7.1, p. 127), X1 1 jCk(G)j2 6 2 Z jG()j2 d ) Ck(G) ! 0; k ! 1. Detaillons maintenant la somme de Fourier de F: Sn(F)() = 1 2 Xn n Ck(F)eik = 1 2 Xn

n Z F(')eik' d' eik = 1 2 Z F(') " Xn n eik(') # d' = 1 2 Z F(') ei(n+1)(') ein(') ei(') 1 d' Sn(F)() F() = 1 2 Z F( + ') F() ei' 1 [ei(n+1)' ein'] d'; ou on a utilise la periodicite de F et l'identite Sn applique a une constante = cette m ^eme constante (ici, est

xe, donc F() est constante). On a donc Sn(F)() F() = Cn+1(G) 1 2 F( + ') F() ei' 1 en ' (rappelons que est

Cn(G), ou G est la fonction qui vaut G(') =

xe). Le resultat tendra eectivement vers 0 quand n ! 1 si F est Lipschitzienne. Une serie de Fourier divergente14 (du Bois-Reymond, Fejer): la fonction F() = 1X m=1 sin(21+m3 ) m2 2m3X p=1 sin(p) p est periodique et continue (les sommes partielles de Fourier XN p=1 sin(p) p de la fonction sign ( jj)=2 etant toutes bornees par une m^eme constante [le fameux phenomene de Gibbs]), mais son dev eloppement en serie de Fourier est divergent en = 0. En eet, les coecients sont Ck(F) = 1 2m2(21+m3 k) si 2m3 6 k < 21+m3 , 1 2m2(k 21+m3 ) si 21+m3 < k 6 3:2m3 , nuls pour les autres valeurs de k. La serie des Ck diverge, puisque les sommes de Ck pour k = 2m3 a k = 21+m3 1 sont superieures a m=2 (la somme 1 + 1=2 + + 1=(2N) est superieure a N=2). Les sommes de Ck pour k = 21+m3 + 1 a k = 3:2m3 1 sont d'ailleurs tout aussi violemment negatives. Inutile d'ajouter que F est furieusement non derivable en = 0. . . 14 D.C Champeney, A Handbook of Fourier Theorems, Cambridge U.P., 1987, x 5.5 et 15.2; R.E. Edwards, Fourier Series, A Modern Introduction, Holt Rinehart Winston 1967 (2eme ed.: Sprin ger, 1979), x 10.3.1. MATH2171 2005-06 { 2 { Tchebyche { 56 4.3. Series de polyn^omes de Tchebyche. Soit f continue sur [1; 1]. On adoptera naturellement (38) avec ck(f) calcules par (37): Sn(f) = Xn 0 k=0 ck(f)Tk (44) comme de

nition de l'operateur de bonne approximation applique a une fonction continue arbitraire f. Ceci suggere que l'operateur de bonne approximation decoule d'un developpement in

ni (serie) applicable a toute fonction continue sur [1; 1]. La de

nition suivante comporte pourtant une restriction: De

nition. Le developpement en serie de polyn^omes de Tchebyche d'une fonction continu e sur [1; 1] est f = X1 0 k=0 ck(f)Tk; (45) avec les coecients ck(f) de (37), pourvu que la serie (45) converge vers f en tout point de [1; 1] . On a vu plus haut des conditions susantes de convergence a partir de la theorie des series de Fourier. La raison de la restriction est que la serie (45) peut en eet ^etre divergente pou r certaines fonctions continues. La raison profonde est que les operateurs Sn de (44) ne sont pas uniform ement bornes (en n) dans C[1;1] muni de la norme du maximum15, d'ou la possibilite de suites fSn(f)gn divergentes (conditions necessaires du theoreme de Banach-Steinh aus [et l'exemple ci-dessus]). La deterioration de tout schema de bonne approximation (choix de projecteurs lineair es) vis-a-vis des meilleurs approximations est quanti

ee par l'enonce suivant: Lemme de Lebesgue. Soit une famille fVmgm de sous espaces vectoriels de l'espace vectoriel norme X, et 8m;Pm un projecteur lineaire sur Vm. Alors, 8f 2 X, si Em(f) = infp2Vm kf pk, on a kf Pmfk 6 (1 + kPmk)Em(f): (46) On appelle kPmk la meme constante de Lebesgue du schema de bonne approximation fPmgm. En eet, 8" > 0, prenons p" 2 Vm avec kf p"k 6 Em(f) + " [bien entendu, si Vm est de dimension

nie, on prend plut^ot une meilleure approximation ^p de f]. Comme Pm est un projecteur sur Vm, Pmp" = p" et, comme Pm est lineaire, kf Pmfk = kf Pmf (p" Pmp")k = kf p" Pm(f p")k 6 (1 + kPmk)(Em(f) + "); d'ou (46) . Ici, on trouve kSnk1 = 1 Z 0

sin(n + 1=2)' sin '=2

d' ! 1 quand n ! 1, mais est bornee par 4+(4=2) ln n (si n > 0), ce qui est une croissance tres lente: 0 1 2 3 4 5 6 7 8 9 10 20 1 1.436 1.642 1.778 1.880 1.961 2.029 2.087 2.138 2.183 2.223 2.494 Cf [Chen] pp. 127 & 149 (prob. 13), [Pas] p. 28, [Pow] pp. 143{149, [Riv1] p.61. Remarque: si on conna^t kf Snfk1, on a donc l'encadrement (assez mediocre) de En(f ): kf Snfk1 5 + (4=2) ln n 6 En(f) 6 kf Snfk1 15Par contre, les projecteurs Sn sont uniformement bornes dans le m^eme espace mun i d'une norme quadratique appropriee, voir chapitre 3. MATH2171 2005-06 { 2 { Tchebyche { 57 f ck(f) 1 t2 2(1 + t2 2tx) tk (jtj < 1) (=fonction generatrice) 1 (1 + t)2 4tx2 0 si k impair; 2tk=2 1 t2 si k pair (jtj < 1) 1 x c 4pk+1 1 p2 avec p = c pc2 1 tel que jpj < 1(c =2 [1; 1]) jxj 0 si k impair; 4(1)k=2 (k2 1) si k pair. p1 x 4p2(1)k (4k2 1) p1 x2 0 si k impair; 4 (k2 1) si k pair arcsin x 0 si k pair; 4 k2 si k impair. cos(q arccos x) 2q sin(q)(1)k (k2 q2) ; q =2 Z ln(1 qx) 2 ln q 2p si k = 0; 2pk k si k > 0, p = 1 p

1 q2 q ! arctg qx 0 si k pair; 2(1)(k1)=2 pk k si k impair p = p 1 + q2 1 q ! eqx 2Ik(q) (fonction de Bessel Ik(q) = ikJk(iq) = 1X `=0 qk+2` 2k+2``!(k + `)! ) J`(qx) 0 si k ` impair; 2J(`k)=2(q=2)J(`+k)=2(q=2) si k ` pair Quelques developpements en serie de Tchebyche, S. Paszkowski [Pas]. MATH2171 2005-06 { 2 { Tchebyche { 58 On \retrouve" alors les formules (37) des coecients par une exploitation (un peu cavaliere) de la serie (45): on multiplie les deux membres de (45) par (1 x2)1=2Tm(x) et on i ntegre sur [1; 1]: Z 1 1 f(x) Tm(x)dx p1 x2 = X1 0 k=0 ck(f) Z 1 1 Tk(x)Tm(x)dx p1 x2 = 2 X1 k=0 ck(f)k;m = 2 cm(f): La consequence beaucoup plus interessante et profonde des relations d'orthogonalite (36) est que la somme partielle de degre n de la serie (45) est la meilleure approximat ion de f dans Pn au sens d'une norme quadratique: Proposition. La somme partielle Sn := Snf = Xn 0 k=0 ck(f)Tk minimise Z 1 1

(f(x) p(x))2 dx p1 x2 sur tous les p 2 Pn. En eet, soit p = Sn + q, avec q 2 Pn. On a Z 1 1 (f(x) p(x))2dx p1 x2 = Z 1 1 (f(x) Sn(x))2dx p1 x2 2 Z 1 1 (f(x) Sn(x))q(x)dx p1 x2 | {z } 0 + Z 1 1 (q(x))2dx p1 x2 puisque l'integrale de f fois (1 x2)1=2Tm(x)dx se confond avec celle de Sn fois (1 x2)1=2Tm(x)dx (on developpe q dans la base des Tm ). Les meilleures approximations polynomiales de fonctions construites sur des prin cipes d'orthogonalite sont si importantes que tout le chapitre 3 leur sera consacre. Sommes de Fejer et de La Vallee Poussin. Soit Sn = Snf = X0n 0 ck(f)Tk qui peuvent donc ne pas converger vers f. La moyenne de Fejer Fn := S0 + S1 + + Sn n + 1 converge uniformement vers f, mais la convergence est toujours mediocre. Les sommes de la Vallee Poussin Vn := Sn + Sn+1 + + S2n1 n = 2F2n1 Fn1 sont dans P2n1 au lieu de Pn, mais ont des erreurs d'approximation qui se compare nt aux erreurs de meilleure approximation: kf Vnk1 6 4En(f) ([DeVLor] pp. 273-274). 4.4. Vitesse de decroissance des coecients et bornes de norme de fonction d'erreur. Voici comment quanti

er les erreurs de bonne approximation: Theoreme. Si f 2 C m [1;1], jck(f)j 6 2kF(m)k1 km (k > 0); kf Snfk1 6 2kF(m)k1 (m 1)nm1 (n > 0;m > 1); (47) MATH2171 2005-06 { 2 { Tchebyche { 59 ou F() = f(cos ). On a aussi jck(f)j 6 4kf(m)k1 (k m + 1)(k m + 3) : : : (k + m 1) ; (k > m > 0); kf Snfk1 6 4kf(m)k1 (m 1) (n m + 2)(n m + 4) : : : (n + m 2) ; (n > m;m > 1): En eet, on integre (37) par parties (l'integrale en ) ck(f) = 2 F() sin k k 0 2 Z 0 F0() sin k k d; les termes aux limites s'annulent, gr^ace au sinus. Si f 2 C 2, une nouvelle inte gration par parties fournit des termes aux limites F0() cos k en 0 et qui s'annulent cette foi s parce que F : F() = f(cos ) est une fonction periodique paire: F() = F() ) F 0(0) = 0, F( +u) = F( +u) = F( u) ) F0() = 0. En poursuivant les integrations par parties, on a des termes aux limites contenant soit des sinus, soit des derivees d'ordre im pair de F en 0 et , ces derivees sont nulles (considerer les developpements de Taylor de F autour de 0 et ). Il reste 2= fois une integrale de F(m)() fois un sinus ou un cosinus divise par km , d'ou la premiere borne de ck(f) dans (47). Pour la borne de kf Snfk, on part de kf Snfk1 =

X1 0 k=0

ck(f)Tk Xn 0 k=0 ck(f)Tk

1 =

X1 k=n+1 ck(f)Tk

1 6 X1 k=n+1 jck(f)j; 6 k (k) n et on utilise un principe tres simplement illustre par la

gure ci-contre: si est positive decroissante, X1 k=n+1 (k) 6 Z 1 n (k)dk applique ici a(k) = constante=km. Bien entendu, l'integrale ne converge que si m > 1. Pour etablir les autres inegalites, on part de l'integrale en x de (37), que l'on in tegre par parties, en derivant m fois f et en integrant m fois Vn;0(x) = (1 x2)1=2Tn(x), donc, ck(f) = (2=)(1)m Z 1 1 f(m)(x)Vn;m(x) dx, d'apres la de

nition (32), et on applique (33). Exemple. Avec f(x) = eqx, on obtient kf Snfk1 6 4qn=(2n1(n 1)(n 1)!), (faire m = n dans (47)), ce qui est interessant: c'est presque 2n fois plus petit que ce qu'on obtient avec la serie de Taylor-Maclaurin16! Autre exemple. Avec f(x) = jxj, on a exactement kf Snfk1 = 2=((n0 1)), ou nP0 est le plus petit nombre pair strictement plus grand que n: utiliser la tabl e de la p. 57 et k>n jckj = (4=)[(n021)1+((n0+2)21)1+ ] = (2=)[1=(n01)1=(n0+1)+1=(n0+ 1) 1=(n0 + 3) + ], atteint en x = 0. remarquons que ce f n'est m^eme pas dans C 1. Approximation polynomiale de px sur [0,1]. Proposition. 9p 2 Pn : jpx p(x)j 6 1 (n + 1=2) , 0 6 x 6 1. 16De plus, (47) rend encore des services quand on ne dispose pas de coecients de Taylor d'ordre eleve! (garder m faible dans (47)). MATH2171 2005-06 { 2 { Tchebyche { 60 En eet, il sut de prendre une somme partielle de la serie de Tchebyche de la fonctio n valeur absolue, en px:

px + 4 Xn 0 0 (1)kT2k(px) 4k2 1

6 4 X1 n+1 1 4k2 = 2 X1 n+1 1 2k 1 1 2k + 1 = 2 (2n + 1) : Nous sommes maintenant en mesure d'aborder une premiere demonstration d'un theoreme fondamental17 4.5. Theoreme de Weierstrass. Toute fonction f continue sur un intervalle compact [a; b] peut ^etre arbitrairement bien approchee en norme du maximum par des polyn ^omes: 8" > 0; 9n et p 2 Pn : kf pk1 6 ": De

nition. On appelle module de continuite d'une fonction f de

nie sur [a; b] la fonction !f (h) := max x;y2[a;b] jxyjh jf(x) f(y)j; 0 h b a Cette fonction est croissante, et !f (h) ! 0 quand h ! 0 si f est continue sur [ a; b] borne (continuite uniforme de f). Et on montre aussi que !f est continue si f l'est, et x; y > 0 ) !f (x + y) 6 !f (x) + !f (y). Donc aussi !f (kx) 6 k!f (x) si k enti er > 0; en

n, !f (ax) 6 (a + 1)!f (x); (48) si a est reel > 0 (prendre k = partie entiere par exces de a). Soit h = (b a)=N tel que !f (h) 6 "=2, g l'interpolant lineaire par morceaux de f aux points xi = a + ih, i = 0; 1; : : : ;N. Entre xi et xi+1, f(x) g(x) = f(x) (xi+1 x)f(xi) + (x xi)f(xi+1) h = (xi+1 x)(f(x) f(xi)) + (x xi)(f(x) f(xi+1)) h , donc kf gk1 6 !f (h) 6 "=2. Abordons maintenant g(x)(Sng)(x) = P1 n+1 ckTk(y), ou x = (a+b)=2+y(ba)=2 () y = (2x a b)=(b a). ck = 2 Z 1 1 g((a + b)=2 + y(b Tk(y) p 1 y2 dy = b a

a)=2)

Z 1 1 g0((a + b)=2 + y(b a)=2)Vk;1(y) dy = b a NX1 i=0 g0(xi) [Vk;2(yi+1) Vk;2(yi)] ; et, comme kVk;2k1 6 (k2 1)1 (par (33)), et que jg0(xi)j = jf(xi+1) (h)=h, jckj 6 b a N !f (h) h 2 k2 1 = (b a)2 !f (h) h2 1 k 1 1 k + 1 , X1

f(xi)j=h 6 !f

k=n+1 jckj 6 (b a)2!f (h) h2n , et kf Sngk1 6 kf gk1 + kg 1 + (b a)2 h2n

Sngk1 6 !f (h)

; 17Il s'agit de la preuve de Lebesgue, voir A. Pinkus, Weierstrass and approximat ion theory, J. Approx. Theory 107 (2000) 1-66. MATH2171 2005-06 { 2 { Tchebyche { 61 et il sut de prendre n > (b a)2=(h2). 4.6. Calcul des coecients de Tchebyche et autres algorithmes. (1) On peut evidemment avoir la chance d'avoir une integrale explicite, cf. table p. 57. (2) Si on dispose de nombreuses valeurs numeriques de f, on peut estimer ck(f), k = 0; 1; : : : ;N par les coecients discrets c(N) k de (40) (p. 51; le resultat du calcul (40) ne co ncide plus avec (37) si f n'est pas un polyn^ome, aussi note-t-on ici c(N) k (f) la valeur de (40)). Ces coecients peuvent ^etre tres ecacement calcules par un algorithme de tranformee d iscrete rapide (FFT) (cf. tchebfft.m ) % tchebfft.m % % coefficients de Tchebycheff d'une fonction de x, -1<= x <= 1 % nomf=input('donnez la fonction, par exemple: 3.*x+4, etc. N.B. x doit pouvoir etre un vecteur ','s'); n=1;while n>0, n=input('nombre de subdivisions? (stop si <=0 '); if n<=0, break; end; % valeurs de f: clear x;x=cos( pi*(0:n)/n ); clear f;f=eval(nomf); % passage a 2*n clear g;g=[f(n+1:-1:1) f(2:n)]; coef=cos(pi*(0:2*n-1)) .* fft(g) /n; coef(1:n+1), end Ainsi, avec exp(x), on obtient, selon N: N c(N) 0 c(N) 1 c(N) 2 c(N) 3 c(N) 4 c(N) 5 c(N) 6 c(N) 7

1 3.0862 2.3504 2 2.5431 1.1752 0.5431 3 2.5322 1.1309 0.2770 0.0887 4 2.5321 1.1303 0.2715 0.0449 0.0109 5 2.5321 1.1303 0.2715 0.0443 0.0055 0.0011 6 2.5321 1.1303 0.2715 0.0443 0.0055 0.0005 0.0001 7 2.5321 1.1303 0.2715 0.0443 0.0055 0.0005 0.0000 0.0000 On converge donc rapidement vers les ck de l'exponentielle MATH2171 2005-06 { 2 { Tchebyche { 62 k ck 0 2.53213175550402 1 1.13031820798497 2 0.27149533953408 3 0.04433684984866 4 0.00547424044209 5 0.00054292631191 6 0.00004497732295 7 0.00000319843646 8 0.00000019921248 9 0.00000001103677 10 0.00000000055059 11 0.00000000002498 12 0.00000000000104 13 0.00000000000004 (cf. [Clen]). La discordance entre ck(f) et c(N) k (f) est remarquablement bien suggeree par la formule suivante (\Aliasing", \pliage frequentiel"): c(N) k (f) = ck(f) + c2Nk(f) + c2N+k(f) + c4Nk(f) + c4N+k(f) + (49) En eet, on entre la \vraie" serie (45) dans (40): c(N) k (f) = 2 N XN 00 `=0 " X1 0 k0=0 ck0(f)Tk0(cos(`=N)) # Tk(cos(`=N) = 2 N X1 0 k0=0 ck0(f)P(N) k;k0 le P(N) k;k0 de (42)! = X1 p=0 ck+2pN(f) + X1 p=1 c2pNk(f): Cette formule (49) represente exactement la superposition des frequences observee quand on echantillonne un signal: a force de chercher des termes equioscillants, le langage et les methodes de la theorie de l'approximation se rapproche de ce qui se

fait en theorie du signal (these de Hamming). (3) Traitement de la recurrence. On manipule des series de Tchebyche comme on manipule des series de Taylor. Ainsi, multiplier une serie de Tchebyche par un polyn^ome revient a eectuer plusieurs fois une multiplication par x: x X1 0 k=0 ck(f)Tk(x) = X1 0 k=0 ck(f)xTk(x) = X1 0 k=0 ck(f) Tk+1(x) + Tk1(x) 2 = c1(f) 2 T0 + X1 k=1 ck1(f) + ck+1(f) 2 Tk(x) par (12). D'ou ck(xf) = (ck+1(f)+ck1(f))=2, k = 0; 1; : : : (si on pose c1 = c1). O n peut aussi considerer des multiplications et des divisions de series. MATH2171 2005-06 { 2 { Tchebyche { 63 (4) Economisation{rearrangement de polyn^omes. Economisation: on applique a la lettre le mecanisme de cascade decrit en section 4.1 a partir d'une approximation polynomiale connue. Exemple: p(x) = 1+x+ x2 2 + x3 6 + x4 24 est une approximation de ex d'erreur 6 0:01 sur [1; 1] (le premier terme neglige est x5=120). On ne peut supprimer x4=24 sous peine d'avoir une erreur tres superieure a 0.01. Cependant, en soustrayant le multiple approprie de T4, on garde une approximation de degre 3 d'erreur encore acceptable: p(x) 1 192 T4(x) = p(x) 1 8x2 + 8x4 192 = 191 192 + x + 13x2 24

+ x3 6 ne fait qu'ajouter une erreur 6 1=192 a l'erreur initiale. Rearrangement: on construit le developpement d'un polyn^ome p(x) = PN 0 akxk dans la base fT0; : : : ; TNg. Algorithme (Hamming): on rearrange successivement les polyn^omes partiels du schema de Horner aN, aNx+aN1, (aNx+aN1)x+aN2, etc. en traitant chaque multiplication par x selon le point 3 ci-dessus. Ainsi: k ak c0 c1 c2 c3 c4 4 1/24 1/12 3 1/6 1/3 1/24 2 1/2 25/24 1/6 1/48 1 1 13/6 51/96 1/12 1/96 0 1 243/96 27/24 13/48 1/24 1/192 (5) Relations et equations dierentielles. Methode des (Lanczos). L'introduction d'un polyn^ome p dans un operateur dierentiel Ly (par exemple, Ly = y0y), ne va normalement pas annuler l'operateur (p0p est evidemment toujours du degre de p). On modi

e le second membre par un polyn^ome de norme minimale () pol. de Tchebyche), de facon a rendre le probleme soluble dans PN. Un ou plusieurs coecients d'abord indetermines (les fameux ) sont precises in

ne par la comparaison avec des valeurs initiales ou aux limites. Exemple: resoudre y0 y = 0, avec y(0) = 1, dans P4: comme il faut un second membre 2 P4 egalement, on resout plut^ot p0 p = X4 0 akxk !0 X4 0 akxk = T4(x); soit a1 a0 +(2a2a1)x+(3a3a2)x2 +(4a4 a3)x3 a4x4 = 8x2 +8x4, d'ou a4 = 8 , a3 = 32 , a2 = 88 , a1 = 176 , a0 = 175 . Condition initiale a0 = 1 ) = 1=175, etc. Relations de recurrence entre coecients (Clenshaw). On resout un probleme dierentiel en substituant une serie de Tchebyche a la fonction inconnue. En plus des operations mentionnees au 3 ci-dessus, il faut traiter les relations dierentielles. Gr^ace a (30) (p. 48), on a une relation simpl e MATH2171 2005-06 { 2 { Tchebyche { 64 entre une serie de Tchebyche et sa primitive: f0 = X1 0 k=0 ck(f0)Tk ) f = constante + c0(f0) 2 T1+ c1(f0) 2 T2+ X1 k=2 ck(f0) Tk+1 2(k + 1) Tk1 2(k 1) ; donc, ck(f) = [ck1(f0)ck+1(f0)]=(2k), k = 1; 2; : : : On obtient ainsi des relatio ns de recurrence qu'il faut exploiter convenablement (cf. [FoxP]). Par exemple, f0 = f avec f(0) = 1: ck = (ck1 ck+1)=(2k), k = 1; 2; : : : Negligeons c5, c4 = c3=8 ) c3 = 8c4, c3 = (c2 c4)=6 ) c2 = 49c4, c2 = (c1 c3)=4 ) c1 = 204c4, c1 = (c0 c2)=2 ) c0 = 457c4. Condition initiale c0=2+c1T1(0)+c2T2(0)+c3T3(0)+c4T4(0) = 1 ) c0=2c2+c4 = 1 : c4 = 2=361, etc. Nombreuses applications dans D. Gottlieb, S.A. Orszag: Numerical Analysis of Spectral Methods: Theory and Applications. SIAM (CBMS) 1977, C. Canuto, M.Y. Hussaini, A. Quarteroni, T. Zang: Spectral Methods in Fluid Dynamics, Sprin ger, 1988, B. Fornberg: A Practical Guide to Pseudospectral Methods, Cambridge U.P., 1996, Chebyshev Polynomials, J. C. Mason and D. C. Handscomb, Chapman and Hall/CRC Press, 2003. Aussi le logiciel pseudopack, http://www.cfm.brown.edu/peo ple/wsdon/4.7. Algorithmes en representation de Tchebyche. 4.7.1. Algorithme de calcul de Sn(x) =

Xn 0 k=0 ckTk(x): ecrivons la recurrence pour T1(x); : : : ; Tn(x) et faisons suivre de l'expression de Sn(x): 2 666664 x 1 1 2x 1 : : : : : : : : : : : : : : : : : : 1 2x 1 c0=2 c1 : : : : : : cn1 cn 3 777775 2 6666664 T0 T1(x) T2(x) ... Tn1(x) Tn(x) 3 7777775 = 2 6666664 0 0 0... 0 Sn(x) 3 7777775 soit Rt = ; et multiplions par un vecteur ligne = [0; 1; : : : ; n] tel que

= R n'ait que sa seule premiere composante

0 non nulle. On a alors

0 = nSn(x), donc Sn(x) =

0 si on impose en plus n = 1. Calcul des k: n+1 = 0; n = 1; k1 = 2xk k+1 + ck; k = n; n 1; : : : ; 1. Alors, Sn(x) =

0 = x0 1 + c0=2. 4.7.2. Zeros d'un polyn^ome. x doit ^etre tel que Sn(x) = 0, donc, le determinant de la matrice ci-dessus doit ^etre nul. Reduction a un probleme de valeurs propres: on aj oute a l'avant-derniere ligne la derniere multipliee par 1=cn. On a

2x 2 1 2x 1 : : : : : : : : : : : : : : : : : : c0=(2cn) c1=cn : : : 1 + cn2=cn 2x + cn1=cn

= 0: MATH2171 2005-06 { 2 { Tchebyche { 65 Les racines de Sn(x) = 0 sont donc les valeurs propres de 2 66664 0 1 1=2 0 1=2 : : : : : : : : : : : : : : : : : : c0=(4cn) c1=(2cn) : : : 1=2 cn2=(2cn) cn1=(2cn) 3 77775 : (Methode de Tchebyche-Frobenius, voir Boyd, John P., Computing zeros on a real int erval through Chebyshev expansion and polynomial root

nding, SIAM J. Numer. Anal. 40 (2002), no. 5, 1666{1682; Stetter, Hans J., Numerical polynomial algebra, Society for In dustrial and Applied Mathematics (SIAM), Philadelphia, PA, 2004. xvi+472 pp; David DAY, L ouis ROMERO, ROOTS OF POLYNOMIALS EXPRESSED IN TERMS OF ORTHOGONAL POLYNOMIALS, 5. Approximation par fonction rationnelle. Soit Rm;n l'ensemble des fonctions r pouvant se representer comme r = p=q, avec p 2 Pm et q 2 Pn. Si les degres du numerateur et du denominateur sont m0 et n0 lorsque r est reduite a sa plus simple expression, on dit que le defaut de r dans Rm;n est min(m m0; n n0). On a alors le theoreme d'equioscillation Theoreme. Toute fonction reelle f continue dans [a; b] admet une seule meilleure ap proximation ^r 2 Rm;n. La fonction d'erreur f ^r admet un alternant d'au moins m+n+2@ points, ou @ est le defaut de ^r . [Ach] La reciproque est facile a montrer: si s etait meilleure que ^r, s ^r = f ^r (f s) devrait changer au moins m + n + 1 @ fois de signe dans (a; b), mais s ^r = p^q ^pq q^q a un numerateur de degre au plus m+ n @. . . Des algorithmes d'echange existent ([Ach, Pow, Riv1]), mais on a egalement developpe des outils de nature plus analytique: (1) L'approximation de Pade18 r(P) m;n reproduit un maximum de coecients de Taylor, par exemple a l'origine. Normalement, f(x)r(P) m;n(x) = O(xm+n+1). Si f(x) = 1X k=0 ckxk; r(P) m;n(x) = p(x) = Pm 0 pkxk q(x) = Pn 0 qkxk , ou [q0; : : : ; qn] est une solution des n equations homogenes Xn j=0 cm+kjqj = 0; k = 1; : : : ; n, et p = developpement de Taylor de fq limite au degre m. Ainsi, si f(x) = ex; r(P) 0;0 (x) = 1; r(P) 1;0 (x) = 1 + x; r(P) 0;1 (x) = 1 1 x ; r(P) 1;1 (x) = 1 + x=2 1 x=2 ; r(P) 2;2 (x) =

1 + x=2 + x2=12 1 x=2 + x2=12 : (2) L'approximation de Pade-Tchebyche19 r(T) m;n etend l'idee precedente aux series de polyn^omes de Tchebyche: f(x) = 1X0 0 ckTk(x) = c0 2 + 1 2 1X 1 ckeik | {z } f+(ei) + 1 2 1X 1 ckeik | {z } f+(ei) et on prend r(T) m;n(x) = c0 2 + r(P) m;n(ei) 2 + r(P) m;n(ei) 2 . 18cf. Henri Eugene Pade, 1863-1953, cf. G.A. Baker, Jr., Essentials of Pade Approxi mants, Ac. Press, new York, 1975; G.A. Baker, Jr., P. Graves-Morris, Pade Approximants, 2 vol., Add ison-Wesley, 1981. 19Baker & Graves-Morris, op. cit. vol. 2, pp. 56-63. MATH2171 2005-06 { 2 { Tchebyche { 66 Le developpement en serie de Tchebyche de r(T) m;n co ncide normalement avec celui de f jusqu'au terme en Tm+n inclus. La fonction d'erreur est cependant souvent loin d'^etre pr oche de l'equioscillation. (3) L'approximation CF. On utilise une construction de Caratheodory et Fejer20 pro duisant une fonction d'erreur parfaitement equioscillante. . . mais qui n'est pas une fonction rationn elle! On projette ensuite dans Rm;n. La fonction ~r(CF) m;n est une fonction meromorphe avec exactement n p^oles dans jzj > 1, approchant f(m;n) + (z) :=

P 1m n+1 ckzk telle que f(m;n) + (z) ~r(CF) m;n (z) = zmn+1 1X j=0 ujzj 1X j=0 ujzj sur le cercle unite jzj = 1. est la neme valeur singuliere, et [u0; u1; : : : ]T est le neme vecteur si ngulier de la matrice de Hankel [ci+j ], i = mn+1;mn+2; : : : ;, j = 0; 1; : : : (matrice in

nie ou tronquee a un ordre nettement superieur a n). En

n, on projette mXn0 0 ckTk(x) + ~r(CF) m;n (ei) + ~r(CF) m;n (ei) 2 dansRm;n (souvent par Pade-Tchebyche). Pour un programme matlab d'une simplicite et d'une ecacite confondantes, voir L.N. Trefethen, MATLAB programs for CF approximation, pp.599-602 in Approximation Theory V , ( C .K.Chui, L.L.Schumaker, J.D.Ward, eds.), Academic Press, Orlando 1986, cftref.m 6. Lecture. Tchebyche et de La Vallee Poussin P.L. Tchebyche http://www-history.mcs.st-and.ac.uk/history/BigPictures/Chebyshev.jpeg Pafnuty Lvovitch Tchebyche (P.L. Qebyxev) (16 mai 1821{8 dec. 1894) fut un des esprits les plus remarquables du XIXeme siecle. On conna^t surtout son inegalite de Tchebyche en probabilites: si X est une variable aleatoire reelle de moyenne m et de variance 2, Prob (jX mj > k) 6 1 k2 : Cette inegalite se deduit simplement de ce que la fonction caracteristique de R n [mk; m+k] est bornee sur tout R par (xm)2=(k)2, on aura l'occasion de revoir cette constr uction. . . Il a egalement donne ce curieux et interessant theoreme d'analyse: la primitive de xm (a+bxn)p (probleme des dierentielles bin^omes) s'exprime au moyen de fonctions elementaires si et seule ment si l'un des trois nombres m + 1 n , p, ou m+ 1 n + p est entier. . . Il s'est egalement interesse a des points

ns de theorie des nombres: soit (x) := nombre de nombres premiers 6 x. Comment se comporte (x) quand x ! 1? Gauss avait conjecture que lim x!1 (x) x= ln x = 1, Tchebyche montra21 que les limites inferieure et superieure de (x) x= ln x sont comprises entre 0.92129 et 1.1056. On reviendra sur ce resultat. Il donna aussi la premiere preuve de la conjecture de Bertrand: i l y a toujours au moins un nombre premier entre n et 2n si n > 3. L'origine du probleme de meilleure approximation resolu par Tchebyche se situe dans la conception de mecanismes articules associes a une machine a vapeur: 20L.N. Trefethen, M. Gutknecht, The Caratheodory-Fejer method for real rational ap proximation, SIAM J. Numer. Anal. 20 (1983) 420-436. 21W. Schwarz, Some remarks on the history of the prime number theorem from 1896 to 1960, pp.565{616 in J.P. Pier (ed.), Development of Mathematics 1900{1950, Birkh auser, 1994. MATH2171 2005-06 { 2 { Tchebyche { 67 O M P 6 ? O M P 6 ? Mecanismes de transmission du mouvement. ? ? x y (a) (b) Le mecanisme le plus simple (a gauche, dans la

gure ci-dessus) force le point M a parcourir un arc de cercle, ce qui impose des eorts lateraux excessifs au piston P. Le mecanisme de droite, imagine par James Watt, fait tracer au point M un arc de courbe possedant un point d'in exion, se rapprochant ainsi nettement mieux de la verticale. Watt et ses successeurs se sont ingenie a trouver des mecanismes engendrant des points d'in exion d'ordre de plus en plus eleve, avec une tangente verticale au point d'in exion (

gure (a)). Dans un voisinage [; ] du point d'in exion, l'equation de l'arc de courbe est proche de y = Kxn (l'axe des x est l'axe vertical). Tchebyche montra que l'important n'est pas d'avoir un tres bon contact avec la direction ve rticale en un point, mais bien de minimiser le plus grand ecart par rapport a la ligne verticale ideale, ce q ui l'amena au principe d'equioscillation (

gure (b)). O P P0 Ironie de l'histoire, un mecanisme transmettant de facon exacte un mouvement circulaire en un mouvement rectiligne (inverseur) fut imagine par le general francais Peaucellier en 1864. . . P et P 0 decrivent des

gures inverses l'une de l'autre: OP:OP0 = constante. Si P decrit un arc de cercle passant par O, P0 decrit exactement un segment de droite. (Cf. x 16 de H. Rademacher, O. Toeplitz, Von Zahlen und Figuren, Springer, 1930, 1968 = Enjoying Mathematics )

c c (a; 0) (a; 0) x y 2b 2b Le mecanisme de Tchebyche le plus connu (voir http://ch.engr.ucdavis.edu/design/fourbar/fourbarChebyshev.html; M. Nicaise, Les mouvements mecaniques, etude descriptive et raisonnee des mecanismes, Librairie polytechnique Ch. Beranger, Paris et Liege, 1931; D.C. Tao, Applied Linkage Synthesis, Addison-Wesley, Reading, 1964) est un quatre-barres symetrique de longueurs 2a pour la base, 2b pour les deux manivelles, et 2c pour la bielle. On s'interesse a la trajectoire du point milieu (x; y) de la bielle. Soit c0 la projection horizontale de la demi bielle: les co ordonn ees des extremites de la bielle sont (xc0; yc00), avec c02+c002 = c2, et exprimons que ces points sont a distance 2b de (a; 0) et (a; 0): 4b2 = (x c0 + a)2 + (y + c00)2 = (x + c0 a)2 + (y c00)2 avec r2 = x2 +y2, on a x2 = r2c002 4b2 r2 = r2(r2 4b2 + (a + c)2)(4b2 (a c)2 r2 4b2 r2 , y2 = r2(c0 a)2 4b2 r2 r2(r2 4b2 a2 + c2)2 4b2 r2 :. On voit que la courbe (reelle) est decrite quand 4b2(a+c)2 6 r2 6 4b2(ac)2. Un examen de la derivee de y montre l'existen ce de minima de y en x 6= 0 si (a + c)3 < 4b2c. Cf. cheblink.m MATH2171 2005-06 { 2 { Tchebyche { 68 P.L. Tchebyche (un peu plus ^age) http://www.math.psu.edu/dna/interpolation/interpolation.html Clenshaw ([Clen, p. 17]) fait une revue de quelques orthographes occidentales (alphabet latin) du nom de notre heros, les principales sont: Q E B Y X E V International C E B Y S E V Francais TCH E B Y CH E FF Anglais CH E B Y SH E V Allemand TSCH E B Y SCH E FF On lira aussi P. Butzer, F. Jongmans: P.L. Chebyshev (1821{1894), a guide to his life and work, J. Approx. Theory, 96 (1999) 111-138; N.I. Akhiezer: Function theory according to Chebyshev, pp. 1-81 in A.N. Kolmogorov, A.P. Yushkevich (ed.): Mathematics of the 19th Century, vol. 3, Birkh auser, 1998, V.L. Goncharov, The theory of best approximations of functions, J. Approx. Theory 106 (2000) 2-57; comments by V.M. Tikhomirov, ibid. 58-65. http://www-history.mcs.st-and.ac.uk/history/Mathematicians/Chebyshev.html History of Approximation Theory: http://www.math.technion.ac.il/hat/

C.J. de La Vallee Poussin, photo extraite de Butzer & Korevaar, (voir plus loin), aimablement numerisee par MM. Guy Buchet et Pierre Bulens. Charles-Jean Etienne Gustave Nicolas, baron de La Vallee-Poussin (Louvain, 14 ao^ut 1866{ Boitsfort, 2 mars 1962), professeur a l'universite de Louvain, devint brusquement celebre en 1896 par une preuve de la conjecture de Gauss relative au nombre (x) de nombres premiers 6 x: lim x!1 (x) x= ln x = 1 22. De plus, de La Vallee-Poussin con

rma une autre intuition de Gauss, l'importance de la primitive de l'inverse du logarithme en cette matiere:

(x) Z x 2 dt ln t

6 constante x exp(constante pln x). Riemann avait deja pousse fort loin l'etude de la repartition des nombres premiers en exploitant l'identite sur la fonction zeta log (s) = log 1X k=1 1 ks = X p premier log 1 1 ps = X p premier 1 ps + 1 2p2s + 1 3p3s + (voir p. 178 pour le prolongement analytique de (s) a Re s 6 1). Des lors, log (s) s =M(s) +M(2s) +M(3s) +M(4s) + , ou M est la transformee de Mellin Mf(t) := Z 1 0 f(x)xt1 dx, (remarquons queMf(kt) est la transformee de Mellin de k1f(x1=k). . . ), ou encoreM(s) = log (s) s log (2s) 2s log (3s) 3s log (5s) 5s + log (6s) 6s + En manipulant des formules d'inversion de la transformee de Mellin, Riemann arriva a (x) R(x) R(x1=2) 2 R(x1=3) 3 R(x1=5) 5 + R(x1=6)

6 + , avec R(x) = Z x 2 dt ln t 1X k=1 Z xk 2 dt ln t ; ou les k sont les zeros non reels de la fonction 23.de La Vallee Poussin et Hadamard f urent les premiers (c'est 22Une autre demonstration fut donnee independamment la m^eme annee par Hadamard (186 5{ 1963 : les nombres premiers conservent). 23D. Zagier, The

rst 50 million prime numbers, The Math. Intelligencer 0 (1977) 7-19; W. Schwarz, op. cit. MATH2171 2005-06 { 2 { Tchebyche { 69 le mot) a montrer rigoureusement que la contribution de ces zeros est negligeable d ans le comportement asymptotique de R(x) quand x ! 1. Riemann se proposait de montrer que tous ces zeros ont une p artie reelle egale a 1/2, mais la preuve n'est toujours pas connue (on cherche. . . ) Cf. The encodi ng of the prime distribution by the zeta zeros (elegant approach) http://www.maths.ex.ac.uk/~mwatkins/zeta/en coding2.htm de La Vallee Poussin redigea de nombreux memoires [dLVP2] et livres sur les relatio ns entre sommes partielles de Fourier (ou de Tchebyche) et meilleures approximations24, ainsi que sur des questions fondamentales de theorie des fonctions, de la mesure et du potentiel. Nul doute que ces dernier s travaux furent inspires par les premiers. n nk jxj ^pn(x)k1 2 0.25000 00000 00000 00000 4 0.27048 35971 11137 10107 6 0.27557 43724 01175 38604 8 0.27751 78246 75052 69646 10 0.27845 11855 35508 60152 20 0.27973 24337 71973 82968 30 0.27997 46066 86407 49231 40 0.28005 97447 60423 15265 50 0.28009 92184 52382 83558 100 0.28015 19162 35465 27355 Dans un article delicieusement intitule \Sur les polyn^omes d'approximation et la representation approchee d'un angle" (Bull. Acad. Roy. Belg. 12 (1910) 808{844 = [dLVP2] VI 155{191), notre auteur explore la meilleure approximation polynomiale de degre n de jxj sur [1; 1]. Il obtient l'encadrement A n 6 En(jxj) 6 B n , la borne inferieure etant la plus dicile a etablir (c'est la que de La Vallee Poussin introduit son theoreme (x 2.2, p. 30)). Plus tard, S. Bernstein (\Sur la meilleure approximation de jxj par des polyn^omes de degres donnes", Acta Math. 37 (1914) 1{57) put etablir l'existence de la limite C = lim n!1 nEn(jxj), limite dont la valeur est encore aujourd'hui une enigme (cf. chap. 1 de R.S. Varga, Scienti

c Computation on Mathematical Problems and Conjectures, SIAM (CBMS-NSF 60), 1990; M.I. Ganzburg, The Bernstein constant and polynomial interpolation at the Chebyshev nodes, J. Approx. Th. 119 (2002) 193-213; aussi l'article de Lubinsky cite en p. 39). . . (cf. constants.txt) URL: http://www.cecm.sfu.ca/projects/ISC/I d.html BASE TABLE OF CONSTANTS By Simon Plouffe , CECM, Centre for Experimental \& Constructive Mathematics \\ Simon Fraser University , Last update : Feb 6, 1996. ... Constants associated with the Approximation of Functions * Wilbraham-Gibbs constant * Lebesgue constants * Favard constants * Bernstein's constant * The "one-ninth" constant The Berstein Constant. 0.28016949902386913303643649123067200004248213981236 URL=http://www.cecm.sfu.ca/projects/ISC/dataB/isc/C/bernstein.txt Professeur pendant de nombreuses decennies a l'universite, il y exposa son cours d' analyse, un classique, a en juger par les nombreuses bibliotheques d'unite qui le conservent precieusement: 24J. Favard, Hommage a Charles de La Vallee Poussin (1866{1962), pp. 1{3 in P.L. B utzer & J. Korevaar (editeurs): On Approximation Theory{ Uber Approximationstheorie, Bi rkh auser (ISNM 5), 1964,1972. Voir aussi: J.C. Burkhill, Vallee Poussin, J. London Math. S oc. 39 (1964), 165-175. P.L. Butzer and R.J. Nessel, Aspects of de La Vallee Poussin' s Work in Approximation and its In uence, Archive for History of Exact Science 46 (1993-94), 6795; http://www-history.mcs.st-and.ac.uk/history/Mathematicians/Vallee Poussin.ht ml; J. Mawhin, Charles-Jean de La Vallee Poussin, Disquisitiones Mathematic 1, n 1 (1998), 2-4, http://gauss.math.ucl.ac.be/PagesMath/Bienvenue/de la vallee Bio.html MATH2171 2005-06 { 2 { Tchebyche { 70 Getting http://www.bib.ucl.ac.be Libellule. Catalogue contenu Acces au catalogue Resultats du balayage Nombre de Resultats De La Vallee Poussin 1 De La Vallee Poussin, C 3 De La Vallee Poussin, Catherine 2 De La Vallee Poussin, Ch.I 2 De La Vallee Poussin, Ch.-J 9 De La Vallee Poussin, Ch.J 25 De La Vallee Poussin, Charles 2 De La Vallee Poussin, Charles J 2 de la Vallee Poussin, Charles Jean 10 De La Vallee Poussin, Dominique 1 De La Vallee Poussin,Et 1 ... ... DE LA VALLEE POUSSIN, CH.J. B010075U COURS D'ANALYSE INFINITESIMALE 1 LOUVAIN: UYSTPRUYST, 1903.-- 386 B010076N COURS D'ANALYSE INFINITESIMALE 2 LOUVAIN: UYSTPRUYST, 1906.-- 456 B010073H COURS D'ANALYSE INFINITESIMALE 1. 2e ed. LOUVAIN: UYSTPRUYST, 1909.-- 42 3 ... U3LABL1270 COURS D'ANALYSE INFINITESIMALE PARIS: GAUTHIER-VILLARS, 1926.-- 436

SIMONART, FERNAND, collab. U1PCES0883 COURS D'ANALYSE INFINITESIMALE. 10e ed. LOUVAIN: UYSTPRUYST, 1947.-- 4 81 U3ELHY0291 COURS D'ANALYSE INFINITESIMALE. 10e ed. LOUVAIN: UYSTPRUYST, 1947.-- 4 89 U3ELHY0292 COURS D'ANALYSE INFINITESIMALE. 8e ed. LOUVAIN: UYSTPRUYST, 1949.-- 55 6 U3FORT0551 COURS D'ANALYSE INFINITESIMALE. 8e ed. LOUVAIN: UYSTPRUYST, 1949.-- 55 6 U3FORT0550 COURS D'ANALYSE INFINITESIMALE. 11e ed. LOUVAIN: UYSTPRUYST, 1954.-- 4 92 U1PCES0864 COURS D'ANALYSE INFINITESIMALE. 9e ed. LOUVAIN: UYSTPRUYST, 1957.-- 56 0 U3PHYS0346 COURS D'ANALYSE INFINITESIMALE. 9e ed. LOUVAIN: LIBR.UNIVERSITAIRE, 19 57.-- 560 U1PCES0884 COURS D'ANALYSE INFINITESIMALE. 12e ed. LOUVAIN: LIBRAIRIE UNIVERSITAI RE, 1959.-- 492 U3PHYS0345 COURS D'ANALYSE INFINITESIMALE. 12e ed. LOUVAIN: LIBR.UNIVERSITAIRE, 1 959.-- 490 Le cours d'analyse de La Vallee Poussin a l'UCL B301430B ETUDE DES INTEGRALES A LIMITES INFINIES POUR LESQUELLES LA FONCTION SOUS LE SIGNE EST CONTINUE BRUXELLES: F.HAYEZ, 1892.-- 33 B301187Q RECHERCHES ANALYTIQUES SUR LA THEORIE DES NOMBRES PREMIERS BRUXELLES: HAYEZ, 1896 B301431U SUR L'APPROXIMATION DES FONCTIONS D'UNE VARIABLE REELLE ET DE LEURS DERIVEES PAR DES POLYNOMES ET DES SUITES LIMITEES DE FOURIER BRUXELLES: HAYEZ, 1908.-- 64 B304173A INTEGRALES DE LEBESGUE/FONCTIONS D'ENSEMBLE /CLASSES DE BAIRE PARIS: GAUTHIER-VILLARS, 1916.-- 162 ... B010788X LECONS DE MECANIQUE ANALYTIQUE.vol.:VECTEURS/ CINEMATIQUE/DYNAMIQUE DU POINT/STATIQUE LOUVAIN: UYSTPRUYST, 1924.-- 288 B010789R LECONS DE MECANIQUE ANALYTIQUE.vol.: DYNAMIQUE DES SYSTEMES/DYNAMIQUE DU CORPS SOLIDE/EQUATIONS DE LA MECANIQUE/MECANIQUE DES FLUIDES LOUVAIN: UYSTPRUYST, 1925.-- 326 U1PCES0866 LECONS DE MECANIQUE ANALYTIQUE.vol.:T.02 LOUVAIN: UYSTPRUYST, 1925.-315 A306927P LES NOUVELLES METHODES DE LA THEORIE DU POTENTIEL PARIS: HERMANN, 1937. -- 46 A306721E LE POTENTIEL LOGARITHMIQUE. BALAYAGE ET REPRESENTATION CONFORME LOUVAIN: UYSTRUYST, 1949.-- 464 Autres ouvrages de La Vallee Poussin a l'UCL C.J. de La Vallee Poussin (un peu plus jeune) http://www-history.mcs.st-and.ac.uk/history/Mathematicians/Vallee Poussin.html MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 71 CHAPITRE 3 Approximation en moyenne quadratique. 1. Produit scalaire, orthogonalite, espace prehilbertien. On a vu que les polyn^omes de Tchebyche permettent d'exprimer une bonne approxima tion de f dans Pn par une formule explicite f(x) Sn(x) := Xk=n0 k=0 ck(f)Tk(x) ; avec ck(f) = 2 Z 1 1

f(x) Tk(x) dx p1 x2 ; k = 0; 1; : : : cette ecriture du coecient ck decoulant de la propriete d'orthogonalite Z 1 1 Ti(x) Tj(x) dx p1 x2 = 0; i 6= j: 1.1. Produits scalaires sur Pn. On se propose maintenant d'examiner d'autres possibilites d'orthogonalite, c'est-adire dierentes formules de produit scalaires sur des espaces de fonctions. Soit w une fonction positive (> 0) et integrable sur un intervalle (a; b) de R (1 6 a < b 6 +1) avec R b a w(x)dx > 0 (fonction densite ou poids). De plus, si a et=ou b est in

ni, on demandera R b a x2n w(x) du < 1. Montrons alors que (f; g) := Z b a f(x)g(x)w(x) dx (50) est un produit scalaire sur Pn: Rappel. Produit scalaire Un produit scalaire sur un espace vectoriel X de

ni sur R est une forme bilineaire symetrique de

nie positive: 8f; g; h 2 X; 8;

2 R; (f +

g; h) = (f; h) +

(g; h); 8f; g 2 X; (g; f) = (f; g); 8f 2 X;f 6= 0 ) (f; f) > 0: Un produit scalaire sur un espace vectoriel X de

ni sur C est une forme sesquilineaire hermitienne de

nie positive: 8f; g; h 2 X; 8;

2 C; (f +

g; h) = (f; h) +

(g; h); 8f; g 2 X; (g; f) = (f; g); 8f 2 X;f 6= 0 ) (f; f) > 0: MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 72 Inegalite de Cauchy-Schwarz: j(f; g)j 6 [(f; f)(g; g)]1=2; l'egalite n'ayant lieu que si f et g sont dependants (f = 0 ou g = Cf, C scalaire). kfk = (f; f)1=2 est une norme sur X. Bien entendu, deux elements de X sont orthogonaux entre eux si (f; g) = 0. On veri

e que (50) convient eectivement a Pn: (1) Existence de l'integrale. w etant integrable et f continue, le probleme ne se po se que si a et=ou b est in

ni. f et g etant des polyn^omes de degres 6 n, (50) se distribue en integrales de mon^omes R b a xmw(x)dx, (moments de w), 0 m 6 2n. Soit a0 < 1 (a considerer si a = 1) et b0 > 1 (a considerer si b = +1). On a R b a = R a0 a + R b0 a0 + R b b0 . Les integrales sur (a; a0) et (b0; b) de jxmjw(x) sont majorees par les integrales de x2nw(x), qui existent par hypothese. (2) Caractere de

ni positif. Si f est un polyn^ome non nul, il ne s'annule qu'en un nombre

ni de points, on peut retirer du support S de w (points x tels que R x+" x" w(t)dt > 0; 8" > 0) un ensemble S de mesure susamment petite pour que R SnS w(t)dt soit encore strictement positive, et tel que f 2 R soit > 0 sur S n S: b a f2(t)w(t)dt = R S f2(t)w(t)dt > R SnS f2(t)w(t)dt > 2 R SnS w(t)dt > 0. Si f et g sont susceptibles de prendre des valeurs complexes, il faut etendre (50 ) a (f; g) = Z b a f(x)g(x)w(x) dx : (500) On peut aussi etudier une formule de produit scalaire directement inspiree du prod uit scalaire usuel sur RN: soit x1 < x2 < < xN des points

xes de [a; b], alors (f; g) = mX=N m=1 f(xm)g(xm) (51) est un produit scalaire (produit scalaire discret) parfaitement admissible, que l'on a donc simplement construit avec les vecteurs (f(x1); : : : ; f(xN)) et (g(x1); : : : ; g(xN)) de RN! Notons quand m^eme que (51) n'est de

ni positif que sur un espace vectoriel susamment petit pour ne pas contenir de fonction 6 0 s'annulant en chaque xm: (51) est de

ni positif sur PN1 mais pas sur PN, ou on a (f; f) = 0 avec f(x) = (x x1) : : : (x xN) 6 0. Des produ its scalaires discrets de type (51) interviendront dans des problemes de moindres car res. Si on se donne w1;w2; : : : ;wN > 0, on peut de

nir la somme ponderee (f; g) = mX=N m=1 wm f(xm)g(xm) (52) qui est encore un produit scalaire tres utile. La forme (52) commence a ressembler a (50)! L'integrale (50) prise au sens de Riema nn est eectivement une limite de sommes de type (52) lorsque les xk se rapprochent inde

niment. La de

nition d'integrale suivante permettra d'incorporer a la fois des integrales et des sommes dans un produit scalaire: MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 73 De

nition. Soit

une fonction reelle bornee sur [a; b] et f une fonction de

nie sur [a; b]. On appelle integrale de Riemann-Stieltjes Z b a f(x)d(x) := lim max jxmxm1j!0 mX=M m=1 f(x0 m)[(xm) (xm1)] si cette limite, prise sur les decoupages a = x0 < x1 < m xm, existe. On demontre1 que R b a f d existe si a at b sont

< xM = b, xm1

x0

nis, f continue, et croissante2 (pas necessairement strictement croissante). Si a et=ou b est in

ni, on etudie la=les limites quand a ! 1 et=ou b ! +1. On voit donc que (f; g) = Z b a f(x)g(x) d(x) (53) est un produit scalaire generalisant (50) et (52) sur Pn, pourvu que R b a x2nd(x) < 1, et que la fonction croissante possede au moins n + 1 points de croissance (points x tels que (x + ") (x ") > 0; 8" > 0). Cette derniere precaution doit en eet ^etre prise au cas ou est une fonction en esca lier, (53) donnant alors (52), les \marches" de hauteurs wm de la fonction etant situees aux points xm. Au contraire, si est (croissante) et derivable sur (a; b), (53) donne (50) av ec w = 0. En fait, on retrouve (50) des que est absolument continue. Une fonction est absol ument continue sur (a; b) si, 8 > 0, 9 > 0: pour toute reunion R = S [xm; ym] (a; b) de longueur P (ym xm) 6 , on a P j(ym) (xm)j 6 . Pour une fonction croissante, notons (R) = P ((ym) (xm)). On a alors longueur de R ! 0 ) (R) ! 0 si est absolument continue. Une fonction absolument c ontinue sur (a; b) est toujours une primitive d'une fonction integrable sur (a; b): 9 2 L1(a; b) : (x) = (a) + R x a (t) dt. On demontre que toute fonction croissante est la somme d'une fonction croissante absolument continue, d'une fonction en escalier (avec des \marches" eventuellement in

niment rapprochees), et d'une fonction croissante singulierement continue. . . cf. par ex. Riesz & Sz.Nagy, Lecons d'analyse fonctio nnelle, Gauthier-Villars, 5eme ed., 1968, x 25. Dans le m^eme ouvrage, de

nition de l'integrale de Lebesgue-Stieltjes aux xx 56{58. Soit w positive et integrable sur un domaine D du plan complexe, un produit scala ire valable est alors (f; g) = Z D f(z)g(z)w(z)dxdy ; z = x + iy: On peut aussi considerer (f; g) = Z C f(z)g(z)w(z)ds ; ds = jdzj sur une reunion d'arcs et de contours (recti

ables) du plan complexe. Le produit scalaire le plus general sur RN a la forme (x; y) = xTMy, ou M est une m atrice carree d'ordre N, symetrique de

nie positive (matrice de Gram, voir plus loin). La forme fonctionnelle correspon dante est (pour des fonctions de

nies sur A) (f; g) = R A R A R K(x; y)f(x)g(y) dx dy, avec 8f 2 X; f 6= 0 : A R A K(x; y)f(x)f(y) dxdy > 0, plus generalement: (f; g) = R A R A f(x)g(y) d(x; y), ou est une mesure sur A A telle que f 2 X; f 6= 0 ) (f; f) > 0. On voit que (50) et (53) ne sont que d es cas tres particuliers 1P. Henrici, Applied and Computational Complex Analysis, II, Wiley, 1977, p.570. Il sut de considerer sup P m fm[(xm) (xm1)] et inf P m Fm[(xm) (xm1)], ou fm et Fm sont les valeurs minimales et maximales de f sur [xm1; xm]. 2Interpretation probabiliste: si (a) = 0 et (b) = 1, on peut considerer comme une fo nction de repartition. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 74 ou est concentree sur le lieu x = y. M^eme en se limitant a x = y, on conna^t encore des produits scalaires plus generaux que (53): ce sont les produits scalaires de Sobolev (f; g) = PM m=0 R A f(m)(x)g(m)(x) dm(x), tres etudies actuellement. La speci

cite des produits scalaires de type (53) sera specialement mise a contribution a par tir du x 3.2, c'est-a-dire que la plupart des enonces qui seront donnes a partir du x 3.2 ne seront valables que pour des produits scalaires de type R A f(x)g(x) R d(x) et non pas pour des produits scalaires plus generaux A R A f(x)g(y) d(x; y), ni m^eme pour des produits scalaires de type Sobolev. 1.2. Espace prehilbertien. De

nition. Un espace prehilbertien est un espace vectoriel muni d'un produit scalair e (:; :) et norme3 par kfk = (f; f)1=2. Inegalite de Cauchy-Schwarz: (f; g) 6 kfk kgk. Identite du parallelogramme: kf + gk2 + kf gk2 = 2(kfk2 + kgk2). 2. Meilleure approximation dans un espace prehilbertien. Dans un espace muni d'un produit scalaire (prehilbertien), le probleme theorique de la determination de meilleure approximation est in

niment plus simple que dans un espace norme general: on dispose maintenant d'une equerre en plus d'une regle graduee! L'essentiel a retenir est que la determination de la meilleure approximation dans un sous-espace vectoriel de dimension

nie se reduit maintenant a la resolution d'un systeme d'equations lineaires, et que ce systeme est specialement simple si on dispose d'une base ortho gonale du sous-espace. . . 2.1. Base d'un espace de dimension

nie, matrice de Gram. Considerons donc un sous-espace V de dimension

nie d'un espace prehilbertien X. Soit fb0; : : : ; bng une base de V (donc choisi de dimension n + 1). Tout element de V s'exprime donc comme une combinaison lineaire unique des elements de la base choisie: f = Xn k=0 ckbk: La matrice de Gram de la base choisie relie les produits scalaires (f; bj) aux c oecients ck: (f; b0) = c0 cn (f; bn)

Gn+1; ou la matrice de Gram Gn+1 est la matrice des produits scalaires (bi; bj): Gn+1 = 2 4 (b0; b0) (b0; bn) (bn; b0) (bn; bn) 3 5 : (54) 3N.B. Certains auteurs, dont L. Schwartz, Bourbaki, ou encore L. Chambadal et J. L. Ovaert dans leur article \Hilbert (espace de)" de l'Encyclopedia Universalis [1980], appellent pre hilbertien un espace vectoriel muni d'une forme bilineaire symetrique semi-de

nie positive, et donc susceptible de n'^etre que semi-norme. Il faut alors preciser \prehilbertien separe", ou \euclidien" (ou \hermitien" pour l es espaces sur C), pour retrouver la de

nition utilisee ici. (Remarque communiquee par J. Meinguet). MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 75 Cette matrice est symetrique (dans le cas d'un espace sur R), hermitienne (dans l e cas d'un espace sur C), et de

nie positive: Rappel. Matrice de

nie positive. Une matrice carree A reelle symetrique (ai;j = aj;i) est de

nie positive si 8 vecteur reel v 6= 0; vTAv > 0: Une matrice carree A complexe hermitienne (ai;j = aj;i) est de

nie positive si 8 vecteur complexe v 6= 0; vHAv > 0; (vH designe le transpose conjugue de v: vH = vT ). A est alors necessairement reguliere (inversible): si le determinant de A etait nul, il existerait un vecteur v 6= 0 tel que Av = 0, donc vHAv = 0 impossible! On montre d'ailleurs que toutes les valeurs propres d'une telle matrice sont st rictement positives, donc le determinant = produit des valeurs propres > 0. On dit encore que A est de

nie si vHAv a toujours le m^eme signe des que v 6= 0, non de

nie si vHAv s'annule pour au moins un vecteur v 6= 0, semi-de

nie positive si vHAv > 0 pour tout v, inde

nie si vHAv prend des valeurs > 0 et < 0. Montrons que Gn+1 est bien hermitienne de

nie positive si fb0; : : : ; bng est bien une une base de V : on a bien (Gn+1)j;i = (bj; bi) = (bi; bj) = (Gn+1)i;j par symetrie he rmitienne du produit scalaire; ensuite, c0 Gn+1 2 4 c0 ... cn 3 5 = (f; b0) (f; bn) cn

2 4 c0 ... cn 3 5 = (f; f) > 0 ou f = Pn 0 ckbk, des que [c0; : : : ; cn] 6= [0; : : : ; 0], car f ne peut alors ^etre nul . 2.2. Meilleure approximation = projection orthogonale. Comme exercice, examinons d'abord le cas ou V est de dimension. . . 1! b0 b0 * f Soit b0 2 V , tous les elements de V sont de la forme b0, il faut minimiser kf b0k sur : kf b0k2 = (f b0; f b0) = (f; f) (b0; f) (b0; f) + jj2kb0k2: Si le champ des scalaires est R, est reel, on doit simplement minimiser un trin^o me du second degre en , et on trouve immediatement = (b0; f)=kb0k2. Sur C, voyons d'abord comment doit se comporter la phase (argument) de si jj est

xe:, (b0; f) + (b0; f) est maximal quand (b0; f) est reel positif: (b0; f) = jjj(b0; f)j, i l faut donc minimiser kfk22jjj(b0; f)j+jj2kb0k2; soit jj = j(b0; f)j=kb0k2, = (b0; f)=kb0k2 = (f; b0)=kb0k2: la meilleure approximation de la forme b0 de f est (f; b0) kb0k2 b0; (55) MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 76 projection orthogonale de f dans V (voir dessin). Passons maintenant a V de dimension

nie quelconque: V 1b1 0b0 0b0 + 1b1 b0 b1 f Figure 1. Projection orthogonale de f sur V muni d'une base orthogonale. Theoreme. Soit X un espace prehilbertien sur R ou C, de produit scalaire ( : ; : ), donc de norme k : k = ( : ; : )1=2, et V un sous-espace vectoriel de dimension

nie de X. Alors, 8f 2 X a exactement une meilleure approximation ^p = Pf dans V ; cette me illeure approximation est l'application d'un projecteur lineaire sur X, le projecteur ort hogonal X ! V : f ^p est orthogonal a tout element de V . Si fb0; : : : ; bng est une base de P V , on obtient les coecients du developpemen t de p^ = Pf = j=n j=0 jbj dans cette base en resolvant le systeme lineaire suivant (equations normales) GT n+1 2 4 0 ... n 3 5 = 2 4 (b0; b0) (bn; b0) (b0; bn) (bn; bn) 3 5 2 4 0 ... n 3 5 = 2 4 (f; b0) ... (f; bn) 3 5 (56) ou on reconna^t la transposee de la matrice de Gram de la base de V . En eet, construisons d'abord ~p 2 V tel que f ~p soit orthogonal a tout element de V (en principe, on ne sait pas encore si ce ~p sera la meilleure approximation de f dans V ): f ~p = f Pj=n j=0 ~jbj orthogonal a bi; i = 0; 1; : : : ; n: (f ~p; bi) = (f; bi) Xj=n j=0 ~j(bj; bi) = 0 ; i = 0; : : : ; n MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 77 ce qui est bien (56) . Comme nous savons que Gn+1 est de

nie positive, ce systeme a une une solution unique, 8f 2 X. Montrons maintenant que ~p = ^p, c'est-a-dire que l'orthogonalite du vecteur d'err eur au sousespace d'approximation implique l'optimalite: 8p 2 V; kf pk2 = (f ~p (p ~p); f ~p (p ~p)) = kf ~pk2 + kp ~pk2; (relation de Pythagore), en eet, (f ~p; p ~p) = (p ~p; f ~p) = 0 par orthogonalite de f ~p et de tout element de V . Donc, kf pk > kf ~pk des que p 6= ~p. On peut expliciter le projecteur orthogonal sur V par Pf = 0 : : : n 2 4 b0 ... bn 3 5 = (f; b0) : : : (f; bn) (Gn+1)1 2 4 b0 ... bn 3 5 ; ce qui est un peu lourd. Les choses se simpli

ent remarquablement si on dispose d'une base orthogonale de V : Si fb0; : : : ; bng est une base orthogonale de V , la meilleure approximation d e f dans V est donnee par Pf = Xj=n j=0 (f; bj) kbjk2 bj ; si (bj; bj) = 0; i 6= j: (57) En eet, la matrice de Gram Gn+1 est alors diagonale, d'elements diagonaux (bi; bi) = kbik2; i = 0; : : : ; n dans ce cas. Cette formule (57) est donc a peine plus compliquee que (55) La projection orthogonale sur un espace de dimension

nie V n'est autre que la somme (vectorielle) des projections orthogonales sur les espaces de dimension un sous tendus par les elements d'une base orthogonale de V . Exemple. Projection orthogonale d'une partie de Z5 dans un plan (reseau quasi-peri odique de de BruijnPenrose4). Soit V le sous-espace de dimension 2 de R5 sous-tendu par les deux vecteurs (ort hogonaux) u et v de composantes cos(k=5) et sin(k=5), k = 1; : : : ; 5. A chaque point p = u +

v de V , on associe le point q(p) de Z5 le plus proche de p (chaque composante de q(p) est l'entier le plus p roche de la composante correspondante de p). En

n, on projette ce q(p) orthogonalement sur V tout simplement par (57): u0q kuk2 u + v0q kvk2 v. 4Voir American Mathematical Society :: Feature Column URL: http://www.ams.org/fe aturecolumn/archive/penrose.Mathematics behind QuasiTiler by M. Senechal http:// www.geom.uiuc.edu/apps/quasitiler/MS about.html the Geometry Center http://www.geom.uiuc.edu/ MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 78 % de Bruijn-Penrose % projection de Z5 sur le plan (u,v) % c25=sqrt(2.5); u=cos((1:5)*pi/5)/c25;v=sin((1:5)*pi/5)/c25; % check orthonormality in R5 [u*v',u*u',v*v'], % c=5;plot(-c:c,c*ones(size(-c:c)),'b.',-c:c,-c*ones(size(-c:c)),'b.');hold; ipv=[];ipvn=0; h=0.02,ih=round(c/h); for iu=-ih:ih, p2=-c; while p2<c, p=h*iu*u+p2*v;ip=round(p);iv=1; ipvf=1;if ipvn==0, ipv=ip;ipvn=1;end; ipd=ipv-ones(size(ipv,1),1)*ip; ipd=abs(ipd)*[1 1 1 1 1]'; if min(ipd)==0,ipvf=0;end; if ipvf>0, ipvn=ipvn+1; ipv(ipvn,:)=ip;projip=[ip*u', ip*v']; for j=1:ipvn-1; projip1=[ipv(j,:)*u', ipv(j,:)*v']; dt=norm(projip-projip1); if abs(dt-0.400*c25)<0.01, plot([projip(1),projip1(1)],[projip(2),projip1(2)]); end; end; end; end; ipp2=ip-h*iu*u+0.51;p2=min( ipp2(1:4)./v(1:4) ); end; %iv end; %u 2.3. Methode d'orthogonalisation de Gram-Schmidt. Le procede de Gram-Schmidt consiste a construire progressivement une base orthogona le (dont on voit bien maintenant l'inter^et) a partir d'une base quelconque en retira nt de chaque element de la base donnee une combinaison des elements precedents de facon a ^etre orthog onal a ces derniers: c'est une projection orthogonale. b? 0 = b0; b? 1 = b1 (b1; b? 0 ) kb0 ?k2

b? 0 ; b? 2 = b2 (b2; b? 0 ) kb0 ?k2 b? 0 (b2; b? 1 ) kb1 ?k2 b? 1 ; etc. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 79 Chaque nouvel element d'une base orthogonale construite par le procede de Gram-Schmi dt est l'erreur de meilleure approximation de l'element correspondant de la base init iale dans le sous-espace sous-tendu par les elements precedents: b? m = bm mX1 k=0 (m) k b? k ; avec (m) k = (bm; b? k ) kbk ?k2 (58) 2.4. Hauteurs, volumes et determinants de Gram. Revenons a (56) et cherchons a determiner la norme de l'erreur de meilleure approxi mation de f dans V . On a kf ^pk2 = (f ^p; f ^p) = (f ^p; f), toujours par orthogonalite de f ^p et de tout element de V , donc kf ^pk2 = (f; f) Pn j=0 j(bj; f). Reecrivons (56) comme 2 664 (b0; b0) (bn; b0) (f; b0) (b0; bn) (bn; bn) (f; bn) (b0; f) (bn; f) (f; f) 3 775 2 664 0 ... n 1 3 775 =

2 664 0... 0 kf ^pk2 3 775 et extrayons \l'inconnue" -1 par formule de Cramer, on obtient kf ^pk2 =

(b0; b0) (b0; f)

(bn; b0) (f; b0) (b0; bn) (bn; bn) (f; bn) (bn; f) (f; f)

detGn+1 : Cette formule donne le carre de la hauteur abaissee de l'extremite de f sur V . Soit fb0; : : : ; bng une base quelconque de V et considerons le parallelotope P n = fx = 0b0+ + nbng, 0 6 0; : : : n 6 1. Le (n + 1)volume de Pn est le nvolume de Pn1 multiplie par la hauteur abaissee de l'extremite de bn sur le sous-espace sous-tendu par fb0; : : : ; bn1g. On adapte la formule precedente: vol. Pn vol. Pn1 2 = detGn+1 detGn ; d'ou (n + 1)vol. Pn = p detGn+1, puisqu'on a bien longueur de b0 = [(b0; b0)]1=2 en n = 0. Exemple. Mon^omes dans L2, probleme de M untz. Soit bk = x

k et le produit scalaire (f; g) = Z 1 0 f(x)g(x) dx. Alors, (bk; bm) = 1=(

k +

m +1), et le rapport detGn+1= detGn est une fonction rationnelle de degre 2n+1 en

n, de residu unite en

n = 1=2, positive, et nulle si

n vaut un des

k precedents. Cela donne (

0)2

n1)2 (

n + 1=2)(

n +

0 + 1)2

n +

n1 + 1)2 : Pour l'erreur de meilleure approximation de f(x) = x par une combinaison de x

0 ; : : : ; x

n, on a kf ^pk2 = (

0)2

n)2 ( + 1=2)( +

0 + 1)2

( +

n + 1)2 : Cette norme tend vers 0 quand n ! 1 si la serie des 1=

n est divergente (M untz). MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 80 2.5. Factorisation de Cholesky. 5 On peut montrer de facon encore plus nette le contenu matriciel de ces manipulati ons. Constatons que (58) represente en fait l'expression des elements de l'ancienne base dans la nouvelle base (ce qui est tres bien, c'est cette base qui sera utile dans les app lications!): b0 b1 = b? 0 b? 1 b? n 2 666664 1 (1) 0 (2) 0 (n) 0 1 (2) 1 (n) 1 . . . 1 (n) n1 1 3 777775 b = b? M: Considerons la matrice des produits scalaires (bi; bj) (matrice de Gram): Gn+1 = 2 4 (b0; b0) (b0; bn) (bn; b0) (bn; bn) 3 5 = 0 @ 2 4 b0 ... bn 3 5 ; b0 1 A =MT 0 B@ 2 bn bn

64 b? 0 ... b? n 3 75 ; b? 0 n b?

1 CA M; donc, Gn+1 =MTBM ; ou B est la matrice diagonale des kb? i k2. Soit A une matrice hermitienne de

nie positive. On appelle factorisation de Cholesky la formation des facteurs du produit A = LLH ou L est triangulaire inferieure, et ou LH est la transposee conjuguee de L. Cette fa ctorisation est unique si on precise les signes des elements diagonaux de L. Cette factorisatio n peut ^etre realisee par des algorithmes tres ecaces (de la m^eme famille que les algorith mes de factorisation LDU lies a l'elimination de Gauss). Ici, on a donc A = Gn+1 et L = MT B1=2. Si on choisit d'utiliser une base orthon ormale, B = I et on a donc M = LT fournie par la factorisation; si on choisit de prendre les elements diagonaux de M tous egaux a 1, M = LTB1=2, ou B est la matrice des elements diagonaux de L. Si l'on veut absolument recuperer l'expression de la nouvelle base dans l'ancienne , il faut resoudre b?M = b, mais les applications vraiment utiles demandent bien M plut^ot que M1: ainsi, s'il faut exprimer un vecteur v = Pn 0 cibi dans la nouvelle base, v = b[c0; : : : ; cn]T = b?M[c0; : : : ; cn]T ; le nouveau vecteur de coecients est bien M[c0; : : : ; cn]T . 515 oct. 1875{ 31 ao^ut 1918, commandant, directeur technique du service geograph ique de l'armee francaise. \Ocier travailleur, ingenieux, re echi,. . . , devra toutefois se me

er comme chef de service de quelque tendance a l'originalite et au paradoxe. . . " (Lt Col. Hergault, chef d'E .M. de la 7eme Armee, 24 oct. 1916). Cf. C. Brezinski: Andre Louis Cholesky, rapport ANO 347, U.S.T.Lille I, 19 95. Aussi dans Bull. Belg. Math. Soc.- Simon Stevin, suppl. au n de dec. 1996, pp. 45-50. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 81 3. Polyn^omes orthogonaux. On applique maintenant ce qui precede au cas ou X est un espace prehilbertien de fon ctions, muni d'un produit scalaire du type (50) ou, plus generalement (53) : (f; g) = Z b a f(x)g(x) d(x), et ou V = Pn. 3.1. Construction d'une base orthogonale de Pn. L'espace vectoriel de dimension

nie Pn (de dimension n+1) contient une in

nite de bases orthogonales. Ici, on se donne la contrainte supplementaire: degrei = i; i = 0; 1; : : : ; n, donc, en partant de x0; x; : : : ; xn: 0(x) = 1 1(x) = x +1(0) 2(x) = x2 + A0 2x +2(0) n(x) = xn + A0 nxn1 + +n(0) 3.1.1. Moments, matrice de Hankel. Exprimons que i(x) =i(0) + + A0 ixi1 + xi est orthogonal a 1; x; x2; : : : ; xi1. On retrouve une matrice de Gram: i(0) (x0; x0) + + A0 i (xi1; x0) + (xi; x0) = 0 i(0) (x0; x1) + + A0 i (xi1; x1) + (xi; x1) = 0 + i(0) (x0; xi1) + + A0 i (xi1; xi1) + (xi; xi1) = 0 Soit (xi; xj) = R b a xi+jd(x) =: i+j, moment6 d'ordre i+j (autour de 0) de d. Ces moments existent tant que i+j 2n, par hypothese et la discussion \Existence de l'integrale " faite au point 1, p. 72. On a donc 2 664 0 1 i1 i 1 2 i i+1 i1 i 2i2 2i1 3 775 2 66664 i(0) 0 i(0) ... A0 i 1 3 77775 = 2 664 0 0... 0 3 775 ; (59) systeme de i equations a i inconnuesi(0); 0 i(0); : : : ;A0 i. La matrice carree H Hi = 2 664 0 1 i1

1 2 3 775 (60) est de

i i1 i 2i2

nie positive: soit v = [v0; v1; : : : ; vi1]T , avec au moins un des vj 6= 0, alo rs, 6La notion de moment se retrouve egalement en mecanique et en probabilites. Le mome nt d'ordre k autour de x0 de d est R b a (x x0)k d(x). MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 82 vTHv = Xi1 p=0 vp Xi1 q=0 p+qvq = Xi1 p=0 vp Z b a Xi1 q=0 vqxp+q ! d(x) = Z b a Xi1 p=0 vpxp !2 d(x) > 0 car le produit scalaire est de

ni positif. On aura d'ailleurs reconnu la matrice de Gram de la base fbi = xign0 de Pn (cf. (54) p. 74). L'ensemble des polyn^omes de degre i orthogonaux a Pi1 est donne par fAiig; Ai 6= 0; ((x) = xi + i ): Les polyn^omes orthonormaux k'ik = 1 sont donnes par Ai tels que kAik = jAij kk = i i i 1: 'i = Aii = i kk i : Exemples. Des calculs simples, mais devenant vite un peu fastidieux, aboutissent a l'explicitation desi pour de petites valeurs de i: degrei(x) 'i(x) 0 1 1 p0 1 x 1 0 x 1 s 0 2 21 0 2 x2 03 12 02 21 x + 13 22 02 21 x2 03 12 02 21 x + 13 22 02 21 s 024 21 4 023 + 2123 32 02 21 Table 1. Polyn^omes orthogonaux de petits degres. On voit appara^tre d'interessants determinants. . . 3.1.2. Determinants. Ajoutons 1 x : : : xi1 xi 2 66664 i(0) 0 i(0) ... A0 i 1

3 77775 =i(x) MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 83 a (59) pour obtenir un systeme de i+1 equations a i+1 inconnues, et extrayons \l'inc onnue" 1 par formule de Cramer: 1 =

0 1 : : : i1 0 1 2 : : : i 0 i1 i : : : 2i2 0 1 x : : : xi1i(x)

0 1 : : : i1 i 1 2 : : : i i+1 i1 i : : : 2i2 2i1 1 x : : : xi1 xi

soit: i(x) =

0 1 : : : i1 i 1 2 : : : i i+1 i1 i : : : 2i2 2i1 1 x : : : xi1 xi

detHi : Le numerateur est lineaire en les elements de la derniere ligne, donc, 8 f, (; f) = i

0 1 : : : i1 i 1 2 : : : i i+1 i1 i : : : 2i2 2i1 (1; f) (x; f) : : : (xi1; f) (xi; f)

detHi : En particulier, (;) = (; xi + g), avec g 2 Pi1, donc, (;) = (; xi): ii i ii i (;) = kk2 = ii i detHi+1 detHi ; ce qui con

rme d'ailleurs que detHi > 0 (la formule est valable a partir de i = 0 si on pose detH0 = 1). Remarque. Si n'a que n points de croissance x1; x2; : : : ; xn sur [a; b], on pe ut encore determinern mais kk = 0 (c'est-a-diren(x) = (xx1) : : : (xxn)), car Hn+1 n'est que n semi-de

nie positive: il existe v = [v0; : : : ; vn]T 6= 0 tel que Hn+1v = 0, les vj ne sont autres que les coecients de (x x1) : : : (x xn) =n(x). 3.1.3. Relation avec la methode de Gram-Schmidt. On a applique (58) (p. 79) a V = P n de base initiale bi = xi, i = 0; 1; : : : ; n. On cherche a construire une base o rthogonale b? i =i qui soit un rearrangement triangulaire de la base donnee. On utilise lesi a mesure qu'on les construit: 1)0 = 1; 2) pour i > 0, supposons disposer de0; : : : ;1, alorsi doit ^etre une combinaiso i n lineaire i = (i) i0 + + 0i i1 + xi (61) MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 84 orthogonale a0, . . . ,i1: 0 = (;) = ((i) ij i0 + + 0i i1 + xi;) = (ij) j i kk2 + (xi;) ; j j donc, le coecient dej est (ij) i = (xi;) j kk2 ; j = 0; : : : ; i 1: j On accede donc progressivement a tous les elements de la nouvelle base. On verra des algorithmes plus ecaces, bases sur la relation de recurrence. Conclusion de cette partie. La determination d'une base orthogonale de Pn n'est q u'un exemple de construction de base orthogonale d'un espace de dimension

nie. Cette construction passe par l'orthogonalisation d'une base donnee (methode de Gram-Schmidt) et revie nt a considerer la factorisation de Cholesky de la matrice de Gram de la base initial e. Dans le cas des polyn^omes, et avec un produit scalaire de la forme (f; g) = R b a f(x)g(x)d(x), si la base initiale est celle des mon^omes de Pn, la matrice de Gram est constituee des moments i+j (matrice de Hankel). 3.2. Relation de recurrence. Le resultat suivant est de la plus haute importance pour tout ce qui concerne l'u tilisation des polyn^omes orthogonaux: Theoreme. Toute suite de polyn^omes orthogonaux f;; : : :g,i(x) = xi + 01 , relatifs a un produit scalaire de la forme (f; g) = R b a f(x)g(x) d(x) veri

e une relation de recurrence d'ordre deux: n+1(x) = (x n)(x) n

2n n1(x) ; n = 1; 2; : : : (62) avec0 = 1 et1(x) = x 0, n = (xn;) n kk2 = n R b a x2 n(x)(x) d(x) R b a2 n(x)(x) d(x) ; n = 0; 1; : : :

2n = kk2 n k1k2 = n R b a2 n(x)(x) d(x) R b a2 n1(x)(x) d(x) ; n = 1; 2; : : : (63) Si n'a que N < 1 points de croissance sur [a; b], les relations de recurrence son t limitees a 1 n N 1. En eet, eectuons la division du polyn^omen+1 de degre n + 1 parn de degre n, soit xn le quotient, et Rn le reste qui doit ^etre de degre < n: soit Rn = n1+ 0n n2+ , n+1(x) = (x n)(x) + n n1(x) + 0n n2(x) + ; et formons un produit scalaire en multipliant a gauche par (1)n: 0 = ((x); x(x)) n((x);(x)), ce qui donne n. n n n n (2)n1: 0 = (1(x); x(x)) + n n n(1(x);1(x)), que l'on transforme encore en n n utilisant (1(x); x(x)) = (x1(x);(x)), et x1(x) =n(x) + (x) avec n n n n n 2 Pn1, donc orthogonal an: n = kk2=k1k2 n n MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 85 note

2n dans (62). (3)nj avec j > 1: 0 = (j(x); x(x))+ n n (j) n (j(x);j(x)), or (j(x); x(x)) = n n n n (xj(x);(x)) et xj(x) n'est que de degre n j + 1 < n, donc orthogonal a n n n n, Rn n'a donc pas d'autre composante non nulle que celle den1. Remarque. On a utilise plusieurs fois dans la preuve la propriete (f(R x); xg(x)) = (xf(x); g(x)) = b a xf(x)g(x)d(x). On a ainsi mis en evidence le caractere formellement autoadjoint d e l'operateur de multiplication par x pour ce type de produit scalaire. On reviendr a sur cette notion. Si on choisit la suite tout aussi orthogonale fAng, avec des constantes An 6= 0, n la recurrence devient An+1+1(x) = n An+1 An (x n)An(x) n An+1 An1

2n An11(x) ; n Pour les polyn^omes orthonormaux, An = 1=kk, de sorte que An=An+1 = k+1k=kk = n n n

n+1, par (63), et si on choisit de prendre

n > 0,

n+1'n+1(x) = (x

n)'n(x)

n'n1(x): (64) 3.3. Quelques algorithmes utilisant la recurrence. Voici, dans une syntaxe vaguement inspiree de matlab, quelques echantillons de la souplesse et de la puissance des relations de recurrence. On suppose disposer des valeurs n umeriques de i,

i pour i = 0; (1) Acceder a p = 1; q = x for i = 1 : 1 r = (x i)q

1; : : : ; n: la valeur numerique den(x): 0; : n 1;

2 i p; %ici, p =i1(x); q =i(x); r =i+1(x) p = q; q = r; end; La reponse est r. (2) Eectuer la somme s = Pn i=0 ci(x): i (a) Forme progressive: on ajoute l'accumulation des sommes partielles a l'algorit hme precedent: p = 1; q = x 0; s = c0 + c1q; for i = 1 : 1 : n 1; r = (x i)q

2 i p; %ici, p =i1(x); q =i(x); r =i+1(x) s = s + ci+1r; p = q; q = r; end; MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 86 (b) Forme regressive: on ecrit (62) jusquen, suivi de l'expression de s: R' = se : 2 66664 x 0 1

2 1 x 1 1 : : : : : : : : :

2 n1 x n1 1 c0 c1 : : : cn1 cn 3 77775 2 66664 0 1(x) ... n1(x) n(x) 3 77775 = 2 66664 0 0... 0 s 3 77775 et on multiplie par le vecteur ligne = [s0; s1; : : : ; sn] avec sn = 1, et tout es les composantes de R egales a 0, sauf la premiere, alors, s = (x0)s0

2 1s1+c0: q = 0; r = 0; for i = n : 1 : 0; p = (x i)q

2 i+1r + ci; % ici, p = si1; q = si; r = si+1 r = q; q = p; end; s = p; (3) Acceder a la valeur numerique de la derivee0 n(x): il sut de deriver (62) pour construire la recurrence (non homogene) des derivees0 n+1(x) = (xn) 0 n(x)

2n 0 n1(x)+ n(x) p = 1; q = x 0; p1 = 0; q1 = 1; for i = 1 : 1 : n r = (x i)q

1;

2 i p; %ici, p =i1(x); q =i(x); r =i+1(x) r1 = (x i)q1

2 i p1 + q ; %ici, p1 =0 i1(x); q1 =0 i(x); r1 =0 i+1(x) p = q; q = r; p1 = q1; q1 = r1; end; La reponse est r1. (4) Rearranger Pn i=0 ci(x) = i Pn i=0 aixi. (a) Passer des ai aux ci: on constitue progressivement la somme par les dierentes etapes du schema de Horner s = xs+ai, i = n; n1; : : : (Hamming) en utilisant la recurrence (62) sous la forme xi(x) =i+1(x) + ii(x) +

2 ii1(x): cn+1 = 0; cn+2 = 0; for i = n : 1 : 0; % ici, ci+10 + + cnni1 = ai+1 + ci = ai + 0ci+1 +

+ anxni1

2 1ci+2 ; for j = 1 : 1 : n i ; ci+j = ci+j + jci+j+1 +

2 j+1ci+j+2 ; end ; end; for i = 0 : 1 : n; ai = ai=Ai; end ; (b) Passer des ci aux ai: on reprend les si du point 2b ci-dessus, en constatant que si est un polyn^ome de degre n 1 i, i = n 1; n 2; : : : ;1: % polynome dans la base x^n x^(n-1) ... 1 r=zeros(1,n+1);r(n+1)=c(n+1); if n>0 MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 87 q=zeros(1,n+1);q(n)=r(n+1); q(n+1)=-alpha(n)*r(n+1)+c(n);p=zeros(1,n+1); for i=n-1:-1:1 p(i:n)=q(i+1:n+1);p(n+1)=0; % coecients de xsi1 (shift) p=p-alpha(i)*q-beta2(i+1)*r;p(n+1)=p(n+1)+c(i); % p contient maintenant les coecients de si2 (alpha(i) vaut i1 etc.) r=q;q=p; end; r=q; end; a=r; On voit l'importance de la recurrence dans tout traitement numerique lie aux polyn^ omes orthogonaux. Encore faut-il conna^tre les coecients de la recurrence. . . A partir de la fonction de poids (ou densite) w, ou de la fonction croissante , on p eut construire7 les coecients n et

n de (62) soit par des methodes de type \Stieltjes", ou on evalue n et

n par (63) a partir de valeurs numeriques den (elles-m^emes obtenues par exploitation de la recurrence jusqu'au degre n) en utilisant une formule d'integration numerique (ou une evaluation exacte si est une fonction en escalier), des methodes de type \Tchebyche", ou on manipule des integrales de

nies (en partant des moments k = R b a xk d(x), ou, mieux encore, de moments modi

es8 R b a pk(x) d(x) avec des polyn^omes pk \bien choisis". Voici l'algorithme le plus primitif de cette famille, on construit les integrales k;m := R b a xkm(x) d(x) en partant de k;0 = k; k = 0; 1; : : : ; 2n, k;1 = R b a xk(x 0) d(x) = k+1 0k; k = 0; 1; : : : ; 2n 1, ou 0 = 1=0. Ensuite: k;m+1 = Z b a xkm+1(x) d(x) = Z b a xk[(x m)m(x)

2m m1(x)]d(x); (par (??)) = k+1;m mk;m

2m k;m1 pour k = 0; 1; : : : ; 2nm1, et on s'arr^ete quand m = n. Il faut conna^tre m et

m! L'astuce est de remarquer que k;m = 0 si m > k par orthogonalite. On commence en fait en k = m 1, ou on a: m;m

2m m1;m1, ce qui donne

m. Ensuite, en k = m, 0 = m+1;m

mm;m

2m m1;m1, d'ou m. Programmes matlab: voir MATLAB SUITE FOR GENERATING ORTHOGONAL POLYNOMIALS http://www.cs.purdue.edu/archives/2002/wxg/codes/OPQ.html 7W. Gautschi, On generating orthogonal polynomials, SIAM J. Sci. Stat. Comput. 3 (1982) 289-317. 8Le probleme de la determination de n et

n (constantes de Lanczos) en fonction des moments k = R b a xk d(x) (constantes de Schwarz) est mal conditionne si n est grand. Pour une syn these recente sur la question, cf. W. Gautschi, Algorithm 726. ORTHPOL: a package of routines for generating orthogonal polynomials and Gauss-type quadrature rules, ACM Trans. Math. Soft. 20 (1994) 21 -62. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 88 On aurait pu obtenir ces informations par les algorithmes generaux d'orthogonalisa tion (Gram-Schmidt, Cholesky), mais la factorisation de Cholesky d'une matrice d'ordr e n co^ute n3=6 operations, alors que ce que l'on vient de voir ne represente que n2 operation s. Ces simpli

cations, dont on ne comprend pas tres bien l'origine9 semblent dues a une associat ion favorable du caractere polynomial des fonctions de base et du type de produit sca laire utilise. Exemple: polyn^omes de Legendre sur [a; b]. Prenons w(x) = 1 (donc (x) = x+ constante ) sur un intervalle borne [a; b]. On a k;0 = k = R b a xk dx = (bk+1 ak+1)=(k + 1), 0 = 1=0 = (a + b)=2, k;1 = k+1 0k = [k(bk+2 ak+2) (k + 2)ab(bk ak)]=(2(k + 1)(k + 2)). Apres quelques calculs penibles (on aurait mieux fait de prendre pk(x) = (x a)k ou pk(x) = (x (a + b)=2)k), on trouve 1 = 2 = = (a + b)=2,

2 1 = (b a)2=12,

2 2 = (b a)2=15, on verra plus loin la formule donnant

n dans ce cas. . . Algorithme quotient-dierence (qd) de Rutishauser-Stiefel. Voici un algorithme beaucoup plus subtil reliant les moments (constantes de Schw arz) aux coecients de la recurrence (constantes de Lanczos). Pour eviter des divisions p ar zero, partons des moments par rapport a a: (a) k := Z b a (x a)k d(x), k = 0; 1; : : : On construit alors les colonnes successives du tableau q(0) 1 e(1) 0 = 0 e(0) 1 q(1) 1 q(0) 2 e(2) 0 = 0 e(1) 1 e(0) 2 q(2) 1 q(1) 2 . . . e(3) 0 = 0 e(2) 1 e(1) 2 q(3) 1 q(2) 2 . . . e(4) 0 = 0 e(3) 1 e(2) 2 ... ... . . . ... ... ... par q(k) 1 := (a) k+1=(a) k , k = 0; 1; : : : et les regles du losange e(n) m := q(n+1) m q(n) m + e(n+1) m1 ; q(n) m+1 := e(n+1) m

e(n) m q(n+1) m ; (65) pour m = 1; 2; : : : , n = 0; 1; : : : Alors, k = a + q(0) k+1 + e(0) k ; k = 0; 1; : : : ;

2 k = e(0) k q(0) k , k = 1; 2; : : : Explication10: soitk;n le polyn^ome orthogonal monique de degre k par rapport a (x a)n d(x) sur (a; b) (polyn^omes de Hadamard).(n+1) k (n) k est 1) de degre 6 k 1; 2) orthogonal a Pk2 par rapport a (x a)n+1 d(x), donc(n+1) k (n) k = une constante fois(n+1) k1 , soit(n+1) k (n) k = e(n) k(n+1) k1 . (n) k+1(x) (x a)n+1) ( k est 1) de degre 6 k; 2) orthogonal a Pk1 par rapport a (x a)n d(x), donc (n) k+1(x) (x a)n+1) ( k = une constante fois(n) k , soit(n) k+1(x) (x a)n+1) ( k = q(n) k+1n) ( k . Remarquons que q(n) k =(n) k (a)=n) ( k1(a). On retrouve la forme de la recurrence des(n) k : 0 =(n) k+1 (x a)n+1) ( k + q(n) k+1n) ( k + e(n) k h (n) k (x a)n+1) ( k1 + q(n) k(n) k1 i : (n) k+1(x) = x a q(n) k+1 e(n) k (n) k (x) e(n) k q(n) k(n) k1(x).

9Pour les polyn^R omes orthogonaux relativement a un produit scalaire de Sobolev (f; g) = b a [f(x)g(x)d1(x) + f0(x)g0(x)d2(x)], on ne conna^t rien de tel. . . 10Reprise de P. Henrici, Applied and Computational Complex Analysis, vol. 1, Wil ey, 1974, x 7.6, 7.7. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 89 Pour retrouver les formules du losange, formons les produits scalaires (n) k ;n+1) ( k1 )n+1 = e(n) k kn+1) ( k1 k2 n+1, ou e(n) k = kn) ( k k2 n=kn+1) ( k1 k2 n+1; ((x a)n+1) ( k ;n) ( k )n = q(n) k+1kn) ( k k2 n, ou q(n) k+1 = kn+1) ( k k2 n+1=kn) ( k k2 n. On retrouve d'abord ainsi la deuxieme regle (65). On retrouve les deux regles (65) en formant la recurrence des(n+1) k 0 =(n+1) k+1 (n) k+1 + e(n) k+1n+1) ( k + q(n) k+1 h (n+1) k (n) k + e(n) k(n+1) k1 i : (n+1) k+1 (x) = (x a q(n) k+1 e(n) k+1)n+1) ( k (x) e(n) k q(n) k+1n+1) ( k1 (x). Exercice. Montrez que les polyn^omes f 2k(y) =k;n(a+y2); 2k+1(y) = y;n+1( k a+y2)g sont orthogonaux sur pb a;pb a par rapport a y2nd[sign y ((a + y2) (a))]. Et on a la recurrence m+1(y) = y m(y) 2m m1(y), avec 2

2k = e(n) k ; 2 2k+1 = q(n) k+1. Exemples: polyn^omes de Legendre sur [a; b]. Reprenons l'exemple precedent: (a) k = Z b a (x a)k dx = (b a)k+1 k + 1 . q(k) 1 = (b a)(k + 1)=(k + 2), e(k) 1 = (b a)=((k + 2)(k + 3)), q(k) 2 = (b a)(k + 2)2=((k + 3)(k + 4)), e(k) 2 = 4(b a)=((k + 4)(k + 5)), q(k) 3 = (b a)(k + 3)2=((k + 5)(k + 6)), etc.: q(k) n = (b a)(k + n)2=((k + 2n 1)(k + 2n)), e(k) n = n2(b a)=((k + 2n)(k + 2n + 1)), n = (a + b)=2;

2n = n2(b a)2 4(4n2 1) . Polyn^omes de Laguerre L() n . a = 0; b = 1; d(x) = xex. k = Z 1 0 xk+ex dx = (k + + 1). q(k) 1 = (k + + 2)=(k++1) = k++1. On montre facilement q(k) n = k++n; e(k) n = n; n = +2n+1;

2n = n( + n). Polyn^omes d'Hermite Hn. Densite ex2 sur (1;1). D'apres l'exercice precedent, (x = y2) = Z y 0 et2 dt, y > 0, donc d(x) = 1 2 x1=2ex, H2n(y) = L(1=2) n (y2);H2n+1(y) = yL(1=2) n (y2), n = 0;

2n = n=2. 3.4. Zeros des polyn^omes orthogonaux. Un polyn^ome de degre n a au plus n zeros reels. Les choses sont beaucoup ses pour les polyn^omes orthogonaux: Theoreme.Toute fonction continue de norme > 0, orthogonale a Pn1 selon un scalaire (f; g) = R b a f(x)g(x)d(x), ou a au moins n points de croissance sur [a; b], doit admettre au moins n changements de signe sur l'intervalle ouvert (a; b). En particulier, le polyn^ome orthogonal de degre n a n zeros simples dans En eet, supposons que f ne change de signe qu'aux points a < x1 < : : : < avec k < n. Pour

plus preci produit

(a; b). xk < b

xer les idees, soit f(x) > 0 pour xk < x < b, f(x) 6 0 pour xk1 < x < xk, etc. Alors, on aurait f(x)p(x) > 0 sur tout [a; b], avec p(x) = (x R x1) : : : (x xk) 2 Pn1, donc b a f(x)p(x) d(x) = 0 avec f(x)p(x) 0: fp devrait ^etre nulle en chaque point de cr oissance de ) f devrait ^etre nulle en chacun de ces points (f(x)p(x) = 0 ) f(x) = 0 si p (x) 6= 0 et nous savons que f(x) = 0 si p(x) = 0), et on aurait kfk = 0. Exercice. Montrez que, si le support de est constitue de plusieurs composantes co nnexes,n possede au plus un zero simple dans tout intervalle separant deux de ces composantes connexes . MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 90 En eet, sin possedait deux zeros (eventuellement confondus) xi et xi+1 dans un tel i ntervalle,n serait orthogonal au polyn^ome n(x) (x xi)(x xi+1) , donc, 0 = Z S n(x) n(x) (x xi)(x xi+1) d(x) = Z S 2 n(x) (x xi)(x xi+1) d(x); impossible, puisque (xxi)(xxi+1) est positif dans S (ce produit n'est negatif que d ans l'intervalle [xi; xi+1] situe hors du support S). Theoreme.Les zeros den+1 sont separes par ceux den, c'est-a-dire que les zeros x1;n < : : : < xn;n den et les zeros x1;n+1 < : : : < xn+1;n+1 den+1 veri

ent a < x1;n+1 < x1;n < x2;n+1 < : : : xn;n+1 < xn;n < xn+1;n+1 < b: En eet11, prenons d'abord n = 1. Par la recurrence (62),2 est negatif au zero x1;1 d e 1, puisque0 = 1 > 0, et2 est positif en a et b, puisque2(x) = x2 + est positif qu and x est grand et que2 ne peut plus changer de signe quand x > b ou x < a. Donc,2 do it avoir un zero entre a et x1;1 et un autre zero entre x1;1 et b. x b n+1 > 0 xn;n n xn+1 < 0 n;n1 n1 n+1 > 0 Ensuite, avec le choix de l'unite pour le coecient de xn:n(x) = xn + = Yn k=1 (x xn;k), supposons que les zeros den separent ceux den1 et montrons que les zeros den+1 separent bien ceux den. Partons de b:n+1(b) > 0 puisque n+1(x) = xn+1 + est le produit des xxn+1;k tous positifs des que x > xn+1;n+1;n+1(xn;n) < 0 puisquen1 est encore positif (xn1;n1 < xn;n) et quen+1 etn1 ont des signes opposes aux zeros den (par la recurrence (62),n+1(x) =

2n n1(x) sin(x) = 0), doncn+1 a au moins un zero entre xn;n et b;n+1(xn1;n) > 0 carn1 a change de sign e entre xn1;n et xn;n, doncn+1 a au moins un autre zero entre xn1;n et xn;n; etc. On trouve ainsi n + 1 intervalles (a; x1;n); (x1;n; x2;n); : : : (xn1;n; xn;n); (xn;n; b) oun+1 de degre n + 1 doit s'annuler, il y a donc exactement un zero dans chacun de ces intervalles. Autre demonstration:n+1= est une fonction croissante entre deux asymptotes. En n eet, vrai si n = 0; ensuite, par la recurrence (62),n+1(x)=(x) = x n n

2n n(x)=1(x) n a donc un zero entre deux zeros den (p^oles). Exemple. Zeros de quelques polyn^omes de Legendre sur [a; b]. Rappelons qu'on a trouve1(x) = x (a + b)=2,2(x) = [x (a + b)=2](x) (b a)2=12 = [x 1 (a + b)=2]2 (b a)2=12,3(x) = [x (a + b)=2](x) 1(x) (b a)2=15 = 2 11Pour les \experts": f+1;; : : : ;g est une suite de Sturm. Voir aussi plus loi n n 0 n, x 3.5, p. 91, la m^eme propriete des valeurs propres d'une matrice tridiahgonale. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 91 [x (a + b)=2]f[x (a + b)=2]2 3(b a)2=20g: 1 a + b 2 2 a + b 2 b a p12 a + b 2 + b a p12 3 a + b 2 b a p 20=3 a + b 2 a + b 2 + b a p 20=3 3.5. Zeros de polyn^omes orthogonaux et valeurs propres de matrices tridiagonales symetriques. Prenons maintenant les polyn^omes orthonormaux, et reecrivons la recurrence (64) so us la forme 2 66664 0

1 1

2 . . . . . . . . .

n2 n2

n1

n1 n1 3 77775 2 66664 '0(x) '1(x) ... 'n2(x) 'n1(x) 3 77775 = x 2 66664 '0(x) '1(x) ... 'n2(x) 'n1(x) 3 77775 2 66664 0 0... 0

n'n(x) 3 77775 T n'n(x) = x'n(x)

n n(x): (66) Les zeros de 'n sont donc les valeurs propres de la matrice tridiagonale symetriqu e reelle T n. Ceci est tres utile pour le calcul (et la theorie) des spectres de matrices s ymetriques reelles car on peut toujours ramener une telle matrice par un nombre

ni de similitudes orthogonales simples a une matrice tridiagonale. Rappel. Matrices orthogonales et unitaires. Une matrice orthogonale est une matrice carree A qui veri

e AAT = ATA = I : Les lignes d'une telle matrice sont donc de norme unite et sont orthogonales entr e elles. Les colonnes d'une telle matrice sont donc de norme unite et sont orthogonales en tre elles (au sens de l'orthogonalite des vecteurs de RN: ('; ) = 'T = PN k=1 'k k). Une matrice unitaire est une matrice carree A qui veri

e AAH = AHA = I : Les lignes d'une telle matrice sont donc de norme unite et sont orthogonales entr e elles. Les colonnes d'une telle matrice sont donc de norme unite et sont orthogonales en tre elles (au sens de l'orthogonalite des vecteurs de CN: ('; ) = 'H = PN k=1 'k k). Toute matrice symetrique reelle est diagonalisable par similitude orthogonale reel le: A = AT ) A = V V 1 ; V 1 = V T : Les colonnes de V forment une base orthonormale (au sens de RN) de vecteurs prop res de A. Toute matrice hermitienne est diagonalisable par similitude unitaire: A = AH ) A = V V 1 ; V 1 = V H: MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 92 Les colonnes de V forment une base orthonormale (au sens de CN) de vecteurs prop res de A. Soit xj;n le jeme zero de 'n. Par (66), la jeme colonne de V a pour composantes Kj' 0(xj;n), Kj'1(xj;n), . . .Kj'n1(xj;n), ou Kj est tel que la somme des carres de ces composan tes soit egale a 1: Kj = [ Pn1 k=0 '2 k(xj;n)]1=2. L'element i; j de V est donc vi;j = 'i(xj;n) qPn1 k=0 '2 k(xj;n) ; i = 0; : : : ; n 1; ; j = 1; : : : ; n: Exprimons maintenant que les lignes de V sont orthonormales (au sens de Rn): Theoreme. Les polyn^omes orthonormaux '0, '1,. . R . ,'n1 selon un produit scalaire (f; g) = b a f(x)g(x)d(x), ou a au moins n points de croissance sur [a; b], sont egalement ort honormaux selon le produit scalaire discret (f; g)n = Xn j=1 wj;nf(xj;n)g(xj;n) ; ou x1;n,. . . , xn;n sont les zeros den, et les poids wj;n sont wj;n = 1 Pn1 k=0 '2 k(xj;n) ; j = 1; : : : ; n: En eet, l'orthonormalite (dans Rn) des lignes de V donne bien Xn j=0 vi1;jvi2;j = Xn j=1 'i1(xj;n)'i2(xj;n) Pn1 k=0 '2 k(xj;n) = i1;i2 ;

pour 0 6 i1; i2 6 n 1. Voici une tres importante application de cette theorie: 3.6. Formules d'integration de Gauss. Premiere approche. D'apres le theoreme precedent, le produit scalaire initial ne se distingue pas du pro duit scalaire discret a n points tant qu'on se contente d'eectuer des produits scalaire s d'elements de Pn1 entre eux. Comme le produit scalaire utilise le produit des deux fonctions co nsiderees, le produit scalaire discret permet le calcul exact d'integrales R b a f(x) d(x) = (f; 1) pour 8f 2 P2n2, en fait P2n1: soit f un polyn^ome de degre 6 2n 1, divisons le par 'n, e t developpons le quotient et le reste (tous deux dans Pn1) dans la base f'0; : : : ; 'n1g: f = [0'0 + + n1'n1] 'n + 0'0 + + n1'n1; (f; 1) = 0('0; 'n) + + n1('n1; 'n) + 0('0; '0) + + n1('n1; '0) '0 = 0 '0 ; (f; 1)n = 0('0; 'n)n + + n1('n1; 'n)n + 0('0; '0)n + + n1('n1; '0)n '0 = 0 '0 ; les deux integrales co ncident donc, les produits scalaires etant egaux dans les deux cas (les produits scalaires originaux de 'n et d'un polyn^ome de degre 6 n 1 sont nuls par orthogonalit e, les produits scalaires discrets de 'n et de n'importe quelle fonction sont nul s parce que MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 93 tous les 'n(xj;n) = 0). On a donc 8f 2 P2n1 ; Z b a f(x)d(x) = Xn j=1 wj;nf(xj;n): Inversement, si on se propose d'approcher R b a f(x)d(x) par une somme ponderee Pn j=1Hjf(xj), la formule devant ^etre exacte pour des polyn^omes de degre aussi eleve que possibl e (degre de precision de la formule), on retrouve la m^eme formule. Comme il y a 2n parametres H1,. . . , Hn et x1, . . . , xn a determiner, on peut esperer realiser un degre de precision de 2 n 1, puisqu'il y a 2n coecients dans un polyn^ome de degre 6 2n: 8f 2 P2n1 ; Z b

a f(x)d(x) = Xn j=1 Hjf(xj): Exprimons cela pour f(x) = 1; x; : : : ; x2n1: 0 = H1 + H2 + + Hn 1 = H1x1 + H2x2 + + Hnxn 2 = H1x21 + H2x22 + + Hnx2 n 2n1 = H1x2n1 1 + H2x2n1 2 + + Hnx2n1 n Redoutable (apparemment) systeme de 2n equations non lineaires pour les 2n inconnue s H1,. . . ,Hn, x1, . . . , xn. Soit Anxn + A0 nxn1 + + A(n1) n x + A(n) n un polyn^ome dont les zeros sont les inconnues x1,. . . , xn, et multiplions une des equations pa A(n) n , la suivante par A(n1) n , etc. (methode de Prony12) et sommons: A(n) n ` + A(n1) n `+1 + + An`+n = Xn j=1 Hjx`j[A(n) n + A(n1) n xj + + Anxnj ] = 0; operation que l'on peut eectuer pour ` = 0; 1; : : : ; n1: nous obtenons exactement le systeme lineaire homogene (59) avec i = n: les xj sont donc les zeros xj;n den! Pour les Hj, on applique la formule d'integration a 'i: Xn j=1 Hj'i(xj;n) = Z b a 'i(x) d(x) = p0i;0; i = 0; : : : ; n 1 Mettons en evidence les elements vi;j de V : Xn j=1 Hj vuut Xn1 k=0 '2 k(xj;n) vi;j = p0i;0; i = 0; : : : ; n 1 donc, les Hj qPn1 k=0 '2 k(xj;n) sont les elements de p0 fois la premiere colonne de V 1, qui est aussi la premiere ligne de V ; V etant orthogonale. Finalement:

Hj = 0v2 0;j = 1 Pn1 k=0 '2 k(xj;n) ; j = 1; 2; : : : ; n 12Gaspard Clair Francois Marie Riche, baron de Prony, 1755-1839. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 94 Les xj et Hj s'obtiennent donc a partir des valeurs et vecteurs propres de la mat rice tridiagonale T n (algorithme de Golub & Welsch13.) Exemple: quelques formules de Gauss-Legendre. On calcule aisement les formules pour n = 1; 2 et 3: (b a)f a + b 2 ; b a 2 f a + b 2 b a p12 + f a + b 2 + b a p12 ; 5(b 18 " f a)

a + b 2 b a p 20=3 ! + f a + b 2 + b a p 20=3 !# + 4(b a) 9 f

a + b 2 : Cette formule est evidemment surtout utilisee comme formule d'integration approchee pour estimer des integrales de

nies de fonctions non polynomiales, ce qui sera discute plus loin. Mais voici un echantillon, l'evaluation de R 2 1 x1dx avec des formules a 1,2,. . . 30 points: 1 0.6666666666666666666666666666666666666666666... 2 0.6923076923076923076923076923076923076923076... 3 0.6931216931216931216931216931216931216931216... 4 0.6931464174454828660436137071651090342679127... 5 0.6931471578530402059813824519706872648049118... 6 0.6931471798865279786405606852820113472021359... 7 0.6931471805400134518743042766974180037770983... 8 0.6931471805593561216771329329612392432031989... 9 0.6931471805599279082472626955838961065402593... 10 0.6931471805599447958100734473749544043869926... ... 15 0.6931471805599453094172206753728118939529066... 20 0.6931471805599453094172321214579224966600492... 25 0.6931471805599453094172321214581765680698696... 30 0.6931471805599453094172321214581765680755001... 31 0.6931471805599453094172321214581765680755001... etonnant, non? 3.7. Formule d'integration de Gauss et fractions continues. Soit S une partie de R, z =2 S, Fn(z) := Xn 1 Hi z xi;n est donc une approximation de F(z) := Z S d(x) z x , transformee de Stieltjes de d. Pas mal de fonctions tres importantes sont des trans formees de Stieltjes, ainsi, si d(x) = dx sur S = [a; b], F(z) = log((z a)=(z b)). Fn(z) est une fonction rationnelle de z de denominateur Qn 1 (zxi;n) =n(z), on a donc Fn(z) = n(z) n(z) , ou n 2 Pn1. On a (cf. (62), p. 84) la recurrencen+1(x) = (x n)n(x)

2n n1(x). Qu'en est-il de n? 13G.H. Golub, J.H. Welsch, Calculation of Gauss quadrature rules, Math. Comp. 23 (1969) 221{230. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 95 Amorcons le developpement en serie de puissances de 1=z de F(z) par F(z) = Z S 1 xp+1=zp+1 z(1 x=z) d(x) + Z S xp+1=zp+1 z x d(x) = Z S 1 z + x z2 + x2 z3 + xp zp+1

d(x) + Z S xp+1 zp+1(z x) d(x) = 0 z + 1 z2 + 2 z3 + + p zp+1 + O(zp2) Prenons p = 2n 1. Comme la formule de Gauss a n points appliquee a 1; x; : : : ; x2 n1 co ncide avec le moment 0; 1; : : : ; 2n1, on a aussi Fn(z) = 0 z + 1 z2 + 2 z3 + + 2n1 z2n + O(z2n1), on a F(z) Fn(z) = O(z2n1);

oun(z)(F(z) Fn(z)) =n(z)F(z) n(z) = O(zn1). Remarquons que Examinons maintenant n+1(z)F(z) n+1(z) (z n)[(z)F(z) n n(z)] +

0 = 0.

2n [1(z)F(z) n n1(z)] = [ n+1(z) (z n) n(z) +

2n n1(z)] quand n > 1. Cette expression tend vers zero (au moins aussi vite que zn) quand z ! 1; mais comme elle est aussi un polyn^ome, elle doit ^etre nulle: les n veri

ent la m^eme recurrence que lesn! Exercice. Montrez que, sin = Tn, et S = [1; 1], les Hi sont tous egaux a =n (formule de GaussTchebyche ), que F(z) = (z2 1)1=2, n = Un1. On a doncm+1(z) m+1(z) (z m)[(z) m m(z)] +

2m [m1(z) m1(z)] = 0, m > 1, quel que soit . En m = 0, on a1(z) 1(z) (z 0)[(z) 0 Choisissons = Fn(z) = n(z)=(z) pour z n

0(z)] =

1 = 0.

xe hors de [a; b]. Soit m = Fn(z)(z) m m = m=m1. On a donc m+1 (z m)m +

m(z) et

2m m1 = 0;m = 1; : : : ; n 1: En m = n 1, on a n = 0, donc n1 =

2n 1 z n1 , puis m = m m1 =

2m m

2m m1 =

2m m (z =

m)m

m+1

2m z m

2 m+1 z m+1

2 m+2 . . .

2n 1 z n1 =

2m z m En

m+1

n, en m = 0, 1 (z Fn(z) = 0 z 0 1 = 0 z 0

0)0 = 0, donc 1

(z

0) = 0=0 = 0=Fn(z), d'ou

2 1 z

2 2 z

2 3 . . .

2n 1 z n1 q2ue l'on peut aussi voir a partir de la resolution par triangularisation de 6664 z 0 1

2 1 . . .

z 1 1 . . . . . .

2n 1 z n1 3 7775 2 6664 0 1 ... n1 3 7775 = 2 6664 0 0 ... 0 3 7775 : en procedant aux eliminations a partir de la derniere equation. On a aboutit a une matrice bidiagonale triangulaire inferieure do nt les elements diagonaux sont

2m =m, m = 0; : : : ; n 1. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 96 Peut-on donner un sens a 0 z 0

2 1 z

2 2 . . . comme limite de Fn(z) quand n ! 1? Theoreme de Marko. Si S [a; b], avec 1 < a < b < 1, Fn(z) tend vers F(z) quand n ! 1 , uniformement en z dans tout compact de C n [a; b]. En eet, comme la formule d'integration de Gauss a n points est exacte pour tout pol yn^ome de degre 6 2n 1, soit p(x; z) une approximation dans P2n1 de 1=(z x). On a R S p(x; z) d(x) = Pn 1 Hip(xi;n; z), F(z) Fn(z) = Z S 1 z x d(x) Xn 1 Hi 1 z xi;n p(xi;n; z) p(x; z)

. Soit "2n1(z) = k(z x)1 p(x; z)k1 sur x 2 [a; b] (nous savons que les xi;n 2 [a; b] ). Alors, jF(z) Fn(z)j 6 "2n1(z)[ R S d(x) + Pn 1 Hi] = 20"2n1(z). On estime "2n1(z) avec precision par 2(b a)1j( )1 P2n1 0 ckTk()j 6 2(b a)1P 12n jckj = 8(b a)1j(1 p)1(1 p2)1p2n+1j, ou x = (a + b)=2 + (b a)=2, z = (a + b)=2 + (b a)=2, et p = (2 1)1=2 = (2z ab2[(za)(z b)]1=2)=(ba) tel que jpj < 1 (cf. table p. 57: ck = 4pk+1=(1p2), ou joue ici le r^ole de c). Exercice. Montrez que F(z) =

2 z

2 . . . = p(z) = (2z a = 2

a b 2[(z

a)(z b)]1=2)=(b

a), avec

, b =

+ 2

, jp(z)j < 1 quand z 2 C n [a; b]. On an(z) =

nUn z 2

n(z) =

n1(z), d(x) = [(b

x)(x

a)]1=2=(2

) sur S = [a; b]. Bien s^ur, on s'apercoit bien formellement que F(z) =

F(z) , donc que F(z) est une racine de

2 (z ) +

= 0, mais il n'est pas si simple de savoir laquelle choisir, ni quand la fraction continue converge. 3.8. Formule de Christoel-Darboux. Multiplions (66) a gauche par le vecteur ligne 'n(y)T= ['0(y); : : : ; 'n1(y)]: 'n(y)TT n'n(x) = x'n(y)T'n(x)

n'n1(y)'n(x); permutons x et y, et soustrayons: 'n(y)T'n(x) = Xn1 i=0 'i(x)'i(y) =

n 'n(x)'n1(y) 'n(y)'n1(x) x y On verra l'importance de cette formule a propos des polyn^omes noyaux. Si on fait tendre y vers x: Xn1 i=0 'i(x)2 =

n ['n 0(x)'n1(x) 'n(x)'n1 0(x)] Exercice. Montrez que S = Xn k=0 Uk(x)Unk(y) = Un+1(y) Un+1(x) 2(y x) . MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 97 On multiplie 2x 2 64 U0(x) ... Un(x) 3 75 = Tn+1 2 64 U0(x) ... Un(x) 3 75 + 2 64 0 ... Un+1(x) 3 75 a gauche par le vecteur ligne [Un(y); ;U0(y)] pour obtenir 2xS = T (x; y)+Un+1(x) et on s'apercoit que T (x; y) = [Un(y); ;U0(y )] 2 6664 0 1 1 0 1 . . . . . . . . . 1 0 3 7775 2 64 U0(x) ... Un(x) 3 75 est symetrique en x et en y. 3.9. Orthogonalite et operateurs (formellement) hermitiens. Les fonctions propres d'operateurs formellement hermitiens fournissent d'interessa ntes classes de fonctions orthogonales. D'abord, quelques de

nitions: De

nition. Un operateur A dans un espace prehilbertien X (c'est-a-dire une application lineaire de

nie sur un sous-espace D de X et a valeurs dans X) est formellement hermitien 14 si 8 f; g 2 D; (Af; g) = (f;Ag): (67) L'exemple le plus simple est fourni par les matrices carrees symetriques sur RN, o u hermitiennes sur CN, munis du produit scalaire usuel. Et voici ou appara^t l'orthogonalite: Propositions. Les valeurs propres d'un operateur formellement hermitien sont reell es. Deux vecteurs propres d'un operateur formellement hermitien correspondant a deux valeur s propres dierentes sont orthogonaux. Ce ne sont la que deux tout petits fragments de la theorie spectrale des operateurs : si Af = f, (Af; f) = kfk2 = (f;Af) = kfk2; si f et g sont deux vecteurs propres de A correspondant aux deux valeurs propres et , (Af; g) = (f; g) = (f;Ag) = (f; g), d'ou (f; g) = 0 si 6= . Proposition. Soit w une densite sur (a; b), et le produit scalaire (f; g)w = Z b a f(x)g(x) w(x) dx. L'operateur dierentiel du second ordre L = p(x) d2 dx2 + q(x) d dx + r(x) (68) est formellement hermitien sur tout sous-espace de C 2(a; b) de fonctions veri

ant (f; f)w < 1 et lim x!a;b x2(a;b) p(x)w(x)f(x) = 0 si d(p(x)w(x) ) dx = q(x)w(x) ; ou w0(x) w(x) = q(x) p0(x) p(x) a < x < b: (69) 14Pour avoir le droit d'^etre appele hermitien, un operateur doit avoir un domaine de de

nition D dense dans un espace de Hilbert separable [on verra cela plus loin] et veri

er (67). La theorie spectrale des operateurs hermitiens prepare celle des operateurs autoadjoints (Cf. J. Dieudonne, Elements d'a nalyse, II, GauthierVillars, 1969, x 15.13). La relation entre formellement hermitien et autoadjoint est un peu la relation q u'il y a entre prehilbertien et hilbertien. . . On y reviendra plus tard. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 98 En eet, (Lf; g)w = Z b a [pf00 + qf0 + rf]gw dx = [pgwf0]b a + Z b a f[(pw)0 + qw]gf0 pwg0f0 + rfggdx (f; Lg)w = Z b a f[pg00 + qg0 + rg]w dx = [fpwg0]b a + Z b a f[(pw)0 + qw]fg0 pwf0g0 + rfggdx sont egaux si (69) est vrai, et si f(x)p(x)w(x) et g(x)p(x)w(x) tendent vers 0 qu and x ! a ou b. Remarques: si w = 1, Lf s'ecrit commodement (pf0)0 + rf (70) (operateur de Sturm-Liouville) 15 . En general, on a ici wLf = (wpf 0)0 + wrf. Un operateur de Sturm-Liouville est dit singulier si w(a)p(a) = w(b)p(b) = 0. Les conditions d'annulation aux limites sont alors automatiquement veri

ees si le domaine de de

nition de l'operateur est restreint aux fonctions contin^ument derivables sur [a; b]. Tout operateur de Sturm-Liouville fournit donc automatiquement des fonctions prop res orthogonales tres utiles (nombreux exemples en physique et en mecanique). Les cas ou on retrouve des polyn^omes sont parfaitement circonscrits: 3.10. Polyn^omes orthogonaux classiques. Theoreme de Bochner16. Une famille de polyn^omes orthogonaux fg10 n est l'ensemble des fonctions propres d'un operateur de la forme (68) seulement dans les trois ca s suivants (polyn^omes orthogonaux classiques): p(x) w(x) nom (x a)(b x) C(b x)(x a)

; a < x < b; ;

> 1 Jacobi x a C(x a)eAx; a < x < 1; > 1; si A > 0 Laguerre , 1 < x < a; > 1; si A < 0 1 CeAx2Bx ; 1 < x < 1; A > 0 Hermite Les polyn^omesn sont alors des solutions particulieres des equations dierentielles l ineaires du second ordre p(x)0 0 n(x) + q(x) 0 n(x) + r(x) = n(x) (71) n ou p 2 P2, q 2 P1 17, r = constante. 15Attention, on appelle parfois formellement autoadjoints des operateurs dierentiel s simplement donnes par une formule de type (70) sans autre precision quant au domaine de de

nition. 16S. Bochner, Uber Sturm-Liouvillesche Polynomsysteme, Math. Zeit. 29 (1929) 730736, cite, ainsi que E.J. Routh, On some properties of certain solutions of a dierential equation of t he second order, Proc. London Math. Soc. 16 (1885) 245-261, par W.A. Al-Salam, Characterization theorems for o rthogonal polynomials, pp. 1-24 in Orthogonal Polynomials: Theory and Practice, (P. Nevai, ed.), NATO A SI Series C: Math. and Phys. Sci. 294, Kluwer, 1990. 17Exercice: en fait, q est de degre exact 1! (A. Ronveaux) MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 99 Demonstration. Nous savons deja que les fonctions propres de (68) sont orthogonales selon ( ; )w si w veri

e (69). Que peut-on dire de p, q et r? Ne considerons que0,1 et2: 0 2 P0 ) r = 0 ) r 2 P0, 0 1 2 P1 ) q 0 1 + r = 1 ) q 2 P1, 1 2 2 P2 ) p0 0 2 + q 0 2 + r = 2 ) p 2 P2. 2 (N.B.n doit ^etre de degre exact n). Discutons (69): (1) p a deux zeros distincts ~a et ~b. Le developpement du membre de droite de (69 ) en fractions simples donne =(x~b)+

=(x~a), d'ou w(x) = constante (x~b)(x~a)

. La densite w doit etre de signe constant dans (a; b), et il faut p(x)w(x) ! 0 quan d x ! a ou b, d'ou ~a = a et ~b = b, et aussi et

> 1. Ces deux dernieres inegalites assurent d'ailleurs l'existence de moments

nis. (2) p a un zero double: on ne trouve pas d'intervalle d'orthogonalite dans ce cas1 8. (3) p est du premier degre. On a alors (q p0)=p = A + =(x ~a), donc w(x) = constante (x ~a) exp(Ax). Signe constant de w et lim pw = 0 en a et b ) a = ~a et b = +1) si A > 0, l'intervalle d'orthogonalite est (1; a) si A < 0. (4) p est constant. Alors, soit (qp0)=p = 2AxB: w(x) = constante exp(Ax2Bx) sur (1;1). A doit ^etre strictement positif. En examinant la contribution de xn a (71), on obtient n = p00 n(n 1) 2 + q0 n + r: (72) Suite de la demonstration. Jusqu'ici, on n'a encore trouve que trois fonctions pro pres0; et2. Si on 1 dispose den de degre n tel quen soit fonction propre de (71), montrons comment co nstruire une nouvelle fonction propren+1 par n+1 = pn + sn; (73) 0 n ou sn est un polyn^ome de degre 6 1, en adaptant une technique de Darboux19, que l 'on presente actuellement comme suit: si on arrive a factoriser un operateur dierentiel R comme produit de deu x operateurs dierentiels R = MN, alors, si y est une fonction propre de R: Ry = y, Ny est une fonction pro pre de NM, de m^eme valeur propre . En eet (et cela para^t presque trop simple), MNy = y ) NMNy = NM(Ny) = Ny! La premiere idee serait de factoriser L, puisquen est une fonction propre de L (de valeur propre n), mais cela n'aboutit pas. Ce qui marche, c'est de (presque) factoriser p(L n): MnNny = p d dx + n p d dx +

n y = p2y00+p(p0+n+

n)y0+(p

0n +n

n)y = p(Ln)y ny; (74) si n +

n = q

p0 et p

0n+ n

n = p(r n) n, ou n est une constante encore inconnue, tout comme les coecients de n et

n 2 P1 sont encore inconnus. On a une equation de Riccati pour

n a resoudre dans P1: p

0n + (q

p0)

2n = p(r n) n. Coecients de x2: equation du second degre pour

0n : p00

0n =2+(q0p00)

0n (

0n )2 = p00(q0nn(n1)p00=2) (on a utilise (72)), de racines

0n (+) = p00(n1)=2+q0 et

0n () = p00n=2. Avec sn =

(+) n , (73) donne bien un polyn^ome de degre n+1 qui veri

e NnMny = ny. En reprenant (74) en intervertissant n et

n, on trouve NnMny = p2y00+p(p0+n+

n)y0+(p0n+n

n)y = 18Mais lesn ont ete etudies (polyn^omes de Bessel), ils interviennent dans des appro ximations rationnelles de l'exponentielle. 19Theorie des surfaces, II, Gauthier-Villars, 1915, articles 408{409 (= pages 210 -216); on lira aussi, de F. Alberto Gr unbaum et L. Haine: Orthogonal polynomials satisfying dierential equa tions: the role of the Darboux transformation, Centre de Recherches Mathematiques (CRM) Proceedings & Le cture Notes 9 (1996) 143-154. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 100 p(Ln+0n

0n )y ny, ce qui correspond a une nouvelle valeur propre n0n+

0n = nq0+p00+2

0n = n+1 quand on prend

0n (+). On trouve ainsi des polyn^omes de tous les degres. Pour plus de details, en particulier pour la recurrence, on examine la deuxieme sol ution

() n . On obtient cette fois n1, d'oun1 = constante (pn + 0

() nn), d'ou la recurrence en eliminant pn avec (73). 0 Un probleme electrostatique (Stieltjes). Soit n + 2 points x0 = 1 > x1 > > xn > xn +1 = 1 identiquement charges, et soumis a une force repulsive inversement proportionnelle a la distance. Que valent x1; : : : ; xn a l'equilibre? Chaque xi est soumis a une force nX+1 j=0 j6=i 1 xi xj = 0, i = 1; : : : ; n. Soit(x) = (x x1) (xxn) et (x) = (x21)x). Comme ( 0(x) (x) = nX+1 j=0 1 x xj , on a lim x!xi 0(x) (x) 1 x xi = 00(xi) 2 0(xi) = 0, pour i = 1; : : : ; n. Le polyn^ome 00 de degre n est nul en x1; : : : ; xn, donc 00(x) = const.(x), ou (x2 1)0(x) + 4x(x) = const.(x), ce qui correspond au polyn^ome de Jacobi P (1;1) 0 0 n (points de Lobatto). On a imagine plusieurs criteres souvent tres elegants20 de caracterisation des polyn^o mes orthogonaux classiques: (1) Comme on vient de le voir, ce sont les seuls

gurant entierement dans des fonctions propres d'operateurs de Sturm-Liouville. (2) Les derivees de ces polyn^omes forment encore un systeme de polyn^omes orthogon aux (Sonin, Hahn). (3) Rodrigues (Hildebrandt) (4) Ils sont les seuls a veri

er une relation dierentielle de type (73). 3.11. Orthogonalite et derivees nemes: formule de Rodrigues. Une formule un peu bizarre de Rodrigues21 pour les polyn^omes de Legendre s'etend a ceci: Theoreme. La derivee neme d'une fonction n fois contin^ument derivable Rn veri

ant Rn(a) = R0n(a) = = R(n1) n (a) = Rn(b) = R0n (b) = = R(n1) n (b) = 0 est orthogonale a Pn1 selon le produit scalaire (f; g)1 = R b a f(x)g(x)dx. Il s'ensuit que si R(n) n est le produit d'une fonction de poids w et d'un polyn^ome de degre n, ce dernier polyn^ome est le polyn^omen orthogonal de degre n selon le produit scalaire (f; g) = R b a f(x)g(x)w(x)dx. En eet, soit p 2 Pn1. Par integrations par parties, Z b a R(n) n (x)p(x)dx = Z b a R(n1) n (x)p0(x)dx = = (1)n Z b a Rn(x)p(n)(x)dx = 0; les termes aux limites etant nuls. Si, de plus, R(n) n s'avere ^etre de la forme w, oun est un polyn^ome de degre n, on a n bien Z b a n(x)p(x) w(x) dx = 0; 8p 2 Pn1; etn est bien le polyn^ome orthogonal de degre n par rapport a w. 20cf. Al-Salam, op. cit. 21Andre Ronveaux, Jean Mawhin: Rediscovering the contributions of Rodrigues on th e representation of special functions, Expositiones Mathematic 23, Issue 4 , 1 December 2005, Pages 3 61-369. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 101 La diculte est evidemment de trouver une telle fonction Rn pour une densite w donnee. . . En principe, il \sut" de resoudre l'equation dierentielle lineaire d'ordre 2n: (R(n) n =w)(n) = constante sous les 2n conditions aux limites R(k) n (a) = R(k) n (b) = 0; k = 0; : : : ; n 1. Le recours a la fonction de Rodrigues Rn ne s'est revele utile que dans le cas des polyn^omes or thogonaux classiques, ou on peut montrer que l'on a Rn(x) = constante w(x)(p(x))n, p etant l e polyn^ome de degre 6 2 intervenant dans la de

nition de ces polyn^omes. En particulier, pour les polyn^omes de Legendre, w = 1, on a Pn(x) = constante dn dxn (x2 1)n ; formule originale de Benjamin Olinde Rodrigues (1794-1851)22. Laguerre: Rn(x) = xn+ exp(x), Hermite: Rn(x) = exp(x2). 3.12. Usages et varietes de polyn^omes orthogonaux. Le recours de plus en plus frequent au traitement numerique des problemes les plus divers se traduit par une extension de l'usage des polyn^omes orthogonaux. On les renco ntre en probabilites, en mecanique celeste, en physique de l'etat solide, en mecanique des uides (de l'ionosphere aux matieres plastiques), en traitement du signal (compression d' images, reconnaissance de la parole, tomographie, radar), dans les theories les plus poin tues de la gravite quantique, en mathematiques discretes (codage, cryptographie), et m^eme en theorie des nombres (fractions continues, nombres irrationnels et transcendants). Les polyn^omes orthogonaux tiennent une place essentielle dans la bo^te a outils d e l'analyse numerique, pouvant servir a l'interpolation, au lissage, aux quadratures, comme on le verra encore plus loin. Historiquement, on etudia d'abord les polyn^omes orthogonaux en relation avec des formules de quadrature (Gauss, Jacobi, Christoel), des developpements de potentiels en coor donnees spheriques (Legendre), des formules d'acceleration de convergence (Laguerre, Stielt jes), et autres problemes d'approximation (Tchebyche, Hermite)23. On retrouve les polyn^ome s de Laguerre en mecanique quantique (potentiels coulombiens), ainsi que les polyn^ome s d'Hermite (oscillateur harmonique). R Les polyno^mes orthogonaux sur un domaine du plan complexe Dn(z)(z) w(z) dxdy = 0; n 6= m portent le nom de polyn^omes de Carleman-Bergman. m Ils sont utilises en constructions de representations conformes de domaines. Ils n e veri

ent pas de relation de recurrence simple. On a cependant le Theoreme (Fejer). Soit une mesure positive sur C de support S = fz : (v) > 0 pour 22O. Rodrigues, Memoire sur l'attraction des sphero des, Correspondance sur l' Ecole Polytechnique 3 (1816) 361-385. Voir aussi Area, I.; Godoy, E.; Ronveaux, A.; Zarzo, A.: Hypergeometric-type dier ential equations: second kind solutions and related integrals, J. Comput. Appl. Math. 157 (2003), no. 1, 93{106. rodrigues.txt 23cf. C. Brezinski, History of Continued Fractions and Pade Approximants, Springe r-Verlag, 1991; J.A. Shohat, E. Hille, J.L. Walsh, A bibliography on orthogonal polynomials, Bull. Na tional Research Council, n 103, (August 1940), Nat. Acad. Sciences, Washington. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 102 tout voisinage v de zg. Alors, les zeros du polyn^omen orthogonal a Pn1 par rapport a sont tous situes dans la fermeture convexe de S. Demonstration intuitive: soit zi un zero den.n est orthogonal a n(z) z zi 2 Pn1: 0 = Z S n(z) n(z) z zi d(z) = Z S (z zi)

n(z) z zi

2 d(z); ou zi = R S z d(z) R S d(z) ; ou est la mesure positive d(z) =

n(z) z zi

2 d(z). Le zero zi est donc le centre de gravite de S muni de la densite d. . . R Les polyno^mes orthogonaux sur un arc ou un contour du plan complexe Cn(z)(z) w(z) ds = 0; n 6= m sont appeles polyn^omes orthogonaux de Szeg}o. La the m orie des polyn^omes orthogonaux sur un cercle est tres riche, ces polyn^omes sont tres utilises en theorie du signal24. La recurrence des polyn^omes orthogonaux sur le cercle unite a cette forme remarquable: n+1(z) = z(z) +n+1(0) znn(z1): n Comme exemple de systeme connu, on a, pour les polyn^omes orthogonaux de Jacobi s ur le cercle unite, z = ei, w(z) = (1 cos )(1 + cos )

,n+1(0) = [ + (1)n+1

]=(n + +

+1) (V.M. Badkov, Systems of orthogonal polynomials explicitly represented by t he Jacobi polynomials, Mat. Zametki 42 (1987) 650{660 = Math. Notes of the Academy of Scie nces of the USSR, a translation of Mat. Zametki 42 (1988) 858{863). Revenons sur un intervalle, les polyn^omes orthogonaux relativement a un produit scalaire de Sobolev (f; g) = R b a [f(x)g(x)d1(x) + f0(x)g0(x)d2(x)] sont parfois utilises dans le traitement numerique d'equations dierentielles et aux derivees partielles. Ils ne semblent en gener al pas veri

er de recurrence simple. On rassemble ici quelque donnees sur les polyn^omes orthogonaux les plus courants ,. . . et quelques autres: 24 W.B. Jones, O. Njastad, W.J. Thron, Moment theory, orthogonal polynomials, qua drature, a,d continued fractions associated with the unit circle, Bull. London Math. Soc. 21 (1989) 113 {152; P. Delsarte, Y. Genin, On the role of orthogonal polynomials on the unit circle in digital signa l processing applications, pp. 115-133 in Orthogonal Polynomials: Theory and Practice, (P. Nevai, ed.), NATO AS I Series C: Math. and Phys. Sci. 294, Kluwer, 1990; B. Simon: Orthogonal Polynomials on the Unit Circl e: Part 1: Classical Theory; Part 2: Spectral Theory, American Mathematical Society Colloquium Publications, Vol.54 (2 vol.), 2005; M. E. H. Ismail: Classical and Quantum Orthogonal Polynomials in One Variable, Camb ridge University Press , Encyc. of Mathematics and its Applications (No. 98), 2005. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 103 n

2n Symbole w ou 0

Nom Usage

2 1 = 1=2 Tn w(x) = (1 x2)1=2, Tchebyche analyse 1=4; n > 1 -1< x < 1 1ere espece numerique 0 1/4 Un w(x) = (1 x2)1=2, Tchebyche analyse 1 < x < 1 2eme espece numerique 0 n2 4n2 1 Pn w(x) = 1 , Legendre analyse 1 < x < 1 sur la sphere et quadratures de Gauss 0 n(n + 2 1) 4(n + )(n + 1) C n = w(x) = (1 x2)1=2 , Gegenbauer, ou analyse P(1=2;1=2) n 1 < x < 1 ultraspheriques sur la sphere

2 1 = 1 2( + 1) > 1=2 si P(;

1=2 entier

) n w(x) = (1

x)(1 + x)

, Jacobi generalisation 1 < x < 1 des precedents > 1,

> 1 2n + + 1 n(n + ) L n w(x) = x exp(x) , Laguerre potentiels x > 0 ; > 1 coulombiens, etc. 0 n=2 Hn w(x) = exp(x2) , Hermite oscillateur x > 0 harmonique, etc. (a + b)=2 n2(N2 n2)h2 4(4n2 1) tn constant par Gram- moindres morceaux, avec Tchebyche carres m^eme accroissement h = b a N 1 aux points a + kh, k = 0; 1; : : : ;N 1 . Pour Jacobi, n =

2 2 (2n +

)(2n + +

+ 2) ;

2n = 4n(n + )(n +

)(n +

) (2n +

1)(2n +

)2(2n +

+ 1) On appelle aussi polyn^omes de Tchebyche de troisieme et quatrieme especes les polyn o^omes orthogonaux relatifs aux densites (1 x)1=2(1 + x)1=2 et (1 x)1=2(1 + x)1=2 sur (1; 1). Voir aussi A. Erdelyi, W. Magnus, F. Oberhettinger, F.G. Tricomi, Higher Transcen dental Functions (Bateman Manuscript Project), vol. 2, McGraw-Hill, 1953; M. Abramowitz, I.A. Ste gun, Handbook of Mathematical Functions, National Bureau of Standards, Washington, 1964, = Dover, New York, 19 65,etc.; T.S. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 104 Chihara, An Introduction to Orthogonal Polynomials, Gordon & Breach, 1978; A. Ni kiforov, V. Ouvarov, Fonctions speciales de la physique mathematique, Mir, 1983, R. Koekoek, R.F. Swarttouw, The Askey-scheme of hypergeometric orthogonal polynomials and its qanalogue, Report 94-05, Delft Univ . of Technology, Faculty TWI, 1994. Voir aussi la rubrique \Askey-Wilson scheme project" dans http://amst el.science.uva.nl:7090/CAOP/ http://www.cs.vu.nl/~rene/ pour l'usage interactif. ou on pourra tout decouvrir sur les polyn^omes de Charlier, Meixner, Hahn, Krawtch ouk, Lommel, Pollaczek, Stieltjes-Wigert, Tricomi-Carlitz, Heine, etc. etc. Aspects stochastiques: W. Schoutens, Stochastic Processes and Orthogonal Polynom ials, Springer Lect. Notes Stat. 146, Springer-Verlag, New York, 2000. 3.13. Harmoniques spheriques et fonctions de Legendre. Cf. H. Hochstadt, Les fonctions de la physique mathematique (trad. francaise S. Co lombo), Masson, 1973, chap. 5 & 6; I.A. Stegun, chap. 9 de [Abr], chap. 8 de P. Frank & R. v. Mi ses, Die Dierential- und Integralgleichungen der Mechanik und Physik, vol. 1, Vieweg, =Dover, 1961, etc. Cours de Christophe Vigny, Laboratoire de geologie de l'Ecole normale superieure: http://www.geologie.ens.fr/~vigny/cours/chp-gphy-2.html L'operateur de Laplace := @2=@x2 + @2=@y2 + @2=@z2 = div grad est formellement he rmitien sur tout ensemble de fonctions susamment regulieres s'annulant sur le bord d'un domaine D: p ar la formule de la divergence, Z D fdiv grad g dxdydz = Z D grad f grad g dxdydz est bien symetrique en f et g (le terme aux limites Z @D f @g @n dS etant nul). Les fonctions propres seront donc orthogonales entre elles, selon le produit sca laire usuel des fonctions sur R3. En coordonnees spheriques x = r sin cos '; y = r sin sin '; z = r cos , le laplacie n devient @2 @r2 + 2 r @

@r + 1 r2 sin @(sin @=@) @ + 1 r2 sin2 @2 @'2 = 1 r2 @ @r r2 @ @r + 1 r2B; ou B = 1 sin @ @ sin @ @ + 1 sin2 @2 @'2 est l'operateur de Laplace-Beltrami sur la sphere unite S. On veri

e directement que B est formellement hermitien sur C 1(S): Z S f Bg dS = Z 0 sin d Z 2 0 d' f 1 sin @ @ sin @g @ + 1 sin2 @2g @'2 = Z 2 0 d' ( f sin @g @ = =0 Z 0 sin @f @ @g @ d ) + Z 0 d ( f sin @g @' '=2 '=0 1 sin Z 2 0

@f @' @f @' d' ) = Z S @f @ @g @ + 1 sin2 @f @' @g @' dS est bien symetrique en f et en g. On peut aussi construire des fonctions de 3 var iables s'annulant au bord d'une boule B de R3: F(r; ; ') = (r)f(; '), avec (R) = 0, et constater que le laplac ien tridimensionnel de F est F = r2(r20)0f + r2Bf, donc 0 = Z B (FG GF)r2dr dS = Z R 0 2 dr Z S (fBg gBf) dS. Une suite orthogonale de fonctions sur S pourra donc ^etre construite avec des f onctions propres de B. On obtient de telles fonctions propres a partir de fonctions harmoniques (solutio ns de l'equation de Laplace F = 0) dans l'espace, de la forme F(x; y; z) = rnf(; '). En eet, F = (rnf) = 0 ) @ @r r2 @rnf @r + B(rnf) = 0 ) Bf = n(n + 1)f: La fonction harmonique fondamentale dans R3 est l'inverse de la distance a un poi nt

xe P0, on la rencontre comme potentiel classique (gravitationnel ou electrostatique ou magnetostatique) d ^u a une masse ou charge MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 105 placee en P0. Soit (P0; P) la distance entre P0 et le point courant P. En coordonne es spheriques r0; 0; '0, r; ; ', 1 (P0; P) = 1 p r2 0 2r0r cos + r2 ; ou est l'angle entre OP0 et OP. On a cos = cos cos 0 + sin sin 0 cos(' '0). Soit r0 > r et developpons 1= en serie de Taylor de r: 1 = r1 0 (1 2(r=r0) cos + (r=r0)2)1=2 = r1 0 + r2 0 cos r + r3 0 (3 cos2 1)r2 + On ecrit 1 = (r2 0 2r0r cos + r2)1=2 = 1X m=0 Pm(cos ) rm rm+1 0 ; r < r0, (si r > r0, on permute r et r0 25), ou Pm est le polyn^ome de Legendre de degre m. Pour se convaincre que Pn est bien un polyn^ome de degre n, on retrouve la recurre nce: @1=@r = (r0 cos r)(r2 0 2r0r cos + r2)3=2 = 1X m=0 (m + 1)Pm+1(cos ) rm rm+2 0 ; multiplions par r2 0 2r0r cos + r2: 1X m=0 (m+1)Pm+1(cos

)(r2 02r0r cos +r2) rm rm+2 0 = 1X n=0 [(n + 1)Pn+1(cos ) 2n cos Pn(cos ) + (n 1)Pn1(cos )] rn 0 rn ; qui vaut egalement (r0 cos r)(r2 0 2r0r cos +r2)1=2 = (r0 cos r) P 1m =0 Pm(cos ) rm rm+1 0 ; d'ou, en identi

ant en (r=r0)n: (n+1)Pn+1(cos )2n cos Pn(cos )+(n1)Pn1(cos ) = cos Pn(cos )Pn1(cos ) : (n + 1)Pn+1(x) = (2n + 1)x Pn(x) nPn1(x): (75) Remarquons que Pn(1) = 1, et que Pn(x) = (2n 1)!! n! xn + . Voyons maintenant que chaque Pn(cos ) est une fonction propre de B: 0 = 1 = 1X 0 rn1 0 (rnPn(cos )) = 1X 0 rn1 0 rn2(n(n + 1)Pn + BPn) est le developpement de Taylor de la fonction nulle, donc BPn(cos ) = n(n + 1)Pn(cos ); cos = cos cos 0 + sin sin 0 cos(' '0): Equation dierentielle des polyn^omes de Legendre: 0 = 0 ) 1 sin d d sin dPn(cos ) d + n(n + 1)Pn(cos ) = 0; ou d dx (1 x2) dPn(x) dx + n(n + 1)Pn(x) = (1 x2) d2Pn(x) dx2 2x dPn(x) dx + n(n + 1)Pn(x) = 0 (76) Separons (; ') de (0; '0): Pn(cos ) = Pn(cos cos 0 + sin sin 0 cos(' '0) est une combinaison de produits de puissances cosp cosp 0 sinq sinq 0 cosq(' '0), avec p + q 6 n. Regroup ons les contributions de ' en serie de Fourier Pn(cos ) = 2

Xn 0 m=0 Cn;m(; 0) cos(m(' '0)). On a C0;0 = 1; C1;0(; 0) = cos cos 0, C1;1(; 0) = sin sin 0=2, etc. Les Cn;m(; 0) sont s ymetriques en et en 0. De la recurrence (75) des polyn^omes de Legendre, avec x = cos = Pn(cos cos 0+sin sin 0 cos(''0), on tire les relations pour les Cn;m Cn+1;m = 2n + 1 n + 1 cos cos 0Cn;m + sin Cn;m1 + Cn;m+1 2 sin 0

n n + 1 Cn1;m; 25On a donc alors une serie de puissances negatives de r, convergente dans l'exteri eur de la boule de rayon r0. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 106 d'ou on peut montrer que Cn;m(; 0) = sinm sinm 0Dn;m(; 0), ou Dn;m(; 0) est un polyn^ome de degre n m en cos( et cos 0. En particulier, 0 = 0 ) Pn(cos ) = Dn;0(; 0). En

n, on porte Pn(cos ) = Xn 0 m=0 sinm sinm 0Dn;m(; 0) cos(m(' dans BPn(cos ) = n(n + 1)Pn(cos ): Xn 0 m=0 sinm 0 1 sin d d sin d d (sinm Dn;m) + n(n + 1) m2 sin2 sinm Dn;m

'0))

cos(m(' '0)) = 0; ce qui donne d2 d2Dn;m + (2m+ 1) cotg d d Dn;m + (n(n + 1) m(m+ 1))Dn;m = 0; ou, en x = cos , (1 x2) d2 dx2Dn;m 2(m+ 1) d dx Dn;m + (n(n + 1) m(m+ 1))Dn;m = 0: On reconna^t l'equation dierentielle des derivees memes de (76), et les seules solutions polynomiales sont Dn ;m(; 0) = P(m) n (cos ) fois une fonction de 0, soit Kn;mP(m) n (cos )P(m) n (cos 0) pour respecter la symetrie en et 0. La recurrence des Cn;m, donc des Dn;m, avec 0 = 0, devient Kn+1;mP(m) n+1(x)P(m) n+1(1) = 2n + 1 n + 1 Kn;mxP(m) n (x)P(m) n (1) + degre 6 n; ce qui aboutit a Kn;m =

(n m)! (n +m)! . On note Pm n (x) = (1 x2)m=2 dm dxm Pn(x), on a donc Pn(cos ) = Pn(cos cos 0 + sin sin 0 cos(' '0) = 2 Xn 0 m=0 (n m)! (n +m)! Pm n (cos )Pm n (cos 0) cos(m(' '0)): Les fonctions Yn;m(; ') = 1 p2 (cosm' et sinm') s 2n + 1 2 (n m)! (n +m)! Pn;m(cos ) sont appelees harmoniques spheriques, elles sont orthonormales sur la sphere. On a bien Z 1 1 Pm n1 (x) Pm n2 (x) dx = 0 si n1 6= n2, et comme Pm n (x) = sinm fois un polyn^ome de degre n m en x = cos , ces polyn^omes, pour m

xe, sont orthogonaux par rapport a la fonction de poids sin2m = (1 x2)m. Pour un essai interessant de O. de Viron sur le caractere total de la suite des ha rmoniques spheriques, s'adresser a l'auteur: ******************************************************************** * Olivier de Viron * * Royal Observatory of Belgium Tel: 32-2-3730312 * * Observatoire Royal de Belgique Fax: 32-2-3749822 * * 3, avenue Circulaire e-mail: deviron@oma.be * * B-1180 Bruxelles, Belgium * ******************************************************************** cf. aussi sci.math.num-analysis #42078 (3 + 345 more) [1] From: fractalier@aol.com (Fractalier) [1] Spherical Harmonics Visualization Study Date: Wed May 06 16:37:32 EDT 1998 Dear Mathematicians: I have recently uploaded over 400 three-dimensional visualizations of various MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 107 spherical harmonics with data for your research and enjoyment. They can be found at: http://www.lifesmith.com/spharmin.html Thank you for your support. Jeff Berkowitz, M.S. Lifesmith Classic Fractals End of article 42078 (of 42246) -- what next? [npq] 3.14. Polyn^omes d'Hermite et mecanique quantique. Les polyn^omes d'Hermite Hn(x) = (1)nex2 dn dxn ex2 = 2nxn 2n11!! n 2 xn2 + 2n23!! n 4 xn4 sont orthogonaux sur R par rapport a la fonction de poids ex2 : Z 1 1 Hn(x)Hm(x)ex2 dx = Z 1 1 dn dxn (Hm(x))ex2 dx = n!2npn;m (prendre m 6 n, sinon permuter n et m). On a Hn+1(x) = 2xHn(x) 2nHn1(x) et H0n (x) = 2nHn1(x). Les fonctions du cylindre parabolique ou fonctions de Weber-Hermite Dn(x) = 2n=2ex2=4Hn

x p2 sont donc orthogonales dans L2(R). Les fonctions orthonormales sont Dn(x)= p n!p2. De la recurrence Dn+1(x) = xDn(x) nDn1(x), donc, x Dn(x) p n!p2 = pn + 1 Dn+1(x) q (n + 1)!p2 + pn Dn1(x) q (n 1)!p2 ; on voit que l'operateur q de multiplication par x agit sur les combinaisons des D n(x)= p n!p2 au moyen de la matrice q = 2 6664 0 1 1 0 p2 p2 0 p3 . . . . . . . . . 3 7775 . On a aussi 2D0n (x) = Dn+1(x)+(2n1)Dn1(x), d'ou la representation de l'operateur de derivation d dx = 1 2 2 6664 0 1 1 0 p2 p2 0 p3 . . . . . . . . . 3 7775 : On prefere garder un operateur hermitien en prenant plut^ot p = d idx = 1 2 2 6664 0 i

i 0 ip2 ip2 0 ip3 . . . . . . . . . 3 7775 : Et on constate pq qp = i fois la matrice unite! Relation de base de la mecanique qu antique. Toute fonction d'onde peut en eet s'exprimer comme une combinaison des fonctions Dn. Les Dn sont d'ailleurs les fonctions d'onde d'un systeme particulier, l'oscillate ur lineaire. La matrice p2 + q2=4 est diagonale d'elements diagonaux n + 1=2, n = 0; 1; : : : MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 108 En variables physiques26: n(x) = m! ~ 1=4 1 p2nn! e m! 2~ x2 Hn x r m! ~ . Niveaux d'energie: E = (n+ 1=2)~!, n = 0; 1; : : : L'energie varie donc par pas de h = 2~ fois la frequence = !=(2). h = 6:626196 1034 Joule seconde. Pour une controverse interessante, voir B.L. van derWaerden: From matrix mechanic s and wave mechanics to uni

ed quantum mechanics, Notices of the AMS 44 (1997) 323-328. 3.15. Orthogonalite et equioscillation. On a d'abord rencontre les polyn^omes de Tchebyche a partir de conditions dequioscil lation. Puis on a constate que ces polyn^omes sont orthogonaux par rapport a la fonction de poids (1 x2)1=2 sur (1; 1). Si fg est une suite de polyn^omes orthogonaux par rapport a une fonction de poids n w sur (1; 1), f(1 x2)1=4w(x)1=2(x)g sont des fonctions orthogonales par rapport a (1 x2)1=2, on n constate un comportement raisonnablement equioscillant: Jacobi degre 10 = 0:25,

= 1 1 1 Laguerre degre 10 , = 1:23 0 10 Hermite degre 10 3 3 Polyn^omes de Jacobi, Laguerre et Hermite. La

gure ci-dessus montre les graphes de polyn^omes de Jacobi, Laguerre et Hermite, multiplies par (1x)=2+1=4(1+x)

=2+1=4 dans le cas Jacobi, par x=2+1=4 exp(x=2) dans le cas Laguerre par exp(x2=2) pour Hermite. cf. orthclas.m Theoreme de Sonine-Polya27. Sin est un polyn^ome orthogonal classique sur [a; b], e t si w(x) p p(x) est croissante (resp. decroissante) sur [c; d] [a; b], les ordonnees des maxima locaux de jj sur [c; d] forment n une suite decroissante (resp. croissante). 26Landau & Lifchitz, Mecanique quantique, x 23. 27M. Redheer, Monotonocity of the maxima, American Math. Monthly 105 (1998) 945-9 48. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 109 En eet, les carres de ces ordonnees sont les valeurs de Fn(x) :=2 n(x) p(x) n 0n 2(x) aux zeros de pn. 0 Derivons Fn: F0n = 2n 0 n p0 n 0n 2 2 p n 0n0 n 0 =0n 2 n p0 n 0n 2 p0 n 0 n =0n 2 n p0 n 0n 2 nn 0n n = 2 p0 n 0n 2 ou on a utilise (71). D'ou la these, (wpp)0=(wpp) = w0=w + p0=(2p) = r=p + p0=(2p) = (2 Un theoreme de Szeg}o ([Sze] x 7.2). a 6 c < b, pwjj atteint son maximum n En eet: soit c 6 x 6 b;w(b) 2 n(b) w(x) 2

puisque, sur un intervalle ou wpp est monotone, p0)=(2p). (et n < 0). Si la densite w est croissante sur (c; b) avec sur [c; b] en b.

n(x) = 2 Z b x n(t)n(t)w(t)dt + 0 Z b x 2 n(t) dw(t). 1.) Si x est entre le plus grand zero den et b,n(t) et0n(t) sont positifs, donc le resultat est positif. 2.) Si x est entre a et le plus petit zero den, Z b x n(t)n(t)w(t)dt = 0 Z b |{az} =0 Z x a n(t)n(t)w(t)dt encore positif puisquen 0 et0n ont les signes (1)n et (1)n1 a gauche du plus petit zero; 3.) En

n, si x est entre deux zeros den, on considere le polyn^omen(t) divise par le produit des t zi, ou les zi sont les zer os plus petits que x. Ce polyn^ome est orthogonal par rapport a la densite w(t) Y zi<x (t zi)2. On se ramene ainsi au cas 2.). 3.16. Noyaux reproduisants, polyn^omes noyaux. Soit fb0; : : : ; bng une base orthonormale de V , (57) se simpli

e encore: ^p = Pf = Xj=n j=0 (f; bj) bj : Dans la notation des physiciens (Dirac): P = Xj=n j=0 jj >< jj : Si X est un espace de fonctions, muni du produit scalaire (f; g) = R S f(x)g(x) d(x), on a aussi (Pf)(y) = Xj=n j=0 Z S f(x)bj(x) d(x) bj(y) = Z S f(x) Xj=n j=0 bj(x) bj(y) d(x) = (f;Kn(:; y)); MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 110 ou Kn(x; y) := Pn j=0 bj(x)bj(y) est le noyau reproduisant28 de V , en eet, 8f 2 V , f(y) = (f;Kn(:; y)). Cette propriete reproduisante (sur V ) est une voie d'acces a une approche de la con vergence. Le comportement de Kn(x; y) quand n est grand n'est cependant pas toujours de to ut repos. Ainsi, avec le produit scalaire R 1 1 f(x)g(x)(1 x2)1=2dx pour lequel on conna^t b0 = 1=2, bj(x) = (2=)1=2Tj(x) pour j 1, on calcule Kn(x; y) = 2 Xn j=0 0Tj(x)Tj(y) = 1 2 sin((n sin((2 + sin((n sin((2 + 1=2)(2 1)=2) 1))

+ 1=2)(2 + 1)) + 1)=2)

; ou x = cos 1, y = cos 2. Cette expression peut devenir tres grande. D'ailleurs, avec

des produits scalaires de forme R b a f(x)g(x)d(x), il n'existe pas de fonction continue de deux variables K qui veri

erait f(y) = (f;K(:; y)) pour toute fonction f continue sur [a; b]: on aurait jf(y)j kfkkK(:; y)k (Cauchy-Schwarz), mais il existe des fonctions contin ues f de norme quadratique kfk arbitrairement plus petite qu'une valeur ponctuelle jf(y)j : il faudrait kK(:; y)k = 1. L'\objet" qui peut alors pretendre servir de limite de Kn(x; y) qu and n ! 1 ne peut ^etre de

ni qu'au sens des distributions (distribution de Dirac (x y)). Si V contient les constantes, on a aussi C = (C;Kn(:; y)), donc, pour y

xe, f(y) = (f(y);Kn(:; y)), f(y) (Pf)(y) = (f(y) f(:);Kn(:; y)) = Z S (f(y) f(x))Kn(x; y) d(x); identite tres utilisee en theorie de la convergence. Il existe cependant des espaces a noyau reproduisant ou la limite de Kn(x; y) exis te au sens classique: c'est le cas de l'espace des fonctions analytiques de carre de valeur absolue integrable sur un domaine borne du plan complexe (espace de Bergman 29). Remarquons aussi que le noyau reproduisant se. . . reproduit lui-m^eme: Kn(y; z) = (Kn(:; z);Kn(:; y)). En particulier, Kn(y; y) = (Kn(:; y);Kn(:; y)) = kKn(:; y)k2. Les noyaux reproduisants servent aussi a comparer l'approximation en moyenne quad ratique et d'autres approximations. Ainsi, soit p une approximation de f dans V (meilleu re approximation au sens d'une autre norme, interpolant,etc.), et q la meilleure approximation en moyenne quadratique, projection orthogonale de f dans V . On a f q = f p + p q = f p + (p q;Kn) car p q 2 V = f p (f p;Kn) + (f q;Kn) = f p (f p;Kn) car f q ? V: C'est ainsi que l'on a pu comparer les sommes partielles de developpements en seri es de polyn^omes de Tchebyche et les meilleures approximations au sens de la norme du m aximum (constantes de Lebesgue). Dans le cas des polyn^omes orthogonaux sur un intervalle reel, on tire pro

t de la formule de Christoel-Darboux (p. 96): le polyn^ome noyau Kn(x; y) = Xn i=0 'i(x)'i(y) =

n+1 'n+1(x)'n(y) 'n+1(y)'n(x) x y 28On dit aussi regenerateur 29Cf. [Dav] pp. 319{322. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 111 Ceci montre que, 8y, Kn est un polyn^ome de degre n orthogonal a Pn1 par rapport au produit scalaire associe a la mesure (x y)d(x): 8p 2 Pn1; Z b a p(x)Kn(x; y)(x y)d(x) = Z b a p(x)

n+1 'n+1(x)'n(y) 'n+1(y)'n(x) x y (x y)d(x) = 0: Ce produit scalaire est inde

ni si y 2 (a; b). Une propriete extremale importante: Theoreme.Soit y =2 (a; b)

xe. Parmi tous les polyn^omes p 2 Pn veri

ant p(y) = 1, le polyn^ome de norme Z b a p(x)2d(x) 1=2 minimale est p(x) = Kn(x; y)=Kn(y; y). En eet, exprimons que p, avec p(y) = 1 est de norme minimale: tout autre polyn^om e valant egalement 1 en y est de la forme p(x) + (x y)q(x), avec q 2 Pn1, donc, Z b a (p(x) + (x y)q(x))2 d(x) = Z b a p(x)2d(x)+2 Z b a p(x)q(x)(xy)d(x)+ Z b a q(x)2(xy)2d(x) sera bien strictement superieur au carre de la norme de p pour tout autre polyn^om e si p est orthogonal a Pn1 par rapport a la mesure (x y)d(x), donc si p(x) = constante Kn(x; y ), ce qui donne bien p(x) = Kn(x; y)=Kn(y; y). On appelle fonction de Christoel associee a la mesure d la fonction n(x) = 1=Kn1(x; x) . Les constantes de Christoel apparaissant dans la formule de quadrature de Gauss s ont les valeurs de n aux zeros den. Exercice. Soit w une fonction positive et continue sur (a; b), et f(:; n

)g les polyn^omes orthogonaux par rapport a la restriction de w sur (a;

), avec a <

6 b. Alors, chaque zero xi(

) den(:;

) est une fonction croissante de

. En eet30,on a Z

a 2 n(x;

) x xi(

) w(x) dx = 0;. Derivons en

: Z

a 2(x; n

) @(x; n

) @

x xi(

) w(x) dx + dxi(

) d

a 2 n(x;

) (x

xi(

))2 w(x) dx + 2 n(

xi(

) w(

) = 0. Commen(x) = Yn 1 (x xk), @(x) n @

=n(x) Xn 1 x0k(x 2 dxi(

xk)1, la premiere integrale se limite a

) d

a 2 n(x;

) (x

xi(

))2 w(x) dx, et il reste dxi(

) d

= 2 n(

xi(

) w(

) Z

a 2 n(x;

) (x

xi(

))2 w(x) dx . 4. Moindres carres, regression. La construction d'approximations au sens des moindres carres est une des applicat ions numeriques les plus utiles qui soient. A partir de principes etablis des le debut du XIXeme siecle par Legendre et Gauss, on a traite des problemes de plus en plus considerables. L'el aboration 30Lemme 2 de D.K. Dimitrov: On a conjecture concerning monotonicity of zeros of ultraspherical polynomials, J. Approx. Theory, 85 (1996) 88-97. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 112 de bons algorithmes se base sur les idees force de meilleure approximation en moy enne quadratique et d'utilisation de bases orthogonales. Fixons le cadre: On dispose d'observations y0, y1,. . . yN d'un phenomene f(t) (t peut representer i ci une ou plusieurs variables independantes) que l'on soupconne pouvoir ^etre represente par u ne forme f(t) = Xn j=0 jfj(t); ou les fonctions fj sont connues, mais ou les coecients j sont a determiner 31. Si cet te hypothese etait vraie, et si chaque mesure yi donnait exactement f(ti), on trouver ait les j en extrayant n equations de y = f =; ou y est le vecteur des yi, est la matrice des fj(ti), j = 0; : : : ; n, i = 0; : : :N > n; est le vecteur des j . En fait, les mesures n'etant pas exactes, on a plut^ot y = f + e = + e; on renonce a calculer exactement , mais on va estimer ce vecteur par a qui minimis e la somme des carres des residus ky bk2 = Xi=N i=0 yi Xj=n j=0 fj(ti)bj !2 sur b 2 Rn+1. C'est bien un probleme de meilleure approximation de y 2 RN+1 par un element de V , espace vectoriel de dimension n + 1 sous-tendu par les colonnes de, au sens de l a norme Euclidienne de RN+1 (on a donc suppose que les n + 1 colonnes de sont des vecteur s independants de RN+1). La solutionb est donc la projection orthogonale de y sur V . La maniere tradition nelle de trouver a consiste a ecrire que le residu r = y a est orthogonal aux colonnes de, c'est-a-dire, a former les equations normales: T =Ty: a A noter que l'on retrouve bien la matrice de Gram de la base de V .

L'usage des equations normales n'est recommande que pour de petites valeurs de n, le systeme etant mal conditionne si n est grand. On sait maintenant l'inter^et de disposer de bases orthogonales. Si on a orthonor malise les colonnes f0,. . . fn de en f? 0 ,. . . f? n , il reste, par (57) (p. 77): Py =a =?a? = Xj=n j=0 (f? j Ty) f? j ; donc, a?j = f? j Ty, ou encore a? =?Ty. 31Nombreux exemples en physique, economie, etc. etc. A noter que l'on se limite i ci a des problemes ou les inconnues j interviennent lineairement, ce qui est une grosse simpli

cation vis a vis des questions qui se posent le plus frequemment. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 113 Si on a utilise la methode de Gram-Schmidt pour orthonormaliser les colonnes de, l e passage de a? est =?R, ou R est une matrice triangulaire superieure, Ra = a?. Comme?T = I, RTR =T factorisation de Cholesky de la matrice de Gram. ? , On obtient egalement R en multipliant a gauche par des matrices orthogonales appro pri ees (rotations de Givens ou re exions de Householder) de facon a avoir = QeR, ou eR est une matrice rectangulaire de N + 1 lignes et n + 1 colonnes, la jeme colonne n'ayant que ses j premiers elements non nuls (factorisation QR). Alors, a? est le vecteur forme des n + 1 premiers elements de QTy. En matlab: help poly

t POLYFIT Polynomial curve

tting. POLYFIT(x,y,n)

nds the coecients of a polynomial p(x) of degree n that

ts the data, p(x(i)) = y(i), in a least-squares sense. [p,S] = POLYFIT(x,y,n) returns the polynomial coecients p and a matrix S for use with POLYVAL to produce error estimates on predictions. If the errors in the data, y, are independent normal with constant variance, POL YVAL will produce error bounds which contain at least 50% of the predictions. See also POLY, POLYVAL, ROOTS. help slash ... If A is anM-by-N matrix withM < or > N and B is a column vector withM components , or a matrix with several such columns, then X = AnB is the solution in the least squares sense to the under- or overdetermined system of equations A X = B. The eective rank, K, of A is determined from the QR decomposition with pivoting. A solution X is computed which has at most K nonzero components per co lumn. If K < N this will usually not be the same solution as PINV(A)*B. AnEYE(SIZE(A)) produces a ge neralized inverse of A. Voir aussi LSCOV. Remarque. Si chaque ligne de est formee de valeurs de fonctions en un m^eme point : ['0(ti); : : : ; 'n(ti)], et s'il y a exactement autant d'equations que d'inconnu es, alors la solution Xn j=0 a?j 'j; ou a?j = '?j Ty, ou encore a? =?Ty, interpole les donnees y0; : : : ; yn aux points t0; : : : ; tn, c'est-a-dire que l 'on a Xn j=0 a? j '?j (ti) = yi; i = 0; 1; : : : ; n (77) En eet?a? =?T = y,? etant une matrice carree orthogonale. ? Si les fonctions fj sont des polyn^omes d'une variable reelle, on dispose de tech niques particulieres basees sur la relation de recurrence 32. Voici une justi

cation statistique de ces techniques: Theoreme de Gauss-Marko 33 . Si les erreurs ei = yif(ti) sont des variables aleatoire s independantes de moyenne nulle (estimation sans biais) et de m^eme variance 2, aj obtenu par 32G.E. Forsythe, Generation and use of orthogonal polynomials for data-

tting with a digital computer, J. Soc. Indust. Appl. Math. 5 (1957) 74-88. 33B.L. van der Waerden, Mathematische Statistik, Springer, 1957 = Statistique ma thematique, Dunod, 1967, x 30{32. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 114 moindres carres est l'estimateur lineaire sans biais de j de variance minimale. Le carre de la norme du residu krk2 = kyk2 est alors une variable aleatoire de moyenne (N n)2. a En eet, etudions un estimateur bj de j ou, plus generalement, un estimateur b d'une combinaison lineaire

= Pn j=0 jj , lineaire en les yi: b = PN i=0 `iyi = `Ty. Exprimons d'abord que b est sans biais, c'est-a-dire que l'on a E(b) =

= T, 8: E(b) = E(`Ty) = `T E(f + e) = `Tf = `T doncT ` = , resolu par ` =x + z, avec x = (1 et , ) T z ? V . Passons maintenant a la variance de b: E((b T)2) = E((`Ty `T )(yT ` T `)) = `T E((y f)(y f)T )` = 2`T ` = 2(kk2 + kzk2) est donc minimal quand z = 0, donc x quand b = `Ty = T (1y = Ta, ce qui est bien l'estimateur par moindres carres. ) TT En

n, E(krk2) = E((y)T (y)) = E((y1y)T (y1y)) = a a ) T (T ) T (T E((e (1 e)T (e (1 e)) = E(eT (I (1 )2e) = ) TT ) TT ) TT E(eT (I (1 )e) = (N + 1)2 2 trace (1 ) = (N n)2; ou on a ) TT ) TT utilise y =+e, E(eiej) = 2i;j , E(eTXe) = E( P i P j eiXi;jej) = P i Xi;iE(e2i ) = 2 trace X, et trace(AB)= trace(BA). Que se passe-t-il quand on ne sait pas exactement ou il faut estimer f? Reponse: o n essaye des sous-espaces V de plus en plus grands (mais pas trop grands. . . ), et on s' arr^ete quand y a manifeste un comportement raisonnablement aleatoire. Comme experience (pp. 266-267 de S.D. Conte et C. de Boor, Elementary Numerical Analysis, An Algorithmic Approach, 3rd ed., McGraw-Hill, 1981), on considere les 21 donnees34 x = -1.0 -0.9 -0.8 -0.7 -0.6 -0.5 -0.4 -0.3 -0.2 -0.1 0.00 0.10 0.20 0.30 0.40 0 .50 0.60 0.70 0.80 0.90 1.00 y = 0.37 0.41 0.45 0.50 0.55 0.61 0.67 0.74 0.82 0.90 1.00 1.11 1.22 1.35 1.49 1 .65 1.82 2.01 2.23 2.46 2.72 On examine y(x) pn(x), ou pn est la meilleure approximation de degre 6 n au sens d es moindres carres: 6 n = 0 1:5 6 n = 1 0:3 6 n = 2 0:05 6 n = 3 0:01 6 n = 4 0:005 6 n = 5 0:005 34construites tres arti

ciellement: chaque valeur de y est ex arrondie a deux chires signi

catifs apres le point decimal. . . MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 115 Tant que n 6 3, l'erreur (qui a d'ailleurs un petit air de polyn^ome de Tchebych e. . . ) est systematique. A partir de n = 4, on a raisonnablement capture le signal et on voit du bruit aleatoire. Il ne sert a rien de depasser n = 4. . . Voyons maintenant les sommes de carres XN i=1 [yi pn(xi)]2 (le \2") en fonction de n, forcement une fonction decroissante de n: n = 20 0.06005 On voit bien le comportement en constante (N n) a partir de n = 4. Cf. cboor.m 5. Approximation en norme k k1. On approche f par une combinaison lineaire p des fonctions0,. . . ,n donnees sur [ a; b], et on cherche a minimiser kf pk1 = Z b a jf(x) p(x)jw(x) dx = Z b a Sp(x) (f(x) p(x))w(x) dx; ou w est une fonction poids donnee. La fonction Sp designe le signe de f p. Comparo ns deux approximations: kfqk1kfpk1 = Z b a (Sq(x)Sp(x)) (f(x)q(x))w(x) dx+ Z b a Sp(x) (p(x)q(x))w(x) dx: Si p et q sont proches, et si toutes les fonctions sont continues, la premiere in tegrale est de l'ordre du carre de la deuxieme. La condition de minimalite de kf pk1 est donc qu'i l existe une fonction S, qui vaut partout 1 ou 1, et qui soit orthogonale a0,. . .. Cette f n onction S ne depend que de w et n. Pour f donnee, p = ^p est alors la combinaison de0,. . . ,n interpolant f aux points de discontinuite de S (points canoniques), si f p ne chan ge de signe en aucun autre point de [a; b]. Si w = constante sur [1; 1] et f; : : : ;g = Pn, alors les points canoniques sont 0 n les zeros du polyn^ome de Tchebyche de deuxieme espece Un+1. Cf. [DeVLor, chap. 3, x 10]. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 116 6. Series de Fourier en analyse numerique. L'analyse harmonique consiste a extraire d'une fonction les harmoniques qu'elle c ontient en donnant a chacune le poids qui lui convient. La synthese consiste a reproduire la f onction a partir de ses harmoniques.

J.P. Kahane, cite dans M. Willem, Analyse harmonique reelle, Hermann, Paris, 1995, p. 93. Ce qu'on appelle maintenant les series et integrales de Fourier a une importance e t une generalite qui depassent de beaucoup leur but initial. Il y a d'innombrables domaines de la physique et de la technique qui font un usage des methodes developpees par Fourier. Tous les pr oblemes d'analyse d'images y font appel, par exemple ceux qui sont rencontres dans les sc anners a rayons X ou les echographes a ultrasons. La recherche de la structure des grandes molecules au moyen de techniques cristal lographiques, qui est a la base de la biologie moleculaire, fait abondamment usage des transforme es de Fourier, et certains progres recents dans ce domaine sont dus au fait que les calculatrices arrivent a eectuer de plus en plus rapidement ces transformations. G. Charpak (Nobel physique 1992), cite dans J. Lacouture, Champollion, une vie de lumieres, Grasset, 1988= Le Livre de Poche 6995, 1991. L'analyse de Fourier a d'abord servi a quanti

er le contenu frequentiel de phenomenes ondulatoires. On a ensuite utilise des series de Fourier pour decrire des structure s periodiques (cristaux). On traite maintenant de facon purement numerique des signaux (son, ima ge) par techniques de Fourier. Ces methodes se retrouvent dans des applications les plus diverses qui vont de la medecine a l'astrophysique. On utilise en mathematiques les methodes de Fourier dans l'etude d'operateurs dierenti els (initialement, Fourier s'est occupe de l'equation de la chaleur @T=@t = K@2T=@x2 3 5), la theorie des fonctions et de la mesure (des points

ns de la theorie des ensembles et de la theorie de l'integration sont apparus a partir de series de Fourier), et on va jusqu 'a trouver des series de Fourier dans des methodes de multiplication de grands nombres. . . ( voir plus loin). Une fonction dependant d'une variable physique t est examinee sur un intervalle de longueur T, soit parce que l'on sait que cette fonction est periodique de periode T et est donc entierement speci

ee par ses valeurs sur un tel intervalle, soit parce que l'on soupconne qu'elle es t de periode T, soit en

n parce que l'on juge bon d'etudier l'extension periodique de la fonction a partir de ses valeurs sur cet intervalle. On considere donc que G(t + T) = G(t) et le dev eloppement G(t) A0=2 + X1 k=1 (Ak cos(k!t) + Bk sin(k!t)) ; ou ! = 2=T est la pulsation du signal, 1=T est sa frequence. Ces donnees s'appliquen t a la fondamentale A1 cos(!t) + B1 sin(!t); chaque harmonique Ak cos(k!t) + Bk sin (k!t), k > 1, etant de pulsation k! et de frequence k=T . La justi

cation de ce developpement en serie sera rappelee plus loin. Passons a la variable sans dimension x = 2t=T et considerons F(x) = G(t): F(x) A0=2 + X1 k=1 (Ak cos(kx) + Bk sin(kx)) ; 35J. Fourier, Theorie analytique de la chaleur, Didot, 1822, = Analytical Theory of Heat, (transl. A. Freeman), Dover, 1955. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 117 passons aux exponentielles complexes exp(ikx) = cos(kx) + i sin(kx): F(x) X+1 k=1 Ck exp(ikx); avec Ak = Ck + Ck, Bk = i(Ck Ck), k = 0; 1; : : : La

gure suivante montre un extrait du

chier \boing.wav", 100 valeurs consecutives prises toutes les 1=11025emes de seconde d'un signal sonore. %wavfft.m diary wavfft.dry nomf = input('nom du fichier wav ','s') [y,fs,fm]=wavread(nomf); fs,fm [s1,s2]=size(y) plot(1:s1,y);pause y2=y(1001:1100)-128; clear y plot(1:100,y2);pause;print -dps 'wavfft1';newplot; 500 10 20 30 40 50 60 70 80 90 100 40 30 20 10 0 10 20 30 40 50 Considerons la fonction constituee de la repetition inde

nie de ces valeurs, c'est donc une fonction periodique de periode T = 100 pas de temps. On voit aussi que le graphe manifeste une repetition de 6 motifs proches. C'est bien ce que montre l'analyse de Fourier de cette fonction: cc=0.01*fft(y2); cc(1:10) plot(0:20,abs(cc(1:21)));pause;print -dps 'wavfft2';newplot; c0 = -2.1600 c1 = c1 = -0.2343 -0.1470i c2 = c2 = -0.3038 -0.1246i c3 = c3 = -0.5831 + 0.0526i c4 = c4 = -0.0007 -0.2692i c5 = c5 = -1.3874 +2.2894i c6 = c6 = -15.5415 +4.4482i c7 = c7 = -1.2355 -0.8023i c8 = c8 = 2.2775 -1.5847i c9 = c9 = 0.9349 +1.3177i MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 118 0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 On voit que c6 est nettement plus grand que les autres coecients. La contribution c6e6ix + c6e6ix restitue deja presque la fonction: 400 10 20 30 40 50 60 70 80 90 100 30 20 10 0 10 20 30 40 cc(1)=cc(1)/2;cc=2*cc; dd=0*cc;dd(7)=cc(7); plot(1:100,100*ifft(dd(1:10),100));print -dps 'wavfft3';newplot La decroissance rapide des coecients permet de reconstituer la fonction par quelqu es termes de la serie de Fourier: plot(1:100,100*ifft(cc(1:10),100));print -dps 'wavfft4' 500 10 20 30 40 50 60 70 80 90 100 40 30 20 10 0 10 20 30 40 50 6.1. Comportement des coecients.

(1) Si F est integrable sur (; ): F 2 L1(; ), on a Ck ! 0 quand k ! 1 (lemme de Riemann-Lebesgue). (2) Si F est de carre integrable sur (; ): F 2 L2(; ), les coecients sont de carre sommable: P1 k=0 jCkj2 = (2)1kFk2 < 1 (identite de Parseval). (3) Si F est a variation bornee sur [; ], c'est-a-dire si V = supj P j jF(j+1) F(j)j < 1, jCkj decro^t au moins aussi vite que 1=k: jCkj V=(jkj), jkj > 0. Par ailleurs, on sait aussi que les sommes de Fourier convergent alors ponctuellemen t (vers MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 119 la moyenne des limites a gauche et a droite si on est en un point de discontinuite, theoremes de Dirichlet et Jordan). Examinons maintenant des sous-classes de fonctions continues periodiques: jkj > 0 : 2Ck = Z F() exp(ik)d = Z =k =k F() exp(ik)d = = Z F( Z =k) exp(ik)d =

F() F( =k) 2 exp(ik)d d'ou jkj > 0 : jCkj !F (=jkj)=2: (4) On note Lip la classe des fonctions continues telles que !F (h) 6 Ch, 0 < 6 1 ( = 1: classe Lip des fonctions Lipschitziennes) 36, on a donc jCkj 6 C0=jkj, ce q ui n'est pas tres brillant (on ne peut avoir > 1 si F n'est pas constante!), mais (5) Si F, F0,. . . F(m) continues periodiques (c'est-a-dire continues sur [; ] et F() = F(); : : : ; F(m)() = F(m)()), et si F(m+1) 2 Lip, 0 < 6 1 (ou F(m+1) a variation bornee). Alors, jkj > 0 : Ck = 1 2 Z F()eikd = 1 2(ik)m+1 Z =

F(m+1)()eikd = 1 (ik)m+1C(m+1) k ; C(m+1) k etant le coecient de Fourier de F(m+1), par reduction des termes aux limites apparaissant dans les integrations par parties. Et comme, par le point precedent, jC(m+1) k j C0=jkj,

jkj > 0 : jCkj C0 jkjm+1+ ; et, selon un raisonnement deja tenu a propos de series de polyn^omes de Tchebyche: kF Snk1 X1 k=n+1 (jCkj + jCkj) 2C0 (m + )nm+ : Application. Soit G une fonction de classe C 2 sur [a; b]. On veut approcher G p ar des combinaisons de fonctions se transformant de facon commode sous l'action d'operateurs dierentiels (methodes spectrales). C'est le cas des series de Fourier. G((a + b)=2 + (b a)=(2)) a cependant un tres mauvais developpement de Fourier si G(a) 6= G(b). On ameliore fortement les choses en procedant comme suit: t = a +(ba)=, 0 ; G(t) = + + F(), ou + est l'interpolant lineaire de G en a et b, assurant donc F(0) = F() = 0. On de

nit alors F() = F() sur 2 [; 0]. Les coecients de Fourier de F decroissent maintenant comme k3: F() = F() = 0, F(0+) = F(0) = 0, F0(0) = lim !0 <0 F() = F() = F() = F0(0+); 36Un exemple interessant est donne par les series de Fourier violemment lacunaires P 1 m=0 um cos(vm ), avec u > 0, v entier > 1, u < 1, et surtout uv > 1. De telles fonctions sont con tinues partout et derivables nulle part (Weierstrass). On calcule qu'elles sont dans Lip avec = log(1=u)= log v. Si v est impair, les sommes de Fourier sont aussi optimales au sens de Tchebyche (theoreme d'equioscillat ion!). MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 120 F0() = lim !0 >0 F( )

= F( + ) = F( + ) = F0(()+); donc F et F0 sont continues periodiques dans R: m = = 1. 6.2. Transformee de Fourier discrete. Cf. [GasW]. Soit N pair et considerons le produit scalaire discret (f; g)N := NX1 m=0 f(2m=N)g(2m=N): On a alors: Proposition. Si N est pair, les N fonctions exp(ikx), k = N=2;N=2 + 1; : : : ;N=2 2;N=2 1 sont orthogonales relativement au produit scalaire ( ; )N, de m^eme norm e pN. En eet, (exp(ik1x); exp(ik2x))N = PN1 m=0 exp(i(k1k2)2m=N), ce qui est une progression geomtrique de raison r = exp(i(k1 k2)2=N) = 1 seulement si k1 = k2, puisque jk1 k2j ne peut valoir d'autre multiple entier de N que 0, et la somme de la progression va ut alors N; si k1 6= k2, la somme vaut (1 rN)=(1 r) = 0. La meilleure approximation de f dans l'espace VN sous-tendu par exp(ikx), k = N=2

;N=2+ 1; : : : ;N=2 2;N=2 1 est donc fN(x) = NX=21 k=N=2 c(N) k exp(ikx); avec c(N) k = (f; exp(ikx))N=k exp(ikx)k2 N = N1 NX1 m=0 f(2m=N) exp(ik2m=N) ; k = N=2;N=2 + 1; : : : ;N=2 2;N=2 1: La norme de f fN est donc la plus petite norme de f p que l'on puisse trouver avec p 2 VN. Comme cette norme ne fait appel qu'a N valeurs ponctuelles x = 2m=N, m = 0; : : : ;N 1, et que VN est de dimension N, on s'attend a ce qu'il soit possi ble de trouver une combinaison p des N fonctions de base de VN interpolant f aux points 2m=N, et on aurait donc kf fNk kf pk = 0, ce qui se veri

e: Proposition. fN interpole f aux points x = 2m=N, m = 0; : : : ;N En eet, on veri

1.

e directement que fN(2m=N) = PN=21 k=N=2 c(N) k exp(ik2m=N) = N1PN=21 k=N=2 PN1 n=0 f(2n=N) exp(ik2n=N) exp(ik2m=N) = N1PN1 n=0 f(2n=N) PN=21 k=N=2 exp(ik2(m n)=N) = N1PN1 n=0 f(2n=N)Nm;n = f(2m=N), ou on applique la remarque de la page 113 et l'identite (77). MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 121 Cette propriete d'interpolation n'emp^eche pas les harmoniques de fN de risquer d' ^etre quelque peu bouscules: c(N) k = N1 NX1 m=0 f(2m=N) exp(ik2m=N) = N1 NX1 m=0 " X1 `=1 cl exp(i`2m=N) # exp(ik2m=N) = N1 X1 `=1 cl NX1 m=0 exp(i(` k)2m=N) = + ck2N + ckN + ck + ck+N + ck+2N + Phenomene de pliage frequentiel, ou \aliasing", qu'on a deja rencontre avec les develop pements en series de polyn^omes de Tchebyche. A noter que les harmoniques discretes sont ex actes si le signal initial n'a pas d'harmonique avec jkj > N=2 37: il faut

ltrer un signal avant d'eectuer la discretisation. L'analyse d'un signal numerise consiste donc a calculer les sommes de produits c(N) k = N1 NX1 m=0 f(2m=N) exp(ik2m=N) pour N valeurs consecutives de k; La synthese numerique du signal consiste a le reconstituer aux N points x = 2m=N, m = 0; : : : ;N 1 par calcul de fN(2m=N) = f(2m=N) = NX=21 k=N=2 c(N) k exp(ik2m=N): 6.3. Tranformee de Fourier rapide (Fast Fourier Transform FFT). Dans les deux cas, il s'agit d'evaluer N expressions Yp = q=XN1 q=0 Xqpq; (78) ou est tant^ot exp(2i=N) (analyse), tant^ot exp(2i=N) (synthese). Il nous importe seu lement que N = 1. M^eme si les pq sont precalcules, il semble inevitable de devoir eectuer N additions et N multiplications par Yp, soit 2N2 operations en tout. Le caractere relatif de cette obligation apparente appara^t mieux quand on examine des problemes multidimensionnels: ainsi, un probleme a deux dimensions demande de calculer Yp1;p2 = q1=XN11 q1=0 q2=XN21 q2=0 Xq1;q2 p1q1 1 p2q2 2 ; pour N1N2 couples (p1; p2), d'ou apparemment 2(N1N2)2 operations. Mais on voit que si on ecrit Yp1;p2 = q1=XN11 q1=0 p1q1 1 q2=XN21 q2=0 Xq1;q2p2q2 2 ! ; 37Ce qu'on peut voir comme une version simpli

ee du theoreme de Shannon: un signal ne contenant que des frequences 6 F peut ^etre reconstruit entierement a partir d'un echantillonnage de pas 6 1=(2F). MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 122 on evalue d'abord les N1N2 expressions intermediaires Zp2;q1 = Pq2=N21 q2=0 Xq1;q2 p2q2 2 en 2(N1N2)N2 operations, et on obtient le resultat

nal Yp1;p2 = Pq1=N11 q1=0 p1q1 1 Zp2;q1 en 2(N1N2)N1 operations supplementaires, soit 2(N1N2)(N1 + N2) operations en tout! Avec un probleme tridimensionnel, on aurait 2(N1N2N3)(N1 + N2 + N3) operations. L'algorithme de transformee discrete de Fourier rapide (fast Fourier transform FFT ) de Cooley et Tukey 38 introduit systematiquement ce mecanisme: si N n'est pas un nombre premier, soit N = N1N2, eectuons la division de p 2 f0; 1; : : : ;N 1g par N2, soit p2 le reste 2 f0; 1; : : : ;N2 1g et p1 le quotient 2 f0; 1; : : : ;N1 1g puisqu e p < N. De m^eme, on eectue la division de q par N1: q = q2N1 + q1, 0 q1 < N1, 0 q2 < N2, et (78) devient Yp = Yp1N2+p2 = X 06q1<N1 06q2<N2 Xq2N1+q1 (p1N2+p2)(q2N1+q1) = X 06q1<N1 06q2<N2 Xq2N1+q1 p1q2N2N1+p1q1N2+p2q2N1+p2q1 = X 06q1<N1 06q2<N2 Xq2N1+q1 p1q1N2+p2q2N1+p2q1 puisque N1N2 = N = 1; = NX11 q1=0 " NX21 q2=0 Xq2N2+q1 N1 p2q2 # p2q1 N2 p1q1 : On retrouve la forme bidimensionnelle. Ce n'est pas tout! Les expressions interie ures Zp2;q1 (entres crochets) sont encore de la forme (78), avec N1 au lieu de , on doit donc pouvoir les evaluer a leur tour par FFT si N2 n'est pas premier (N est remplace par N2: on a bien (N1 )N2 = 1), etc. Et le res ultat

nal est lui-m^eme une FFT de taille N1 realisee avec N2 . On a donc la description recursive suivante: Algorithme FFT: Si N est premier, eectuer (78) en 2N2 operations. Si N = N1N2, Pour q1 = 0; : : : ;N1 1: { Eectuer l'algorithme FFT avec les N2 donnees Xq2N1+q1 , q2 = 0; : : : ;N2 1. On recueille ainsi un vecteur d'elements Zp2;q1 , p2 = 0; : : : ;N2 1. Fin de la boucle q1. On multiplie chaque Zp2;q1 par le \twiddle factor" p2q1 . Pour p2 = 0; : : : ;N2 1: { Eectuer l'algorithme FFT avec les N1 donnees Zp2;q1 p2q1 , q1 = 0; : : : ;N1 1. O n recueille ainsi Yp1N2+p2 , p1 = 0; : : : ;N1 1. Fin de la boucle p2. Apprecions maintenant le nombre NN d'operations reellement eectuees: si N n'est pas p remier, NN = N1NN2 + N + N2NN1 , ou encore: NN N = NN1 N1 + NN2 N2 + 1: Si 1,. . . , sont les facteurs premiers (pas necessairement distincts) de N, on a d onc NN = N + X =1 N ! = N + 2 X =1 ! : 38J.W. Cooley, J.W. Tukey, An algorithm for the machine calculation of complex F ourier series, Math. Comput. 19 (1965) 297-301. Cet article, arrive a point nomme, est credite de 2155 cit ations

n 1993, un record. Apres coup, on a retrouve des precurseurs signi

catifs dans des ouvrages de Lanczos, Runge, et m^eme Gauss (cf. pp. 8 et 9 de Current Contents PC&ES 33 (20-27 Dec. 1993) #51-52). MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 123 En particulier, si N est une puissance de 2, N = 2, NN = 5N = 5N log2 N; en fait, encore moins, puisque certains \twiddle factors" valent 1. Exercice. Reprendre le raisonnement avec N pair, N1 = 2, N2 = N=2: Y0 = X0 + X2 + : : : + XN2 + X1 + X3 + : : : + XN1 Y1 = X0 + X22 + : : : + XN2N2 + ( X1 + X32 + : : : + XN1N2) Y2 = X0 + X24 + : : : + XN22N4 + 2( X1 + X34 + : : : + XN12N4) YN=2 = X0 + X2 + : : : + XN2 ( X1 + X3 + : : : + XN1) YN=2+1 = X0 + X22 + : : : + XN2N2 ( X1 + X32 + : : : + XN1N2) YN=2+2 = X0 + X24 + : : : + XN22N4 2( X1 + X34 + : : : + XN12N4) ou on utilise N=2 = 1. Convolutions et produits de grands nombres. La convolution de deux suites fx0; x1; : : : ; xN1g et fy0; y1; : : : ; yN1g est l a suite fzk = P 06`<N;06m<N;`+m=k x`ymg, k = 0; 1; : : : ; 2N 2. Le calcul de z0; z1; : : : ; z2N2 prend apparemment 2N2 o perations. Aha! Les zk sont eectivement les coecients de f(u)g(u) = NX1 `=0 x`u` ! NX1 m=0 ymum ! = 2XN2 k=0 zkuk: Il sut donc d'evaluer f et g en u = 1; ; 2; : : : ; 2N1 (synthese), avec = exp(i=N) (on travaille avec 2N au lieu de N), et de recuperer les zk a partir de ces 2N valeurs (analyse), donc, t out cela avec trois FFT! 39 Produit de grands nombres: si F et G sont donnes par leurs developpements en base b F = PN1 `=0 x`b`, G = PN1 m=0 ymbm, on obtient facilement le developpement en base b de FG 40 Karatsuba: ab = [(a + b)2 (a b)2]=4, il sut de savoir evaluer des carres. Soit X un nombre de p chires en base b, on ecrit X = Y bp=2 + Z, et X2 fait appel a Y 2, Z2, Y Z evalue par (Y Z)2. MAIS (Y Z)2 = 2Y 2 + 2Z2 (Y + Z)2! Trois carres de nombres de p=2 chires susent. Co^ut C (p) = 3C(p=2)+ const. p. Cela donne p(3=2)log2 p = p1+log2(3=2) = p1:585. Voir aussi From: Daniel Potts <potts@math.uni-luebeck.de> Date: Fri, 20 Sep 2002 09:46:22 + 0200 Subject: NFFT, Nonequispaced Discrete Fourier Transform Dear colleagues:

we are pleased to announce the availability of Version 1.0 of a C library for co mputing the Nonequispaced Discrete Fourier Transform (NDFT) in one, two or three dimensions. Other common names for NFFT are non-uniform fast Fourier transform (NUFFT), generalized fast Fourier transform ( GFFT), unequally-spaced fast Fourier transform (USFFT), non-equispaced fast Fourier transform (NFFT), or gridding. Our library is free software based on FFTW. Visit our NFFT web-page http://www.math.uni-luebeck.de/potts/nfft for software, documentation, and related links. For those who would prefer to experiment with such tools in Matlab, we have inde pendently developed a NUFFT toolbox that uses interpolators that have been min-max optimized to mini mize the worst-case interpolation error. The toolbox is one part of a large collection of m-

les developed for image reconstruction problems, and is located here: http://www.eecs.umich.edu/~fessler/code/index.html Sincerely, Je Fessler 39Cf. P. Henrici, Applied & Computational Complex Analysis III , Wiley, 1986, et Fast Fourier methods in computational complex analysis, SIAM Rev. 21 (1979) 481-527. 40Technique eectivement utilisee dans D.H. Bailey, Algorithm 719. Multiprecision t ranslation and execution of FORTRAN programs, ACM Trans. Math. Soft. 19 (1993) 288-319. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 124 From: Daniel Potts <potts@math.uni-luebeck.de> Date: Tue, 7 Sep 2004 15:12:47 +0 200 (CEST) Subject: NDFT, Nonequispaced Discrete Fourier Transform We are pleased to announce version 2.0 of our C library for computing the nonequ ispaced discrete Fourier transform (NDFT) in one or more dimensions, of arbitrary input size. Other common names for NFFT are nonuniform fast Fourier transform (NUFFT), gener alized fast Fourier transform (GFFT), unequally spaced fast Fourier transform (USFFT), or gridding. Our library is free software, and based on FFTW 3.x. ... The NFFT has a lot of applications, see e.g. http://www.math.uni-luebeck.de/potts/nfft/links.sql such as: - summation at nonequispaced knots, evaluation of radial functions - sp herical Fourier algorithms - Fourier reconstruction algorithms for (medical) imaging CT/MRI - a new method for particle simulations From: Steven G. Johnson <stevenj@tw.org> Date: Fri, 14 May 2004 21:10:36 -0400 (E DT) Subject: Harminv 1.0, Extracting Frequencies Better Than the FFT ANNOUNCE: Harminv 1.0 { extracting frequencies better than the FFT I'm pleased to announce the availability of Harminv 1.0, a free program and C li brary for harmonic inversion: decomposing a time-series into a sum of sinusoids, including exponent ially decaying sinusoids. http://ab-initio.mit.edu/harminv/ Harminv is an implementation of the "

lter diagonalization method" (FDM) of Mandelshtam & Taylor (see URL for references), which maps the harmonic inversion problem onto a small eige n-problem (size proportional to the number of sinusoids). This method has been widely employed in physics since its inception in 1997, and is often able to obtain much more robust and accurate solutions for the frequencies, etcetera, than e.g. direct least-squared

tting of the data or its FFT spectrum (which are typically very ill-conditioned approache s). I've been happily using this code for a few years now in my own research, and I

nally got around to releasing it. I hope that others

nd it useful. Cordially, Steven G. Johnson 6.4. Analyse en ondelettes. Soit une fonction de support compact. On decide de representer des fonctions de

nies sur R en une combinaison de fonctions a;b(x) = jaj1=2 x a b (ondelettes) pour un ensemble denombrable de parametres a et b. est une fonction qui oscille plusieurs fois sur un support borne: -1 -0.5 0 0.5 1 1.5 2 2.5 3 3.5 4 -0.5 0 0.5 1 Linear B-spline wavelet -0.5 0 1 2 3 4 5 0 0.5 1 Quadratic B-spline wavelet Exemples d'ondelettes (fonctions ), extrait de M. Ueda, S. Lodha, Wavelets: An E lementary Introduction and Examples, ftp://ftp.cse.ucsc.edu/pub/tr/ucsc-crl-94-47.ps.Z MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 125 Le coecient de a;b d'une fonction nous renseigne sur l'amplitude de cette fonctio n dans un voisinage de ab, information qu'on ne retrouve pas avec des series ou transformees de Fourie r; cependant, pour a petit, le coecient de a;b fournit une information frequentielle, l'ondelette se comportan t alors comme un train d'ondes de haute frequence. On espere ainsi disposer d'un outil tres souple d'analy se de signal. Pour a donne, on note Va l'espace vectoriel sous-tendu par des fonctions 'a;kb0 , k 2 Z. Va sera par exemple l'ensemble des fonctions continues lineaires par morceaux dans les interv alles [kab0; (k + 1)ab0], et 'a;kb0 sera alors 1jxkab0j=(ab0) dans [(k1)ab0; (k+1)ab0], 0 ailleurs (ce ne sont p as encore les fonctions ). On considere une suite fVaj g de tels espaces permettant donc de representer de plus en plus

nement une fonction a mesure que aj est petit (analyse multi-resolution). Les approximations successives fj et fj+1 sont les projections orthogonales de f dans Vaj et Vaj+1 . Les espaces d'ondelettes W j contiennent les dierences (details) fj+1 fj : Vaj+1 = VajWj : fj (x) = 1X k=1 j;k'aj ;kb0 (x); fj+1(x) = 1X k=1 j+1;k'aj+1;kb0 (x); = fj (x) + 1X k=1 j;k aj ;kb0 (x): Et donc, formellement, f(x) = 1X j=1 " 1X k=1 j;k aj ;kb0 (x) # : On s'arrange generalement pour que les Wj soient orthogonaux entre eux: ap;b ? aq; c si p 6= q, parfois pour que toutes les a;b soient orthogonales entre elles (plus rare). Exemple de determination de a partir de ': soit aj = a0=2j , Va0 = l'espace des fo nctions lineaires par morceaux sur les intervalles [ka0b0; (k + 1)a0b0], '(x) = 1 jxj=b0 sur [b0; b0], '(x) = 0 quand jxj > b0. (x=a0) est une fonction de Va1 = Va0=2 orthogonale a toutes les fonctions 'a0;kb0 (x) = '(x=a0 kb0). On trouve ((k 1)b0) + 6 ((k 1=2)b0) + 10 (kb0) + 6 ((k + 1=2)b0) + ((k + 1)b0) = 0; k 2 Z: Il y a plusieurs solutions de support borne, par exemple (

gure), (b0=2) = 1; (b0) = 6; (3b0=2) = 10; (2b0) = 6; (5b0=2) = 1, (x) = 0 si x 6 0 ou x > 3b0. Nombreuses applications en traitement d'informations visuelles et sonores, http: //www.larecherche.fr/arch/02/01, etc. Ref: [GasW], nombreux livres et articles de I. Daubechies, Y. Meyer, etc., nombr euses contributions sur le web, par exemple http://www.cs.kuleuven.ac.be/~wavelets/ P. Bechler, Lebesgue constant for the Str omberg wavelet, J. Approx. Theory 122 (2 003) 13-23. From: Brigitte Forster <brigitte.forster@ep .ch> Date: Mon, 27 Jan 2003 09:04:40 +0100 Subject: Revamped Wavelet Digest Dear collegues, We are very happy to announce you that the revamped wavelet digest took o. http://www.wavelet.org/ The Wavelet Digest was founded by Wim Sweldens. Its

rst issue was released on July 24, 1992. Since then, the impact of the digest on the community kept increasing and the number o f subscribers grew up to almost 20000 by the end of 2001. During all those years, Wim has edited and asse mbled the digest. Now, the Wavelet Digest takes o again, restyled and hosted by the Swiss Federal Institute of Technology Lausanne (EPFL). So if you have any information you want to send out to the wavelet community, pl ease submit it to the digest. The digest will be send out depending on the number of submissions. We d o hope to have an issue about every two weeks. To subscribe the wavelet digest please follow the link http://www.wavelet.org/in dex.php?subscribe=1 MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 126 With best regards, The Wavelet Digest Team From: Laurent Demanet <demanet@acm.caltech.edu> Date: Thu, 14 Jul 2005 Subject: The Curvelab Toolbox at Curvelet.org Curvelab is a new toolbox implementing the Curvelet transform, both in Matlab an d C++, and can be downloaded from http://www.curvelet.org Curvelets are multiscale oriented basis elements that were introduced by Candes and Donoho to address the problem of representation of edges in geometrical images. Since then, they h ave found applications at least in seismic imaging, astronomy, and the numerical analysis of wave equation s. The software Curvelab contains two distinct implementations of the 2D Curvelet t ransform, namely via Wrapping and via USFFT. Both architectures are introduced and explained in the r eport 'Fast Discrete Curvelet Transforms', available online. The 3D transform is also present in Curv elab, in three dierent versions: in-core, out-of-core and fully MPI-based parallel. The 3D code is cove red in a separate online report. Several demo

les illustrate the transforms at work on image processing tasks such as denoisin g and partial reconstructions. Additional routines are provided to help the user under stand the geometry of the transform (location, orientation and scale for each coecient.) A user's guide exp lains how to set up the toolbox step-by-step on your computer. The webpage http://www.curvelet.org is also meant to serve as a repository of pa pers related to curvelets as implemented in Curvelab. It contains a list of links to application s of curvelets, and researchers in the

eld. There is also a mailing list: sign up to stay up-to-date on future software releases and other curvelet-related information. The Curvelab team: E. Candes, L. Demanet, D. Donoho and L. Ying. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 127 7. Convergence, espace de Hilbert 7.1. Suites totales et maximales. Soit f'0; '1; : : :g une suite orthonormale de l'espace prehilbertien X sur C, et Vn le sousespace de base f'0; : : : ; 'ng, n = 0; 1; : : : Comme Vn Vn+1, la norme d'erreur de meilleure approximation de f 2 X dans Vn decro^t quand n augmente: ^pn = Xn k=0 ck'k ; kf ^pnk2 = kfk2 Xn k=0 jckj2; ou ck = (f; 'k), k = 0; 1; : : : La suite des coecients ck de tout f 2 X est donc toujours de carre sommable, et 8f 2 X; X1 k=0 jckj2 kfk2; ( inegalite de Bessel). De

nition. Une suite f'0; '1; : : :g d'un espace norme X est totale dans X si les co mbinaisons lineaires

nies des elements de la suite forment un ensemble dense dans X, c'est-a-dire si, 8" > 0, 9p = c0'0 + + cn'n: kf pk ". On va donc devoir se poser la question de savoir si f'0; '1; : : :g est totale d ans notre espace X donne. Existe-t-il f 2 X qu'on ne pourrait pas approcher d'aussi pres que l'on veut par des combinaisons des 'k? Les meilleures combinaisons possibles sont les ^pn = Pn k=0 ck'k. Quand n augmente, les f^pn, qui gardent des normes ne tendant pas vers zero, sont ortho gonaux a de plus en plus de 'k, k = 0; 1; : : : A la limite (tout est dans ce mot), f\^p1" se rait orthogonal a tous les 'k. Pour exploiter cette idee de possibilite, ou d'impossibilite, d'existence d'un elemen t non nul de X orthogonal a tous les 'k, il faut donner un sens a P1 k=0 ck'k. Exemple. Prenons X = espace des fonctions mesurables bornees sur [; ] (c'est-a-dire 8Rf 2 X; 9M < 1 : jf(x)j M; x ), muni du produit scalaire habituel41(f; g) = f(x)g(x)dx. La suite 'k(x) = (2)1=2 exp(ikx), k = 0; 1; : : : est une suite orthono rmale de X. Avec f(x) = sign x, on trouve ck = 0 si k est pair, ck = 4i(2)1=2=k si k est impair, mais Pn k=1 ck' k(x) ! sign x2i1 ln j cot(x=2)j quand n ! 1, ce qui n'est pas borne, donc pas dans X. On montrera plus loin que, si la suite 'k(x) = (2)1=2 exp(ikx), k = 0; 1; : : : n' est eectivement pas totale, la suite '2k(x) = (2)1=2 exp(ikx), k = 0; 1; : : : ; '2k+1(x) = (2)1=2 e xp(ikx), k = 0; 1; : : : ; l'est. Proposition. Pour toute suite fckg10 de carre sommable P1 0 jckjP 2 < 1, la suite fp^n = n k=0 ck'kg10 est une suite de Cauchy dans X. 41Une fonction mesurable de valeur absolue bornee est integrable; le produit de de ux fonctions de ce type possede encore les m^emes proprietes, et est donc integrable MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 128 En eet, veri

ons que, 8" > 0, on peut trouver n tel que k^pn2^pn1k remarquer que k^pn2^pn1k2 = (^pn2^pn1 ; ^pn2^pn1) = ( Pn2 n1+1 cn'n; Pn2 n1+1 cn'n) = jcn1+1j2 + + jcn2 j2. De

" des que n2

n1

n: il sut de

nition. Un espace de Hilbert est un espace prehilbertien42complet (toute suite de Cauchy dans X a donc une limite dans X). Un espace de Hilbert separable est un es pace de Hilbert admettant une suite totale (suite= famille denombrable). De

nition. Une suite orthonormale d'un espace prehilbertien X est maximale 43 si on ne peut trouver de suite orthonormale plus grande dans X. Nous avons maintenant tous les elements pour apprecier le 7.2. Theoreme. Soit f'0; '1; : : :g une suite orthonormale de l'espace prehilbertien X. Considero ns les 7 propositions: (1) La suite f'0; '1; : : :g est totale dans X. (2) Le developpement en serie des 'k de tout f 2 X converge en norme vers f: lim n!1kf ^pnk = kf Xn k=0 (f; 'k)'kk = 0; (3) Pour tout f 2 X, on a kfk2 = X1 k=0 jckj2 = X1 k=0 j(f; 'k)j2; (relation de Parseval), (4) Pour tout f; g 2 X, on a (f; g) = X1 k=0 ckdk = X1 k=0 (f; 'k)('k; g); (relation de Parseval etendue, ou Riesz-Fischer), (5) La suite f'0; '1; : : :g est maximale dans X. (6) f 2 X, (f; 'k) = 0, k = 0; 1; : : : ) f = 0, (7) Tout element f de X est entierement determine par ses coecients ck = (f; 'k), k = 0; 1; : : :: (f; 'k) = (g; 'k), k = 0; 1; : : : ) f = g. Alors, (1) , (2) , (3) , (4) ) (5) , (6) , (7): De plus, si X est un espace de Hilbert, les propositions (1) a (7) sont equivalent es. 42Rappelons qu'un espace prehilbertien est considere ici comme norme, donc separe, cf. x 1.2, p. 74. 43Cf. [Dav] pp.191{194, aussi p.257. Attention! Davis appelle \closed" ce qui es t ici \totale", et \complete" ce qui est ici \maximale". Pour ne rien arranger, R. Courant, D. Hilbert, Method s of Mathematical Physics I , Interscience 1953, adopte la terminologie inverse. Pour la nomenclature en francais, cf. par exemple, J.-P. Bertrandias, Mathematique pour l'informatique. 1-Analyse fonctionnelle, A. Colin, 1970, chap. 3, G. Choquet, Cours d'analyse II , topologie, Masson, 1969, chap. VII-IV, J. Dieudonne, Fondements de l'analyse moderne, Gauthier-Villars, 19 65, chap. 6. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 129 En eet, on a deja etabli l'equivalence entre (1), (2) et (3), puisque les ^pn sont le s meilleures combinaisons possibles, et kf ^pnk2 = kfk2 Pn k=0 jckj2. Montrons que (2) ) (4): comme f ^pn et g ^qn sont orthogonaux a Vn,

(f ^pn; g ^qn) = (f ^pn; g) = (f; g) (^pn; g) = (f; g) (^pn; g ^qn + ^qn) = (f; g) (^pn; ^qn) = (f; g) Xn k=0 ckdk; Appliquons l'inegalite de Cauchy-Schwarz: j(f; g) Xn k=0 ckdkj = j(f ^pn; g ^qn)j 6 kf ^pnk kg ^qn)k qui tend bien vers 0 quand n ! 1, par (2). (4) ) (3): il sut de prendre g = f. (1) ) (5): supposons que l'on puisse construire 2 X, k k = 1, tel que la suite f ; '0; '1; : : :g soit encore orthonormale dans X. Mais f'0; '1; : : :g etant tot ale, appliquons Parseval avec f = : k k2 = P1 k=0 jckj2 = P1 k=0 j( ; 'k)j2 = 0, contradiction. (5) , (6) est immediat. (6) ) (7): on utilise (6) avec f g au lieu de f; (7) ) (6): on prend g = 0. Soit X Hilbert, montrons que l'une des propositions (5) (7) implique l'une des p ropositions (1)(4), choisissons (7) ) (2): les approximations ^pn de f forment une suite de C auchy et tendent donc vers un certain p 2 X. Il faut montrer que p = f. Or, pour tout k

xe, (p; 'k) = limn!1(^pn; 'k) = (f; 'k) a partir de n = k, donc p et f ont tous leurs coecients identiques, donc p = f. Contre-exemple. La fonction f(x) = sin(x tg ()) est orthogonale a tous les polyn^ome s selon le produit scalaire (f; g) = Z 1 0 f(x)g(x) exp(x) dx si 0 < < 1=2 (Stieltjes, Hamburger, cite dans O. Perron, Die Lehre von den Kettenbr uchen, 1929, x 67). On applique une identite de la fonct ion Gamma (deformation du parcours d'integration) Z 1 0 t1 exp(tei

) dt = exp(i

)() si > 0 et =2 <

< =2. La partie imaginaire est nulle si

est un multiple entier > 0 de : soit

= et = n=, n = 1; 2; : : : , et on pose t = x= cos(). On obtient bien Z 1 0 f(x)xn1 exp(x) dx = 0 pour n 1 = 0; 1; : : : La suite des piolyn^omes est donc non maximale, donc non totale, dans tout prehilbertien pour le produit scalaire indique, et contenant f. 7.3. Exemples de suites totales dans C [a; b] et L2([a; b]; ). L2([a; b]; ) est l'espace des fonctions de carre integrables sur [a; b], muni du prod uit scalaire (f; g) = R b a f(x)g(x) d(x), f et g etant considerees comme equivalentes si kfgk = 0. Cet espace de fonctions (en fait, de classes d'equivalence de fonctions) est un e space de Hilbert. Lorsque [a; b] est borne, l'espace des fonctions continues C [a; b] est dense dan s L2([a; b]; ) (au sens de la norme de L2), ce qui permet d'etablir le caractere total de suites de L 2 en passant par C , ce qui est d'ailleurs tres interessant en soi. 7.4. Theoreme d'approximation de Weierstrass. Si [a; b] est borne, les polyn^omes forment un ensemble dense dans C [a; b], muni de la norme du maximum. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 130 La demonstration utilisera une construction tres utile et tres ingenieuse a de nombre ux egards: Polyn^omes de Bernstein. Soit f une fonction de

nie sur [0; 1]. On considere l'operateur Bn: (Bnf)(t) := Xn k=0 f k n n k tk(1 ou n k = n! k!(n k)! est un coecient binomial: (x + y)n = Xn k=0 n k xkynk. n k est le nombre de combinaisons sans repetition de n objets pris k a k: n 0 = 1, n 1 = n, n 2 = n(n n n = 1, n k = 1)=2, . . . t)nk;

n n k . On constate rapidement (Bnf)(0) = f(0), (Bnf)(1) = f(1), f(t) 1 ) (Bnf)(t) 1, Bn est un operateur lineaire positif, on entend par ce dernier terme que f(t) > 0 sur [0; 1] ) (Bnf)(t) > 0 sur [0; 1]. Remarquons que la linearite et la positivite impliquent jf(t)j 6 g(t) sur [0; 1] ) j(Bnf)(t)j 6 (Bng)(t) sur [0; 1]. - t 0 1 Pour aller plus loin, constatons que wk(t) := n k tk(1 t)nk est la probabilite d'obtenir k fois un evenement de probabilite t sur n tirages independants: loi binomiale. Des proprietes bien connues de cette loi sont: (1) Prob. totale Xn k=0 wk(t) = 1, (2) Moyenne Xn k=0 k wk(t) = nt, (3) Variance Xn k=0 (k nt)2 wk(t) = nt(1 t): On en tire des informations sur l'application de l'operateur Bn a des polyn^omes d e degre 0, 1 et 2: (1) f(x) = 1: (Bnf)(t) = 1, (2) f(x) = x: (Bnf)(t) = t, (3) f(x) = x2: (Bnf)(t) = t2 + t(1 t)=n, Pour le dernier cas, on developpe le carre de k nt dans l'identite de la variance, e t on divise par n2. Les polyn^omes de degre 6 1 sont donc reproduits exactement par Bn, et on a pour le degre 2: (Bn(Ax2 + Bx + C))(t) = At2 + Bt + C + At(1 t)=n: Ceci sut a assurer la Demonstration du theoreme de Weierstrass par polyn^omes de Bernstein. Soit f continue sur [0; 1], et > 0. Montrons qu'il existe n tel que kBnf fk1 6 . MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 131 Soit x un point de [0; 1]. Comme Bn reproduit la constante f(x), (Bnf)(x) f(x) = Xn 0 wk(x)[f(k=n) f(x)]: k=n 1 x Introduisons le module de continuite de f: jf(k=n) f(x)j 6 !f (jk=n xj) 6

1 + jk=n h

xj

!f (h); par (48) (p. 60), ou h est un reel > 0 non encore determine. Soit = (k=n x)=h. Par 1 2jj + 2 > 0, 1 + jk=n xj h 6 3 2 + (k=n x)2 2h2 , ou nous retrouvons la variance de la loi binomiale! Donc, j(Bnf)(x) f(x)j 6 !f (h) 3 2 + x(1 x) 2nh2 , et en

n kBnf fk1 6 const. !f (n1=2), en prenant h = n1=2. On peut reprendre la preuve avec tout operateur Kn ayant les 3 proprietes: linearite, positivite, et f(t) = At2 + Bt + C ) kKnf fk1 jAj"n, avec "n ! 0 quand n ! 1 (Kor ovkin). Ici, "n = 1=(4n). Autres proprietes des polyn^omes de Bernstein. Quelques ref.: Z. Ditzian, V. Totik, Moduli of Smoothness, Springer, 1987. Zhong kai Li, Bernstein polynomials and modulus of continuity, J. Approx. Theory 102 (2000) 171-174. G.G . Lorentz, Bernstein polynomials, Univ. Toronto Press, 1953, 2eme ed.: Chelsea, 1986; C.A. Micchelli, M athematical Aspects of Geometric Modeling, SIAM (CBMS-NFS 65) 1995); G. Farin, Curves and Surfaces f or Computer Aided Geometric Designn. A Practical Guide, Academic Press, 2nd ed., 1990. La derivee de Bnf est obtenue en appliquant l'operateur Bn1 aux dierences divisees n[f( (k + 1)=n) f(k=n)], k = 0; 1; : : : ; n 1. En eet, Bnf(x) dx = Xn 0 n! k!(n k)! f k n dxk(1 x)nk dx = n Xn 1 (n 1)! (k 1)!(n k)! f k n xk1(1 x)nk n nX1 0 (n 1)! k!(n 1 k)! f k n xk(1 x)n1k = nX1 0 (n 1)! k!(n 1 k)! f

k + 1 n f k n 1=n xk(1 x)n1k La valeur de Bnf en x est identique a la valeur de Bn1 aux combinaisons xf((k+1)=n )+(1x)f(k=n), k = 0; 1; : : : ; n 1. En eet, Bnf(x) = Xn 0 n! k!(n k)! f k n xk(1 Xn 0 x)nk =

(n 1)! (k 1)!(n k)! + (n 1)! k!(n 1 k)! f k n xk(1 x)nk = nX1 0 (n 1)! k!(n 1 k)! xf k + 1 n + (1 k n xk(1 x)n1k. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 132 Construction d'une valeur d'un polyn^ome de Bernstein par la methode de Casteljau Ici, x = 1=4. Les approximations par polyn^omes de Bernstein ont d'importantes qualites d'ordre esthetique. On trouve x)f

des polyn^omes de Bernstein en carrosseries et coques (courbes et surfaces de Bez ier), et en typographie informatique (voir x 7.7). Theoremes de Jackson et Bernstein. Pour mieux capturer l'erreur En de meilleure approximation sur [a; b] par des po lyn^omes de degre 6 n, on etudie des expressions de la forme Z b a Kn(x; y) f(y) dy, ou Kn est un polyn^ome de degre 6 n en x. Par exemple: Theoreme de Jackson. Si f 2 C [1; 1], En 6 const. !f (n1). En eet [Mha], on construit pn(x) = 1 m Z sin((m + 1=2)(' )) sin((' )=2) 4 F(') d'; ou F(') = f(cos'), m est la partie entiere par defaut de n=4, et n est tel que pn(x) 1 si f(x) 1. On a bien pn 2 Pn puisque sin((m+1=2)('))= sin((')=2) = ei(m+1=2)(') ei(m+1=2)('+) ei(')=2 ei('+)=2 = 2 Xm 0 0 cos(k(' )) est un polyn^ome de degre 6 m en x = cos (augmente d'une fonction impaire en ' qui dispara^t dans l'integrale). Ensuite, m est l'integrale de la quatrieme puissance de la fonction ci -dessus, c'est-a-dire de Xm m eik('), donc du carre de X2m 2m (2m+ 1 jkj)eik('), ce qui fait 2 fois la somme des carres des coecients, soit m = 2[2(1 + 4 + + 4m2) + (2m + 1)2] = 2(2m+ 1)(8m2 + 8m+ 3)=3 n3=6. Nou s avons maintenant, pour

xe, pn(cos ) 1 m Z

F() =

sin((m + 1=2) ) sin( =2) 4 [F( + ) F()] d ; ou on a pris = ' . On borne jF( + ) F()j par !F (j j) 6 (1 + nj j)!F (n1) par la prop riete (48) de ! vue en p. 60. Finalement, on pose = (m + 1=2) ; le sinus du denominateur est partout superieur a (2=pi)j j=2 = jj=((m+1=2)), et il reste une borne (m+1=2)24(n+1)=m fois !F (n1) (qui est inferieur a !f (n1)) fois Z 1 1 jj3 sin4 d, cette derniere integrale etant convergente (c'est pour cela qu'on a d^u pr endre une quatrieme puissance). Si fC r, on montre En 6 c(r)nr!f(r) (n1). Si f 2 Lip 44, on a donc En 6 const. n. Reciproque (uniquement pour des polyn^omes trigonometri ques): Theoreme de Bernstein. Si En(F) 6 const. n, 0 < < 1, alors !F (h) 6 const. h. 44Voir p. 119. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 133 En eet, soit Pn la meilleure approximation trigonometrique de degre 6 n de F. Pour h > 0

xe, et pour tout n entier, On a !F (h) 6 !FPn(h) + !Pn(h) 6 2En + hkP0n k1 6 2En + h[kP0n P0 n=2k + kP0 n=2 P0 n=4k + ]: Chaque Pm Pm=2 est un polyn^ome trigonometrique de degre 6 m, donc, par une inegali te de Bernstein (cf. p. 42), la norme de la derivee est bornee par le degre fois la norme de la fonction: kP0m P0 m=2k 6 mkPm Pm=2k = mkF Pm=2 (F Pm)k 6 2mEm=2: Et il reste !F (h) 6 2En + h[2nEn=2 + nEn=4 + (n=2)En=8 + ] borne par const. fois n + hn1[2 + 21+2 + 22+3 + ]. La serie converge. Il reste a choisir n On minimise en n n + Chn1, ce qui donne n de l'ordre de h1. 7.5. Theoreme de Stone-Weierstrass. De nombreuses generalisations du theoreme de Weierstrass ont abouti a cet enonce remarq uable: Theoreme de Stone-Weierstrass. Soit I un espace compact, C (I) l'algebre des applic ations continues de I dans C, munie de la topologie de la convergence uniforme. Soit A une sousalg ebre de C (I) telle que: (1) A separe les points de I, c'est-a-dire 8x; y 2 I, x 6= y: 9f 2 A : f(x) 6= f(y ), (2) 8x 2 I, 9f 2 A : f(x) 6= 0, (3) f 2 A ) la fonction complexe conjuguee f 2 A. Alors, A est dense dans C (I). 45 Remarquons que, par 3., on peut se limiter au cas reel: si p iq et r is 2 A, p; q ; pr et qs sont aussi dans A: p = [p + iq + (p iq)]=2, pr = [(p + iq)(r + is) + (p iq)(r is) + (p iq)(r + is) + (p + iq)(r is)]=4, etc. Par 1. et 2., on peut toujours trouver un element de A prenant deux valeurs determi nees, soit A et B, en deux points distincts donnes de I: par 1., soit f1 prenant deux valeur s distinctes en x0 et x00, l'une de ces deux valeurs, soit f1(x0) etant donc non nulle, et, pa r 2. f2 avec f2(x00) 6= 0. On construit f3 = f2 1 f1(x00)f1 qui est donc nulle en x00 et toujours non nulle en x0 (ou f3 vaut f1(x0)(f1(x0) f1(x00)) 6= 0), et f4 = f2 cf3 avec c tel que f4(x0) = 0. Alors A f3 f3(x0) + B f4 f4(x00) convient. Une partie de la demonstration donnee dans le Cours d'analyse de J. Mawhin46 pp.70 8-711: Si g 2 A avec 0 6 g(x) 6 1 pour tout x 2 I, alors pg 2 A. En eet, pg peut ^etre a pproche aussi bien que l'on veut par un polyn^ome en g (cf. approximation polynomiale de p , p. 59) , ce polyn^ome en g pouvant lui-m^eme ^etre approche par un element de A. f 2 A ) jfj 2 A. En eet, on prend kfk1 s f2 kfk2

1 . Si f et g 2 A, max(f; g) et min(f; g) 2 A. En eet, min et max(f; g) = (f + g jf g j)=2. Ensuite, pour f continue reelle sur I, on considere Pu;y 2 A interpolant f en u et y 2 I. Pour u

xe et x susamment pres de y, Pu;y(x) > f(x) re

"=2. On recouvre le compact I par un nomb

ni m de tels voisinages de facon a avoir gu := max(Pu;y1 ; : : : ; Pu;ym) > f "=2 partout dans I. Dans un voisinage de u, on a aussi gu 6 f + "=2, et on recouvre maintenant I par des voisinages de u1; : : : ; ur de sorte que g := min(gu1 ; : : : ; gur ) 6 f + "=2 partout dans I. On a donc g 2 A veri

ant kg fk1 6 "=2, et comme g est elle-m^eme a moins d'"=2 d'un element p de A, kf pk1 6 " 45Cf., par exemple, G. Choquet, op.cit., chap. VI; A. Pinkus, Weierstrass and ap proximation theory, J. Approx. Theory 107 (2000) 1-66. 46Analyse, Fondements, techniques, evolution, De Boeck Universite, 1992 MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 134 En pratique, on part d'une suite f kg (eventuellement

nie) de C (I), avec k dans la suite si k est dans la suite, et l'enonce devient: si les k separent les points de I (ils sut que l'application identite soit dans A), et si les k ne s'annulent pas tous en un m^e me point de I (il sut que A contienne la fonction constante 1), toute fonction continue sur le compact I peut ^etre approchee d'aussi pres que l'on veut en k k1 par des polyn^omes en les k. Exemple. I est le cercle unite fz : jzj = 1g, f 0; 1g = fz; z1 = zg. Comme z et 1 = 0 1 2 A, les polyn^omes zk, k = ;2;1; 0; 1; 2; forment une suite totale dans C (I), donc les polyn^omes trigonometriques eik, k = ;2;1; 0; 1; 2; forment une suite totale dans l'espace des fonctions continues periodiques (c'est-a-dire f() = f()) sur [; ]. En reel: f 0; 1g = fcos ; sin g engendre les polyn^omes trigonometriques, et 1 = cos 2 + sin2 est bien dans A. Cas des series de Fourier de fonctions continues. Ce qui precede ne veut pas dire que les series de Fourier de fonctions continues per iodiques convergent toujours uniformement! Soit Tn l'espace engendre par exp(ik), k = n; ; n. Les sommes partielles de Fourier Sn() = Pn n ck exp(ik) sont les meilleures approximations possibles de f dans Tn au sens de L2; on a montre que, 8n, il existe des coecients d(n) k , k = n; ; n, tels que kf Pn n d(n) k exp(ik)k1 ! 0 quand n ! 1, d'ou on tire d'ailleurs egalement kf Pn n d(n) k exp(ik)k2 ! 0 et le caractere total de la suite fexp(ik)g1 1 dans L2(; ) 47, mais les ck ne sont pas optimaux dans C . Voir aussi Robert Feinerman, D. J. Newman: Completeness of fA sin nx+ B cos nxg on [0; ], Michigan Math. J. 15, nr . 3 (1968), 305-312. On peut cependant construire des sommes de Fourier modi

ees := (S0 + S1 + + Sn1)=n (sommes de Fejer), montrer que est l'application d'un operateur lineaire pos itif a f et demontrer, un peu comme pour les polyn^omes de Bernstein, que kf k1 ! 0 quan d n ! 1 si f 2 C [; ] et f() = f(). La vitesse de convergence des sommes de Fejer est cependant tres mediocre (les normes d'erreur decroissent au mieux comme 1=n), a ussi essaye-t-on de tirer parti du comportement des coecients et des sommes de Fourier (p. 118). Voici encore un autre resultat classique de la litterature: Theoreme de M untz. Si 0 = 0 < 1 < : : :, n ! 1 quand n ! 1, les puissances x0 = 1; x1 ; : : : forment une suite totale dans C [0; 1] si P1 k=1 1=k = 1. Voir p.79 Pour des suites de fonctions rationnelles, cf. Van Deun, J.; Bultheel, A.: Orthogonal rational functions and quadrature on an i nterval, J. Comput. Appl. Math. 153, No.1-2, 487-495 (2003), ou on trouve cet enonce: la sui te xn Qn k=1(1 x=ak 0 , avec ak reels et 1 < jakj 6 1, est totale dans C [1; 1] si et seulement si X1 k=1 (1 jckj) = 1, ou ck est determine par 2ak = ck + 1=ck et jckj < 1. D. Figueiras, On the construction of a basis of L2 !(R) formed by pole-free rational functions, L2omega.ps etudie de facon tres detaillee (nombreux exemples) des developpements en fonctions orthogonales de la forme pn(x)=(1 + x2)bn=2c sur R (pn 2 Pn). 47On peut montrer separement que la suite fexp(ik)g1 1 est maximale dans L2(; ), cf. [Dav], pp.266-267. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 135 7.6. Intervalles non bornes, probleme des moments. Cf. N.I. Akhiezer, The Classical Moment Problem and some related Questions in An alysis, Hafner, N.Y. 1965; P. Deift, Orthogonal Polynomials: a Riemann-Hilbert Approach, Courant Inst itute & Amer. Math. Soc., 1999,2000, x 2.4: on dit que d correspond a un probleme des moments determine s i la suite numerique fkg1k =0 des moments sut a determiner , c'est-a-dire que les seules fonctions croissantes b ornees veri

ant Z R xk d(x) = k; k = 0; 1; : : : sont (x) = (x)+ constante, a une in

nite denombrable de points de discontinuite pres. La famille de mesures fg admettant une suite donnee de moments admet aussi la m^em e suite de polyn^omes orthogonaux fg, et donc aussi les m^emes coecients de recurrence fn; n

ng, et encore les m^emes noeuds xk et poids Hk des formules d'integration de Gauss pour tous les degres. Relations entre convergence, totalite de la suite fg et probleme des moments: n (1) L'erreur de formule de Gauss peut secrire Z R f(t) d(t) Xn 1 Hkf(xk) = Z R [f(t) pinterp(t)] d(t), ou pinterp interpole f aux points xk. On s'attend a ce que le membre de droite soi t petit si les polyn^omes forment une partie dense de L2 d; d'autre part, P Hkf(xk) \ne sait pas" vers quoi elle doit converger si plusieurs mesures peuvent

gurer dans le membre de gauche. Tout ceci donne des idees, mais encore rien de rigoureux. (2) D'ailleurs, on peut utiliser la formule de Gauss pour estimer , en integrant u ne fonction echelon: X xk<x Hk ? Z x 1 d(t) = (x) (1). Une approximation plus lisse s'obtient en prenant la partie imaginaire d'un loga rithme48: (x) (1) = lim y!0 y>0 1 Im Z R Log (t z) d(t) ? 1 Im X HkLog (xk z), ou z = x + iy, et ou Log est la determination principale du logarithme (Im(Log x) = 0 si x > 0). (3) Ceci nous amene (derivation en x) a regarder de plus pres la formule de Gauss app liquee a l'integration de (z t)1, pour z non reel donne: Fn(z) := Xn 1 Hk z xk = n(z) 'n(z) ? F(z) := Z R d(t) z t , d'apres des formules vues a la section x 3.7, p. 94. Les coecients ck(z) du developpement de (z t)1 veri

ent au moins l'inegalite de Bessel P 10 jck(z)jR 2 6 R jz tj2 d(t), et on peut distinguer ce qui depend de F(z), qui est inconnu, et ce q ui ne depend que de la suite connue des moments, donc des suites f'ng et f ng: ck(z) = Z R 'k(t) z t d(t) veri

e la m^eme recurrence

k+1ck+1(z) = (z

k)ck(z)

kck1(z) que 'k a partir de k = 1. En tenant compte de

1c1(z) = (z 0)c0(z) p0, on trouve ck(z) = F(z)'k(z) k(z), et reprenons Bessel: 1X k=0 jF(z)'k(z) k(z)j2 6 Z R d(t) (z t)(z t) = F(z) F(z) z z ; (79) ce qui est une relation de la forme (F(z) C(z))(F(z) C(z)) 6 R2(z) pour le nombr e complexe F(z) qui doit donc ^etre contenu dans un disque D(z) parfaitement calculable (bien qu'un peu complique. . . ) a partir de la suite des moments et de ce qui en depend. Voici une premiere proposition rigoureuse: Si les polyn^omes forment une partie d ense de L2 d, F(z) est situe sur la frontiere du disque D(z), pour tout z non reel. En eet, l'inegalite de Be ssel devient l'egalite de Parseval. On demontre aussi la reciproque: si F(z) se trouve sur la frontiere de D(z) pour un z non reel, il en est ainsi pour tous les z non reels, et les polyn^omes forment une partie dense de L2 d. La demonstration etablit le 48L'egalite de la limite y ! 0 est la formule de Stieltjes-Perron. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 136 caractere essentiellement autoadjoint de l'operateur T limite des operateurs T n vu s en (66), et on examine la representation spectrale de l'operateur resolvant (zI T)1. Tout se simpli

e si le disque D(z) est reduit a un point (cas determine du probleme des moments). C' est certainement le cas si P 10 j'k(z)j2 = 1: en eet, si on remplace F par G 6= F dans (79), le membre de gauche est le carre de kG k > jG Fj k kF k = 1 ne peut plus ^etre dans n' importe quel disque borne. Des conditions susantes assurant que d correspond a un probleme des moments determine sont: 9

> 0 : Z 1 1 e

jxjd(x) < 1; 1X n=1 (2n)1=(2n) = 1 (Carleman). La suite de polyn^omes de Laguerre fL n g est donc totale dans L2 R d pour : (x) = 0 si x 6 0; (x) = x 0 tetdt si x > 0. ( > 1). La suite de polyn^omes d'Hermite fHng est donc totale dans L2 d pour : (x) = R x 1 et2 dt. 7.7. Arcs de Bezier en typographie informatique. Un arc de Bezier49 est decrit par deux polyn^omes de Bernstein x = x(t) = Xn k=0 k n k tk(1 t)nk; y = y(t) = Xn k=0 k n k tk(1 t)nk: Les n + 1 points (k; k) sont appeles points de contr^ole de l'arc. Le programme METAFONT de D.E. Knuth (cf. http://www-cs-faculty.stanford.edu/~knu th/ voir aussi http://www.loria.fr/tex/fontes.html). decrit un caractere comme une armature formee d'arcs de Bezier de degre 3 (splines sous tension) parcourue par un pinceau, plume, feutre o u autre calame Ci-dessus,

gures extraites de R.J. Kinch, MetaFog: converting METAFONT shapes to contours, TUGboat 16 (1995) 233-24350, voir aussi http://idt.net/~kinch/ (a droit e: le R de cmr10). Les polices truetype sont formees de contours contenant des segments rectilignes et des arcs de Bezier de degre 2 (arcs paraboliques). A gauche: une lettre b monotype arial. ( http://www.truetype.demon.co.uk/ttoutln.htm) Dans les polices postscript, les arcs de Bezier sont de degre 3. Ainsi, la lettre U de Courier (a gauche) contient 8 arcs de Bezier 49Pierre Bezier, (1910-1999), a developpe la generation numerique de courbes et de sur faces chez le constructeur automobile R. . .Paul de Casteljau, lui, travaillait chez Citro en (Un inconnu celeb re, Pierre Bezier, Science & Vie Micro n 69, fev. 1990 [documentation aimablement communiquee par D. G rolaux]). 50Un grand merci a M. Pierre Bulens qui a communique cette documentation. MATH2171 2005-06 { 3 { Approximation en moyenne quadratique { 137 newpath 0 580 moveto 0 533 lineto 72 533 lineto 72 251 lineto 72 209 72 127 116 78 curveto 161 14 248 0 295 0 curveto 384 0 442 42 464 73 curveto 485 102 500 141 500 241 curveto 500 533 lineto 572 533 lineto 572 580 lineto 348 580 lineto 348 533 lineto 450 533 lineto 450 241 lineto 450 196 450 149 430 113 curveto 411 76 372 50 296 50 curveto 219 50 181 81 162 121 curveto 143 160 143 210 143 251 curveto 143 533 lineto 245 533 lineto 245 580 lineto closepath Ce caractere est inscrit dans un rectangle de 572580 unites. 'xy moveto' signi

e: placer le point courant en (x; y), 'xy lineto': tracer le segment rectiligne jusque (x; y), 'x2y2x3y3x4y 4 curveto': tracer l'arc de Bezier de degre 3 partant du point courant a (x4; y4), avec (x2; y2) et (x3; y3) comme po ints de contr^ole intermediaires. L'UCL a adopte pour ses communications ocielles51 la police Frutiger dont voici un echantillon Frutiger-Black: UCL

Les contours sont: U: C: 612 698 moveto 599 162 moveto 426 698 lineto 548 142 486 126 425 126 curveto 426 296 lineto 289 126 192 209 192 346 curveto 426 204 401 126 306 126 curveto 192 476 278 572 410 572 curveto 211 126 186 204 186 296 curveto 474 572 532 556 592 523 curveto 186 698 lineto 607 674 lineto 0 698 lineto 540 694 471 710 400 710 curveto 0 265 lineto 170 710 0 589 0 346 curveto 0 74 124 -12 306 -12 curveto 0 82 215 -12 401 -12 curveto 488 -12 612 74 612 265 curveto 496 -12 555 3 608 16 curveto closepath closepath L: 0 0 moveto 474 138 lineto 474 0 lineto 186 138 lineto 186 698 lineto 0 698 lineto closepath Sur les B-splines et les NURBS (Non Uniform Rational B-Splines), voir An Interac tive Introduction to Splines http://www.ibiblio.org/e-notes/Splines/Intro.htm Voir aussi la belle page de Luc Devroye http://cgm.cs.mcgill.ca/~luc/bezier.html 51 MATH2171 2005-06 { 4 { Interpolation et applications { 138 CHAPITRE 4 Interpolation et applications. Interpolation, integration. 1. Interpolation. Interpoler: Introduire dans un ouvrage des passages qui ne sont pas dans l'origi nal. Math. Assigner a une quantite une valeur intermediaire entre deux valeurs directement calculees ou observees. Larousse. Interpoler une fonction f consiste a \faire passer" le graphe d'une fonction p ap partenant a un espace V de dimension

nie par des points (xi; f(xi)) donnes en nombre egal a la dimension de V . L'estimation de la qualite de l'approximation de f par p est entierement concentree aux points xi, on n'a besoin de ne rien savoir d'autre que les valeurs f(xi) pour determiner p. Il peut sembler curieux de voir appara^tre si tard le theme de l'inte rpolation dans ce cours d'analyse numerique, alors que l'interpolation est le plus vieux procede n umerique connu (nombreux temoignages remontant a la plus haute antiquite). Bien s^ur, l'inte rpolation reste l'outil classique par excellence, mais les progres de l'analyse numerique on t subordonne cet outil a d'autres objectifs (approximation, lissage,

ltrage, etc.) A partir du moment ou on n'est plus tenu de gerer des tables rigides (cadre de l'ep ure oblige jusqu'au . . . 20eme siecle bien avance), et faute d'^etre submerge par le nom bre de degres de liberte devenus disponibles: ou interpoler, quels points utiliser, il a fallu d omestiquer cette abondance de moyens en preparant la voie par d'autres techniques. Ainsi, on a rencontre des eets d'interpolation non sollicites dans des contextes di vers: (1) De par les proprietes d'oscillation qui la caracterise, la meilleure approximat ion polynomiale de degre 6 n au sens de Tchebyche interpole la fonction a approcher en au moins n + 1 points. (2) Les meilleures approximations au sens de la norme k k1 se caracterisent par d es conditions d'interpolation tres explicites, (voir x 5, p. 115). (3) Par orthogonalite, on a vu que les erreurs de meilleures approximations dans des espaces prehilbertiens doivent changer de signe un nombre convenable de fois: l'approxima tion a donc des proprietes d'interpolation. Developpons ce dernier cas, et montrons comment on passe de l'approximation en mo yenne a l'interpolation proprement dite: On dispose de fonctions independantes '0,. . . , 'n, et voyons si on peut trouver une combinaison Pn k=0 ak'k prenant des valeurs donnees y0,. . . , yn en des points x0,. . . , xn do nnes. Reponse: orthogonaliser les fonctions '0,. . . , 'n en0,. . . ,n selon un produit scalair e discret (f; g) = MATH2171 2005-06 { 4 { Interpolation et applications { 139 Pn j=0 wjf(xj )g(xj ) et construire les approximations successives Si = Pi k=0 ck, avec ck = (y;)=kk2. k k k Les Si sont des approximations au sens des moindres carres de y et on peut se con tenter de i < n. Cependant, Sn interpole y en les n+1 points x0,. . . , xn: kySnk doit ^etre le pl us petit possible et est nul si Sn interpole y. Encore faut-il veri

er que l'on peut interpoler n'importe quel ensemble de n + 1 donnees par une combinaison de '0,. . . , 'n. La fonction matlab polyfit(x,y,n) donne l'interpolant polynomial aux points (xi; yi) si n + 1 = le nombre de ces points. 1.1. Interpolation polynomiale classique. L'interpolation traditionnelle de f dans [a; b] consiste a y approcher f par la f onction du premier degre x +

prenant les valeurs f(a) en a et f(b) en b. Probleme elementaire resolu par p(x) = [f(b) f(a)]x + bf(a) af(b) b a = f(a) b x b a +f(b) x a b a = f(a)+ f(b) f(a) b a (xa): (80) On remedie a la performance souvent mediocre de cet interpolant, soit en reduisant l 'intervalle [a; b] et en reprenant l'interpolation soit en augmentant le degre de p, soit enc ore en modi-

ant les conditions d'interpolation. Ainsi, dans la

gure ci-dessous, on a d'abord interpole lineairement entre deux points consecutifs, puis interpole par du second degre en tr ois valeurs consecutives, en

n par des polyn^omes du troisieme degre entre deux points consecutifs, mais en s'arrangeant pour avoir une derivee continue (interpolation au sens d'Hermite). x y x y x y

| {z } | {z } || {{zz }} Determinons p 2 Pn, en supposant f disponible aux points x0,. . . , xn distincts: p(xi) = xni + 0xn1 i + + (n) = f(xi); i = 0; 1; : : : ; n (81) ce qui represente n+1 equations lineaires pour les n+1 coecients ; 0; : : : ; (n) de p 2 Pn. La solubilite de ce systeme d'equations s'etablit en principe par l'etude de son deter minant

xn0 xn1 0 : : : xn1 xn1 1 : : : : : : : xnnxn1 n : : :

x0 1 x1 1 : : : : : : : : : : : xn 1

, ce qui peut d'ailleurs ^etre fait: il s'agit du determinant de Vandermonde qui vaut nY1 i=0 Yn j=i+1 (xi xj), eectivement non nul des que les xi sont distincts. MATH2171 2005-06 { 4 { Interpolation et applications { 140 Il est beaucoup plus elegant et rapide de raisonner comme suit: le determinant du s ysteme d'equations fp(xi) = f(xi)g; i = 0; : : : ; n est non nul si et seulement si le p olyn^ome nul de Pn est le seul a veri

er les equations homogenes: p(x0) = p(x1) = : : : = p(xn) = 0 n'est possible que si p a n + 1 zeros distincts ) p est de degre > n ou doit ^etre le polyn^ome n ul. On n'a m^eme pas d^u considerer le detail des equations de (81). Les formulations usuelles de la solution du probleme d'interpolation classique evi tent egalement l'ecriture trop rigide de (81). On adoptera en fait des bases dePn autom atiquement bien adaptees au probleme. Formulation de Lagrange. Resolvons le probleme d'interpolation particulier suivant : soit `j le polyn^ome de Pn qui s'annule en tous les xi sauf xj , ou il vaut 1: `j(xi) = i; j , i = 0; 1; : : : ; n. Comme `j doit s'annuler en x0; x1; : : : ; xj1; xj+1; : : : ; xn, il doit admettr e la factorisation `j(x) = K(xx0)(xx1) : : : (xxj1)(xxj+1) : : : (xxn), ou K est une constante puisque la factorisation contient deja n facteurs du premier degre. Cette constante est tel le que `j(xj) = 1, ce qui determine entierement le polyn^ome `j 2 Pn: `j(x) = Y 06k6n;k6=j x xk xj xk : (82) Graphe de `2: x y

1 x0 x1 x2 x3 La solution du probleme d'interpolation dans Pn est alors p = Xn i=0 f(xi) `i : (83) En eet, p 2 Pn puisque p est une combinaison lineaire des `i; p(xj) = P i P f(xi)`i(xj) = i f(xi)i;j = f(xj). Le grand avantage de la forme (83) est de mettre en evidence le r^ole des valeurs de f. On voit par exemple que l'interpolant est le resultat d'une projection lineaire sur P n. Exercice: veri

er p(x) Xn i=0 p(xi)`i(x) ;8p 2 Pn pour de faibles valeurs de n. MATH2171 2005-06 { 4 { Interpolation et applications { 141 Exercice: Montrez que le coecient de xn de l'interpolant de degre 6 n de f en x0; x1; : : : ; xn distincts est la valeur de la forme lineaire an;interpn(f) = Xn i=0 f(xi) Y 06k6n k6=i (xi xk) (84) En particulier, (84) donne donc le coecient de xn d'un element dePn a partir de n+1 valeurs ponctuelles. C'est utilise dans l'etude de proprietes extremales de polyn^omes (chap. 2). Interpolation cubique d'Hermite. On cherche le polyn^ome de P3 qui prend deux va leurs imposees y0 et y1 en deux points donnes x0 et x1, et deux valeurs imposees de la der ivee y2 et y3 aux deux m^emes points: p(x0) = y0; p(x1) = y1; p0(x0) = y2; p0(x1) = y3: Comme il y a quatre coecients a determiner dans p(x) = a + bx + cx2 + dx3, on ecrit les equations a + bx0 + cx20 + dx30 = y0; a + bx1 + cx21 + dx31 = y1; b + 2cx0 + 3dx20 = y2; b + 2cx1 + 3dx21 = y3: C'est un peu penible, mais le determinant se factorise joliment (tiens, tiens) en ( x1x0)4, et on a a = x20 (3x0 x1)y0 x21 (3x1 x0)y1 (x0 x1)3 x0x1(x1y2 + x0y3 (x0 x1)2 ; b = 6x0x1(y0 y1) (x1 x0)3 + x1(2x0 + x1)y2 + x0(2x1 + x0)y3 (x1 x0)2 ; c = 3(x0 + x1)(y0 y1) (x0 x1)3 (x0 + 2x1)y2 + (2x0 + x1)y3 (x0 x1)2 ; d = 2(y0 y1) (x1 x0)3 + y2 + y3

(x0 x1)2 : Ouf! On cherchera une facon un peu plus systematique de (1) Poser le probleme: on precisera comment rechercher un element d'un espace vector iel a partir de valeurs prises par des formes donnees. (2) Etudier l'existence et l'unicite de la solution: on se ramenera a un systeme d'equ ations lineaires. (3) Representer la solution a partir de la base duale (ou biorthogonale) aux forme s donnees. 1.2. Interpolation: cadre general. Soit '0, '1,. . . des elements independants d'un espace vectoriel X, 0, 1,. . . des f ormes lineaires independantes sur X; Vn le sous-espace de X engendre par '0,. . . , 'n, V n le sousespace du dual de X engendre par 0,. . . , n. Interpoler une suite de scalaires fy0; y1; : : : ; yng par un element de Vn sur 0,. . . , n consiste a trouver ' 2 Vn (l'interpolant) tel que i(') = yi, i = 0; 1; : : : ; n ( probleme d'interpolation sur Vn V n ). MATH2171 2005-06 { 4 { Interpolation et applications { 142 Posons ' = Pn j=0 xj'j, le probleme revient a trouver x0,. . . , xn tels que Xn j=0 i('j) xj = yi i = 0; : : : ; n: Systeme d'equations lineaires, donc, immediatement Proposition. La solution du probleme d'interpolation sur Vn V n existe et est unique si det[i('j)]n i;j=0 6= 0. On dit alors que f'0; : : : ; 'ng est unisolvant sur f0; : : : ; ng. Comme on a 2 664 0('0) 0('n) y0 n('0) n('n) yn '0 'n ' 3 775 2 664 x0 xn 1 3 775 = 0;

0('0) '0

0('n) y0 n('0) 'n '

n('n) yn

= 0; l'interpolant est ' =

0('0) '0

0('n) y0 n('0) 'n 0

n('n) yn

0('0)

0('n) n('0)

n('n)

: On evite des calculs de determinants en tirant parti des equivalences syuivantes: Proposition. Les quatre enonces suivants sont equivalents: (1) f'0; : : : ; 'ng est unisolvant sur f0; : : : ; ng. Pour tout [y0; : : : ; yn] 2 Rn+1 ou Cn+1, il existe donc toujours exactement une combinaison lineaire ' de '0; : : : ; 'n ve ri

ant i(') = yi, i = 0; : : : ; n. (2) det[i('j)]n i;j=0 6= 0. (3) Seul l'element nul de Vn interpole la suite nulle f0; : : : ; 0g sur 0,. . . , n . (4) On peut trouver n + 1 elements `0; : : : ; `n de Vn veri

ant i(`j) = i;j , i; j = 0; : : : ; n (base duale, ou biorthogonale, ou encore base de Lagrange relativement aux formes 0; : : : ; n). Demonstration. On a deja vu (1) () (2). (2) () (3): si le determinant est non nul, le systeme de n+1 equations homogenes a n+1 inconnues n'admet que la solution nulle; et si les equ ations homogenes n'admettent pas de solution non triviale, le rang de la matrice carree e st maximal ) determinant non nul. (1) ou (2) ) (4): comme les systemes d'equations sont solubles pour tout second me mbre, on choisit pour second membre la ieme colonne de la matrice identite, et la soluti on fournit les coecients du developpement de `i dans la base f'0; : : : ; 'ng. MATH2171 2005-06 { 4 { Interpolation et applications { 143 (4) ) (1): (c'est assez subtil). Pour un second membre quelconque [y0; : : : ; y n], formons la combinaison lineaire ' = Xn j=0 yj `j: (85) Constatons que chaque i(') vaut bien yi: i(') = i Xn j=0 yj `j ! = Xn j=0 yji(`j) = Xn j=0 yji;j = yi, pour i = 0; : : : ; n. Le point (3) signi

e le caractere injectif de l'operateur represente par la matrice des i('j); le point (4) signi

e le caractere surjectif de cet operateur (remarque faite par un etudiant). Exemples illustrant le point (3). (1) Interpolation polynomiale classique. Soit Vn = Pn, x0,. . . , xn des points distincts de R ou C, et les formes i(') := '(xi), i = 0; : : : ; n. Avec 'j = xj , on peut veri

er directement que det[xj i ]n i;j=0 6= 0 (determinant de Vandermonde), ou, plus rapidement, qu'un polyn^ome non nul de degre n ne peut s'annuler aux n + 1 points x0,. . . , xn. On retrouve evidemment le cas elementaire. (2) Interpolation polynomiale d'Hermite, ou con uente. Soit Vn = Pn, x0,. . . , x` des points distincts, ` n, auxquels on associe une o u plusieurs formes '(xi), '0(xi),. . . faisant appel a des derivees successives, de s orte que le nombre total de formes utilisees soit bien n + 1: si les formes relatives a xi sont '(xi), '0(xi),. . . '(mi)(xi), il faut P` i=0(mi + 1) = n + 1. Dans ces conditions, un polyn^ome de degre n veri

ant '(xi) = 0, '0(xi) = 0,. . . '(mi)(xi) = 0 devrait donc avoir un zero d'ordre mi + 1 en xi, i = 0,. . . , `, et devrait donc admettre le facteur Q` i=0(x xi)mi+1, impossible si '(x) 6 0. Cette interpolation est appelee con uente parce qu'elle resulte de la precedente quand on fait se rapprocher des points: si xi+1 ! xi, ('(xi+1) '(xi))=(xi+1 xi) garde un sens et tend vers '0(xi). De m^eme, si xi+1 et xi+2 ! xi, on verra que l'on p eut combiner les formes relatives a xi, xi+1 et xi+2 de facon a faire appara^tre '(xi), '0(xi) et '00(xi). Il est clair qu'on ne fait appel qu'a des derivees successives, a partir de l'ordre zero. (3) Interpolation d'Hermite-Birkho. Ici, on se donne des derivees quelconques en dierents points, par exemple ' et '00 en x0, '0 et 'iv en x1, etc. C'est beaucoup plus dicile. Exercice: montrez que l'on peut determiner uniquement un element de P4 a partir de s es derivees premieres en x0; x1 et x2 distincts, et de ses valeurs en x0 et x1 (ce qui fait b ien 5 conditions) seulement si x2 6= (x0 + x1)=2. (4) Polyn^omes a plusieurs variables, espaces d'elements

nis. On

xe des valeurs d'un polyn^ome et de certaines derivees partielles en des points de MATH2171 2005-06 { 4 { Interpolation et applications { 144 R2 ou R3. Nombreuses applications 1. Exemple le plus simple: trouver x0+x1x+x1y prenant des valeurs donnees en 3 points du plan. Condition: ces points doivent ^e tre non collineaires. (5) Interpolation par moindres carres: justi

cation. Revenons a nos combinaisons Si de fonctions mieux les valeurs d'une suite y0,. . . , yn t utilisant les points x0,. . . , xn. Sn interpole y si le dans Vn, donc si det['j(xi)]n i;j=0 6= 0. Or, ['i(xj)]n i;j=0 [wii;j ]n i;j=0 ['j(xi)]n i;j=0 = [('i; 'j)]n i;j=0; matrice de Gram de la base f'0; : : : ; 'ng

'0,. . . , 'n approchant de mieux en au sens d'un produit scalaire discre le probleme d'interpolation est solub

de Vn, que l'on sait ^etre de

nie positive si le produit scalaire est bien de

ni positif sur Vn. Voir aussi (77) De nombreuses generalisations et extensions sont parues dans la litterature, en par ticulier des constructions non lineaires, comme l'interpolation par fonctions rationnelles 2. ||||||||||Exemples de bases de Lagrange. Soit x0,. . . , xn distincts et Vn = Pn. `j est le polyn^ome de degre n qui s'ann ule en x0, x1,. . . , xj1, xj+1,. . . , xn, et qui vaut 1 en x = xj . On retrouve `j(x) = Y 06k6n;k6=j x xk xj xk : Soit x0,. . . , xn distincts et examinons maintenant l'interpolation d'Hermite ou on

xe '(xj) et '0(xj), j = 0; : : : ; n: on a donc Vn = P2n+1. Les elements de la base d e Lagrange sont: (1) hj 2 P2n+1 tel que hj(xk) = 0 et h0 j(xk) = 0, k = 0; : : : ; n, k 6= j; hj(xj) = 1 et h0 j(xj) = 0. Ce polyn^ome a donc n zeros doubles en xk, k = 0; : : : ; n, k 6= j, hj(xj) = 1, ce qui donne hj(x) = (Ajx + Bj) Y 06k6n;k6=j (x xk)2; avec 1 = (Ajxj + Bj) Y 06k6n;k6=j (xj xk)2; et 0 = Aj + 2(Ajxj + Bj) X 06k6n;k6=j 1 xj xk ; d'ou hj(x) = " 1 2(x xj) X 0kn;k6=j 1 xj xk # Y 06k6n;k6=j x xk xj xk 2 : (86) 1Cf., par exemple, J. Meinguet, Multivariate interpolation at arbitrary points m ade simple, Z. Angew. Math. Phys. 30 (1979) 292-304. 2Cf. J. Meinguet, On the solubility of the Cauchy interpolation problem, pp. 137 -163 in A. Talbot, ed.: Approximation Theory, Acad. Press, 1970. MATH2171 2005-06 { 4 { Interpolation et applications { 145 (2) ~hj 2 P2n+1 tel que ~hj(xk) = 0 et ~h0 j(xk) = 0, k = 0; : : : ; n, k 6= j; ~hj(xj) = 0 et ~h 0 j(xj) = 1. Ce polyn^ome a donc n zeros doubles en xk, k = 0; : : : ; n, k 6= j, e t un zero simple en xj , avec ~h0 j(xj) = 1, ce qui donne ~h j(x) = (x xj) Y 06k6n;k6=j

x xk xj xk 2 : (860) Exemple: graphes de h2 et ~h2. Bien voir que h0 2(x2) = 0: x y

1 x0 x1 x2 x3 x y 1 x0 x1 x2 x3 Theoreme du reste chinois. Dans le cas le plus simple, a0, a1; : : : ; an sont pre miers deux a deux, on reconstitue un entier p a partir des restes y0; : : : ; yn des divisions de p par a0; : : : ; an, par une formule p = Xn k=0 cka0 ak1ak+1 anyk. C'est typiquement une formule de type Lagrange! 1.3. Interpolation polynomiale classique en formulation de Newton, dierences divisees. Si on desire construire des interpolants successifs utilisant de plus en plus de points d'un ensemble, on prefere adopter une formulation progressive: Soit pn l'interpolant de degre 6 n en x0,. . . xn. pn doit dierer de pn1 d'un multip le de (x x0) : : : (x xn1), a

n de ne pas detruire le travail d'interpolation deja realise par pn1 en x0,. . . xn1. On a donc pn(x) = pn1(x)+an;interpn(f)(xx0)(xx1) : : : (xxn1), ou an;interpn(f) est le coecient de xn de pn, c'est d'ailleurs exactement le coecient donne par (84), le s formes de Lagrange et de Newton decrivant le m^eme interpolant uniquement determine par le s points d'interpolation. On a donc pn(x) = Xn i=0 ai;interpi(f)(x x0)(x x1) : : : (x xi1). On ne calcule generalement pas les ai;interpi(f) par (84), on appelle ce coecient d ierence divisee de f en x0,. . . , xi, et on le note [x0; : : : ; xi]f . L'ecriture (84) a cependant le merite de montrer que [x0; : : : ; xn]f est symetrique en x0,. . . , xn, mais elle ne su ggere pas que cette dierence divisee s'annule sur Pn1. MATH2171 2005-06 { 4 { Interpolation et applications { 146 Exercice: montrez que [xi]f = f(xi) ; [xi; xj ]f = f(xi) f(xj) xi xj ; [xi; xj ; xk]f = f(xi) f(xj) xi xj f(xj) f(xk) xj xk xi xk Exercice: veri

ez [xi; xj ; xk]x2 = 1. On calcule les dierences divisees par une succession de dierences et de divisions (d' ou leur nom) qu'on tirera de l'identite suivante: soit pi;j une nouvelle notation po ur le polyn^ome interpolant f en xi,. . . , xj , j > i: pi;j(xi) = f(xi); : : : ; pi;j(xj) = f(x j). pi;j est donc de degre 6 j i (il y a j i + 1 points). On a: pi;j(x) = (x xi)pi+1;j(x) (x xj)pi;j1(x) xj xi ; j > i: (87) (Identite de Neville-Aitken). En eet, 1. en x = xi+1; : : : ; xj1, pi+1;j(x) = pi;j1(x) = f(x), donc pi;j(x) = f( x); 2. en x = xi, pi;j1(x) = f(x) ) pi;j(x) = f(x); 3. en x = xj , pi+1;j(x) = f(x) ) pi;j(x) = f(x). Voyons maintenant les coecients des plus hautes puissances de x: [xi; : : : ; xj ]f = [xi+1; : : : ; xj ]f [xi; : : : ; xj1]f xj xi ; j > i: (88) Ceci permet de construire successivement les colonnes du tableau suivant, a parti r de la premiere: [x0]f [x1]f [x0; x1]f [x2]f [x1; x2]f [x0; x1; x2]f ... ... ... . . . [xn]f [xn1; xn]f [xn2; xn1; xn]f [x0; : : : ; xn]f On obtient un vecteur contenant tous les [x0; : : : ; xi]f a partir des [xi] = f( xi) par les deux boucles suivantes, la boucle interieure exploitant le vecteur a partir de la

n: for i=2:n+1;for j=n+1:-1:i;v(j)=(v(j)-v(j-1))/(x(j)-x(j-i+1));end;end; Exercice. Montrez que, si f(x) = 1=(a x), [xi; : : : ; xj]f = 1=((a xi) : : : (a xj)). Fonctions analytiques et integrales de contour (Hermite). Soit f analytique dans l'interieur d'un contour C entourant xi; : : : ; xj . Alors, [xi; : : : ; xj ]f etant une combinaison linea ire des f(xk) = 1 2i Z C f(t) t xk dt, pour k = i; : : : ; j, [xi; : : : ; xj ]f = 1 2i Z C [xi; : : : ; xj ](tx)1f(t) dt = 1 2i Z C f(t) (t xi) (t xj ) dt: Lorsque les dierences divisees i = [x0; x1; : : : ; xi1]f sont connues, on calcule pn(x) = Pn i=0 i(x x0) : : : (x xi1) par un algorithme comparable au schema de Horner: p=v(n+1);for i=n:-1:1;p=p*(xx-x(i))+v(i);end; MATH2171 2005-06 { 4 { Interpolation et applications { 147 Exercice. Formule de Leibniz. Montrez que [x0; : : : ; xn]fg = Xn k=0 [x0; : : : ; xk]f [xk; : : : ; xn]g: En eet, soient pn et qn les interpolants de degres 6 n de f et g en x0; : : : ; xn . On ecrit pn et qn selon la forme de Newton, mais en adoptant l'ordre xn; : : : ; x0 pour qn: pn(x) = Xn k=0 [x0; : : : ; xk]f (x x0) (x xk1); qn(x) = Xn j=0 [xj ; : : : ; xn]f (x xj+1) (x xn): Dans le produit pnqn terme a terme, les produits avec j 6 k 1 contiennent tous le s facteurs de (x x0) : : : (x xn). La somme des produits avec j > k, chacun de ces produits etant de degre n j + k 6 n, est donc l'interpolant de degre 6 n de fg. En

n, le coecient de xn est obtenu a partir de la somme des produits avec j = k. 1.4. Extrapolation a la limite de Richardson. La formule de Neville-Aitken permet de construire commodement les valeurs d'inter polants successifs en un point

xe inaccessible x a partir des valeurs de f sur une suite xi ! x quand i ! 1: on part des ci;0 = f(xi), ci;k = (x xi)ci+1;k1(x) (x xi+k)ci;k1 xi+k xi ; k > 0: Les ci;k sont les pi;i+k(x) de (87). Application: x = 0, xi = 1=4i, ci;0 = 2i[F(u+2i)F(u2i)] (formule de derivation de Romberg). (Justi

ez le choix xi = 4i). 1.5. Formulation de Newton en general. La base de Lagrange (duale) relative aux formes 0; : : : ; n est constituee de comb inaisons lineaires de emph tous les elements de la base f'0; : : : ; 'ng donnee de Vn. Cette fois, on rearrange les fonctions de base de facon triangulaire en 0 = 0;0'0 ; 1 = 1;0'0 + 1;1'1 ; n = n;0'0 + n;1'1 + + n;n'n ; ainsi que les formes 0 =

0;00 ; 1 =

1;00 +

1;11 ; n =

n;00 +

n;11 +

n;nn ; toujours en maintenant la biorthogonalite i( j) = i;j ; i; j = 0; 1; : : : ; n: MATH2171 2005-06 { 4 { Interpolation et applications { 148 Avantage: l'interpolant de f dans Vn est pn = Xn j=0 j(f) j; puisque i(pn) = Pn j=0 j(f)i( j) = i(f), pour i = 0; 1;. . . n, construction qui reste utilisable quand on passe a Vn+1, (propriete de permanence), puisque les m^emes j et j se retrouvent 3 dans la solution du probleme sur Vn+1 V n+1, il sut d'ajouter le terme en n+1 n+1: pn+1 = pn + n+1(f) n+1: Ces deux rearrangements triangulaires de bases sont possibles sous les conditions suivantes: Theoreme. 4 Des elements independants '0, '1,. . . d'un espace vectoriel X et des for mes independantes 0, 1,. . . de son dual X peuvent ^etre rearranges triangulairement 0 = 0;0'0 ; 0 =

0;00 ; 1 = 1;0'0 + 1;1'1 ; 1 =

1;00 +

1;11 ; 2 = 2;0'0 + 2;1'1 + 2;2'2 2 =

2;00 +

2;11 +

2;22 ; avec i;i 6= 0,

i;i 6= 0, i = 0; 1; : : :, de facon a veri

er les conditions de biorthogonalite i( j ) = i;j ; i; j = 0; 1; : : : ; si les problemes d'interpolation sur Vn V n sont tous solubles, n = 0; 1;. . . , c'est-a-dire si les determinants det[i('j )]n i;j=0 sont tous non nuls. Ce rearrangement est unique si on pose 0;0 = 1;1 = : : : = 1. On a alors n =

0('0) '0 'n

0('n) n1('0)

n1('n)

det[i('j )]n1 i;j=0 ; n =

0('0) 0 n

n('0) 0('n1)

n('n1)

det[i('j )]n i;j=0 : En eet, supposons 0,. . . , n1, 0,. . . , n1 determines, n est un element de Vn (n+1 degre s de liberte) qui doit d'abord veri

er les n conditions 0( n) = : : : = n1( n) = 0. Comme i est une combinaison lineaire de 0,. . . , i, ces conditions sur n deviennent n 2 Vn : 0( n) = : : : = n1( n) = 0: (89) Ces conditions sont bien remplies par une expression de la forme n = Cn

0('0) '0 'n

0('n) n1('0)

n1('n)

avec un scalaire quelconque Cn, puisque i( n), i < n, est un determinant contenant deux lignes identiques. La derniere condition sur n est n;n = 1, donc Cn fois cofacteur de 'n = 1 ) Cn = 1 = det[i('j )]n1 i;j=0. Quant a n, n(f) est le coecient de n dans le developpement de l'interpolant dans Vn p n = n(f) n+ elements de Vn1. Comme n = 'n+ une combinaison lineaire d'elements de Vn1, on a donc au ssi n(f) = 3En toute rigueur, on aurait donc d^u noter `j;n les elements de la base de Lagran ge de Vn, suggerant ainsi que la base de Lagrange de Vn+1 n'a (normalement) aucun element commun avec celle de Vn. 4[Dav] x 2.6; C. Brezinski, Biorthogonality and its Applications to Numerical An alysis, M. Dekker, 1992. MATH2171 2005-06 { 4 { Interpolation et applications { 149 coecient de 'n dans l'interpolant de f dans Vn. Cet interpolant etant pn =

0('0) '0

0('n) 0(f) n('0) 'n 0

n('n) n(f)

det[i('j )]n i;j=0 ; on trouve bien l'expression prevue pour n, et on remarque que n('0) = : : : = n('n1) = 0; n('n) = 1: (90) On a donc etabli i( j ) = 0 si i < j, i( j ) = 0 si i > j, et i( i) = 1. On peut aussi faire la liaison avec la factorisation triangulaire de la matrice [i('j )]n i;j=0: [

i;p]n i;p=0 [p('q)]n p;q=0 [j;q ]n j;q=0 = [i( j )]n i;j=0 = [i;j ]n i;j=0: Interpolation polynomiale classique en formulation de Newton, dierences divisees. Nous avons donc Vn = Pn, i(f) = f(xi), i = 0; : : : ; n. D'apres (89), n(x) = xn + doit s'annuler en x0,. . . xn1, donc n(x) = (x x0) : : : (x xn1): D'ailleurs, l'interpolant pn de degre n en x0,. . . xn doit eectivement dierer de pn1 d'un multiple de (x x0) : : : (x xn1), a

n de ne pas detruire le travail d'interpolation deja realise par pn1 en x0,. . . xn1. Nous savons deja par (90) que n est une combinaison lineaire de 0,. . . , n qui doit s 'annuler sur Pn1, et veri

er n( n) = n(xn) = 1. Ainsi, 0(f) = f(x0) ; 1(f) = (f(x1) f(x0))=(x1 x0). n(f) etant le coecient de xn de l'interpolant pn, on peut faire appel a la formulati on de Lagrange pn(x) = Xn j=0 f(xj )`j (x) = Xn j=0 f(xj ) Y 06k6n;k6=j x xk xj xk pour extraire n(f) = [x0; : : : ; xn]f = Xn j=0 0 @f(xj ) Y 0kn;k6=j 1 xj xk 1 A qui n'est donc autre que (84), la dierence divisee de f en x0,. . . , xn. 1.6. Dierences divisees et derivees. Formule d'Hermite-Genocchi. Si f 2 C n, on a [x0; x1; : : : ; xn]f = Z Sn f(n)(0x0 + 1x1 + nxn) d1 : : : dn; (91) ou Sn est le simplexe i > 0; 0 + + n = 1. 0; : : : ; n sont les coordonnees barycentriques de la variete Sn a n dimensions Rn+1. Une representation parametrique des points de Sn au moyen des n parametres u1; : : : ; un est donnee par n = un; n1 = un1 un; n2 = un2 un1; ... 1 = u1 u2; 0 = 1 u1: MATH2171 2005-06 { 4 { Interpolation et applications { 150 La formule prend alors la forme d'une integrale nuple [x0; x1; : : : ; xn]f = Z 1 0 du1 Z u1 0 du2 Z un1 0 dun f(n)(x0 +u1(x1 x0)+ +un(xn xn1)): (92) Preuve: 1.) vrai pour n = 1 puisque [x0; x1]f = f(x1) f(x0)

x1 x0 = R x1 x0 f0(v) dv x1 x0 = Z 1 0 f0(x0 + (x1 x0)u) du. 2.) Si vrai pour n 1, par (88), [x0; x1; : : : ; xn]f = [x1; : : : ; xn]f [x0; : : : ; xn1]f xn x0 = 1 xn x0 Z 1 0 Z u1 0 : : : Z un2 0 ff(n1)(x1 + (x2 x1)u1 + + (xn xn1)un1) f(n1)(x0 + (x1 x0)u1 + + (xn1 xn2)un1)gdu1 : : : dun1 = 1 xn x0 Z 1 0 Z u1 0 : : : Z un2 0 ff(n1)(x1 + (x2 x1)u1 + + (xn xn1)un1) f(n1)(x1 + (x2 x1)u1 + + (x0 xn1)un1)gdu1 : : : dun1 ( permutation (x0; : : : ; xn2; xn1) ! (x1; : : : ; xn1; x0)) = 1 xn x0 Z 1 0 Z u1 0 : : : Z un2 0 Z (xnx0)un1 0 f(n)(x1 + (x2 x1)u1 + + (x0 xn1)un1 + v)du1 : : : dun1 dv = Z 1 0 Z u1 0 : : : Z un2 0 Z un1 0

f(n)(x1 + (x2 x1)u1 + + (x0 xn1)un1 + (xn x0)un)du1 : : : dun1dun Cas con uent. Si les xi sont tous distincts, l'ordre dans lequel on les prend n'a aucune in uence sur pn (si on fait abstraction des erreurs d'arrondi commises dans les cal culs). On peut construire un interpolant d'Hermite correct a condition de regrouper les poi nts prenant des valeurs identiques. Ainsi, si xi = xi+1, considerons la limite xi+1 = xi + h, h ! 0: [xi]f = f(xi), [ xi+1]f = limh!0 f(xi + h) = f(xi), [xi; xi+1]f = limh!0(f(xi + h) f(xi))=h = f0(xi), et i l n'y a pas d'autre division embarrassante. Si xi = = xi+k, k = [xi; : : : ; xi]f (k+1 fois) doit ^etre une forme lineaire en f ne faisant intervenir que f(xi), f0(xi),. . . , f(k)(xi) s'annulant sur Pk1 et veri

ant k(xk) = 1: on doit avoir [x|i; :{:z: ; x}i k+1 fois ]f = f(k)(xi)=k! Ceci montre qu'un interpolant tend vers une somme partielle de la serie de Taylor 5 quand les points d'interpolation tendent les uns vers les autres. 5C'est d'ailleurs comme cela que Taylor a trouve sa serie. MATH2171 2005-06 { 4 { Interpolation et applications { 151 Quand la suite fx0; : : : ; xng contient plusieurs sous-suites d'elements identiqu es, le tableau triangulaire des dierences divisees contient des petits triangles de la forme f(xi) f(xi) f0(xi) f(xi) f0(xi) f00(xi)=2 ... ... ... . . . f(xi) f0(xi) f00(xi)=2 f(k)(xi)=k! dont les elements ne peuvent ^etre calcules par dierences et divisions mais doivent ^ etre introduits dans le tableau, d'ailleurs ces elements sont des donnees de l'interpolation d'Herm ite: quand xi = : : : = xi+k, les k+1 donnees relatives a ces points con uents sont bien f(xi); : : : ; f(k)(xi). Splines d'interpolation. Soit a = x0 < x1 < : : : xN1 < xN = b. La fonction spline d'interpolation de degre m est: (1) un polyn^ome de degre 6 m dans chaque intervalle [xi; xi+1], i = 0; 1; : : : ;N 1; (2) interpolant en x0; : : : ; xN; (3) dans C m1 dans tout l'intervalle [a; b]. Outre le cas primitif m = 1 (ligne brisee), le cas le plus recontre est m = 3 (spl ine cubique). Soit pi 2 P3 la restriction de la fonction spline dans [xi; xi+1]. On a p(xi) = yi et p(xi+1) = yi+1 donnes; p0(xi) = zi et p0(xi+1) = zi+1 inconnus. Exprimons p a partir de ces 4 speci

cations: pi(x) = yi 1 + 2(x hi xi)

x xi+1 hi 2 + yi+1 1 2(x hi xi+1)

x xi hi 2 + zi (x xi)(x xi+1)2 h2i + zi+1 (x xi+1)(x xi)2 h2i ; ou hi = xi+1 xi, d'apres les formules (86) et (860) vues plus haut. Exprimons maintenant la continuite de la derivee seconde, p00 i (xi) = p00 i1(xi): 6 yi h2i + 6 yi+1 h2i 4 zi hi 2 zi+1 hi = 6 yi1 h2i 1 6 yi h2i 1 + 2 zi1 hi1 + 4 zi hi1 ; d'ou zi1 hi1 + 2

1 hi1 + 1 hi zi + zi+1 hi = 3 yi yi1 h2i 1 + yi+1 yi h2i ; i = 1; 2; : : : ;N 1: N 1 equations pour les N +1 inconnues z0; : : : ; zN. On

xe par exemple en plus p00 0(a) = p00 N1(b) = 0 (fonction spline naturelle). 1.7. Reste de l'interpolation polynomiale classique. Comme pn interpole f en x0,. . . , xn, on va poser f(x) pn(x) = kn(x) (x x0) : : : (x xn); ou on s'attend a ce que Kn soit raisonnablement reguliere. Lemme. Si les xi se repartissent en groupes d'au plus k elements identiques, et si f 2 C k, kn est continue. MATH2171 2005-06 { 4 { Interpolation et applications { 152 En eet, kn(x) = (f(x) pn(x))=((x x0) : : : (x xn)) ne doit ^etre examinee avec att ention que pour x pres d'un xi: Demonstration dans le cas de points distincts (k = 1): kn(x) = f(x) pn(x) (x x0) : : : (x xn) = 0 @ Y 06j6n;xj6=xi 1 x xj 1 A f(x) pn(x) (x xi) = f(x) 2 f(xi) [pn(x) pn(xi)] 4 Y 06j6n;xj6=xi (x xj) 3 5 (x xi) (on n'a rien change puisque pn(xi) = f(xi)) a bien une limite quand x ! xi (cette limite est f0(xi) p0 nQ (xi) 06j6n;xj6=xi (xi xj) ). Demonstration generale: soit xi = : : : = xi+m1, m 6 k, kn(x) = f(x) pn(x) (x x0) : : : (x xn) = 0 @ Y 06j6n;xj6=xi 1 x xj 1 A f(x) pn(x) (x xi)m = f(x) f(xi) : : : (x xi)m1f(m1)(xi)

(m 1)! " pn(x) pn(xi) : : : (x xi)m1p(m1) n (xi) (m 1)! # 2 4 Y 06j6n;xj6=xi (x xj) 3 5 (x xi)m (on n'a rien change puisque pn(xi) = f(xi); p0 n(xi) = f0(xi); : : : ; p(m1) n (xi) = f(m1)(xi)) a bien une limite quand x ! xi (cette limite est f(m)(xi) p(m) n (xi) m! Q 06j6n;xj6=xi (xi xj) ). Exercice. Reprendre la demonstration precedente avec m = 1 et m = 2. Proposition6. Si f 2 C n+1[a; b], a et b reels, kn(x) = f(n+1)() (n + 1)! ; ou se trouve dans le plus petit intervalle contenant x0,. . . , xn et x (reel). En eet, considerons la fonction de t e(t) = f(t) pn(t) kn(x) (t x0) : : : (t xn) pour x

xe. La fonction e s'annule en t = x0,. . . , t = xn et en t = x, ce qui fait n + 2 points. Par le theoreme de Rolle, e0 s'annule au moins une fois dans chacun des n + 1 inte rvalles bornes par ces n + 2 points (et s'il y avait des points confondus, ce sont des zer os multiples de e, donc encore des zeros de e0). On poursuit jusqu'a la derivee (n + 1)eme de e: e(n+1)(t) = f(n+1)(t) p(n+1) n (t) kn(x) dn+1 dtn+1 (t x0) : : : (t xn) = f(n+1)(t) kn(x) (n + 1)!; qui doit encore s'annuler en au moins un point t = , soit: kn(x) = f(n+1)()=(n + 1 )!. 6qui appara^tra come un cas particulier du theoreme de Peano. MATH2171 2005-06 { 4 { Interpolation et applications { 153 La formulation de Newton donne une expression tres interessante du reste: soit enc ore x

xe, et considerons le polyn^ome q qui interpole f en x0,. . . , xn et x: q(t) = pn(t) + [x0; : : : ; xn; x]f (t x0) : : : (t xn); d'ou, en t = x, f(x) pn(x) = [x0; : : : ; xn; x]f (x x0) : : : (x xn); donc kn(x) = [x0; : : : ; xn; x]f : Par (91)-(92) et le premier theoreme de la moyenne, on retrouve bien kn(x) = f(n+1)() Z 1 0 Z u1 0 Z un1 0 Z un 0 du1 du2 : : : dun dun+1 = f(n+1)() (n + 1)! Remarquons que ces formules sont parfaitement valables si x est en dehors de l'i ntervalle contenant x0,. . . xn: l'extrapolation appara^t ici comme un cas particulier de l 'interpolation. Ref.: M.S. Floater, Error formulas for divided dierence expansions and numerical dierentiation, J. Approx. Theory 122 (2003) 1-9; C. de Boor, A divided dierence expansion of a divided dierence, J. Approx. Theory 122 (2003) 10-12. Choix optimal des points d'interpolation. On sait que le polyn^ome ^pn de Pn minimisant kf pk1 sur un intervalle donne [a; b] est tel que f ^pn prend alternativement les valeurs +En et En en au moins n+2 points de [a; b] (theoreme d'equioscillation), ce qui de

nit implicitement n+1 points optimaux d'interpolation. Ces points dependent de n et f. Un choix raisonnable de points independants de f 7 est obtenu en minimisant la norme de !n+1(x) = (x x0) : : : (x xn) sur [a; b]. Ceci impose (!n+1(x))opt = 1 2n b a 2 n+1 Tn+1 x (a + b)=2 (b a)=2 ; ou on a utilise Tn(t) = 2n1tn + Exercice. Constater la divergence en norme uniforme de l'interpolation de 1=(1 + a2x2) sur des points equidistants de [1; 1] quand a est assez grand (phenomene de Runge). On ecrit f(x) = (i=(2a))((x + i=a)1 (x i=a)1), donc f(x) pn(x) = (i=(2a))([x0; : : : ; xn; x](x+i=a)1 [x0; : : : ; xn; x](xi=a)1 )(xx0) : : : (xxn) = (i(1)n+1=(2a))((x0+i=a)1 : : : (xn+i=a )1(x+i=a)1(x0 i=a)1 : : : (xn i=a)1(x i=a)1)(x x0) : : : (x xn); d'apres un exercice precedent. On e xamine alors l'evolution de !n+1(x)=!n+1(i=a) = (x x0) : : : (x xn)=((i=ax0) : : : (i=axn)) en foncti on de n. Ce rapport tend rapidement vers l'in

ni quand n ! 1 si on choisit des points equidistants sur [1; 1] et si x est pres de 1. Pour un traitement detaille, voir Hairer [Hai], chap. 2. On evite le recours a des derivees nemes dans des estimations d'erreur en evaluant la norme du projecteur d'interpolation Pinterp: si Pinterpf est l'interpolant de f dans P n en x0; : : : ; xn, f Pinterpf = f p Pinterp(f p) pour 8p 2 Pn puisque Pinterpp = p et Pinterp est l ineaire, donc jf(x) (Pinterpf)(x)j 6 (1 + kPinterp(x)k)kf ^pk; 7Mais, si on sait par le theoreme d'approximation de Weierstrass que En ! 0 quand n ! 1, il existe toujours des fonctions continues pour lesquelles les interpolants bases sur des p oints donnes a l'avance ne convergent pas en norme uniforme (theoreme de Bernstein-Faber). MATH2171 2005-06 { 4 { Interpolation et applications { 154 ou Pinterp(x) est la forme qui donne la valeur de l'interpolant en un point x

xe. En formulation de Lagrange, et en norme k k1, kPinterp(x)k1 = max kfk161

Xn i=0 f(xi)`i(x)

= Xn i=0 j`i(x)j; (fonction de Lebesgue). On voit donc comment l'erreur d'interpolation se compare a l'erreur de meilleure approximation. 1.8. Interpolation d'Hermite-Fejer. L'interpolant d'Hermite-Fejer Hnf de f 2 C [a; b] aux n + 1 points x0; : : : ; xn est le polyn^ome de degre 6 2n + 1 veri

ant (Hnf)(xi) = f(xi); (Hnf)0(xi) = 0; i = 0; : : : ; n: Il n'est donc pas question de faire appel a des valeurs de f 0 qui pourrait ne pa s exister. Il s'en suit egalement que, si f est un polyn^ome non constant, Hnf est generalement dierent de f: l'operate ur Hn n'est pas un projecteur. Cependant, on peut montrer qu'avec des xi bien choisis, les polyn^omes hj de (86 ) sont positifs sur [a; b], de sorte que Hn : (Hnf)(x) = Pn 0 f(xj )hj (x) est un operateur positif. Comme pour les polyn^omes de Bernstein, on peut en tirer une demonstration du theoreme de Weierstrass P = C selon k k1 sur un compact [a; b]. Exercice. Montrez que, si les xi sont les zeros du polyn^ome de Tchebyche Tn+1, on a hj(x) = (1 xxj ) Tn+1(x) n(x xj ) 2 : 2. Formules d'integration basees sur l'interpolation. Une formule interpolatoire de quadrature consiste a approcher R b a f(x)d(x) par R b a pn(x)d(x), ou pn est un interpolant de f. La formulation de Lagrange est la plus commode ici : la formule de quadrature est Xn j=0 Lj f(xj) ; Lj = Z b a `j(x)d(x): Les exemples les plus classiques (Simpson, etc.) sont associes a des points en pro gression arithmetique et seront vus au chapitre suivant. Toute formule de ce type est une forme contenant Pn dans son noyau, donc

Z b a f(x)d(x) Xn j=0 Lj f(xj)

Z b a (f(x) ^pn(x))d(x) Xn j=0 Lj (f(xj) ^pn(xj))

6 "Z b a d(x) + Xn j=0 jLj j # kf ^pnk1; estimation specialement favorable si les Lj > 0: on a alors Pn 0 jLjj = Pn 0 Lj = R b a d(x). MATH2171 2005-06 { 4 { Interpolation et applications { 155 2.1. Reste de la formule de quadrature de Gauss. La formule de quadrature de Gauss vue au chap. 3 p. 92 peut aussi s'interpreter c omme une formule interpolatoire, mais a partir d'un interpolant d'Hermite! En eet, soit p2n1 le polyn^ome de P2n1 qui veri

e p2n1(xj) = f(xj) et p0 2n1(xj) = f0(xj), j = 1; : : : ; n. D'apres la formulation de Lagrange dans le cas con uent, on a p2n1(x) = Pn j=1(f(xj)hj(x)+ f0(xj)~hj(x)) (les indices vont maintenant de 1 a n), donc R b a p2n1(x)d(x) = Pn j=1(Hjf(xj)+ fHjf0(xj)), avec Hj = R b a hj(x)d(x) et fHj = R b a ~h j(x)d(x). Cependant, si les xj sont les zeros du polyn^ome orthogonaln de degre n relatif a d (et on sait [p. 89] quen a tous ses zeros distincts dans (a; b)), on a fHj = Z b a ~h j(x) d(x) = constante Z b a (x xj) Y 1kn;k6=j (x xk)2 d(x) = constante Z b a n(x) Y k6=j (x xk) d(x) = 0 par orthogonalite den et Pn1! La formule se reduit donc a une combinaison de f(x1),. . . , f(xn) et est exacte s ur P2n1, ce qui sut a l'identi

er a la formule de Gauss. Veri

ons quand m^eme que Hj est bien le wj;n de la p. 92: Hj = Z b a hj(x) d(x) = Z b a [1 + Aj(x xj)] Y 1kn;k6=j x xk xj xk 2 d(x) (d'apres (86)) = Z b a [1 + Aj(x xj)] n(x) (x xj) 0 n(xj) 2 d(x) = Z b a n(x) (x xj) 0 n(xj) 2 d(x) > 0 (orthogonalite) = Z b a Pn1 k=0 k(x) k(xj)

0 n n(xj) n1(xj) !2 d(x) (Christoel-Darboux) = Pn1 k=0 k 2(xj)

2n 02 n(xj) n1 2(xj) (orthonormalite) = 1 Pn1 k=0 k 2(xj) (Christoel-Darboux avec x = y = xj) MATH2171 2005-06 { 4 { Interpolation et applications { 156 Le reste de la formule est donc Z b a f(x) d(x) Xn j=1 Hjf(xj) = Z b a (f(x) p2n1(x)) d(x) = Z b a K2n1(x)(x x1)2 : : : (x xn)2 d(x) = Z b a K2n1(x) 2 n(x) d(x) = k2n1() kk2: n = f(2n)(0) (2n)! kk2: n avec et 0 2 [a; b], ayant utilise le premier theoreme de la moyenne 8, sachant que k 2n1 est continue. 2.2. Formules de quadratures de Gauss avec points imposes. Fixons x(1) 0 ; : : : ; x(1) n1 , laissons x(2) 1 ; : : : ; x(2) n2 libres de facon a avoir une formule Z b a f(x)d(x) Xn1 0 h(1) i f(x(1) i ) + Xn1 1 h(2) j f(x(2) j ) exacte pour des polyn^omes de degre aussi eleve que possible (degre de precision). Comme il y a n1 + 2n2 + 1 degres de liberte (les n1 + 1 h(1) i , les n2 x(2)

j et les n2 h(2) j ), on s'attend a un degre de precision n1 + 2n2. Solution: soit !1(x) = (xx(1) 0 ) : : : (xx(1) n1 ). On prend x(2) j et h(2) j !1(x(2) j ) = noeuds et poids de la formule de Gauss relative a la mesure !1(x) d(x). Alors, 8p 2 Pn1+2n2 , p = q!1 + r, avec q 2 P2n21 et r 2 Pn1 . On a bien Z b a p(x) d(x) = Z b a q(x)!1(x) d(x) + Z b a r(x) d(x) = Xn2 1 h(2) j !1(x(2) j )q(x(2) j ) | {z } exacte par Gauss + Xn1 0 h(1) i r(x(1) i ) + Xn2 1 h(2) j r(x(2) j ); ou il sut donc de

xer les n1 + 1 h(1) i pour que la formule soit exacte pour tout r 2 Pn1 . On distingue les regles de (1) Lobatto: n1 = 1, x(1) i = a et b. (2) Radau: n1 = 0, x(1) 0 = a ou b. (3) Kronrod: n1 = n2 = n, les x(1) i proviennent d'une formule de Gauss. La theorie est assez delicate, la mesure !1(x) d(x) n'etant plus de signe constant (theorie des polyn^omes de Stieltjes). 8J. Mawhin, Introduction a l'analyse, Cabay, 1979, p.334; Analyse. Fondements, te chniques, evolution, De Boeck, p. 388 dans la 2eme edition de 1997: si f est reelle continue sur [a; b], g positive sur [a; b], g et fg integrables sur ]a; b], alors 9c 2 [a; b] : R b a fg = f(c) R b a g MATH2171 2005-06 { 4 { Interpolation et applications { 157 Cf. W. Gautschi, Orthogonal polynomials and quadrature, ETNA ( http://etna.mcs.k ent.edu/html/) 9 (1999) 65-76. On se sert souvent d'une formule de Kronrod pour estimer l'exactitude du resultat obtenu avec la regle de Gauss sous-jacente. Si l'ecart est superieur a une tolerance demandee , on reprend avec un intervalle plus petit, voir regles adaptatives plus bas. 2.3. Points de Tchebyche: regle de Clenshaw-Curtis. Si on dispose de l'approximation discrete XN 00 0 c(N) k (f) Tk de f, en fait interpolation de f aux N + 1 extrema cos(j=N), j = 0; : : : ;N de TN, on estime R 1 1 f(x)dx par XN 00 0 c(N) k (f) Z 1 1 Tk(x)dx = X00 06k pair 6N c(N) k (f) 2 1 k2 ; ce qui donne, compte tenu de c(N) k (f) = 2 N XN 00 0 cos jk N

f cos j N , Z 1 1 f(x) dx XN 00 j=0 (N) j f cos j N ; (N) j = 2 N X00 06k pair 6N 2 cos(jk=N) 1 k2 : 2.4. Regles adaptatives d'integration. On ne subdivise un intervalle que si une estimation de l'erreur depasse une tolera nce imposee. On arrive a une construction recursive du type integ(f,a,b,tol) f1=formul1(f,a,b) /* formule de base sur (a; b) */ f2=formul2(f,a,b) /* formule plus ra

nee, par exemple, Kronrod */ if jf2-f1j < = tol then return f1 else return integ(f,a,(a+b)/2,tol/2) + integ(f,(a+b)/2,b,tol/2) end Cf. J.R. Rice, Numerical Methods, Software, and Analysis, McGraw-Hill, 1983, pp. 193198; P. Favati, G. Lotti, F. Romani, Algorithm 691; Improving QUADPACK automatic integration routines, ACM Trans. Math. Soft. 17 (1991) 218-232. Pour des developpements recents, en particulier sur l'integration numerique de fonct ions de plusieurs variables, voir le tres dynamique groupe \NINES" de la KULeuven, http://www.cs.kuleuven.ac.be/cwis/research/nines/ 3. Representation du reste: theoreme de Peano. Lorsqu'une formule approchee est exacte pour des polyn^omes de degre n, on essaye le plus souvent de trouver pour le reste une expression de la forme Cf (n+1)(), le protot ype de ce genre de formule etant le reste d'une approximation de Taylor (en un point

xe x): RTaylor;nf := f(x) f(x0) (x x0)f0(x0) (x x0)nf(n)(x0) n! = (x x0)n+1f(n+1)() (n + 1)! ; MATH2171 2005-06 { 4 { Interpolation et applications { 158 ( 2 [x0; x]), valable si f 2 C n+1[x0; x]. On a trouve une extension au reste de l 'interpolation polynomiale: Rinterp;nf := f(x) interpolant de f en x0; : : : ; xn = (x x0) : : : (x xn)f(n+1)() (n + 1)! ; avec 2 [min(x0; : : : ; xn; x); max(x0; : : : ; xn; x)]. Deux problemes: (1) L'incertitude sur peut conduire a surestimer des bornes d'erreur. Cette situa tion ne peut que s'aggraver si on utilise de telles estimations dans d'autres formule s, par exemple dans une regle de quadrature interpolatoire. (2) On peut vouloir appliquer la formule a f 62 C n+1. Et deux idees pour s'en sortir: (1) Comme on s'interesse a des formes lineaires, Rf = R(fp) pour tout p de degre 6 n, par exemple, une meilleure approximation, mais aussi toute autre approximation, et pas necessairement de degre n, une approximation de Taylor, etc. (2) On conna^t aussi une formulation integrale du reste de l'approximation de Tayl or de n'importe quel degre m 6 n RTaylor;mf = Z x x0 (x t)mf(m+1)(t) m! dt: Le theoreme de Peano incorpore ces deux idees dans l'enonce remarquable suivant: 3.1. Theoreme (Peano). Soit R une forme sur C r(a; b) s'annulant sur Pm. Alors, si f 2 C m+1(a; b), (m > r > 0), Rf = Z b a Km(t)f(m+1)(t) dt; (93) avec Km(t) = R (: t)m+ m! , c'est-a-dire pour t

xe, Km(t) = R appliquee a la fonction de u qui vaut 0 tant que u < t, et qui vaut (u t)m=m! quand u > t. De plus, si Km est de signe constant sur (a; b), Rf = Cf(m+1)() ; ou C = R um+1 (m + 1)! : Graphes de fonctions '(u) = (u t)m+ : 6 u m = 0 t 6 u m = 1 t 6 u m = 2 t En eet, R s'applique a C r ) R est une combinaison lineaire de valeurs ponctuelles de f; f0; : : : ; f(r) et d'integrales de f; f0; : : : ; f(r): Rf = X i X j6r ci;jf(j)(xi;j) + X j6r Z b a dj(u)f(j)(u) du MATH2171 2005-06 { 4 { Interpolation et applications { 159 (notons que les valeurs ponctuelles pourraient ^etre incorporees dans des integral es au sens de Riemann-Stieltjes). on a donc Rf = R(f p) avec n'importe quel p 2 Pm, choisissons p = approximation de Taylor de degre m autour de a, donc f(x) p(x) = Z x a (x t)mf(m+1)(t) m! dt, ce qui s'ecrit encore comme l'integrale sur (a; b): Z b a (x t)m+ f(m+1)(t) m! dt, remarquons aussi que la jeme derivee de f p est f (j)(x)p(j)(x) = Z b a

(x t)mj + f(m+1)(t) (m j)! dt, donc Rf = R(f p) = X i X j6r ci;j Z b a (xi;j t)mj + f(m+1)(t) (m j)! dt+ X j6r Z b a dj(u) Z b a (u t)mj + f(m+1)(t) (m j)! dt du = Z b a ( X i X j6r ci;j (xi;j t)mj + (m j)! + X j6r Z b a dj(u) (u t)mj + (m j)! du ) f(m+1)(t) dt (theoreme de Fubini-Tonnelli pour les fonctions integrables), ce qui est bien Z b a Km(t)f(m+1)(t) dt avec Km(t) = X i X

j6r ci;j (xi;j t)mj + (m j)! + X j6r Z b a dj(u) (u t)mj + (m j)! du = R applique a '(u) = (u t)m+ =(m!) pour t

xe 2 [a; b]. En

n, si Km est de signe constant sur [a; b], R b a Km(t)f(m+1)(t) dt = Cf(m+1)(), avec C = R b a Km(t) dt, par le theoreme de la moyenne du calcul integral (voir note p. 156). Pa r consequent, si on applique R a un polyn^ome f tel que f (m+1)(x) 1, comme f(x) = x m+1=(m+ 1)!, on a bien Rf = C. Remarques. (1) Pour t

xe dans [a; b] et m > 1, 'm(u) = (u t)m+ =m! est la meme primitive de la fonction echelon '0(u) = (1+sign (ut))=2, avec 'm(a) = 0 : 'm(u) = R u a 'm1(t) dt. (2) Au sens des distributions, 'm est la (m + 1)eme primitive de la distribution de Dirac (u t). (3) Si on admet la forme (93), on retrouve eectivement une valeur de Km, disons K m(t0), en appliquant R a une fonction dont la derivee (m + 1)eme est une distribution de Dirac, precisement f(t) = (t t0)m+ =m!. (4) Si m > r, Km(a) = Km(b) = 0 : 'm 2 C m1, donc Km est continue (ne contient qu e des derivees au plus remes de 'm), Km(a) = R applique au polyn^ome (u a)m=m! 2 Pm, K m(b) = R applique a la fonction nulle. (5) Si m > r, Km(t) = R t a Km1(u) du, puisque Km(a) = Km(b) = 0 et Rf = R b a Km(t)f(m+1)(t) dt ) Rf = [Kmf(m)]b a R b a K0m (t)f(m)(t) dt. MATH2171 2005-06 { 4 { Interpolation et applications { 160 (6) Si Rf = 0 pour f 2 Pn, K0; : R : : ;Kn1 doivent changer de signe sur [a; b] p uisque b a Km(t) dt = 0 tant que m < n (il sut de prendre f(t) = tm+1 dans (93)). Seul Kn a une chance de ne pas changer de signe sur [a; b] si Rf ne s'annule pas sur Pn+ 1. Exemples: Dierence divisee: d'apres (91), Kn(t) = la mesure de l'intersection du simplexe Sn e t de l'hyperplan 0x0 + +nxn = t. Kn est donc une fonction positive, d'integrale de

nie 1=n!. On a Kn(t) = Bn(t; x0; : : : ; xn); fonction de classe C n2, dont la restriction entre deux xi est un polyn^ome de Pn1 (Bspline.) En eet, 1.) pour n = 1, on a [x0; x1]f = f(x1) f(x0) x1 x0 = Z 1 1 ((x0; x1)) x1 x0 f0(t) dt, donc B1 est une fonction discontinue, constante par intervalles, d'integrale de

nie unite; 2.) passage de n 1 a n: [x0; : : : ; xn]f = [x1; : : : ; xn]f [x0; : : : ; xn1]f xn x0 = Z 1 1 Bn1(t; x1; : : : ; xn1) Bn1(t; x0; : : : ; xn1) xn x0 f(n1)(t) dt = Z 1 1 Bn(t; x0; : : : ; xn)f(n)(t) dt. Bn est donc une primitive d'une combinaison de fonctions Bn1, donc d'un ordre de continuite plus eleve, de degre plus eleve que Bn1 entre deux xi . Formules d'integration: voir p. 167 MATH2171 2005-06 { 5 { Dierences

nies { 161 CHAPITRE 5 Dierences

nies. Interpolation, derivation, integration, formules sommatoires. On s'occupe ici de traiter des fonctions a partir de valeurs en des points en pro gression arithmetique x0; x0 h; x0 2h; : : : Les manipulations de dierences de valeurs de fonctions ont d'abord servi a l'utilis ation de tables, un art aujourd'hui presque eteint. 29 degres 0 Sin. D Tang. D.C Cotg. 22 30 10 1,68 784 1,74 673 0; 25 327 23 29 11 807 702 298 22 30 12 829 732 268 etc. Parties prop. 00 23 10 3,8 20 7,7 30 11,5 40 15,3 50 19,2 6 2,3 7 2,7 8 3,1 9 3,5 Extrait des Tables de logarithmes a cinq decimales et autres tables, par N.J. Scho ns, La Procure-Casterman, 4eme ed., 1959. Des logarithmes decimaux de sinus et tangentes sont donnes de minute en minute, le s nombres negatifs sont donnes sous la forme x; yyyyy signi

ant x + 0:yyyyy. Les dierences premieres (\D.C" signi

e que ces dierences valent egalement pour les cotangentes) susent a reconstituer une valeur pou r un angle jusqu'a la precision de la seconde d'arc. Les colonnes \parties proportionnelles" servent a f aciliter les calculs d'interpolation lineaire. Le calcul aux dierences

nies s'est rapidement developpe en m^eme temps que le calcul in

nitesimal (dans la denomination, \

nies" s'oppose a \in

nitesimales"), ce qui est l'occasion de rencontrer des correspondances interessantes (il y a des formules de sommation par parties, etc.) On retrouve ce calcul dans certains domaines de l'algebre (groupes particul iers), de la theorie des fonctions (transformations de fonctions) et, bien entendu, en mathe matiques discretes. Nombreuses applications en physique et en theorie du signal. 1. Les operateurs du calcul aux dierences. Pour h

xe, on envisage d'appliquer les operateurs suivants a des fonctions de

nies sur un ensemble contenant au moins des nombres en progression arithmetique de pas h: MATH2171 2005-06 { 5 { Dierences

nies { 162 (1) Operateur de translation. E : (Ef)(x) = f(x + h). (2) Operateur de dierence progressive. : (f)(x) = f(x + h) f(x). (3) Operateur de dierence regressive. r : (rf)(x) = f(x) f(x h). (4) Operateur de dierence centrale. : (f)(x) = f(x + h=2) f(x h=2). (5) Operateur de moyenne. : (f)(x) = f(x + h=2) + f(x h=2) 2 . (6) Operateur de derivation. D : (Df)(x) = f 0(x). (7) Operateur d'integration. J : (Jf)(x) = Z x+h x f(t)dt. Les deux derniers operateurs sont bien s^ur des operateurs de l'analyse in

nitesimale. On verra comment les approcher au moyen des operateurs aux dierences proprement dits. Tous ces operateurs sont bien des applications lineaires de

nies sur un ensemble tres large de fonctions. On peut donc considerer des sommes et produits de ces operateurs, ai nsi: (Ef)(x) = f(x + 2h) f(x + h), (2f)(x) = f(x + 2h) 2f(x + h) + f(x), (2f)(x) = (rf)(x) = (rf)(x) = f(x + h) 2f(x) + f(x h). On veri

e que le produit est commutatif. Accessibilite. Si on ne dispose que des valeurs f(x0); f(x0h); f(x02h); : : : , tou te formule utilisable devra necessairement aboutir a une combinaison de ces valeurs disponibl es. Ainsi, on peut librement disposer de n'importe quelle puissance (entiere) et prod uits de E; et r en toute abscisse x0 + kh, avec k entier. Par contre, et doivent ^etre appliques a des abscisses x0 + (k +1=2)h, k entier. 2 et 2 de f en x font appel a f(x) et f(x h) et peuvent donc s'appliquer a nouveau a des absc isses x0 + kh, k entier. Il en est de m^eme pour tout produit ij si i + j est pair. MATH2171 2005-06 { 5 { Dierences

nies { 163 Les m^emes dierences calculables s'expriment indieremment en termes de dierences progressives, centrales ou regressives, soit xk = x0 + kh: f(x3) f(x2) (f)(x2) = (f)(x3=2) = (rf)(x1) f(x1) (2f)(x2) = (2f)(x1) = (r2f)(x0) (f)(x1) = (f)(x1=2) = (rf)(x0) (3f)(x2) = (3f)(x1=2) = (r3f)(x1) f(x0) (2f)(x1) = (2f)(x0) = (r2f)(x1) (f)(x0) = (f)(x1=2) = (rf)(x1) (3f)(x1) = (3f)(x1=2) = (r3f)(x2) f(x1) (2f)(x0) = (2f)(x1) = (r2f)(x2) (f)(x1) = (f)(x3=2) = (rf)(x2) f(x2) f(x3) (94) Inversion et autres identites. Ek signi

e clairement (Ekf)(x) = f(x+kh) pour tout k 2 Z. Tout naturellement, on de

nira (Esf)(x) = f(x + sh) pour s quelconque. On peut alors exprimer tous les operateur s aux dierences en fonction de l'un d'entre eux, soit E: = E1; r = 1E1; = E1=2E1=2; = E1=2 + E1=2 2 ; E1 = (=2)2; 1 = 22=4: (pour D et J, on verra un peu plus loin). L'inverse de n'est de

nie qu'a une constante pres, comme l'inverse de D: ce doit donc ^etre une sorte de primitive discrete, on y reviendra. Remarquons que D1 est bien de

ni: ce n'est autre que J! Ce calcul operationnel est partiellement justi

e par l'eet de l'application de ces operateurs aux fonctions exponentielles ex: on constate que l'on retrouve la m^eme exponenti elle multipli ee par une constante, que les exponentielles sont donc des fonctions propres de c es operateurs, avec les valeurs propres E r D J e e 1 1 e e=2 e=2 e=2 + e=2 2 h h e 1 = 2 sinh(=2) = cosh(=2) (95) ou = h. Autres operateurs. qdierence: (Dqf)(x) = f(qx) f(x) (q 1)x . Operateur d'Askey-Wilson: choix le plus general de fonctions '1 et '2 telles que (D AW f)(x) = f('2(x)) f('1(x)) '2(x) '1(x) envoie Pn dans Pn1. Cf. R. Askey, J. Wilson: Some basic hypergeometric orthogonal polynomials that g eneralize Jacobi polynomials, Memoirs of the AMS 54, n 319 (1985). G. Gasper, M. Rahman: Basic Hyp ergeometric Series, Encyc. of Math. and Applic. 35, Cambridge U.P., 1990. R. Koekoek & R.F. Swarttou w : The Askey-scheme MATH2171 2005-06 { 5 { Dierences

nies { 164 of hypergeometric orthogonal polynomials and its q-analogue. Report Techn. Univ. Delft no. 98-17, 1998. ftp://ftp.twi.tudelft.nl/TWI/publications/tech-reports/1998/DUT-TWI-98-17.ps.gz 2. Interpolation. Estimer f(x0 + sh) a partir des f(x0 + kh), k 2 Z revient donc a exprimer Es a part ir de puissances entieres des operateurs disponibles, en fait a partir des expressions du tableau (94) Series de puissances de . Developpons Es = (1 + )s selon le bin^ome de Newton generalise: Es = (1 + )s = X1 k=0 s k k = 1 + s + s(s 1) 2 2 + s(s 1)(s 2) 6 3 + (formule de Newton-Gregory). Deux facons de justi

er ce developpement: (1) Toute somme partielle represente un operateur d'interpolation polynomiale, sel on la forme de Newton, en eet, avec x = x0 + sh et xi = x0 + ih, i = 0; 1; : : : s(s 1) : : : (s k + 1) = (x x0)(x x1) : : : (x xk1)=hk et, en comparant la formation des dierences

nies aux dierences divisees: (kf)(xp) = (rkf)(xp+k) = (kf)(xp+k=2) = k!hk[xp; xp+1; : : : ; xp+k]f = Xk j=0 (1)j k j f(xj): (96) La formule de Newton-Gregory est donc exacte lorsqu'elle s'applique a un polyn^om e, cas ou la serie se limite a un nombre

ni de termes non nuls. (2) Lorsqu'on applique la formule a une exponentielle ex, on voit qu'on est en pres ence de la serie numerique es = [1+(e 1)]s = P1 0 s k (e 1)k, avec = h, serie qui converge si je 1j < 1. On peut etudier toute fonction susceptible d'une representation du type f(x) = R L ex'()d, forme que l'on trouve dans des formules d'inversion de transformees de Laplace et de Fourier. Exercice: constater la divergence de la serie de Newton-Gregory de es a partir des dierences de la suite f1; e; e2; e3; : : : g. Il y a egalement une forme regressive developpant Es = (1 r)s. Series de puissances de . Les sommes partielles successives de la serie de Newton-Gregory sont des valeurs en x = x0 + sh d'interpolants en x0; x0 et x1; x0; x1 et x2, etc. Supposons s entre 0 e t 1: il faudrait alors plut^ot partir d'un certain xp, et commencer a rencontrer des valeurs signi

catives a partir de la peme somme partielle. Il vaut mieux prendre les points d'interpolation dans l'ordre x0, x1, x1, x2; : : : ; ce qui donne [x0]f +[x0; x1]f (x x0) + [x0; x1; x1]f (x x0)(x x1) + [x0; x1; x1; x2]f (x x0)(x x1)(x x1) + , donc, par (96), Es = 1 + sE1=2 + s(s 1) 2 2 + s(s 1)(s + 1) 6 3E1=2 + s(s 1)(s + 1)(s 2) 24 4 + MATH2171 2005-06 { 5 { Dierences

nies { 165 (formule de Gauss progressive). Si on prend plut^ot l'ordre x0, x1, x1, x2; x2 : : : ; on a Es = 1 + sE1=2 + s(s + 1) 2 2 + s(s + 1)(s 1) 6 3E1=2 + s(s + 1)(s 1)(s + 2) 24 4 + (formule de Gauss regressive). Formule de Stirling: moyenne des deux formules precedentes Es = 1 + s + s2 2 2 + s(s2 1) 6 3 + s2(s2 1) 24 4 + Formule de Bessel: moyenne de la formule de Gauss progressive et de E fois la fo rmule regressive pour Es1: Es = 1 + E 2 +(s1=2)E1=2+ s(s 1) 2 2 1 + E 2 + s(s 1)(s 1=2) 6 3E1=2+ s(s 1)(s + 1)(s 2) 24 4 1 + E 2 Formule d'Everett: formule precedente ou on remplace les 2p+1E1=2 par 2p(E 1): Es = 1 + E 2 + (2s 1) E 1 2 + s(s 1) 2 2 1 + E 2 + s(s 1)(2s 1) 6 2E 1

2 + s(s 1)(s + 1)(s 24 4 = 1 s + sE s(s 1)(s 2) 6 2 + (s + 1)s(s 1) 6 2E + = X1 k=0

2)

s + k 1 2k + 1 2k + s + k 2k + 1 2kE : 3. Derivation. Il s'agit d'extraire D en fonction de E, ou , etc. Ecrivons symboliquement la formule de Taylor: (Ef)(x) = f(x + h) = X1 k=0 f(k)(x) hk k! = X1 k=0 hk k! (Dkf)(x) = (ehDf)(x); soit, E = ehD ; D = 1 h lnE: Formules progressives et regressives (Marko): hD = ln(1 + ) = X1 k=1 (1)k1k k = ln(1 r) = X1 k=1 rk k : Formules centrees (Bickley): d'apres (95), hD = 2 arg sinh(=2) = 2

R =2 0 (1+u2)1=2du = 2 P1 k=0 (1=2)(3=2):::(1=2k) k! (=2)2k+1 2k+1 , (hD)n = n 1 n 24 2 + 5n2 + 22n 5760 4 + ; utilisable en x0 seulement si n est pair. Si n est impair, on s'arrange pour avo ir des termes en n, n+2, par (1 + 2=4)1=2 = : (hD)n = n 1 n + 3 24 2 + 5n2 + 52n + 175 5760 4 + : MATH2171 2005-06 { 5 { Dierences

nies { 166 Pour evaluer f(n)(x0 +sh): multiplier Dn par un developpement de Es et appliquer e n x0. 4. Integration. J = D1 = h lnE = h ln(1 + ) = h 1 =2 + 2=3 3=4 + = h 1 + 1 2 1 12 2 + J = h E 1 lnE = h (1 r)1 1 ln(1 r) = h 1 + 1 2r + 5 12r2 + 3 8r3 + 251 720r4 + (Adams-Bashforth). Sert de predicteur dans des solveurs d'equations direntielles: y0 = f ) y(x1) = y(x0) + Z x1 x0 f(t; y(t))dt = y(x0) + (Jf)(x0). J = h E 1 lnE = h Er ln(1 r) = hE 1 1 2r 1 12r2

1 24r3 19 720r4 + (Adams-Moulton). Sert de correcteur. 4.1. Formules de Newton-Cotes. Principe: on estime l'integrale de

nie Z xm x0 f(x) dx par la valeur de l'integrale de aux points equidistants x0; x1; : : : ; m1 (formules ouvertes). On peut par exemple exprimer J(1 + E + Em 1 E 1 en serie de puissances de et s'arr^eter au terme en m. Ainsi, ement arr^ete au terme en 2 de h(1 + =2 2=12 (1 + )2 1

l'interpolant xm (formules fermees) ou x1; x2; : : : ; x + Em1) = J

la formule fermee pour m = 2 est le developp + )

, ce qui donne h(2 + 2 + 2=3) = h(1+4E +E2)=3 (formule de Simpson). Les formules sont generalement donnees en termes des valeurs successives de f, comme on pourrait d'ailleurs les obtenir par integration de la forme de Lagrange de l'interpolant: m Formules fermees Formules ouvertes 1 h(f0 + f1) 2 trapeze 2 h(f0 + 4f1 + f2) 3 2hf1 Simpson 3 3h(f0 + 3f1 + 3f2 + f3) 8 3h(f1 + f2) 2 Newton 3/8 , \pulcherrima" 4 2h(tf0 + 32f1 + 12f2 + 32f3 + 7f4) 45 4h(2f1 f2 + 2f3) 3 Bode, Milne MATH2171 2005-06 { 5 { Dierences

nies { 167 Quand m est pair, les formules fermees sont en fait exactes pour des polyn^omes d e degre m+1; m1 au lieu de m2 pour les formules ouvertes: l'interpolant de degre m+1 diere de l'interpolant de degre m par un terme constante (x x0)(x x1) : : : (x xm) qui a une integrale de

nie nulle sur [x0; xm] si m est pair (fonction impaire de [x (x0 + xm)=2]). A partir des formules a 9 points, on commence a trouver des coecients negatifs dans les formules fermees. On utilise generalement des formules de Newton-Cotes dans des regles composees: l'in tervalle [a; b] est subdivise en mn intervalles de longueur h, et on applique Newton-Cotes a [x0; : : : ; xm], [xm+1; : : : ; x2m], etc. Ainsi, Z Regle composee des trapezes: b a f(x) dx h(f0 + 2f1 + 2f2 + + 2fn1 + fn)=2, b a = nh, Z Regle composee de Simpson: b a f(x) dx h(f0 + 4f1 + 2f2 + 4f3 + 2f4 + 4f5 + 2f2n2 + 4f2n1 + f2n)=3, b a = 2nh. 5. Noyaux de Peano de regles d'integration. On applique (93), p. 158. 5.1. Formule du trapeze. Rf = Z x1 x0 f(u) du h f(x0) + f(x1) 2 ; r = 0;m = 0 et 1 (h = b a): K0(t) = Z x1 x0 '0(u) du h '0(x0) + '0(x1) 2 = x1 t h 2 = x0 + x1 2 t ; x0 6 t 6 x1; ou '0(u) = 0 si u < t; 1 si u > t. K1(t) = Z t x0 K0(u) du = (t x0)(t x1)=2: K0 K1 Comme K1 est de signe constant (negatif) sur (x0; x1), Rf = Cf00() avec C = R x1 x0 K1(u) du = h3=12. 5.2. Formule de Simpson. K0(t) = Z x2 x0 '0(u) du h '0(x0) + 4'0(x1) + '0(x2) 3 = x2 t ( 5h=3 si x0 < t < x1; h=3 si x1 < t < x2;

soit: MATH2171 2005-06 { 5 { Dierences

nies { 168 K0(t) K1(t) K2(t) K3(t) x0 < t < x1 x0 + h 3 t (t x0)2 2 h(t x0) 3 (t x0)3 + h(t x0)2 6 (t x0)4 24 h(t x0)3 18 x1 < t < x2 x2 h 3 t (t x2)2 2 + h(t x2) 3 (t x2)3 h(t x2)2 6 (t x2)4 24 + h(t x2)3 18 Comme K3 est de signe constant (negatif) sur (x0; x2), Rf = Cfiv() avec C = R x2 x0 K3(u) du = R u4 24 = R u x1)4 24 = h5 60 h 2h4 72 = h5 90 : 5.3. Noyaux de Peano de formules composees. Soit une formule composee sur [x0; xs] S [xs; x2s] S S [xNs; xN], ou N = qs. Prolongeons le noyau de Peano Km;i sur [xis; x(i+1)s] par Km;i(t) = 0 si t < xis et x > x(i+ 1)s. On a Km;i(t) = Km;0(t ish).

Le noyau de Peano de la formule composee est alors Km = i=Xq1 i=0 Km;i, fonction periodique sur [x0; xN] dont la restriction a [xis; x(i+1)s] est Km;i. K0 et K1 de la regle des trapezes: etc. Autres exemples dans Hairer [Hai, chap. 1]. 5.4. La formule de Simpson avant Simpson. 1Bien avant le developpement du calcul integral, toutes sortes de formules, vraies et fausses, ont ete imaginees pour evaluer des aires et d es volumes. Johannes Kepler (1571-1630) chercha a evaluer la capacite de tonneaux de vin qu'il envisageait d'acheter a Linz en 1612 au moyen de la formule h r2 1 + 4r2 2 + r2 3 3 ; 1d'apres des notes extraites de [Hammer], aimablement signalees par J. Meinguet. MATH2171 2005-06 { 5 { Dierences

nies { 169 ou r1 et r3 sont les rayons des bases (souvent egaux), r2 est le rayon a mi-hauteur , et h est la demi hauteur. Sans doute s'est-il base sur des formules exactes connues: r1, r2 et r3 en progre ssion arithmetique (tronc de c^one); r1 = r3 = 0 (sphere). Kepler

t part de sa formule dans un ouvrage intitule \Stereometria doliurum", ce qui veut dire \volume des tonneaux". Plus tard, la formule n'apparut que comme un cas particulier des formules de New ton-Cotes (Isaac Newton, 1642-1727, en 1680; Roger Cotes2en 1711), et pas la plus interessante: Newton prefe rait la regle des 3=8 qu'il appelait la \pulcherrima" (la plus belle) parce que la regle composee qu'on en tir e Z x3k x0 f(x) dx 3h 8 (f0 + 3f1 + 3f2 + 2f3 + + 3f3k1 + f3k) a des coecients presque egaux. C'est bien plus tard que Thomas Simpson3 (1710-1761 ) se vit crediter de \sa" formule qui remporta un enorme succes, sans doute lie a l'avenement de la revolut ion industrielle. Mais peut-^etre faut il surtout constater une force classique dans l'alignement un pe u severe et l'economie de moyens de Z x2k x0 f(x) dx h 3 (f0 + 4f1 + 2f2 + 4f3 + + 2f2k2 + 4f2k1 + f2k); et que la pulcherrima evoque par trop un air de valse. . . 6. Formule d'Euler-Maclaurin. Polyn^omes de Bernoulli, formules sommatoires. Reprenons la forme de Peano la plus simple (m = 0) du reste de la formule compose e des trapezes: 21682-1716, deuxieme

ls du Reverend Robert Cotes, recteur de Burbage (Leicestershire). Etudes et carriere a Cambridge (Trinity College). Travaux en astronomie et en physique. Il f ut charge de preparer la deuxieme edition (1713) du chef-d'uvre de Newton, Philosophi naturalis principia mat hematica, dont il redigea une preface remarquee. Ses travaux tres ingenieux sur l'integration sont rasse mbles dans son opus posthume Harmonia mensurarum (1722). En particuler, il deduit de formules (appare mment) tres dierentes donnant l'aire d'un ellipso de de revolution, aplati ou allonge (ou hausse), cette rel ation pour le logarithme d'un nombre complexe de module unite: ln(cos +i sin ) = i. (Information tres aimablem ent communiquee par Mme Monique Van Pee). 3Thomas Simpson, Born: 20 Aug 1710 in Market Bosworth, Leicestershire, England D ied: 14 May 1761 in Market Bosworth, Leicestershire, England. Simpson is best remembered for his work on interpolation and numerical methods of integration. His

rst job was as a weaver. At this time he taught mathematics privately and from 1737 he began to write texts on mathematics. He also worked on probability theory and in 1740 published The Nature and Laws o f Chance. Much of Simpson's work in this area was based on earlier work of De Moivre. Simpson was the most distinguished of a group of itinerant lecturers who taught in the London coeehouses. He worked on the Theory of Errors and aimed to prove that the arithmetic mean wa s better than a single observation. Simpson published the two volume work The Doctrine and Application of Fluxions i n 1750. It contains work of Cotes. In 1754 he became editor of the Ladies Diary . The following description of Simpson by Charles Hutton (made 35 years after Simp son's death) is interesting It has been said that Mr Simpson frequented low company, with whom he used to gu zzle porter and gin: but it must be observed that the misconduct of his family put it out of his power to keep the company of gentlemen, as well as to procure better liquor. It would be fair to note that others described Simpson's conduct as irreproachab le . Simpson also worked on the problem of the minimum length of path that must be us ed to join three points. Tell me about Simpson's work on minimal paths Thomas Simpson was elected to the Royal Society of London in 1745. cf. http://www-history.mcs.st-and.ac.uk/history/Mathematicians/Simpson.html MATH2171 2005-06 { 5 { Dierences

nies { 170 Rf = Z xN x0 f(u) du h 2 (f0 + 2f1 + 2f2 + + 2fN2 + 2fN1 + fN) = Z xN x0 K0(t) f0(t) dt; ou K0 est la fonction lineaire par morceaux qui vaut xi + h=2 t entre xi et xi+1 = xi + h. Appelons P1 la fonction periodique sur tout R, de periode 1, qui vaut t 1=2 sur (0 ; 1). On a donc K0(t) = hP1((t x0)=h). Soit P2=2 une primitive de P1: P2(t) = t2 t+ consta nte sur (0; 1). P2 est periodique car R 1 0 P1(t) dt = 0. P2 est egalement continue sur R. On a Rf = h Z x1 x0 P1((t x0)=h)f0(t) dt = h2 Z N 0 P1(t)f0(x0 + ht) dt = h2 P2 2 f0 N 0 + h3 2 Z N 0 P2(t)f00(x0 + ht) dt: On voit ainsi que des integrations par parties successives livreront des puissanc es de plus en plus elevees de h. . .Pour que l'integrale

nale garde une taille raisonnable, il faut encore que les primitives successives de P2 restent periodiques, donc que leur integrale de

nie sur (0; 1) soit nulle, ce qui

xe les constantes d'integration en suspens: De

nitions. Les fonctions periodiques de Bernoulli 4 P0; P1; P2; : : : sont de period e 1, P0 = 1, Pn=n est la primitive periodique de Pn1, c'est-a-dire telle que P0n Z = nPn1 et 1 0 Pn(t) dt = 0 quand n > 1; les polyn^omes de Bernoulli Bn co ncident avec les fonctions Pn sur (0; 1); les nombres de Bernoulli sont Bn = Bn(0). Par primitivations successives, on trouve les premiers echantillons B0(x) 1;B1(x) = x 1 2 ;B2(x) = x2x+ 1 6 ;B3(x) = x3 3x2 2 + x 2 ;B4(x) = x42x3+x2 1 30 ; : : : Theoreme (formule d'Euler-Maclaurin). Soit f 2 C 2m+2[a; b] et h = (b a)=N, alors Z b a f(t) dt = h 2 (f0 + 2f1 + 2f2 + + 2fN2 + 2fN1 + fN) Xm k=1 B2k (2k)! h2k f(2k1)(b) f(2k1)(a) + "2m+2 (97) avec "2m+2 = h2m+2(b a) B2m+2 (2m + 2)! f(2m+2)() = h2m+2 B2m+2 (2m + 2)! NX1 j=0 f(2m+2)(j), ou 2 [a; b]; xj 6 j 6 xj+1 (fj = f(xj) = f(a + jh); j = 0; 1; : : : ;N). 4Il s'agit de Jakob Bernoulli (1654{1705), frere de Johann (1667{1748) et oncle d e Daniel (1700{1782). MATH2171 2005-06 { 5 { Dierences

nies { 171 En eet, nous sommes arrives a Rf = R b a f(t) dt somme des trapezes = h2 P2 2 f0 N 0 + h3 Z N 0 P2(t) 2 f00(a + ht) dt. Eectuons encore 2m integrations par parties: on obtient des termes aux limites (1)j1hj Pj(t) j! f(j1)(a + ht) t=N t=0 pour j = 2; 3; : : : ; 2m+2 et une integrale

nale h2m+3 Z N 0 P2m+2(t) (2m + 2)! f(2m+2)(t) dt. Comme Pj est periodique continue pour j > 1, Pj(N) = Pj(0) = Bj , et on verra que Bj = 0 si j est impair > 3: on trouve bien la somme

gurant dans (97), en fait, on trouve un terme en plus, le dernier terme etant h2m+2(B2m+2 =((2m+ 2)!))(f(2m+1)(b) f(2m+1)(a)). Quant a l'integrale

nale, on l'ecrit h2m+2 Z b a P2m+2((t a)=h) B2m+2 (2m + 2)! + B2m+2 (2m + 2)! f(2m+2)(t) dt = "2m+2 + h2m+2 B2m+2 (2m + 2)! Z b a f(2m+2)(t) dt de facon a bene

cier d'une fonction P2m+2B2m+2 de signe constant (on verra aussi plus tard que jP2j(t)j 6 jP2j(0) = B2j j), d'ou une premiere contribution h2m+2f(2m+2)() fois l'integrale sur (a; b) de [P2m+2((t a)=h) B2m+2]=((2m + 2)!) qui se reduit a l'integrale de la constante B2m+2=((2m + 2)!) puisque P2j a une integrale de

nie nulle des que j > 1. Comme P2m+2((t a)=h) est periodique de periode h, on a la deuxieme expression de "2m+2 en sommant les integrales sur des intervalles de longueur h. En

n, l'integrale de la constante B2m+2 fois f(2m+2)(t) donne evidemment B2m+2 fois f (2m+1)(b) f(2m+1)(a), d'ou la somme s'arr^etant a k = m dans (97). ||||||||||| En termes d'operateurs aux dierences, il faut exprimer Rf = J(1 + E + + EN1) h(1 + 2 E + 2E2 + + 2EN1 + EN)=2 applique a f en a = x0. On obtient J EN 1 E 1 h EN 1 E 1 + EN 1 2 = (EN J E 1 h E 1 h 2 . En exprimant E dans la derniere parenthese, tant^ot en fonction de , tant^ot en fon ction de r, on a J h E 1 h 2 = h ln(1 + ) h h 2 = h 12 + h2 24 19h3 720 + 3h4 160 et J h E 1 h 2 = h ln(1 h r 1)

r)

+ h 2 = hr 12 hr2 24 19hr3 720 3hr4 160 d'ou Rf = h 12 ((rf)(xN)(f)(x0)) h 24 ((r2f)(xN)+(2f)(x0)) 19h 720 ((r3f)(xN)(3f)(x0)) 3h 160 ((r4f)(xN) + (4f)(x0)) MATH2171 2005-06 { 5 { Dierences

nies { 172 (formule de Gregory). 6.1. Identites des nombres et polyn^omes de Bernoulli. Si on veut retrouver (97) par les operateurs aux dierences, il faut exprimer (EN 1) J E 1 h E 1 h 2 en fonction de D par E = ehD et J = D1 = (E 1)D1: Rf = (EN 1)(D1 h=(ehD 1) h=2) applique a f en a = x0. Considerons le developpement x ex 1 = X1 j=0 Xjxj , alors Rf = [(EN 1) X1 j=2 XjhjDj1]f(x0) = X1 j=2 Xjhj [f(j1)(b) f(j1)(a)]; en ayant rapidement veri

e X0 = 1;X1 = 1=2. On retrouve bien (97) et on soupconne que Xj = Bj=j!. En eet: Fonction generatrice des polyn^omes de Bernoulli. X1 j=0 Bn(x)tn n! = text et 1 ; la serie converge quand jtj < 2. En eet, soit G(x; t) := X1 j=0 Bn(x)tn n! . Comme B0n = nBn1, 5 @G(x; t)=@x = P1 1 Bn1(x)tn=(n 1)! = tG(x; t), d'ou G(x; t) = K(t)ext. Comme Bn(1) = Bn(0) quand n > 1 (et aussi, bien s^ur, quand n = 0), G(1; t) G(0; t) = 8>< >: [B1(1) B1(0)]t = t on sait que B1(x) = x 1=2 K(t) (et 1) donc, K(t) = t=(et 1). Les p^oles sont en t = 2ki, k = 1;2; : : : Montrons que Bj = 0 quand j est impair > 1: X1 2 Bjtj=j! = t et 1 + t 2 1 = t 2 et + 1 et 1 1 = t 2 cotangh t 2 1 est une fonction paire de t. Exercice. Montrez que tg x = X1 n=0 (1)n 4n+1(4n+1 1)B2n+2 (2n + 2)! x2n+1. (Utilisez tg x = cotg x 2 cotg(2x). ) Coecients des polyn^omes de Bernoulli: d'apres B0n = nBn1, Bn(x) = Xn k=0

B(k) n (0) k! xk = Xn k=0 n(n 1) : : : (n k! xk = Xn k=0 n k

k + 1)Bnk(0)

Bnkxk: 5Les polyn^omes de Bernoulli forment donc une suite d'Appell, comme les polyn^om es d'Hermite. MATH2171 2005-06 { 5 { Dierences

nies { 173 Calcul symbolique. Des identites de nombres et polyn^omes de Bernoulli s'obtienne nt a partir d'un symbole B dont les puissances Bk sont remplacees en

n de compte par les nombres de Bernoulli Bk. Ainsi: Bn(x) = (B + x)n: On appelle calcul umbral cette facon de faire, cf. S. Roman, G.-C. Rota, The umbr al calculus, Adv. Math. 27 (1978) 95{188, G.-C. Rota, B.D. Taylor, The classical umbral calculus, SIAM J. Math. An. 25 (1994) 694{711, A. Di Bucchianico, Probabilistic and analytical aspects of the u mbral calculus, Centrum voor Wiskunde and Informatica Tract 119, Amsterdam, 1997. Voir aussi sci.math #144246 (0 + 1059 more) From: wgd@zurich.ai.mit.edu (Bill Dubuque) Newsgroups: sci.math [2] Bernoulli numbers everywhere: Umbral Calculus [was: Re: n:th Bernoulli number] Date: 27 Jun 96 18:53:53 Organization: M.I.T. Artificial Intelligence Lab. Message-ID: <WGD.96Jun27185353@berne.ai.mit.edu> NNTP-Posting-Host: berne.ai.mit.edu In-reply-to: bruck@pacificnet.net's message of Tue, 25 Jun 1996 18:51:52 -0700 Digressing somewhat, it is surprising just how often Bernoulli numbers and polyn omials arise in diverse contexts. For example, Lang sketches how they arise in topology and algebraic ge ometry around RiemannRoch theorems, and in analytic and algebraic number theory around zeta functions and modular forms (see the thread of exercises beginning with #21 p. 217, end of Chap. IV in Lang's Alg ebra, 3rd Ed.) One way of understanding this ubiquity comes from the viewpoint of Hopf algebras and coalge bras, or, equivalently, the Umbral Calculus. The latter provides a calculus of adjoints that serves to sytem atically derive and classify almost all of the classical combinatorial identities for polynomial sequences (e .g the sequences of Abel, Appel, Bell, Bernoulli, Bessel, Boole, Boas-Buck, Euler, Gould, Hermite, Laguerre, Mahl er, Meixner, Mittag-Leer, Mott, Poisson-Charlier, Sheer, Stirling, etc), along with associated identies (ge nerating functions, expansions, duplication formulas, recurrences. inversions, Rodrigues formula, etc, e.g. the Euler-Maclaurin expansion, Boole's Summation formula, Newton interpolation, Gregory integration, Vandermond e convolution). For example almost all of the identities in Riordan's classic book "Combinatorial Id entities" can be systematically derived and classi

ed via the Umbral Calculus. This is a powerful and useful theory that deserves t o be better known. Since there are now good expositions available. there's no longer any goo d reason not to have a peek. I recommend starting with the following online survey [included in ascii below t hose Web challenged]. http://www.win.tue.nl/win/math/bs/statistics/bucchianico/hypersurvey/hypersurvey .html See also the RotaFest page at http://www-math.mit.edu/~loeb/rotafest.html -Bill Note: math formulas are missing from this ascii version, see the URL above for t hem. |||||||||||||||||||||||||| Recurrence des nombres de Bernoulli. Developpons Bn+1(1) = Bn+1(0): Xn+1 k=1 n + 1 k Bn+1k = 0: MATH2171 2005-06 { 5 { Dierences

nies { 174 On obtient ainsi quelques nombres de Bernoulli6 non nuls: B0 B1 B2 B4 B6 B8 B10 B12 B14 B16 B18 B20 1 1 2 1 6 1 30 1 42 1 30 5 66 691 2730 7 6 3617 510 43867 798 174611 330 Sommes de puissances consecutives. Appliquons la formule d'Euler-Maclaurin a f(x) = xr, r entier > 0, avec a = 0; b = N + 1; h = 1: (N +1)r+1=(r+1) = 1+2r + +Nr + (N + 1)r 2 Xr+1 k=2 Bk k! r(r1) : : : (rk+2)(N +1)rk+1; on arrive a 1 + 2r + + Nr = [Br+1(N + 1) Br+1(0)]=(r + 1): Plus generalement, Bn(x+1)Bn(x) = nxn1: par la fonction generatrice, Bn(x+1)Bn(x) est n! fois le coecient de tn de t(e(x+1)t ext)=(et 1) = text, ce qui donne bien nxn1. Series de Fourier des extensions periodiques des polyn^omes de Bernoulli. Partant de P1(x) = X1 k=1 Z 1 0 (t 1=2)e2ikt dte2ikx = 1 2i X1 k=1 k6=0 k1e2ikx; on integre n 1 fois: Pn(x) = n! (2i)n X1 k=1 k6=0

kne2ikx: Quand n est pair, Pn(x) = 2(1)n=2n! (2)n X1 k=1 kn cos(2kx); ce qui montre que jPn(x)j 6 jPn(0)j (tous les coecients de la serie de Fourier son t de m^eme signe). On a donc B2n = 2(1)n+1(2n)! (2)2n X1 k=1 k2n, n = 1; 2; : : : , ainsi: X1 k=1 1 k2 = 2 6 ; X1 k=1 1 k4 = 4 90 ; X1 k=1 1 k6 = 6 945 ; etc. Obtention directe de 1X 1 1 k2 = 2 6 . 6Attention, certains auteurs (Dwight, par exemple) utilisent une autre conventio n ou (1)k1B2k est note Bk. MATH2171 2005-06 { 5 { Dierences

nies { 175 Le polyn^ome (x + i)2n+1 (x i)2n+1 2i = c0x2n + c2x2n2 + = (2n + 1)x2n (2n + 1)(2n)(2n 1)x2n2=6 + a 2n zeros distincts zk = cotg k 2n + 1 , k = 0; 1; : : : ; 2n symetriquement disposes autour de 0: zk = z2n+1k. La somme des carres des zeros est (c1=c0)2 2c2=c0, ici 2n(2n 1)=3, donc n(2n 1) 3 = Xn 1 cotg2 k 2n + 1 < (2n + 1)2 2 Xn 1 1 k2 < Xn 1 cosec2 k 2n + 1 = n(2n + 2) 3 : Cf. H. Tsumura, (2m), Amer. Math. Monthly 111 (2004) 430{431. D.H. Lehmer (A new approach to Bernoulli polynomials, Amer. Math. Monthly 95 (19 88) 905{911) distingue 5 facons d'aborder les nombres et polyn^omes de Bernoulli: Somme de puissances Pm1 0 kn1 = (Bn(m) Bn(0))=n (Jac. Bernoulli, avant 1705), Fonction generatrice P 10 Bn(x)tn=n! = text=(et 1) (Euler, 1738), Suites d'Appell Bn1 = B0n =n (Appell, 1832), Series de Fourier Bn(x) = n!=(2i)nP 1k =1 kne2ikx (H urwitz, 1890), Calcul umbral Bn(x) = (B + x)n (Lucas, 1891), auxquelles il ajoute une sixieme, basee sur une formule de multiplication de Raabe (1851): Bn(mx) = mn1Pm1 k=0 Bn(x + k=m). Nombres et polyn^omes d'Euler. 2ext et + 1 = 1X 0

En(x) tn n! ; En = 2nEn(1=2): E0 E2 E4 E6 E8 E10 E12 E14 1 1 5 61 1385 50521 2702765 199360981 On a 1 cos x = 1X n=0 (1)nE2n x2n (2n)! . 6.2. Schema d'integration de Romberg. Comme Rhf := Z xN x0 f(u) du h 2 (f0 + 2f1 + 2f2 + + 2fN2 + 2fN1 + fN) a, d'apres (97), un developpement en puissances paires de h, on applique l'extrapolation de Richar dson partant des ci;0 = Rh0=2i , puis ci;k = (x xi)ci+1;k1(x) (x xi+k)ci;k1 xi+k xi ; k > 0: avec x = 0 et xi = h0=4i: ci;k = 4kci+1;k1(x) ci;k1 4k 1 ; k > 0: MATH2171 2005-06 { 5 { Dierences

nies { 176 6.3. Formule d'Euler-Maclaurin en tant que formule sommatoire. Reprenons (97) en exprimant la somme: f0 + f1 + f2 + + fN1 = h1 Z b a f(t) dt + f0 fN 2 + Xm k=1 B2k (2k)! h2k1 f(2k1)(b) f(2k1)(a) "2m+2=h; (98) ou "2m+2 = h2m+2 B2m+2 (2m + 2)! NX1 j=0 f(2m+2)(j), avec j 2 [xj ; xj+1] (fj = f(xj) = f(a+jh); j = 0; 1; : : : ;N). Par un interessant renversement de valeurs, on peut estimer une somme d'un grand nombre de valeurs fonctionnelles en partant d'une integrale! Nombres harmoniques, constante d'Euler. Le Meme nombre harmonique est le nombre rationnel HM = 1 + 1=2 + + 1=M. Soit M0 grand < M, on a HM = HM0 + 1=(M0 + 1) + + 1=M. Par la formule precedente, avec N = M M0, f(x) = 1=(x+M0) et h = 1, HM = HM0 1=M0 +1=M +ln(M=M0)+(1=M0 1=M)=2 Xm k=1 B2k 2k 1 M2k 0 1 M2k "2m+2 donc, HM lnM 1 2M + X2m k=1 B2k 2kM2k = HM0 1 2M0 + X2m k=1 B2k 2kM2k

lnM0

0 "2m+2; avec j"2m+2j = jB2m+2j NX1 j=0 (M0 + j + j)2m3 < jB2m+2j (2m + 2)(M0 1)2m+2 , ce qui montre que fHMlnMg est une suite de Cauchy de limite appelee , constante d'Euler. Avec M = 1: = HM0 lnM0 1 2M0 + X2m k=1 B2k 2kM2k 0 "2m+2; ce qui permet de calculer ecacement: Dear Simon, I send you Euler's constant to 1000000 digits. The algorithm used is the one presented in the paper of McMillan and Brent [1] (the second variant) accelerated by binary splitting [2], [3]. This calculation verified the previous 500000-digits record to 499927 digits. Using the 500000-digit value of gamma and a program by H.J.J. te Riele, CWI Amsterdam [4], I was also able to compute 470006 partial quotients of the continued fraction of gamma. Computing the 470006-th convergent results in the following [5] Theorem: If Euler's constant is a rational number P/Q, for integers P, Q then |Q| > 10^242080 MATH2171 2005-06 { 5 { Dierences

nies { 177 * Acknowledgements * The latest calculation would have been possible without the help and motivation from H.J.J. te Riele, Richard Brent and my colleague Bruno Haible. Best Thomas Papanikolaou References: [1] R. P. Brent and E. M. McMillan, Some new algorithms for high-precision compu tation of Euler's constant, Math. Comp. 34 (1980) 305-312. [2] Bruno Haible, Thomas Papanikolaou, Fast multiprecision evaluation of series of rational numbers, Technical Report No. TI-7/97, 18.03.1997. Available via http://www.informatik.th-darmstadt .de/TI/Veroeffentlichung/[3] Jonathan M. Borwein and Peter B. Borwein, Pi and th e AGM, Wiley, 1987. [4] Richard P. Brent, Alfred J. van der Poorten and Herman J.J. te Riele, A comp arative study of algorithms for computing continued fractions of algebraic numbers, pp. 37-49 in: H. Cohen ( editor), Algorithmic Number Theory: Second International Symposium, ANTS-II, Talence, France, 18-23.0 5.1996, Springer, Berlin etc., 1996. [5] Thomas Papanikolaou, Entwurf und Entwicklung einer objektorientierten Biblio thek f ur algorithmische Zahlentheorie, PhD Thesis, to appear. [6] Steve Finch, http://www.mathsoft.com/asolve/constant/euler/euler.html ------------------------------------------------------------------------------Euler's constant to 1000000 digits computed on Mars 24, 1997 on a Sun Sparc Ultra machine with 167 Mhz and 256 MB RAM in 42 hours 27 hsec. The algorithm was implemented using the LiDIA library for computational number theory and it will be part of the multiprecision floating-point arithmetic of the package in release 1.4. LiDIA is available from ftp://ftp.informatik.th-darmstadt.de:/pub/TI/systems/LiDIA , http://www.informat ik.th-darmstadt.de/TI/LiDIA's kernel used Bruno Haible's CLN package, which is a vailable via anonymous FTP from ftp://ma2s2.mathematik.uni-karlsruhe.de:/pub/gnu/cln.tar.z This package contains the

rst implementation of a binary splitting device for rational series. -----------------------------------------------------------------------------Here is the output of the program: Calculating Euler's constant to 1000000 decimals Time required: 42 hour 27 hsec Euler = 0.5772156649015328606065120900824024310421593359399235988057672348848677267776\ 646709369470632917467495146314472498070824809605040144865428362241739976449235\ etc. cf. http://www.lacim.uqam.ca/pi MATH2171 2005-06 { 5 { Dierences

nies { 178 Grandes factorielles. Formule de Stirling. On reprend le raisonnement precedent avec lnM au lieu de 1=M: lnM! M lnM +M lnM 2 X2m k=1 B2k 2k(2k 1)M2k1 = lnM0! M0 lnM0 +M0 lnM0 2 X2m k=1 B2k 2k(2k 1)M2k1 0 "2m+2; avec j"2m+2j = jB2m+2j 2m + 2 NX1 j=0 (M0 + j + j)2m2 < jB2m+2j (2m + 2)(2m + 1)(M0 1)2m+1 , ce qui montre que flnM!(M +1=2) lnM +Mg est une suite de Cauchy. La limite lnp2 s'etablit par examen d'inegalites portant sur Z =2 =2 cos2M d = 4M 2M M . Donc, M! = p2 MM+1=2eM exp ( X2m k=1 B2k 2k(2k 1)M2k1 + "2m+2 ) : Fonction zeta de Riemann. (s) = X1 1 1 ns converge absolument seulement si Re s > 1. (s) = NX1 1 1 ns + X1 N 1 ns . On applique (98) a la deuxieme serie, avec f(x) = xs, a = N, b = 1 et h = 1. On trouve (s) =

NX1 1 1 ns + 1 2Ns + 1 (s 1)Ns1+ Xm k=1 B2k (2k)! s(s + 1)(s + 2) : : : (s + 2k 2) Ns+2k1 "2m+2; ou "2m+2 = B2m+2 (2m + 2)! s(s + 1) : : : (s + 2m + 1) X1 j=N 1 s+2m+2 j , avec j 2 [j; j + 1]. Cette derniere serie converge, et est aussi petite que l'on veut pourvu que N soit assez grand, des que Re s > 1 2m. On peut ainsi de

nir, et calculer, (s) dans tout C n f1g. Autres formules sommatoires. Plana: X1 n=0 f(n) = 1 2 f(0) + Z 1 0 f(x) dx + i Z 1 0 f(iy) f(iy) e2y 1 dy (P. Henrici, Applied and Computational Complex Analysis I, Wiley, 1974, p. 274). Boole: n=XN1 n=0 (1)nf(a + sh + nh) = k=Xm1 k=0 hk 2k! Ek(s)[f(k)(a) (1)Nf(k)(b)] + "m: MATH2171 2005-06 { 5 { Dierences

nies { 179 (N.E. N orlund, Vorlesungen uber Dierenzenrechnung, chap. 2; J.M. Borwein, P.B. Borw ein, K. Dilcher: Pi, Euler numbers, and asymptotic expansions, American Math. Monthly 96 (1989) 681-687.). Poisson: X1 k=1 F(k) = 1 X1 n=1 G(2n=); ou G est la transformee de Fourier de F : G(!) = R 1 1 F()ei!d (P. Henrici, Applied and Computational Complex Analysis II, Wiley, 1977, p. 270) . Regle de la tangente hyperbolique: Z 1 1 f(x) dx = Z 1 1 f(tgh t dt cosh2t h X1 1 f(tgh nh) cosh2nh : Nombreuses proprietes curieuses7 7C. Schwartz, Numerical integration of analytic functions, J. Comput. Phys. 4 (1 969) 19-29. S. Haber, The tanh rule for numerical integration, SIAM J. Numer. Anal. 14 (1977) 668-685. M. Mori, Quadrature formulas obtained by variable transformation and the DE-rule, J. Comp. Appl. Mat h. 12& 13 (1985) 119-130. MATH2171 2005-06 { 6 { Recapitul. { 180 CHAPITRE 6 Recapitulation. De

nition de Principe directeur Methode Estimation d'erreur, Developpements l'approximation (Existence, unicite d'obtention convergence applications caracterisation) algorithmes Meilleure Theoreme Algorithme de La Vallee Poussin Proprietes approx. en d'equi- d'echa nge, ? discrete, norme uniforme oscillation bonne approx. Weierstrass rearrangement, min kf pk1 P0 ck(f)Tk recurrence Meilleure p = projection cas polynomial: suites totales, ma x. Proprietes approximation orthogonale de polyn^omes espace de Hilbert polyn^omes en moyenne de f orthogonaux. vitesse de orthogonaux. quadratique dans V Cas trigonometrique: decroissance kf pk2 minimum series de Fourier coe. Fourier FFT Interpolation Systeme Lagrange, Newton, Z de Gauss i(p) = i(f) d'equations Neville, Hermite Peano Newton-Cotes, (par ex., p(ai) = f(ai )) lineaires. Newton-Gregory Euler-Maclaurin MATH2171 2005-06 { 7 { Alphabets, petit dico, index. { 181 CHAPITRE 7 Appendices: alphabets grec, cyrillique, petit dico, index. 1. Alphabets A alpha B

beta gamma delta E epsilon Z zeta H eta ; # theta I iota K kappa lambda M mu N nu ksi O o omicron pi R rho ; & sigma T tau upsilon ; ' phi khi psi ! omega a A b B v V g G d D e E zh Z z Z I i I J j J K k K L l L M m M N n N O o O P p P R r R S s S T t T U u ou F f F Q q tch X x ch W w chtch Y y Y e you ya MATH2171 2005-06 { 7 { Alphabets, petit dico, index. { 182 2. Petit dico mathematical English ! francais mathematique. Y compris des expressions jugees utiles lors du Mathematics Seminar MATH 2900. Voir aussi dictionnaires mathematiques francais-anglais et anglais-francais dans \E PS MAG DE MATHS" http://perso.wanadoo.fr/eps/ Hauchecorne Bertrand, Shaw Adrian: Lexique bilingue du vocabulaire mathematique, A B V G D E

ELLIPSES - Edition Marketing S.A., Paris analysis: analyse to approximate: approcher approximation of functions approximation to a function on the assumption that: dans l'hypothese ou ball: boule beyond: au dela bound: borne bounded: borne(e) Chebyshev: Tchebyche decreasing: strictement decroissant(e) digit: chire eigenvalue, vector: valeur, vecteur propre even: pair ever: toujours, inde

niment

eld: corps, champ for all: pour tout(e) function: fonction generating function: fonction generatrice generating sequence: suite generatrice increasing: strictement croissant(e) induced map: application induite kernel: noyau key idea: idee principale large: grand least squares: moindres carres least squares approximation: approxim. en moyenne quadratique less than: strictement inferieur a link: lien map, mapping: application (math.) negative: strictement negatif(ve) non decreasing: croissant(e) non increasing: decroissant(e) non negative: positif(ve) non positive: negatif(ve) norm: norme number: nombre numeric, numerical: numerique(s) odd: impair outcome: resultat polynomial: polyn^ome, polynomial positive: strictement positif(ve) principle: principe provided: pourvu que Q.E.D. : C.Q.F.D. quotient space (factor space): espace quotient radius, radii: rayon, rayons rational: rationnel(le) remainder: reste reproducing: reproduisant, regenerateur root: racine (voir zero) rule: regle sample: echantillon scalar: scalaire sequence: suite series: serie(s) small: petit space: espace spaced out: echelonne spanned by: engendre par square: carre stable under: stable par to state: declarer such that: tel(le) que symmetric: symetrique tailor: tailleur Taylor: Taylor unbounded: non borne(e) unless: a moins que until: jusqu'a ce que to vanish: s'annuler vector space: espace vectoriel zero: zero (d'une fonction) Index

absolument continue, fonction, 73 ACM, 9 ane, espace, 22 AGM, 15 aliasing, 62 Approximation rationnelle, 65 autoadjoint (form.), 97 B-splines, 137 base de Lagrange, 142 base duale, 50, 142 Beltrami, 104 Bernoulli, nombres et polyn^omes de, 170 Bernstein, 41, 132 Bernstein, polyn^omes de, 130 Bessel, inegalite de, 127 Bezier, 136 Bickley, 165 binomiale, loi, 130 biorthogonalite, 50, 142 Boole, formule sommatoire de, 178 Brezinski, 148 Caratheodory-Fejer, 66 Christoel-Darboux, 46, 96 classiques, polyn^omes orthogonaux, 98, 102 Clenshaw-Curtis, regle de, 157 convexe, 22 CORDIC, 13 Cotes, R., 169 Darboux-Christoel, 46, 96 de La Vallee Poussin, 30, 58, 68 de

nie positive, 71, 75 Delsarte, P., 102 dierences divisees, 145 Dirichlet, 54 distance, 18 duale, base, 50 echange, algorithme d', 32 electrostatique, 100 Equations du 3eme degre, 46 equations normales, 76, 112 equioscillation, 27 Euler, constante d', 176 Euler, nombres et polyn^omes d', 175 Euler-Maclaurin, formule d', 170 Fejer, 134 FFT, 122 Fourier, 54, 116 Fourier, series de, 54 fraction continue, 16, 94 Frobenius, 65 Frutiger, 137 Gamma, fonction, 89 Gegenbauer, polyn^omes de, 102 generatrice, fonction, 45 Genin, Y., 102 Genocchi, 149 Gram, matrice de, 74 Gram-Schmidt, 78, 83 H older, normes de, 19 Haar, 31 Hankel, matrice de, 84 harmoniques spheriques, 104 harmoniques, nombres, 176 Hermite, 146 Hermite, polyn^omes d', 89, 98, 102, 107 Hermite-Genocchi, 149 hermitien (form.), 97 Hilbert, espace de, 128 integration, Gauss-Legendre , 94 integration, Gauss-Tchebyche, 95 integration, formule de Gauss d', 92 Integration: Clenshaw-Curtis, 157 Integration: plusieurs var. et soft. KULeuven, 157 Integration: regle de Clenshaw-Curtis, 157 Integration: regles adaptatives, 157 interpolation d'Hermite, 141 Interpolation rationnelle, 144 irrationnalite, 15 183 MATH2171 2005-06 { 7 { Alphabets, petit dico, index. { 184 Ismail, M.E.H., 102 Jackson, th. de, 132 Jacobi, polyn^omes de, 98, 102 Jordan, theoreme de, 54 Karatsuba, 123 Kolmogorov, 26, 33 Kronrod, 157 Lagrange, 140 Lagrange, base de, 142 Laguerre, polyn^omes de, 89, 98, 102

Laplace-Beltrami, 104 Lebesgue, constante de, 56 Lebesgue, lemme de, 56 Legendre, polyn^omes de, 88, 89, 102, 105 Leibniz, formule de, 147 Lissajous,

gure de, 38 Lobatto, 100, 156 Marko, 41 Mawhin, J., 133 mediane, 25 Meinguet, J., 7, 18, 44, 144, 168 module de continuite, 60 moindres carres, 111 moments, probleme des, 135 moyenne, 25 M untz, 79, 134 Nevai, P., 102 Neville-Aitken, 146 Newton-Cotes, formules de, 166 norme, 19, 23 norme 1, 115 norme stricte, 23 noyaux, 109 NURBS, 137 ondelettes, 124 orthogonal, orthogonaux, 72, 77 orthogonale, matrice, 91 orthogonalite: pol. de Tchebyche, 50 orthogonalite: Sturm-Liouville, 50 Pade, 65 Parseval, 118, 128 Peano, theoreme de, 158 Penrose, 77 Plana, formule sommatoire de, 178 Poisson, formule sommatoire de, 179 Poncelet, 13 prehilbertien, 26 prehilbertien, espace, 74 premiers, nombres, 68 produit scalaire, 71 qd, algorithme, 88 quasi-periodique, 77 quotient-dierence, algorithme, 88 Radau, 156 rationnelle, approximation, 39, 44, 65 rationnelle, interpolation, 144 recurrence, 38, 43, 44, 84, 89 relative, erreur, 31, 39 Remez, 32, 42 Riccati, 16, 99 Riemann-Lebesgue, 55, 118 Rodrigues, 49, 100 Romberg, schema de, 175 Runge, 153 SIAM, 9 Simon, B., 102 Simpson, formule d'integration de, 166, 167, 169 sommatoires, formules, 176, 178 spline, 25, 151 Stirling, formule de, 178 Stone-Weierstrass, 133 Sturm-Liouville, 47, 50, 98 tau, methode des, 63 Tchebyche, 66 Tchebyche, centre et rayon, 26

Tchebyche, polyn^omes de, 34, 40, 102 Tchebyche, series de, 56 Tchebyche, theoreme de, 27 totale, suite, 127 trapezes, regle des, 166, 167 Trefethen, L.N., 66 unicite, 22, 23, 25, 29 unicite, forte, 24, 30 unitaire, matrice, 91 Van Pee, M., 169 variation bornee, 54, 119 Weierstrass, theoreme d'approximation de, 60, 129 Zeros de polyn^omes, 89 zeta, fonction- de Riemann, 68, 178 Zolotarev, 39 Fin de MATH2171 T hat's all, Folks