Vous êtes sur la page 1sur 17

Mathmatique et Informatique

Philippe Flajolet & Grard Huet

Linformatique est la fois science et technologie. La technologie est la partie visible de liceberg, celle laquelle est confront le grand public. Rservation davions, consultation de prvisions mtorologiques pour une le lointaine, changes de courrier lectronique, ou recherche ditinraires en banlieue font dsormais partie de la vie quotidienne. Que ces services soient possibles, est largement sous-tendu par les progrs du matriel, issus euxmmes davances tant fondamentales quappliques dans des domaines varis des sciences physiques tels la physique des solides, llectronique, la microlectronique, ou loptique. Mais une condition sine qua non est le progrs fondamental accompli au cours des cinq dernires dcennies sur les aspects dits logiciels, cest--dire lalgorithmique, la programmation, et, plus gnralement, le dveloppement de systmes de calcul complexes. Ceci repose sur une science jeune mais dsormais tablie, linformatique, largement indpendante des dispositifs matriels (ordinateurs). Nous parlerons ici de la discipline scientifique quest linformatique 1. Nous en dgagerons dabord les principales racines historiques ancres dans la tradition scientifique classique. Puis nous examinerons la manire dont informatique fondamentale et sciences mathmatiques sont intimement lies tout autant dans leur dveloppement rcent que dans un futur prvisible.

1. Contexte historique
Linformatique a des racines qui remontent aux mathmatiques de lantiquit, travers deux courants principaux : lalgorithmique, qui systmatise la notion de calcul, et la logique, qui formalise la notion de dmonstration. Ces deux aspects sont dj fortement prsents dans la science grecque: Archimde et Diophante calculent laire sous une parabole et les solutions de systmes dquations en nombres entiers, tandis quEuclide dgage la notion de systme axiomatique pour la gomtrie lmentaire, et Aristote abstrait du discours la logique propositionnelle. Il est piquant de noter que ces deux courants fondamentaux constituent toujours la base de linformatique contemporaine. Jusquau XIXe sicle, de grands mathmaticiens, comme Newton, Leibniz, Euler ou Gauss, inventent des mthodes originales de calcul numrique et symbolique. Celles-ci sont destines un calculateur humain, mais leur caractre systmatique prfigure dj ce qui servira tablir les premiers fondements de linformatique. En parallle, au tournant du XXe sicle, le courant axiomatique conquiert de nombreuses branches des mathmatiques, avec pour corollaire des interrogations mthodologiques (ou mtamathmatiques ) donnant lieu une Soulignons que lobjet de cette discussion est la discipline informatique cur (core computer science) encore appele informatique fondamentale ou informatique thorique. Les trs nombreux jeux trois (modlisation) impliquant mathmatique, une autre discipline scientifique, et lutilisation de lordinateur ne seront quvoqus indirectement ici.
1

discipline nouvelle la logique mathmatique. De ce courant seront issues en particulier une thorie gnrale de la calculabilit (Post, Turing, Kleene, Church) et plusieurs thories de la dmonstration (Gentzen, Herbrand, Heyting). Ces thories constituent la seconde base de linformatique : ds quil sera ncessaire de formaliser la notion dalgorithme, de dfinir des langages de programmation propres lexpression non-ambigu dalgorithmes, de vrifier la cohrence de langages et de programmes, elles savreront particulirement prcieuses. 1.1 Algorithmique Par algorithme, on entend un procd systmatique de calcul. Le sens mdival est celui de mthode pour effectuer les quatre oprations arithmtiques de base (formalise par Al Khwarizmi au IXe sicle), mais il stend rapidement tout procd de calcul. Les calculs tant effectus par les scientifiques eux-mmes (ou leurs disciples), la notion de complexit est dj trs prsente : on sait ou on peroit bien que tel procd est plus efficace converge plus vite ou ncessite moins de manipulations que tel autre, mais la notion reste informelle et subliminale. Jusquau XVIIe sicle, il y a dailleurs souvent concidence entre mathmatiques et calcul proprement dit. Newton, clbre (entre autres) pour son procd numrique de rsolution dquations invente mme des procds de calcul que lon qualifierait de nos jours de symbolique ou formel : voir par exemple le fameux polygone de Newton utile la caractrisation locale des courbes algbriques. Au milieu du XVIIIe sicle, Euler propose de nombreux procds de calculs, tant numriques (la discrtisation des quations diffrentielles) que symboliques (lintgration en termes finis et lexplicitation de nombreuses sommes et intgrales dfinies). Le dix-neuvime et la premire moiti du vingtime sicle verront ces approches se dvelopper, par exemple en liaison avec la constitution de tables, lesquelles sont un pr-calcul effectu une seule fois et disponible universellement pour des tches rptitives. Jusquaux annes 1950, la construction de telles tables sappuie dailleurs dj sur une utilisation systmatique, mais encore supervise par lhomme, de calculateurs mcaniques ou lectromcaniques. La seconde guerre mondiale verra un investissement important dans le dveloppement des calculateurs fins militaires (dfense anti-arienne mais aussi analyse cryptographique), priode pendant laquelle le mathmaticien John von Neumann joue un rle connu de tous. Ainsi, les premires applications sont-elles trs largement du ressort de lanalyse numrique de systmes diffrentiels. La priode qui suit, de 1945 1955, est celle o seffectue progressivement la fusion entre calculateurs scientifiques et calculateurs de gestion, domaine dans lequel fleurit la puissante socit IBM. Cest sur ce terrain que va se dvelopper ce qui est dabord un ensemble de savoir-faire techniques et qui donnera ensuite naissance la science informatique. Le volume en croissance rgulire des donnes traiter (par ex., les recensements), la diversit et lhtrognit de ces mmes donnes ncessitent des mthodes daccs rapide linformation non-numrique. Comment accder efficacement des ensembles de donnes dans un espace multidimensionnel ? Comment trouver rapidement une information partiellement spcifie ? Comment maintenir lefficacit sur des donnes qui varient dynamiquement ? Comment interroger des volumes de donnes organiss selon des critres diffrents ? Sur ces questions, se constitue partir des annes 1960 un ensemble de mthodes : on en arrive aux concepts de structures de donnes, puis de bases de donnes, et lon dgage simultanment quelques grands paradigmes de programmation, comme le clbre principe

diviser-pour-rgner fond sur la rcursion. Un regard sur les premiers volumes du journal ou des communications de lACM montre dailleurs que cette entreprise nallait pas de soi. Les mathmatiques jouent en cela un rle conceptuel majeur, et par exemple les meilleures structures de donnes actuelles sont souvent fondes sur une utilisation astucieuse de la structure darbre, driv naturel de la notion mathmatique de graphe, dont Knuth affirme quil sagit de la structure la plus importante de toute linformatique. Cest aussi un effet de la formalisation mathmatique du domaine que des algorithmes qui reprsentaient des tours de force dingniosit il y a quatre dcennies puissent maintenant tre penss et programms de manire simple par un tudiant duniversit bien form. Nous discutons la section 2 cidessous quelques grandes tapes et quelques faits marquants de cette volution. 1.2 Logique. La logique est une proccupation philosophique depuis lantiquit, par ses rapports avec le langage, et comme investigation rationnelle de la notion de vrit. Support de la rhtorique, elle resta longtemps une discipline distincte de la mathmatique, avant que les considrations sur les fondements et sur la notation mathmatique ne dveloppent dans les annes 1930 une discipline renouvele dite logique mathmatique, et notamment la thorie de la dmonstration. Mais les progrs de llectronique dans les cinquante dernires annes, en permettant le dveloppement de machines calculer lectroniques ou ordinateurs, a permis de transcender la notion traditionnelle de calcul pour laborer une notion tendue de calcul formel possiblement non dterministe faisant rentrer llaboration de dmonstrations dans un cadre gnral de programmation. Ceci a re-dplac la logique mathmatique, qui se trouve aujourdhui au cur des proccupations de linformatique. Une convergence remarquable entre la thorie des catgories (qui renouvelle ce quon appelait avant-guerre lalgbre universelle), la thorie de la dmonstration (avec son dernier avatar, la ludique lie la thorie des jeux), et la thorie des langages (elle-mme en rapport dialectique fcond avec la linguistique), permet maintenant le dveloppement dune mthodologie appele thorie des types, qui donne un fondement rigoureux la smantique des langages de programmation, lesquels sont passs du statut de notation de haut niveau pour des codes excutables par une machine, celui de notations compltement gnrales pour les mathmatiques (plus ou moins constructives). Les programmes informatiques deviennent ainsi les squelettes de la preuve de leur adquation des spcifications formelles. Linformatique se dote de la sorte dun appareil mathmatique puissant, permettant de guider la conception de logiciels efficaces, robustes et fiables. Nous allons expliquer dans ce chapitre les principales articulations de ces deux courants qui interpntrent profondment la mathmatique et linformatique fondamentale.

2. Algorithmique
2.1 Bases. partir de 1965, Donald E. Knuth, alors lUniversit de Stanford, entreprend un gigantesque travail de synthse. Il sagit de louvrage en plusieurs volumes intitul The Art of Computer Programming, o sont rsums les principaux algorithmes et structures de donnes

de base de linformatique non numrique. Dans le mme temps, Knuth invente un nouveau domaine, lanalyse dalgorithmes. Il sagit de caractriser le comportement en nombre doprations lmentaires, de ces mthodes de calcul. Allant bien au del de la dtection des cas pathologiques qui donnent lieu aux pires cas ( worst-case analysis ), lanalyse dalgorithmes sattache dans un premier temps valuer les algorithmes selon leur comportement moyen ( average-case analysis ), puis, plus finement, selon leur comportement typique ( probabilistic analysis ). Cette entreprise globale qui se poursuit de nos jours fournit un cadre rigoureux la comparaison des algorithmes, en mme temps quune organisation de ces algorithmes en grandes catgories selon leur fonction et leur complexit mesure par la consommation de ressources (temps, mmoire). Ce que constate dj Knuth, et qui reste dans une large mesure un mystre, cest daprs le mot du physicien Eugne Wigner la draisonnable efficacit des mathmatiques dans ce secteur. Il est en effet surprenant de dcouvrir que des domaines fort classiques des mathmatiques, dvelopps le plus souvent sans vise applicative immdiate, comme lanalyse combinatoire et lanalyse asymptotique (relle ou complexe), aient voir avec un monde aussi artificiel que celui des ordinateurs et de leurs programmes, Les annes 19601970 voient galement lmergence dune thorie de la complexit, domaine qui sinspire dune abstraction de la complexit des algorithmes et puise ses racines dans la thorie de la calculabilit examine ci-dessous. Loptimisation combinatoire, issue pour une large part du traitement informatique de problmes de recherche oprationnelle, effectue une jonction avec la thorie de la complexit grce aux travaux de Stephen Cook et Richard Karp vers 1970. Ceux-ci montrent en effet que parmi des centaines de problmes doptimisation discrte qui taient lobjet de recherches parses, il existe une classification fondamentale: dune part la classe P de ce qui est rsoluble en temps polynomial en la taille des donnes; dautre part la classe NP des problmes dont une solution est facilement vrifiable mais difficilement trouvable (laiguille dans une botte de foin!). Cette trame imprgne dsormais lensemble de linformatique; elle donne son tour lieu lmergence de nouvelles mthodes conues pour contourner les barrires de complexit de la classe NP: techniques dapproximation, approches probabilistes, raffinements paramtrs en sont des exemples. Notons que le problme P =? NP est lun des sept Problmes du Millnaire recenss en sciences mathmatiques par la Fondation Clay. partir de 1976, Michael O. Rabin dcouvre et popularise limportance dapproches probabilistes dans la conception dalgorithmes. Cest ce quon appelle parfois lalatoirisation (randomisation, en anglais) lala est introduit volontairement dans le calcul. Lordinateur peut avoir intrt jouer aux ds Ce changement de paradigme de programmation apporte dans un nombre de domaines des gains spectaculaires. Il sagit notamment des calculs arithmtiques, des structures de donnes classiques pour laccs rapide linformation, de la gomtrie algorithmique, et de lalgorithmique distribue. Ainsi une algorithmique probabiliste permet pour la premire fois de dterminer la primalit (avec risque derreur infrieur 10-100) de nombres de plusieurs centaines de chiffres : le systme cryptographique RSA qui garantit quotidiennement la scurit de plusieurs millions de transactions repose sur ces techniques. Dans un autre domaine, afin que des ordinateurs communiquent en rseau, il est avantageux de se dpartir de lapproche dterministe de la tlphonie classique et de rsoudre les conflits daccs tout simplement par tirages au sort: ces principes sont la base des rseaux Ethernet et du protocole TCP rgissant plus de 90% des changes sur lInternet.

Pour les trois grandes catgories de problmes cits, il est clair quune dmarche mathmatique joue tout dabord un rle capital dans la formalisation des problmes et la constitution dun cadre de pense. La recherche en optimisation combinatoire nest plus la mme elle est infiniment plus structure et fructueuse aprs les travaux de Cook, Karp, et leurs successeurs. Les perces de Knuth et Rabin, relayes par une large part de la communaut des chercheurs informaticiens, ont chang la manire dont se conduit la recherche en algorithmique,en offrant des repres clairs dans ce qui ne serait autrement quune jungle de techniques. Les sciences mathmatiques alimentent continment lalgorithmique, en suscitant les principes de nouveaux algorithmes ou encore en permettant, via lanalyse dalgorithmes,les optimisations et dimensionnements fins qui sont ncessaires de nombreuses applications informatiques. 2.2. Prsent et futur. laube du troisime millnaire, la question est pose de dterminer si cette priode des pionniers de linformatique sappuyant sur les sciences mathmatiques est ou non en phase terminale. Il est tentant de penser que la science informatique a fait son uvre et peut maintenant tranquillement passer le tmoin une recherche technologique pilote par les besoins du temps. Nous vivons en effet une priode o un ordinateur portable de faible cot possde une puissance de calcul un million de fois suprieure celle des premiers calculateurs lectroniques, et o un tudiant peut acqurir un dispositif de stockage de donnes permettant de conserver lquivalent de plusieurs dizaines de milliers douvrages. La loi de Moore, propose par lun des fondateurs dIntel ds 1965, stipule de fait le doublement de la vitesse de calcul des ordinateurs tous les 18 mois. En plus de trente ans de vie, elle na pas t dmentie et les physiciens estiment que son applicabilit stendra encore jusqu lhorizon 2010, avant que ne soient atteintes les limites imposes par la structure atomique de la matire et les phnomnes quantiques. La problmatique algorithmique ne deviendrait-elle pas dans ces conditions quelque peu dsute voire obsolte ? En fait une rvolution, appuye initialement par le Dpartement de la Dfense des Etats-Unis et relaye par dactifs universitaires dbouche dans les annes 1990 sur une version dj accomplie de lInternet, rseau mondial reliant initialement le monde acadmique et sur lequel se greffent progressivement nombre dindustriels. Celui-ci permet communication et change de donnes distance. Le besoin de disposer de surcrot de documents en accs partag, combinant texte et images, conduit alors dinventifs informaticiens du CERN dvelopper ce qui devient trs vite connu partir de 1995 comme la Toile ou le Web. La Toile change la donne! Elle permet lchange massif de donnes extrmement varies et non structures. On estime plusieurs milliards le nombre de pages aujourdhui accessibles tout un chacun. (Il se produit mme le fait tonnant que linfrastructure des rseaux informatiques englobe graduellement linfrastructure tlphonique traditionnelle.) Cette arrive de la communication informationnelle et informatique massive pose un grand nombre de problmes nouveaux. Disons tout dabord que, face la loi de Moore, le doublement des informations accessibles ou stockables obit actuellement un rythme de croissance dun facteur deux tous les 8 mois environ. Donc, ne serait-ce que pour maintenir des performances constantes, de nouveaux algorithmes doivent tre en permanence conus,

comme lobserve Robert Sedgewick.2 De fait, il existe une importante communaut de recherche en informatique travaillant dans le domaine des donnes massives et de la fouille de donnes ( data mining ). Parmi le foisonnement dalgorithmes rcents, signalons par exemple ceux qui sappliquent aux flots de donnes et en extraient des informations essentielles au prix dune mmoire trs rduite et dune seule passe. Cest un peu comme si lon pouvait assister une pice de Shakespeare quip dune simple feuille de papier, dun crayon et dune gomme, et ressortir avec une estimation prcise (typiquement avec moins de1% derreur) du nombre de mots diffrents prononcs par les acteurs. Lalgorithme voqu ici repose sur la technique dalatoirisation dj discute, sur lanalyse fine de phnomnes probabilistes semi-classiques, ainsi que sur dintressantes mthodes danalyse asymptotique complexe. Ce cas rcent illustre bien lune de nos thses, savoir que les relations dchange dialectique entre mathmatique et informatique sont loin dtre acheves. La compression de donnes est un thme lanc par les travaux de Claude Shannon ( partir de 1948), lui-mme inspir par la thermodynamique statistique, voir lidentification entre entropie et quantit dinformation. Signalons quun texte est compressible dans un rapport de lordre de 3, une image dans un rapport entre 10 et 100, une squence vido dans un rapport 1000 environ les cots de transmission et de stockage en sont diminus dautant. Ce domaine se fonde sur la thorie de linformation (que lon retrouve en statistiques et en analyse financire) et passe par la formalisation de la notion de source, laquelle emprunte dans son esprit autant la thorie des probabilits qu la thorie ergodique. Les algorithmes de compression reposent, entre autres ingrdients, sur les structures darbres et sur la transformation de Fourier. Le domaine connexe de la correction derreurs, lui aussi lanc par Shannon, intervient frquemment ; en effet, toute connexion par modem met en jeu de la correction derreur, et il est frappant quune norme internationale dtermine un certain polynme sur un corps fini : cest sur ce polynme quest construit par des mthodes dalgbre des corps finis un procd de transmission robuste. Lavnement des DVD na dailleurs t possible que grce llaboration de codes fonds sur lexploitation de la structure des corps finis et prsentant de trs haute capacit de correction une raflure de la largeur dun cheveu peut entraner la perte de plusieurs milliers de bits. Enfin, comme lont reconnu il y a peu (et avec rticence) les gouvernements occidentaux, la cryptographie correspond un besoin du grand public. Il sagit de garantir confidentialit et authenticit des communications sur des rseaux ouverts tous. La premire gnration est reprsente par le systme mathmatico-informatique RSA dont le succs a dj t soulign. La mise en uvre de ce systme repose sur des proprits lmentaires de la thorie des nombres exploites astucieusement et conjugues une algorithmique adapte.La scurit de Dans un autre ordre dides, en 1949, on calcule 10 3 dcimales du nombre avec un ordinateur effectuant 103 oprations par seconde ; en 2002, le record du nombre de dcimales connues tait de lordre de 1012 pour un calculateur parallle effectuant 1012 oprations par secondes. Les algorithmes dorigine ayant une complexit quadratique, la seule progression des vitesses de calcul des processeurs naurait gure permis datteindre que quelques dizaines de millions de dcimales, et non pas les mille milliards obtenus ce jour. Les meilleurs procds de calcul du nombre sont dsormais de complexit lgrement superlinaire, soit peine plus que le cot dune addition (!). Des gains algorithmiques infiniment plus grands ont t atteints pour le problme de la factorisation dentier, domaine o les recherches ont t motives par le systme cryptographique RSA.
2

ce systme repose sur le problme mathmatiquement et algorithmiquement difficile de la factorisation de grands entiers (disons, suprieurs 10 100) et a donn lieu une branche nouvelle, la thorie algorithmique des nombres laquelle participent de concert mathmaticiens et informaticiens. Il est de surcrot intressant de noter que de nouvelles gnrations de systmes dots de meilleures caractristiques (longueur de clefs, scurit) sont en dveloppement et que plusieurs dentre eux reposent sur la gomtrie algbrique des courbes et varits sur les corps finis. Certains de ces nouveaux systmes ont la curieuse caractristique de revitaliser des tudes vieilles dun sicle et quelque peu oublies, portant sur la structure des courbes hyperelliptiques, tout en bnficiant dacquis extrmement rcents de la gomtrie arithmtique.

3. Logique et programmation
Lobjet dtude de linformatique sest progressivement dplac des machines vers les algorithmes et les langages. Des considrations de linguistique formelle et de logique allaient ainsi marquer linformatique fondamentale. Rappelons que la logique elle-mme, au dpart une proccupation des philosophes avec la notion de vrit, vint progressivement se mathmatiser, dune part avec la thorie des modles qui utilise les structures mathmatiques de thorie des ensembles et dalgbre universelle (catgories), et dautre part avec la thorie de la dmonstration ou mta-mathmatique qui se proccupe de notations, de preuves, et plus gnralement des structures combinatoires sous-jacentes. Trs vite, il fut reconnu que la logique mathmatique tait lun des principaux fondements de linformatique. Mais linteraction mit du temps se mettre correctement en place ; en effet, la thorie des ensembles et, en France tout particulirement, leffort Bourbakiste allaient rigidifier le discours officiel des mathmatiques autour dun langage standardis de thorie des ensembles de premier ordre, axiomatis dans un calcul des prdicats classiques (cest-dire admettant le principe du tiers exclu). La notion de fonction, associe traditionnellement un procd de calcul, tait relgue une place auxiliaire de relations fonctionnelles ou graphes de fonctions extensionnelles. Ce point de vue est inadquat pour un informaticien, pour lequel la fonction abstrait lalgorithme. Identifier toutes les fonctions qui calculent la forme trie dune liste empche de sintresser aux proprits intentionnelles de leurs algorithmes, comme la complexit du calcul. La premire tape consiste donc dgager une notation fonctionnelle uniforme pour noter lalgorithme qui, la variable formelle x, fait correspondre la valeur dune expression e[x] contenant des occurrences de x. En effet, la mta-notation xe[x] na pas de bonnes proprits de composition. Le logicien Alonzo Church allait changer cet tat de fait dans les annes 1930, en proposant un formalisme lgant pour les notations fonctionnelles, appel lambda-calcul (-calcul), o maintenant lexpression (x. e[x]) (qui abstrait la fonction associant x la valeur de lexpression e[x]) est une formule part entire, pouvant notamment tre utilise comme

sous-formule. La notion de calcul y est rduite une rgle trs simple, dite -rduction.3 Cette notion de calcul non-dterministe vrifie des proprits remarquables, notamment la confluence, qui exprime que les calculs convergent en une forme normale unique. Ce calcul allait progressivement passer du statut de formalisme dfinissant les fonctions calculables (cest--dire pouvant servir de codage aux fonctions partielles rcursives de larithmtique, parmi dautres formalismes quivalents comme les machines de Turing) au statut de primitive centrale des langages de programmation des informaticiens. Dautres formalismes similaires, comme le -calcul de Milner, furent invents par la suite pour modliser notamment les processus concurrents. De mme que certaines prcautions doivent tre prises en thorie des ensembles pour viter les paradoxes issus de notations ensemblistes trop laxistes telles que {x x x }, il convient de munir le -calcul de limitations stratifiantes pour le restreindre des calculs convergents. Cest ainsi que Church dut recourir un systme de types pour restreindre le calcul dnoter des fonctions totales, dans un calcul des prdicats dordre suprieur appel thorie des types simples. Bien sr, tout systme bureaucratique de ce genre est relativement ad-hoc, et lespoir dune notation uniforme pouvant servir de fondement une Mathmatique cohrente universelle sest vanoui avec la destruction par Gdel du programme de Hilbert. Le -calcul nest pas quune notation pour les expressions fonctionnelles. Sous sa forme type, les rgles dinfrence dfinissant le typage peuvent tre considres comme des rgles logiques trs gnrales. Cest ainsi que les -termes simplement typs peuvent tre vus comme des notations pour les preuves sous forme de dduction naturelle du fragment implicationnel du calcul propositionnel. Cette correspondance, dgage progressivement par Curry, Howard et de Bruijn, est un isomorphisme profond entre espaces fonctionnels et structures de dmonstration. Elle permet notamment de faire correspondre la preuve formelle dun nonc mathmatique un programme informatique, qui ralise cet nonc comme spcification. linverse, un programme informatique peut tre considr comme squelette dun raisonnement mathmatique. Ce point de vue extrmement fcond allait tre dvelopp dans les vingt dernires annes dans un programme de Thorie des Types, rassemblant des logiciens et des informaticiens la recherche des fondements logiques de la programmation. Le cadre dit intuitionniste des mathmatiques constructives allait servir de langage de spcification la partie purement fonctionnelle de la programmation, mais dautres paradigmes allaient trouver leur place pour justifier dautres constructions programmatoires, comme le call-cc, qui correspond lutilisation du tiers exclu en logique classique, par exemple dans le -calcul. Ce programme de ralisabilit logique fait ainsi apparatre une analogie profonde entre la programmation dalgorithmes informatiques et la mise au point de dmonstrations mathmatiques. Ce domaine a t particulirement actif en Europe pendant les deux dernires dcennies, et notamment en France avec la logique linaire, le calcul des constructions, et plus gnralement les travaux mens lInstitut de Mathmatiques de Luminy, aux laboratoires de lINRIA Rocquencourt et Nancy, au laboratoire LRI de lUniversit dOrsay, au laboratoire PPS de lUniversit Paris 7, et au laboratoire de Mathmatiques de lUniversit de Chambry. Linformatique franaise a dailleurs toujours t en pointe dans la conception de langages de programmation, puisquon lui doit notamment
3

Cette rduction exprime quune sous-formule ( x. e[x])(A) peut se rduire en e[A].

ADA, Prolog, Eiffel et Caml. Ce programme de recherche fondamentale, la frontire entre la logique mathmatique et linformatique, trouve sa justification applicative dans la problmatique de la scurit des logiciels. Dune part, le typage des langages de programmation permet de certifier quun programme accept par le compilateur (qui comporte un module danalyse statique vrifiant ladquation du programme au systme de types, ventuellement en en synthtisant le type le plus gnral) ne peut chouer lexcution, ni ne peut provoquer de corruption des structures de donnes. Dautre part, cette recherche permet de concevoir des environnements de programmation sophistiqus, assistant un concepteur construire un logiciel conforme ses spcifications, voire synthtisant un programme certifi correct partir de la preuve de cohrence de ses spcifications. Le logiciel de manipulation de preuves Coq permet dexprimenter avec ces nouvelles technologies. La socit Trusted Logic, spcialise dans llaboration de solutions scuritaires fiables bases sur la carte puce, a ainsi pu obtenir la certification au niveau le plus lev de la chane dexcution du langage JavaCard de SUN. Un autre avatar des tudes de smantique dnotationnelle, inities dans les annes 1970 par les informaticiens thoriciens pour comprendre la notion de calcul possiblement non terminant, a t le dveloppement de la programmation du temps-rel, autour notamment des langages ractifs Lustre au laboratoire Verimag de Grenoble et Estrel aux laboratoires de lEcole des Mines et de lINRIA Sophia-Antipolis. Le premier allait trouver son application dans lavionique Airbus, le second, travers la Socit Estrel Technologies, est en train de devenir un acteur incontournable de lautomatique et de la conception de circuits. Finalement, notons les recherches prometteuses sur des formalismes de calcul de processus tels que les rseaux dinteraction ou le join-calculus, qui contribuent poser les fondements des futurs langages de programmation de linformatique distribue, enjeu conomique considrable lheure du dploiement dInternet.

4. Quelques domaines-frontire
Rappelons dabord que la discipline informatique se distingue des autres sciences par son corpus propre de mthodes, dobjets, et de problmatiques, dsormais bien tabli. Elle diffre des mathmatiques par le fait quelle examine des objets variant dynamiquement au cours dun calcul, quelle se soucie de leurs reprsentations, quelle est lie une notion fondamentale de complexit, et quelle doit raisonner sur des systmes qui sont sans quivalent en logique mathmatique classique (systmes distribus, par exemple). Comme nous lavons soulign sur quelques exemples choisis, la dmarche mathmatique imprgne dans le mme temps le dveloppement de linformatique fondamentale: nombre de thories et rsultats mathmatiques y sont utiliss, tandis que le schma mathmatique dfinitionthorme-preuve joue un rle capital dans la structuration des connaissances. En ce sens, la situation de la science informatique vis--vis des mathmatiques peut tre dans une certaine mesure compare celle de la physique thorique ou de la physique mathmatique. Dans cette section, nous examinons quelques uns des courants contemporains o se manifeste une synergie particulire entre mathmaticiens et informaticiens. 4.1. Mathmatiques exprimentales.

Une conjecture clbre du XIXe sicle nonce que toute carte de gographie (cest--dire, tout graphe planaire) est coloriable avec au plus quatre couleurs. Cette conjecture, objet de trs nombreuses tentatives infructueuses, resta ouverte plus de cent ans. En 1976, Appel et Haken surprirent la communaut en en offrant une preuve fonde sur lutilisation de lordinateur. En gros, une analyse fine et originale de la combinatoire qui est en jeu rduit linfini des exceptions a priori possibles un nombre lev mais fini de configurations spciales. Le nombre et la taille de ces configurations tant commensurables avec ce que permettent les ordinateurs du moment, un examen exhaustif des cas spciaux conclut la preuve. Cet exemple est emblmatique de lutilisation de loutil informatique dans les sciences, mais il faut noter que la discipline informatique ny intervient que trs indirectement, en fournissant le soutien logistique des langages de programmation, systmes, et modes de reprsentation des donnes. Le cur de la difficult rside ici vritablement dans lanalyse du problme et dans une vision novatrice de la combinatoire qui y intervient. Waring affirme en 1770 que tout cube dentier est somme dau plus neuf cubes et tout bicarr somme dau plus dix-neuf bicarrs. La conjecture portant sur les bicarrs sera finalement rsolue deux sicles plus tard (en 1986) par Balasubramanian, Deshouillers, et Dress, ce par une succession de procds o alternent estimations de sommes trigonomtriques, mthodes de crible, congruences lmentaires, et vrification informatique. Cet exemple illustre bien la manire dont lordinateur en tant quinstrument dexprimentation peut affecter la conduite dune recherche mathmatique : la stratgie dattaque du problme de Waring naurait sans doute pas t labore indpendamment des vrifications informatiques quelle ncessite. De nos jours, de nombreux mathmaticiens font appel lexprimentation dont les possibilits se voient dcuples grce aux systmes de calcul formel dcrits ci-dessous. La dmarche est tellement intgre quelle nest souvent mme plus mentionne explicitement dans les publications de recherche. Il importe de noter au passage que, contrairement ce qui a pu tre affirm par certains vulgarisateurs, ceci ne diminue en rien le statut de la preuve dans lactivit de recherche mathmatique. Lexprimentation permet par contre de gagner beaucoup de temps en cartant rapidement des hypothses in fine non conformes la ralit, mais aussi, et cest plus essentiel, en permettant de mettre en vidence des phnomnes de nature quasiment physique qui sont en jeu dans un problme dtermin. Cest ainsi que la fameuse hypothse de Riemann peut dsormais sinsrer dans un vaste faisceau de conjectures quantitatives beaucoup plus fines concernant les espacements des zros de la fonction zeta (MontgomeryDyson), lesquelles sont remarquablement bien tayes par des vrifications extensives qui mettent en jeu une algorithmique non triviale (Odlyzko). 4.2. Calcul formel et mathmatiques constructives. On peut estimer quelques millions le nombre dinstallation dans le monde de systmes de calcul formel. Ceux-ci sont utiliss par les mathmaticiens, les informaticiens, et plus gnralement les scientifiques de toutes les disciplines. Par calcul formel, on entend la possibilit de calculer sur des expressions mathmatiques exactes et symboliques , plutt que sur des quantits numriques en prcision limite (et faible). Le dveloppement du domaine seffectue par des quipes aux comptences mixtes o il est parfois bien difficile de distinguer la part des uns et des autres.

Des progrs algorithmiques substantiels ont t accomplis dans les domaines lis aux systmes dquations polynomiales, aux systmes diffrentiels, lintgration symbolique (plutt que numrique), la manipulation de sries, etc. Les types de base incluent des entiers et rels en prcision arbitraire (seulement limits par les capacits physiques des machines), ce qui permet notamment lexprimentation en analyse numrique impliquant des phnomnes trs instables ou chaotiques. Le calcul formel intgre l de manire originale les acquis en structures de donnes et algorithmique gnrale de linformatique, et il savre par exemple que les meilleurs algorithmes de multiplication de grands entiers mettent en jeu la transformation de Fourier (dans sa version discrte), diverses mthodes de partage rcursif de type diviser-pour-rgner (le calcul dit rapide de la FFT), et lutilisation adapte de proprits de congruences arithmtiques. Par ailleurs, la rduction de systmes polynomiaux se rattache la gomtrie algbrique contemporaine, la manipulation symbolique de nombreuses fonctions spciales de la physique devient possible grce lutilisation conjointe de lalgbre diffrentielle moderne et de reprsentations de donnes adaptes, ou encore la factorisation de polynmes seffectue au mieux par des mthodes exploitant la fois la structure des corps finis et les principes dalatoirisation de la section 2.1. Ces recherches originellement motives par des besoins lourds de calcul formel en physique (par ex., dveloppement perturbatifs4) dbouchent dsormais sur un petit nombre de grands systmes gnralistes, lesquels constituent de vritables usines dalgorithmique mathmatique fondes sur des bibliothques comportant de lordre du million dinstructions. Mentionnons ici que le calcul formel peut tre vu comme une version extrme (allant jusqu linformatisation) du courant constructif en mathmatiques, o les preuves dexistence abstraites sont remplaces par des constructions explicites. Ceci nest pas sans impact sur lenseignement des mathmatiques dans les lyces et les universits, les mthodes constructives tant souvent plus concrtes donc plus faciles aborder, tout en se prtant volontiers lexprimentation personnelle. 4.3. Mathmatiques discrtes. Les mathmatiques les plus classiques, celles notamment suscites par les besoins anciens de la physique, sont continues. En revanche, tout calculateur est du point de vue opratoire un systme fini, agissant sur des donnes elles aussi finies et plonges dans des ensembles dnombrables (ds quon fait abstraction de limitations secondaires). Les mathmatiques discrtes sont par dfinition les mathmatiques associes de telles structures finies ou dnombrables, et elles sont donc a priori les plus proches de linformatique. Ainsi les algbres de Boole finies sont le cadre naturel de spcification des circuits lmentaires de calcul. Mme si les proprits structurelles de ces algbres sont relativement pauvres, lalgorithmique associe est de facto lun des points clefs de la vrification logique de circuits de calcul (par diagrammes de dcision binaire ou systmes de contraintes). De mme, les corps finis sont la base de nombreux procds de codage assurant dtection et correction des erreurs dans la transmission ou le stockage des donnes.

Au XIXe sicle, Delaunay mit vingt ans de travail calculer les perturbations de lorbite de la lune induites par la masse solaire. Ces calculs ncessitent de nos jours quelques dizaines de secondes, ce grce aux progrs concomitants du matriel et de lalgorithmique du calcul formel.
4

La combinatoire est le domaine dtude des classes dobjets finis construits par un nombre fini de rgles. Les concepts issus de la combinatoire ont conduit doter linformatique dun riche ensemble de structures de donnes, parmi lesquelles en premier lieu la structure darbre : arbres de recherche pour la structuration de donnes uni- ou multi-dimensionnelles, arbres de termes en calcul formel, arbres de jeux (cf les programmes de jeu dchecs), arbres de mots pour lorganisation de dictionnaires et la compression des donnes, etc. Les graphes sont les objets combinatoires historiquement les plus tudis. Ils sont la base dune large fraction du domaine de loptimisation combinatoire, lequel encapsule, lre informatique, la plus ancienne recherche oprationnelle. Comme il a dj t indiqu la thorie de la complexit a jou dans ce domaine un rle structurant majeur, tandis que de nombreux algorithmes fonds sur des proprits mathmatiques parfois profondes apportent des gains substantiels. On avait grand mal dans les annes 1950 dterminer une tourne de commis voyageur reliant les cinquante capitales des Etats-Unis, alors quon sait dsormais, pour ce problme de cot exponentiel, traiter exactement des graphes mettant en jeu plus de 10.000 sommets. Le domaine des structures discrtes alatoires a pris au fil du temps une importance croissante. Il sagit de caractriser les principaux paramtres de structures combinatoires de grande taille, lorsque celle-ci obissent un modle alatoire dtermin. Arbres, graphes, nuages de points, permutations, et allocations sont certains des objets les plus fondamentaux. Leur examen sous langle de lala rpond aux ncessits de lanalyse dalgorithme dcrite cidessus. Les rsultats obtenus permettent une classification fondamentale vis vis des ressources de calcul des principaux algorithmes dutilisation gnrale en informatique. Ils permettent galement la construction de modles adapts (par exemple, modles de graphes alatoires lis la Toile ou lInternet), do dcoulent des consquences pratiques tangibles quant au dimensionnement des rseaux et au rglage fin des protocoles de communication. Le domaine de lala discret est abord de nos jours principalement sous deux angles complmentaires mais nullement contradictoires. Dune part les approches probabilistes ou stochastiques conduisent immerger le discret dans un modle limite continu (par ex., le mouvement Brownien) riche dinformations souvent plus facile daccs. Dautre part, les approches dites analytiques poussent le calcul ses limites dans le domaine discret en se fondant sur lanalyse combinatoire (dnombrements et transformations combinatoires associes lalgbre des sries), puis retirent les informations cherches au prix dune interprtation des sries gnratrices dans le domaine complexe et dun calcul fin des singularits associes. Lapplicabilit du calcul probabiliste et stochastique lvaluation de performance de systmes informatiques pouvait tre en partie attendue, tant donns les nombreux acquis de la priode prcdant linformatique, en files dattentes et modlisation du trafic tlphonique notamment. Les applications nouvelles de lanalyse combinatoire et de lanalyse complexe (dans un style qui prolonge celui des pionniers du dbut du vingtime sicle) sont peut-tre plus surprenantes. (Lapproche dcrite ici est parallle celle de la thorie analytique des nombres, et des changes portant sur les mthodes destimation se font jour, par ailleurs.) La thorie des systmes dynamiques fait une entre prometteuse dans ces questions, et par exemple, le comportement probable des algorithmes euclidiens, centraux en calcul formel, na t lucid que tout rcemment par des mthodes dynamiques. La physique statistique sattaque mme maintenant au problme dlicat quest la caractrisation des instances typiques de problmes doptimisation combinatoire difficiles (NP-complets), ce en liaison avec la thorie trs mathmatise des systmes dsordonns. Si plusieurs cadres unifis ont ainsi port leurs fruits dans lanalyse quantitative des algorithmes et systmes

informatiques, on se doit de noter que de grandes questions ouvertes subsistent en thorie de la complexit intrinsque des problmes. Il sagit de la question: Quelle est la borne infrieure au cot de tout algorithme de calcul rpondant un problme donn ? Cest un challenge que de dgager un ensemble de mthodes gnrales et de trouver ce qui pourrait tre lanalogue de lois de conservation en physique ou du second principe de la thermodynamique pour le calcul. Le fort pris problme P =? NP appartient cette catgorie de questions. 4.4. Langages, mots, automates, circuits. La thorie des langages formels et des automates est issue lorigine des investigations en thorie de la rcursivit, plusieurs logiciens ayant propos comme modle universel de calcul des systmes de rcriture sur des mots forms sur un alphabet fini : systmes de Post, machines de Turing, grammaires de Thue. Ces modles de calcul se sont rvls quivalents du point de vue de leur expressivit, cest--dire quils peuvent coder des calculs arithmtiques arbitraires (fonctions rcursives partielles). La caractrisation de sous classes dcidables, et la complexit de leur appartenance, de leur quivalence, ou dautres problmes algorithmiques, est un thme classique depuis les dbuts de linformatique thorique dans les annes 1950. Un article dcisif de Rabin et Scott, en 1959, proposa un modle de machines non dterministes, les automates finis, dont les transitions sont reprsentables comme arcs dun graphe fini. Une caractrisation plus algbrique, en termes de langages rationnels, reprsente les langages reconnus par ces automates comme les ensembles de mots engendrs par des oprations dunion, de concatnation, et ditration les expressions rgulires. Le mathmaticien franais Schtzenberger allait systmatiser linvestigation algbrique dune hirarchie de langages formels, dont les langages rguliers (ou rationnels) forment le premier tage, et les langages hors contexte de Chomsky (ou langages algbriques) forment le deuxime tage. Les langages algbriques, reconnaissables par des automates pile, sont particulirement importants du point de vue de la linguistique formelle, et ont servi de cadre aux grammaires formelles utilises pour dfinir la syntaxe des langages de programmation (et autres systmes de notation systmatiques). Ainsi les classes de langages algbriques dterministes (LR(k) et ses sous-classes LALR et LL), ont-elles t tudies dans les annes 1970 avec pour rsultat des analyseurs syntaxiques efficaces et gnriques rsolvant lun des problmes essentiels de la compilation. En linguistique computationnelle, une classe plus large de langages faiblement contextuels (engendrs par exemple par les grammaires darbres adjoints TAG et leurs gnralisations) permet de prendre en compte la syntaxe des langues naturelles, tout en prservant une complexit danalyse qui soit polynomiale. Les automates finis sont un mcanisme de calcul la fois simple et riche : ils correspondent un dispositif qui interagit avec son environnement selon une mmoire et des rgles finies. Ces automates ont connu un renouveau avec lapparition des langages ractifs, lesquels ont rvolutionn la programmation synchrone et temps-rel, et se sont progressivement imposs dans lindustrie pour la conception des automates de contrle, notamment en avionique et dans le nuclaire, comme nous lavons expliqu plus haut. Ltude des automates finis et de lalgorithmique de graphes associe est lun des domaines dexcellence nationaux, avec notamment les laboratoires LIAFA Paris 7, le LaBRI Bordeaux, le LIFL Lille et le laboratoire dinformatique de lUniversit de Marne la Valle. Les recherches en conception de circuits ont elles-mmes engendr une grande varit de

mthodes formelles la taille des circuits intgrs nautorise plus lutilisation de mthodes artisanales, et la vrification des circuits est maintenant intgre la phase de conception. Cette recherche a engendr un renouveau des mthodes de dcision en algbre boolenne (BDD, SAT), et le dveloppement dune nouvelle formalisation des circuits combinant les automates finis synchrones avec des oprateurs boolens. La thorie des langages ractifs, qui faisait dj autorit pour la conception dautomates de contrle, trouve un nouveau champ dapplication dans la conception et la vrification de circuits l aussi, les enjeux conomiques sont normes, et des acteurs industriels franais comme Estrel Technology sont bien placs pour relever ce dfi. 4.5. Smantique, preuves, vrification. Dans les annes 1980, les recherches en thorie des langages allaient stendre aux systmes de description de schmas de programme et aux arbres de syntaxe abstraite, ainsi quaux systmes de notations fonctionnelles (-calcul). Ltude de modles calculatoires topologiques, algbriques, ou catgoriques, initie par Scott et Plotkin, allait mettre en vidence une notion de domaines de calcul, dans lesquels les algorithmes sinterprtent par des fonctions continues. Lextension de ces notions aux calculs distribus et parallles est ce jour une voie de recherche toujours trs active. Il est paradoxal de constater que des branches trs abstraites des mathmatiques ont trouv leur application en des problmes informatiques trs concrets. Par exemple, ltude de prsentations quationnelles de catgories cartsiennes fermes a permis de dgager une notion de machine virtuelle pour les langages fonctionnels, la CAM ( categorical abstract machine). De faon similaire, la problmatique danalyse combinatoire des groupes sest tendue la synthse efficace de dductions quationnelles avec les systmes de rcriture de termes. La dmonstration assiste de thormes a galement dvelopp lextension de la recherche de solutions des quations diophantiennes ou polynomiales des structures algbriques diverses et varies, permettant le calcul de recherche de motifs (filtrage) ou de rsolution dquations entre termes (unification). Ces recherches ont rejoint progressivement celles menes par les logiciens en thorie de la dmonstration, avec lmergence dune combinatoire fine des structures de preuve (logique linaire, rseaux de dmonstration, gomtrie de linteraction). Les annes 1980 ont vu le dveloppement de restrictions de la logique du premier ordre aux clauses de Horn (logique conditionnelle) comme paradigme systmatique de programmation non dterministe, appel programmation logique, et popularis par le langage PROLOG. Progressivement, cette problmatique sest enrichie en un paradigme de programmation par contraintes, agglutinant les mthodes de programmation linaire, de programmation en nombres entiers, et plus gnralement de rsolution dquations algbriques diverses. Cette mthodologie est en train de supplanter progressivement dans certains domaines les mthodes classiques de recherche oprationnelle, et reprsente donc un enjeu conomique important. Le problme de fiabilit du logiciel a donn lieu une explosion de recherches aux frontires de la thorie de la dmonstration et de linformatique thorique, comme nous lavons expliqu ci-dessus, avec le dveloppement de langages de spcification, de smantiques de langages de programmation, de logiques dynamiques spcialises et dassistants de preuve, afin de fournir des systmes daide la mise au point de logiciels certifis. Une autre manire daborder cette

problmatique est dtendre la vrification des programmes, traditionnellement effectue par une batterie de tests, en une vrification symbolique dans un espace de calcul plus abstrait appele model checking . Cette technologie a donn lieu de nombreux dveloppements de nature mathmatique, pour prouver lexistence de points fixes dans ces domaines abstraits et donner des algorithmes efficaces pour leur recherche. Ces recherches, poursuivies notamment au laboratoire dinformatique de lENS et au laboratoire Verimag de lUniversit de Grenoble, ont donn lieu des vrificateurs automatiques efficaces utiliss industriellement, notamment par la socit Polyspace Technology, qui a rsolu par ces outils les anomalies ayant conduit lchec de la fuse Ariane 501. 4.6. Linguistique et Sciences cognitives. Le traitement du langage naturel, entrepris ds les annes 1950 dans des buts de traduction automatique, a longtemps but sur les difficults intrinsques de lintelligence artificielle, et notamment sur la modlisation du bon sens. Les difficults de la comprhension du langage naturel par une machine ont progressivement dgag des champs dtude spcialiss o des progrs substantiels ont p tre raliss, ds quune modlisation mathmatique pertinente tait dgage. Cest ainsi que le domaine du traitement de la parole, utilisant les mthodes mathmatiques du traitement du signal, et une modlisation statistique approprie (modles de Markov cachs compils en des automates stochastiques), est en passe de fournir des interfaces homme-machine utilisant la voix, utilisables par des locuteurs sans apprentissage dans des domaines smantiques restreints. Le traitement informatique des phnomnes phonologiques et morphologiques a donn lieu un renouveau des transducteurs rationnels, et la gnralisation des expressions rgulires en des systmes de notation pour des relations rgulires. La compilation de tels formalismes a suscit des tudes algorithmiques, qui ont permis de faire passer ces mthodes au stade industriel. La recherche dinformations dans de grands corpus, tels que la Toile, et lorganisation des mmoires dentreprise, sont des enjeux conomiques majeurs utilisant ces techniques. Les tudes de syntaxe formelle, et notamment des variantes des grammaires catgorielles de Lambek, ont rejoint les formalismes de thorie de la dmonstration telles que la logique linaire non commutative. Les tudes de smantique formelle, inities par Montague autour du -calcul typ de Church, ont donn naissance de nombreuses variantes de logiques modales (temporelles, dynamiques, pistmologiques, hybrides, DRT) unifies autour de la notion de modle de Kripke. Les tudes dunification dordre suprieur permettent de modliser de faon uniforme la recherche danaphores, le traitement des ellipses et de nombreux autres phnomnes linguistiques. Le domaine de structuration de la smantique lexicale sort progressivement de mthodes adhoc (rseaux smantiques, ontologies) pour dgager des logiques de description aux proprits algorithmiques mieux comprises. Ces diffrentes facettes de la modlisation linguistique permettent de progressivement intgrer les thories linguistiques descriptives dans des formalismes mathmatiques adapts au traitement informatique. Ces mthodes de type logique sont compltes par des mthodes statistiques, utilisables grande chelle maintenant que des corpus informatiss de grande taille sont disponibles (archives de journaux, Toile).

On peut ainsi pronostiquer un dveloppement considrable des applications du traitement de la langue naturelle dans la prochaine dcennie. Dautres domaines des sciences cognitives devraient progressivement bnficier des modles formels dgags par ces recherches. 4.7. Autres domaines dinteraction, synthse. Lanalyse numrique et lautomatique (thorie du contrle), troitement lies aux quations aux drives partielles, ne sont pas du ressort de ce texte. Il en va de mme pour plusieurs domaines importants dapplication de linformatique, comme la vision et le traitement des images, pour lesquels les aspects gomtriques (gomtrie analytique, gomtrie diffrentielle, topologie diffrentielle ou algbrique) deviennent naturellement prpondrants. Linformatique joue galement un rle dans les sciences du vivant, en permettant de traiter (avec une algorithmique souvent trs fine) les masses de donnes qui sy prsentent et den extraire linformation essentielle cest le domaine de la bioinformatique. Si lon inclut ces applications informatiques, on peut considrer, comme la nonc Don Knuth, que pratiquement toutes les mathmatiques ont une pertinence lgard de linformatique. Prenons un exemple pour conclure cette section. Une personne se connecte sur la Toile et obtient la carte des prvisions mtorologiques de sa rgion. Les couches basses de transmission reposent sur des codes correcteurs derreur (corps finis), sur la thorie du signal utilise dans la conception des modems et de lADSL, ainsi que sur la compression des donnes binaires (ralise par des structures mathmatiques darbres). Lutilisateur lance, depuis son navigateur, une requte achemine par le rseau, ce qui met en jeu une algorithmique distribue complexe (routage et gestion de tables) qui a t optimise selon des modles probabilistes adapts. La communication, lorsquelle est chiffre, repose de plus sur un systme fond sur larithmtique et la thorie des nombres. Le navigateur est lui-mme un programme complexe dont la construction a mis en jeu des langages de programmation et des modles dinteraction bnficiant des thories syntaxiques et logiques amplement discutes ci-dessus. La carte mtorologique que lon va charger traduit des prvisions tablies selon divers modles physiques reposant sur la thorie des quations aux drives partielles, lesquelles sont traites numriquement par une algorithmique mathmatique finement optimise (discrtisation et lments finis, maillages et dcompositions de domaines). La carte quant elle est un objet digital comprim dans un rapport important, ce grce la conjonction danalyse de Fourier et, nouveau, de structures de donnes arborescentes. Le moteur de recherche met en jeu toute une panoplie dalgorithmes de recherche analyss et optimiss selon les principes danalyse dcrits plus haut. Enfin, les pages charges sont des objets structurs exprims dans un langage de description (HTML) qui sappuie lui aussi sur les mthodes syntaxiques et formelles. Sciences mathmatiques et informatiques sont cruciales et partout prsentes derrire cet acte dsormais banal de la vie quotidienne.

5. Conclusions
Linformatique dans son ensemble reprsente une construction artificielle qui na gure dquivalent dans lhistoire. Sa simple adaptation lvolution constante des besoins de la socit ncessite une activit technique de grande ampleur. La tentation peut alors exister pour certains dirigeants de ne percevoir de linformatique que les besoins de dveloppement

technologique de la priode en cours. cela suffiraient des hordes de techniciens et dingnieurs forms au fonctionnement de ce qui existe ou est en gestation pour un futur proche. Par le biais de ses relations avec les mathmatiques, nous avons illustr le fait que linformatique est une science trs largement inscrite dans la tradition des autres sciences. Comme dans dautres domaines, les progrs reposent sur nombre dides astucieuses et novatrices, mais au moins autant sur les progrs conceptuels apports par une rflexion scientifique approfondie, par une abstraction de nature mathmatique, et par une relative distanciation lgard de la technologie du moment. Cest de la sorte quont pu clore la plupart des grandes innovations qui ont faonn le paysage informatique. En relation avec les dbats rcurrents portant sur recherche fondamentale et recherche applique, on se doit de noter le fait que plusieurs branches des mathmatiques pures longtemps juges inutiles mais au moins reconnues comme ayant une certaine profondeur , ont trouv des applications inattendues en informatique. Ainsi, une source historique de lanalyse combinatoire est constitue par un besoin trs thorique de comprhension de calculs formels sous-tendant lanalyse mathmatique ; la thorie des probabilits plonge ses racines dans les jeux de hasard alors que la combinatoire compte parmi ses origines plusieurs jeux ou rcrations mathmatiques ; la thorie des catgories et la logique mathmatique ont sembl leurs origines se situer aux confins de la philosophie des sciences, tandis que la thorie des nombres navait, en 1940, aux yeux du mathmaticien britannique G. H. Hardy, que bien peu dutilit pour le monde rel. Or cest in fine grce ces acquis que le grand public peut dsormais disposer de lInternet, de la Toile, des DVD, de la tlphonie mobile, etc. Ces considrations plaident tout dabord pour limportance dun soutien vigoureux une recherche fondamentale en informatique, comme gage de lavenir. Elles suggrent aussi que la meilleure manire de former de futures gnrations dinformaticiens performants 5 est de les doter dune formation adapte aux objets, concepts, et mthodes de linformatique, mais surtout intgre une formation scientifique classique et gnraliste de qualit, et comportant notamment des bases mathmatiques solides.

Ce message est par exemple bien compris par lInde qui est la fois le pays des prestigieux IITs (Indian Institutes of Technology) et lun des principaux exportateurs mondiaux de logiciels.
5

Vous aimerez peut-être aussi