Académique Documents
Professionnel Documents
Culture Documents
DES
LE HASARD DÉCELÉ
LE HASARD EVALUÉ
LE HASARD MAITRISÉ
Émile Borel
II y a quelques mois, à une question qu'elles étaient bien avant qu'il y eût des inouïe, bien qu'il n'y ait place que pour
posée sur mes travaux scientifiques, hommes, sur ce qu'elles seront long- deux alternatives quant à la solution.
j'eus l'imprudence de répondre que je temps après que l'humanité aura dis- D'autres phénomènes fortuits, tels que
terminais un livre sur le hasard ; mon paru (à supposer que ces questions aient ceux qui se présentent dans les jeux de
interlocuteur me demanda aussitôt, non un sens), il parait incontestable qu'au hasard (dés, cartes, etc.), sont d'une
sans quelque ironie, ce que je dirais de point de vue pratique, pragmatiste nature un peu moins complexe : qui
neuf sur ce « magnifique sujet ». comme on dit parfois, la croyance en ces analysera néanmoins en détail les mou-
II me fallut assurer que je ne ferais lois est pour nous une nécessité : nous vements de la main qui jette les dés ou
connaître aucune recette pour gagner à ne poumons pas nous endormir si nous qui bat les cartes?
la roulette, aucun talisman propre à n'étions pas assurés que le soleil se La caractéristique des phénomènes
écarter les hasards funestes ou à attirer lèvera demain. De même, on concevrait que nous appelons fortuits ou dus au
sur nous et nos proches les hasards difficilement t'existence d'un homme hasard, c'est de dépendre de causes trop
favorables ; mais, avec son mystère, le qui, lâchant une pierre au-dessus de son complexes pour que nous puissions les
livre avait perdu tout son prestige, et ta pied, ne s'attendrait pas à la voir tomber connaître toutes et les étudier.
question attendue, « mais que ren- et a avoir le pied écrasé.
ferme-t-il donc alors? »,fut posée avec La nécessité « humaine » des lois des Une étude, même très superficielle,
une indifférence courtoise qui n'exi- naturelles est le point de départ de toute phénomènes fortuits les plus
geait aucune réponse. spéculation scientifique ; ce principe est fréquents, montre que ces phéno-
Les lecteurs habituels de cette collec- tellement évident qu'on juge inutile de mènes obéissent à ce qu'on appelle
tion n'ont pas commis la même méprise le répéter dans chaque ouvrage de des lois statistiques. Soient,
par
et ne cherchent pas id une sauvegarde sciences. J'aurais pu aussi le sous- exemple, mille enfants à naitre d'ici
contre les hasards de la vie. Ils pourront entendre ; si je ne rai pas fait, c'est parce quelques mois ; pour chacun d'eux pris
y trouver, cependant, à coté de la spécu- que le hasard, qui est l'objet de ce livre, individuellement, nous n'avons actuel-
lation pure, des remarques plus s'oppose précisément à la notion de loi ; lement aucun moyen de prévoir son
concrètes et même des règles d'action il n'était donc peut-être pas inutile de sexe ; mais nous sommes sûrs de ne
pratique, pourvu qu'ils veuillent bien, rappeler brièvement la place éminente pas nous tromper en affirmant que sur
pour les formuler, s'aider de leur qu'il ne saurait être question de contes- les mille enfants, il y aura des garçons
réflexion personnelle. Mon but principal ter a cette notion. et il y aura aussi des filles. De même, si
a été de mettre en évidence le rôle du Malgré le progrès de la science, il y l'on donne un dé à chacun des soldats
hasard dans les branches diverses de la a beaucoup de faits que l'homme est d'une armée et si chacun d'eux lance
connaissance scientifique. incapable de prévoir ; l'exempte le plus ce dé, on peut affirmer que le point 6
banal est celui de la pluie et du beau sera certainement amené par
Qu'il s'agisse de la culture du sol temps ; nous n'y insisterons pas, car la quelques-uns. Sur un million de jeunes
auquel
on confie des semences complexité des phénomènes météoro- gens de vingt ans, reconnus d'excel-
précieuses en vue d'une récolte lointaine logiques ne nous permettrait d'en par- lente santé par les meilleurs médecins,
ou des problèmes sans nombre qu'il a ler avec précision qu'au prix de longs on peut être certain que plusieurs
fallu résoudre pour l'élevage des ani- développements. La sexualité dans les seront morts avant dix ans et, cepen-
maux, la chasse, la pêche, la navigation, naissances humaines est un cas typique dant chacun d'eux pris individuelie-
la conservation ou la cuisson des ali- d'un problème jusqu'ici insoluble, mal- ment peut très légitimement espérer
ments, l'homme n'a pu vivre et progres- gré la simplicité au moins apparente de vivre jusqu'à trente ans.
ser que grâce à la connaissance des lois son énoncé ; tel enfant à naître sera-t-il On voit quelle est ta différence qui
naturelles toujours plus nombreuses et a un garçon ou une fille ? Nous ne savons sépare la loi statistique des lois natu-
une confiance grandissante en la valeur même pas avec certitude si le sexe est relles : ta loi statistique ne permet pas de
de ces lois. Quelque opinion métaphy- déterminé dès l'instant de la concep- prévoir un phénomène déterminé, mais
sique que l'on professe sur la contin- tion ; la recherche des « causes » dusexe énonce seulement un résultat global
gence des lois de la nature, sur ce est un problème d'une complexité relatif à un assez grand nombre de phé-
nomènes analogues ; de plus, sa certi-
tude ne parait pas être de même nature
et n'entraine pas l'assentiment de tous.
Si, en présence d'une nombreuse assem-
blée, je prends une pierre dans la main et
j'annonce que je vais la lâcher et qu'elle
ne tombera pas, tous mes auditeurs res-
teront sceptiques, et si l'expérience
annoncée réussit, chacun sera persuadé
que la pierre a été maintenue en rair par
un fil invisible ou par tout autre moyen.
Si, devant la même assemblée, je parie
que je lancerai deux dés vingt fois de
suite et que j'obtiendrai chaque fois le
double six, je rencontrerai certainement
un égal scepticisme, et si l'expérience
réussit, chacun croira à une supercherie.
Les deux cas ne sont néanmoins pas
identiques ; pour la pierre qui reste sus-
pendue en l'air après que je l'ai lâchée, la
certitude de la supercherie subsistera,
même après que j'aurai fait vérifier à
chaque spectateur qu'on n'a pas
employé les « trucs » auxquels il avait
pensé, et cette certitude sera assez forte-
ment ancrée pour que chacun soit prêt à
parier tout ce que l'on voudra, même sa
propre vie, que l'expérience réussie n'est
pas celle que j'avais décrite. Au contraire,
pour les vingt coups de dés, si les dés
sont examinés avec soin, si l'on a
confiance en mon honnêteté et si
j'affirme que je les ai lancés loyalement,
certains se demanderont peut-être si la
coincidence des vingt coups identiques
n'est pas simplement due à un hasard,
sans doute fort invraisemblable, mais
tout de même possible.
La question de savoir si cette impres-
sion est justifiée est au nombre de celles
que nous chercherons a éclaircir plus
loin, mais le fait qu'elle existe ne peut pas
être entièrement négligé ; il prouve que
ta loi statistique ne s'impose pas à l'esprit
humain avec le même caractère de
nécessité que les lois naturelles.
de Laplace
Bernard Bru
Le très déterministe Laplace a élaboré une oeuvre Moivre (1667-1754) et surtout Laplace
ont étendu et précisé. Dans sa version
monumentale sur le calcul des probabilités. élémentaire, ce théorème affirme qu'au
cours d'une longue suite de parties de
Celle-ci préfigure les vives polémiques de la première pile ou face, la fréquence observée des
faces s'approche très probablement
moitié de notre siècle entre les déterministes d'une valeur fixe, égale à 1/2 si la pièce
est parfaitement équilibrée.
et les partisans du « hasard essentiel ». Laplace commente ce théorème
ainsi : « II suit de ce théorème que, dans
une série d'événements indéfiniment
prolongée, l'action des causes régulières
Tous les événements,ceux même qui tion de Newton détermine les révolutions et constantes doit l'emporter à la longue
par leur petitesse semblent ne pas tenir des planètes autour du Soleil. Que sur celle des causes irrégulières. C'est
aux grandes lois de la Nature, Laplace n'ait pas compris le rôle du ce qui rend les gains de la loterie aussi
en sont une suite aussi nécessaire hasard dans la Nature, ce serait un certains que les produits de l'agricul-
que les révolutions du Soleil. moindre mal. Mais on lui reproche par- ture... » Il expose ensuite quelques
fois d'avoir engagé, grâce à son immense exemples. Ainsi le nombre de lettres
Certes Pierre-Simon de autorité scientifique, le cours des sciences mises au rebut pour cause de défaut
Laplace (1749-1827) est dans la voie (de garage) déterministe dont d'adresse est constant d'une année sur
«comme
détermiste », en elles ont eu tant de mal à se dégager au l'autre à Paris (et même à Londres) ; le
témoigne cet extrait de début du XXe siècle. Et l'on fustige alors rapport des nombres de naissances mas-
I'Essai philosophique sur ce déterminisme laplacien, étroit et rétro- culines et féminines est fixe ; les fron-
les probabilités, où l'auteur présente son grade, qui aurait façonné à son image tières des états, déplacées au hasard des
oeuvre probabiliste à un large public cul- toute la physique mathématique, particu- conquêtes par la « perfidie et l'ambi-
tivé. Selon lui, le calcul des probabilités lièrement en France. tion » de leurs chefs, reviennent néces-
ne joue aucun rôle dans l'intelligibilité Cette vision de l'oeuvre de Laplace sairement à leurs limites géographiques
des événements de la Nature, si ce n'est est erronée. Si l'École laplacienne a privi- naturelles ; les flots momentanément
celui, modeste en somme, de maîtriser les légié l'approche mécaniste, elle est aussi soulevés par de violentes tempêtes
erreurs de mesure ; autrement dit, le cal- à l'origine de l'approche statistique des retombent inéluctablement dans leurs
cul des probabilités sert à corriger les fai- sciences dures de la matière et de la vie, bassins naturels sous l'action, constante
blesses de nos instruments et de nos sens, approche qui consiste non pas à exprimer et régulière, de la pesanteur.
en l'attente de progrès ultérieurs. En ses propres convictions sur la Nature, Nombre d'auteurs antérieurs à
revanche, les lois de la Nature sont abso- mais à l'observer, à la décrire, à la com- Laplace avaient cette vision du hasard.
lument déterministes. La Nature ne se prendre. Dans son oeuvre probabiliste, Au XVIIIe siècle, Abraham de Moivre
trompe jamais, elle ne joue pas, elle ne Laplace pose lui-même les jalons de cette avait associé au théorème de Bernoulli la
choisit pas, elle fixe la succession « néces- approche statistique. « loi naturelle de l'Éternel retour ». Dès
saire »des événements, aussi petits soient- l'Antiquité, Boèce écrit dans sa
ils. Le but éminent de la science est de La loi des grands nombres Consolation de la Philosophie (524) :
préciser cette détermination en la soumet- « Le Tigre et l'Euphrate se confondent en
tant au calcul, et seule l'analyse (détermi- Reprenons l'Essai philosophique sur une seule source et, bientôt, leurs eaux se
niste) peut y contribuer. les probabilités, édité cinq fois de 1814 à séparent et ils se désunissent. S'ils se
Si l'on s'en tient à cette observation, 1825, et que tous les savants du XIXe rejoignaient et réintégraient un lit unique,
on conclut aisément que Laplace n'a pas siècle ont lu. Laplace y énonce et com- tout ce que chacun transporte se retrouve-
compris l'importance des statistiques mente, sans formules, les deux théorèmes rait pêle-mêle, les bateaux se rencontre-
dans les sciences, aveuglé qu'il était par fondamentaux de la théorie des probabili- raient comme les troncs arrachés par le
ces « grandeslois de la Nature » qui déter- tés. Le premier est le théorème de courant et leurs eaux mêlées dessineraient
mineraient la succession des événements Bernoulli (du mathématicien Jacques un tracé hasardeux. Pourtant ces errances,
les plus infimes, comme la loi de l'attrac- Bernoulli, 1654-1705) qu'Abraham de ce sont la déclivité du terrain et les lois de
1. PIERRE-SIMON MARQUIS DE LAPLACE (1749-1827). Astronome, mathématicien et physicien, célèbre pour son déterminisme,
il est pourtant l'auteur d'une œuvre impressionnante sur le calcul des probabilités.
l'écoulement de l'eau qui les régissent. considérables d'événements d'une même rances maritimes, les assurances sur la
Ainsi, bien qu'il semble s'écouler en nature, dépendants de causes constantes vie. Poisson précise que « la constitution
toute liberté, le hasard subit une règle et et de causes qui varient régulièrement, des corps formés de molécules disjointes
son cours obéit à des lois. » tantôt dans un sens, tantôt dans l'autre, que séparentdes espacesvides de matière
Denis Poisson (1781-1840), le dis- c'est-à-dire sans que leur variation soit pondérable (les gaz) offre aussi une appli-
ciple préféré de Laplace, poussera plus progressive dans un sens déterminé, on cation de la loi des grands nombres...
loin le commentaire, créant du même trouvera, entre ces nombres, des rapports Autour de chaque point, la distribution
coup le concept de « loi des grands à peu près constants.» Comme Laplace, il des molécules pourra être très irrégulière
nombres ». Son cours de calcul des proba- ajoute que le calcul des probabilités four- et très différente d'un point à un autre ;
bilités fait autorité dans toutes les univer- nit aux savants les formules qui précisent elle changera même incessamment par
sités du XIXe siècle, de Cambridge à les limites entre lesquelles ces rapports l'effet des oscillations intestines des
Saint-Pétersbourg, en passant par Berlin varient probablement et qui permettent molécules, car un corps en repos n'est
et Gottingen. Voici comment il expose, ainsi de déceler d'éventuels changements rien d'autre qu'un assemblage de molé-
en 1837, sa nouvelle loi naturelle : « Les dans les causes constantes qui détermi- cules qui exécutent des vibrations conti-
choses de toute nature sont soumises à nent lesdits événements. nuelles... Or si l'on divise chaque portion
une loi universelle qu'on peut appeler la La loi des grands nombres étant uni- du volume, de grandeur insensible, par le
loi des grands nombres. Elle consiste en verselle, ses applications sont nom- nombre des molécules qu'elle contient, et
ce que si l'on observe des nombres très breuses : les marées océaniques, les assu- si l'on extrait la racine cubique du quo-
tient, il en résultera un intervalle dans l'air du temps. Elle triomphera bien- des procès, restent constantes ; de même,
moyen des molécules, indépendant de tôt en Angleterre et en Allemagne, et les nombres annuels de condamnations et
l'irrégularité de leur distribution, qui reviendra en France, terre promise du de jugements sont aussi invariables. Dans
sera constant dans toute l'étendue d'un déterminisme savant, après 1902. les années 1830, la statistique devient à la
corps homogène et partout à la même Une des grandes révélations de mode. Dans tous les domaines où l'on
température... » l'époque est que cette loi universelle des peut compter et mesurer, on recense les
Poisson appelle ainsi de ses voeux, grands nombres s'applique aussi à rapports constants ; on les collectionne,
contre la théorie de Fourier, une théorie 1' « ordre morale.Poisson en cite de nom- comme des fleurs ou des papillons, des
moléculaire de la chaleur. Ainsi l'idée breux exemples : les recettes annuelles du plus communs aux plus saugrenus.
d'une « mécanique statistique » (voire droit de greffe, qui dépend de la fré-
d'une thermodynamique statistique) est quence et de l'importance changeantes La théorie des erreurs
hasard
au sauvage
Benoît Mandelbrot
Dans les sciences, « hasard » est une notion multiforme. l'unité du calcul des probabilités, sont
trompeuses.Du point de vue qui m'inté-
Sa forme la mieux domptée, qu'on peut appeler resse,le calcul des probabilités présente
des analogies de plus en plus trou-
« bénigne », ne décrit ni la Bourse, ni maints autres phéno- blantes avec la théorie de la matière.
L'application de lois générales à des
mènes naturels ou sociaux ; pour en comprendre t'irrégu- contexteshétéroclitesrévèle l'existence
de plusieurs « états » très
distincts. Deux
larité, il faut faire appel à une forme « sauvage » du hasard. états de la matière sont connus depuis
toujours, les mots « solide » et « liquide »
étant dérivés du grec et du latin, et
« gazeux datant
» du xvM siècle. La phy-
La variété des phénomènes Pour le profane ou le philosophe, sique est à la fois unifiée et variée.
naturels et sociaux est infi- « hasard »est une notion unifiée. De Manifestation de son unité, tous ces
nie, les techniquesmathéma- plus, son unité mathématique a été états (et d'autres, car on ne cessed'en
tiques susceptibles de les expriméede façon abstraiteet très géné- identifier de nouveaux) se déduisentdes
dompter sont fort peu nom- rale. Trop générale même,comme nous mêmes principes et utilisent tous les
breuses: aussiarrive-t-il que desphéno- allons le voir, car elle noie des diffé- mêmesconcepts,tels que la température
mènesqui n'ont rien de commun parta- rences fondamentales, et parce que le et la pression. Manifestation de la
gent la mêmestructuremathématique.Il ciment que l'axiomatique fournit au cal- variété de la physique, les états de la
y a 30 ans, cette constatation philoso- cul des probabilités dissout sa spécifi- matièrediffèrent de façon très nette.
phique s'imposa à mon esprit. Mes tra- cité. Elle en fait un chapitre mal diffé- J'ai vécu un phénomène analogue
vaux sur la Bourse étaient près d'abou- rencié de la théorie de la mesure. de « différenciation »dans le cas du cal-
tir et j'entrevoyais des structures Au troisième quartde ce siècle,l'uni- cul des probabilités. Je vois maintenant
aléatoires très semblablesdans les tra- fié, l'abstrait et le généraldominaient la le hasard comme pouvant prendre
vaux que j'entamais sur les bruits et la recherche.Les mathématiquesfrançaises divers « états »,aussi distincts l'un de
turbulence. II s'agissait dans tous ces affichaient leur intérêt, non plus pour les l'autre qu'un gaz l'est d'un solide. Afin
cas des premiers stadesde la construc- « détails tarabiscotésde » l'analyse ou de de les faire comprendre,le mieux est de
tion d'une géométrie fractale. la géométrie,mais pour leurs « structures retracer l'histoire.
Quelle était donc l'idée centrale de fondamentales ». De même, la physique Pour commencer, pesons une affir-
mes travaux sur la finance? L'idée, si se complaisait dans la recherchedespar- mation que l'on trouve à la première
l'on ose dire, ambiante, était que les ticules fondamentales. page d'un traité célèbre dont un des
prix sont des fonctions continues du II est vrai qu'il n'y a de scienceque coauteurs, Andrei Kolmogorov, fut un
temps et que les fluctuations ne sontpas du général,et ma longuecarrièrescienti- des plus illustres mathématiciensdu XXe
plus sévèresque celles que décrit la dis- fique a été marquéepar l'identification siècle. C'est lui qui apporta à l'axioma-
tribution bien classique de Gauss. Le et l'étude d'une nouvelle structuregéné- tique du calcul des probabilités les
hasard auquel faisaient appel ces théo- rale, sous-jacente àmaints phénomènes touches ultimes qui rendirent ce
ries peut très légitimement être qualifié d'apparencehétéroclite,et qui diffuse à domaine d'étude acceptableaux mathé-
de « bénin ».Mais l'examen des faits traversles mathématiqueset les sciences maticiens « purs ».Or, la préface de
montrait le contraire : desfonctions dis- physiques,biologiques et sociales.Cette Gnedenko et Kolmogorov, en 1954,
continues et des fluctuations tout à fait structureest celle de l'auto-similarité et, nous affirme que « toute lavaleur épisté-
extrêmes. Je dus vite conclure qu'il plus généralement,de l'invariance par mologique de la théorie des probabilités
s'agissait d'une toute autre forme de réductionet dilatation ; lesobjets qu'elle est basée sur ceci : les phénomènes
hasard, qu'on peut très légitimement caractérisesontles fractales. aléatoires, considérés dans leur action
qualifier de « sauvage ». Les traits tech- Cependant,et peut-être paradoxale- collective à grande échelle, créent une
niques de mon approche seront décrits ment, la construction de la géométrie régularité non aléatoire ». Le modèle
par J.-P. Bouchaud et C. Walter (page fractale m'a vite fait découvrir, et sous-jacent est celui d'une suite de
92), aussim'attaqueraije ici à quelques confirmer abondamment,que l'unité du nombres obtenus en tirant un dé : sur
questionsphilosophiquessous-jacentes. monde des modèlesaléatoires,et même dix coups, la proportion du « deux »est
très variable (phénomène aléatoire),
mais sur un grand nombre de tirages (à
grande échelle), cette proportion sera
très proche d'un sixième (régularité non
aléatoire) ; nous y reviendrons. Je suis
certain qu'un sondage parmi les mathé-
maticiens et les savants empiriques
montrerait qu'ils sont d'accord avec la
thèse énoncée par Gnedenko et
Kolmogorov. Malheureusement, ladite
thèse est ambiguë, et l'approbation
générale reflète souvent un malentendu
dont les conséquences sont quotidiennes
et très sérieuses.
Précisons : tout mathématicien
entend par la thèse en question que
toute action collective possède au moins
un aspect qui soit, à la limite, régulier
non aléatoire. Toutefois, ceci ne suffit
pas pour satisfaire ni le savant ni l'ingé-
nieur ; l'un ou l'autre a besoin de
s'assurer que cette régularité collective
et non aléatoire ne porte pas sur des
phénomènes qui ne l'intéressent pas. De
plus, s'il y a régularité, il veut s'assurer
qu'elle s'établit assez rapidement pour
que les valeurs asymptotiques reflètent
la structure des systèmes finis que l'on
rencontre dans la nature.
Pour ce faire, esquissons l'histoire On peut décomposer le théorème central limite en plusieurs affirmations :
des théorèmes limites du calcul de pro- • *Tt=1 [X(t)-EX]
babilités. Pour commencer, il s'agissait possède une limite.
de tirer J fois une pièce de monnaie qui A(T)
a la même chance de tomber sur pile • Cette limite a une distribution gaussienne.
(faisant gagner Paul) et sur face (faisant • Le facteur de pondération prend la forme A(T)=*T
gagner Francis ; d'habitude, ce joueur • Enfin, un passéet un avenir suffisamment séparés
sont asymptotiquement indépendants.
est appelé Pierre, mais je préfère attri-
buer aux joueurs de pile ou face les ini-
tiales P et F !). Il fut très tôt démontré
que, quand J augmente, la distribution Ces théorèmes sont présentés sur le Maynard Keynes se moquait de l'affec-
des gains de Paul allait se simplifier des tableau 1, et tout ce qui suit tourne tion de ses collègues pour le long terme,
deux façons que voici. autour de leur degré de validité. Trois leur rappelant que « dansle long terme,
Le nombre relatif de fois où le jeton cas sont à distinguer. nous serons tous morts ».
tombe sur pile est de plus en plus voisin Le cas bénin. On peut donner un Quelle est donc l'applicabilité pra-
de 1/2. C'est le cas le plus simple de la sens précis à la notion que ces théo- tique des théorèmes limites ? La phy-
« loi des grands nombres ». La différence rèmes « s'appliquent rapidement ». Si tel sique macroscopique étudie des échan-
pondérée entre ce nombre et 1/2 suit est le cas, une fluctuation sera dite tillons si immenses (le nombre
une distribution qui s'approche de plus « bénigne ». Il s'ensuit en général que les d'Avogadro est l'étalon de mesure)
en plus près de la distribution prétendue structures les plus intéressantes ne sont qu'il n'y a aucune difficulté. Mais
« normale » de Gauss. C'est le plus pas statistiques. Les fluctuations considérons la variable lognormale, qui
simple des « théorèmes centraux bénignes ont été bien décrites par les est tout simplement l'exponentielle
limites ». Puis à 1 000 petits pas, ces mathématiciens ; beaucoup ont été d'une variable gaussienne. Dans le long
résultats étendirent leur emprise. expliquées par les savants, et les ingé- terme, ses propriétés sont dominées par
D'abord, ils restèrent dans le même nieurs ont appris à bien les contrôler le fait que ses moments (moyenne, dis-
esprit et conduisirent à une vision de pour les rendre plus supportables. Ces persion, etc.) sont tous finis et s'obtien-
l'indéterminisme dans la Nature assise, derniers pouvaient évaluer la probabilité nent par des formules faciles ; donc la
comme le temple de Lamartine, sur trois d'un événement futur sur la base de variable lognormale paraît bénigne.
« vivants piliers ». moyennes, calculées sur un nombre suf- Dans le court ou le moyen terme, tout se
A. La « loi des grands nombres » fisamment grand d'événements passés. gâte, et son comportement paraît sau-
(souvent appelée « théorème ergodique »). Le cas lent. Il se peut que l' « action vage. On en traite comme si elle ne sen-
B. La « forme classique du théorème collective » conduise aux théorèmes A, B tait pas le soufre, mais c'est un mer-
central limite » (il faut préciser « forme et C, mais les limites seraient atteintes veilleux (et dangereux) caméléon.
classique », car nous verrons qu'il en est de façon si lente qu'ils n'apprennent pas Le cas sauvage. Les symptômes de
d'autres, et qui s'appliquent aux cas grand-chose sur le sujet « collectif » l'échec complet du mode bénin de
sauvages). qu'on rencontre dans les problèmes convergence des fluctuations sont au
C. Un troisième résultat qu'on a ten- scientifiques concrets. Que dire alors des nombre de deux, qui agissent seuls ou en
dance à omettre parce qu'on le croit évi- théorèmes A, B et C ? Il serait rassurant combinaison : (a) la rencontre occasion-
dent. Même si les « coups de dés généra- de savoir qu'ils restent applicables. Mais nelle d'énormes écarts par rapport à ce
lisés » ne sont pas indépendants, tout ce il faut reconnaître que ce ne sont que des qu'on aurait voulu considérer comme la
qui se rapporte à un « futur » suffisam- mirages, car le monde réel est fini. Dans « normes, et (b) la rencontre occasion-
ment éloigné est pratiquement indépen- un cadre de pensée très différent, mais nelle de très longues suites de valeurs,
dant du « passé »suffisamment éloigné. parallèle, le grand économiste John telles que chacune prise séparément
la physique. Or, toutes ces techniques
2. LE PROCESSUS DE CAUCHY, EXEMPLE DE HASARD SAUVAGE concernent le hasard bénin.
Prenons une suite de variables aléatoires indépendantes X(t), dont chacune a C'est là que se trouve l'origine de
la densité de probabilité de Cauchy : l'idée tentante que les fluctuations
1 s'effectuent nécessairement autour d'une
*(1 +x2) moyenne, laquelle peut elle-même être
Cesvariables ont la propriété que la moyenne, interprétée comme point d'équilibre et
reste soumise à divers déplacements, ou
EX=*Tt=1X(t)
tendances. A chaque fois qu'il en est
T effectivement ainsi, on peut décomposer
est elle-même une variable de Cauchy. Prendre la moyenne n'a aucun effet et la la difficulté : d'abord procéder sans tenir
loi des grands nombres ne s'applique pas. En fait, l'espérance mathématique est compte du hasard, et ne tenir compte de
infinie, donc l'expression qui entre dans le théorème central limite classique n'a l'incertitude que dans une deuxième
pas de sens, et le théorème lui-même n'est utilisable que sous une forme étape, à titre de correction. On sait que,
«généralisée
« »qui en altère totalement le sens. L'échec des théorèmes habituels est
dans les cas bénins, cette procédure a
dû ici à la présence fréquente de valeurs extrêmement grandes, exemples de ce
réussi magnifiquement. Mais dans les
que j'ai dénommé « fluctuationsde Noé ».
fluctuations non bénignes, s'il se
confirme que les fluctuations écono-
miques sont non bénignes, on devra
s'écarte assez peu de la norme, mais les dire obéisse à des règles qui restent s'attendre à ce que le concept d'équilibre
écarts dans une même direction sont si constantes dans le temps. Si c'était vrai, économique « file entre les mains » de qui
« persistants » quela moyenne ne peut se une fluctuation pour laquelle les trois voudra le saisir expérimentalement.
faire que très lentement ou pas du tout. théorèmes A, B, C ne s'appliquent pas Au fond, cette attitude défaitiste part
Par allusions bibliques connues de tous, ne pourrait pas être stationnaire. d'une incompréhension, à savoir de
j'ai proposé que les exemples associés à Prenez les « chroniques » boursières l'idée, déjà citée, que l'aléatoire à
ces deux symptômes soient respective- qui nous disent comment tel ou tel prix grande échelle crée à tous égards une
ment appelés « fluctuations de Noé » et varie dans le temps. Dès qu'on pût dis- régularité non aléatoire. Tel n'est abso-
de « Joseph ». Des exemples isolés de poser de données suffisantes, on lument pas le cas, et les théoriciens des
l'un ou de l'autre genre de fluctuation s'aperçut qu'aucun signe n'indique que probabilités le savaient. Si les scienti-
étaient connus de bien des savants, mais les trois théorèmes A, B et C puissent fiques ne s'attendaient pas au hasard
du fait même que chacun les considérait s'appliquer. Pour les tenants du « point sauvage, c'est que les probabilistes
comme isolés, leur existence restait pour de vue pratique », la conclusion fut que avaient, suivant le cas, soit exagéré, soit
ainsi dire secrète. Mes travaux procla- les bruits anormaux et les changements minimisé ladite « sauvagerie ». Elle fut
ment leur importance et leur unité ; le de prix ne sont pas stationnaires, c'est- exagérée par ceux qui l'ont affichée
hasard sauvage mérite d'être considéré à-dire que leur mécanisme varie dans comme « exceptionnelle » ou « patholo-
comme un objet d'étude en soi. le temps. gique » et sans application. Elle fut
On peut même se demander pour- Cette attitude et sa persistance m'ont minimisée ou cachée aux yeux du scien-
quoi il n'était pas déjà reconnu comme toujours surpris et affligé. Surpris, parce tifique dans l'esprit de la quête du géné-
tel. Une explication réside dans une opi- que les statisticiens qui la défendent se ral qui, il y a 30 ans, caractérisa toutes
nion que j'ai maintes fois entendu expri- résignent bien trop facilement au chô- les sciences. La tendance ne fut pas à
mer. La voici : sinon en théorie, tout au mage. Affligé, parce que je voyais en dire qu'un théorème, ergodique ou cen-
moins « du point de vue pratique », il suf- filigrane l'attitude défaitiste, qui prétend tral limite, était pris en défaut : on disait
fit, pour que les théorèmes A, B et C que l'étude de l'économie doit se plutôt qu'il pouvait être « généralisé »,
soient tous les trois applicables, qu'une contenter des techniques probabilistes sans même changer de nom.
fluctuation soit « stationnaire », c'est-à- déjà éprouvées et rendues familières par Cependant, « généraliser » n'est pas
k
un concept neutre. un certain
moment, les contenus des théorèmes
3. LE BRUIT EN 1/f, AUTRE EXEMPLE DE HASARD SAUVAGE centraux limites changent très profondé-
ment, perdant la signification intuitive
dont ils avaient jusque-là bénéficié. II
est fâcheux que l'utilisation du même
mot crée l'impression que la généralité
s'obtient, en quelque sorte, à peu de
frais et sans vrai changement.
Caractère « créatif »
Les bruits où l'amplitude d'une fréquence est inversement proportionnelle à du hasard sauvage
cette fréquence, dénommés bruit en 1/f, ont, comme les processusde Cauchy, la
propriété que « prendre la moyenne » n'asur eux aucun effet Ni la loi des grands Mes travaux ont toujours été domi-
nombres, ni le théorème central limite dassique ne s'appliquent nés par le caractère fortement visuel de
L'échec de ces théorèmes habituels est dû ici à la présence de « cycles » très toute ma pensée. Tout le monde semble
longs et très lents, exemples de ce que j'ai désigné par « ftuctuationsde Joseph ». le savoir dans le cas de l' « ensemble de
Mandelbrot ». Mais la même attitude
s'appliquait déjà dans mes recherches des exemples isolés. Ainsi les bruits
sur le hasard et m'a appris une grande fondamentaux de la physique sont les
leçon. Pour l'énoncer, comparons divers bruits thermiques, qui sont bénins, les
bruits électriques et ces bruits des mar- phénomènes non bénins étant des « cas
ches financiers que sont les change- spéciaux » que l'on aimait croire dénués
ments de prix. Un bruit thermique, dont d'importance.
il a été dit qu'il est bénin, est monotone, Parmi les raisons non contingentes
sans caractère, et l'on voit qu'il puisse qui ont fait que telle science a pu deve-
être éliminé ( « filtré ») assez aisément. nir exacte, on doit compter le fait que
Tout au contraire, un tracé boursier, un ses fluctuations les plus importantes se
bruit en l/f ou tout autre bruit sauvage trouvent être bénignes. Au contraire,
paraissent sans cesse changer de carac- les sciences dont le hasard non bénin
tère. Ils regorgent de traits dont on jure- régit les bruits de base risquent de
rait que chacun signifie quelque chose, demeurer longtemps dans un état
qu'ils ne sauraient être des effets du pur « moins exact ». L'opinion opposée est
hasard ; tel est bien le cas si on se limite fort répandue : elle postule que les
au hasard usuel, c'est-à-dire bénin. sciences exactes ont seulement eu
En revanche, observation d'abord l'avantage accidentel d'avoir eu plus de
stupéfiante, j'ai trouvé que ces traits peu- temps pour se développer, mais ce
vent « très facilement » être des effets point de vue me paraît contraire aux
d'un hasard sauvage. C'est dans le leçons de l'histoire. Même à l'intérieur
contexte de la Bourse que je pris pour la de la physique, les problèmes de la pré-
première fois conscience d'un phéno- vision des crues des rivières et celui de
mène troublant et magnifique : le pur la prévision des positions des planètes
hasard peut avoir un aspect qu'on ne avaient été identifiés à peu près aussi
peut s'empêcher de qualifier de créatif. anciennement, mais le premier resta du
Je saute de sujet pour dire aussitôt que domaine de la superstition, tandis que
c'est cette créativité-là qui, dix ans plus le second progressait brillamment. Or
tard, nous donna les pseudo-reliefs ter- « il se trouve » que c'était dans son sein
restres fractals, qui sont désormais clas- que les fluctuations sont faibles et à la
siques et ont été partout répétés et imités. limite négligeables.
Au vu de ce qui a été dit, comment II se pourrait donc que certaines
ne pas dire que le hasard bénin et malin sciences soient intrinsèquement plus
diffèrent l'un de l'autre autant qu'un complexes que d'autres. On pourrait
gaz diffère d'un solide. Que les règles craindre que le « degré d'exactitude »
les décrivant au niveau le plus abstrait d'une science n'ait, dans tous les cas, une
leur soient communes et très générales limite, plus ou moins haute. Allant des
n'empêche pas que ces deux cas posent plus exactes à celles qui le sont de moins
des questions très différentes. La notion en moins, on verrait décroître la propor-
de « traitement », en suivant l'analogie tion des quantités intéressantes que
médicale, doit se résigner à prendre, l'action collective régularise, et aussi la
dans ces deux cas, des formes totale- proportion des quantités régularisables
ment différentes ? qui se trouvent être intéressantes.
Je mentionnerai ici qu'au lieu du Avant de s'essayer à résoudre tout
terme sauvage, j'avais d'abord utilisé problème qui se pose, il faudrait que l'on
« malin »,qui était ainsi pris, tout à la fois, reprenne et approfondisse la notion du
dans deux sens nullement diaboliques. « problème bien posé », formulée vers
Le sens médical suggérait des problèmes 1900 par Jacques Hadamard. Celui-ci, en
très difficiles et pour lesquels la notion étudiant diverses équations de la méca-
même de traitement ou de cure n'avait nique, a constaté avec surprise que les
pas le même sens que dans les cas effets d'un petit changement des données
bénins. Le sens non médical de « malin » initiales ne sont pas nécessairement limi-
était tout aussi suggestif, mais passons... tés. Au contraire, il est des cas où ces
effets sont considérables ; s'il en est
Sciences et hasards ainsi, la « relation de cause à effet » a
beau être non aléatoire et connue impec-
On constate que des fluctuations cablement, on ne pourra guère s'en servir
non bénignes se rencontrent dans toutes en vue de prédiction. Lorsque la relation
les sciences. Dans les sciences (disons) de cause à effet et l'incertitude sur les
« moins exactes », je trouvai du non- données initiales sont toutes deux aléa-
bénin partout, tandis que dans les toires, le « bien posé » soulève de nou-
sciences « exactes », la règle semblait veaux problèmes ; mais ce n'est pas le
être que le non-bénin se concentre dans lieu pour les discuter !
La répartition
Des fluctuations
de densité
Ô ciel au-dessus de moi, inférieureà 1/30 000. Malgré ces succès,
ciel pur et haut, sois un séjour de danseon sait que l'expansionde l'Univers n'est Grâce aux résultats conjugués de la
pour les hasards divins ! pastout à fait uniforme. En effet, si cette cosmologie et de la physique des parti-
AINSI PARLAIT SARATHOUSTRA, NIETZCHE. expansionétait absolument uniforme, il cules, on a réussi à satisfaire toutes ces
n'existerait pas d'agglomération de exigences,sansfaire d'hypothèses cho-
Depuis longtemps les astro- matière et l'Univers ne serait qu'un gaz quantes sur l'état primitif de l'Univers.
nomes sont persuadésque de particulesélémentairesdont la densité En particulier, on n'a émis aucune
la distributionactuelledela diminueraitavec le temps : les étoileset hypothèsesur l'échelle ou la configura-
matière à l'échelle cos- lesgalaxiesn'existeraientpas. tion de la masseou de l'énergie au début
mique est un vestiged'une Afin d'expliquer la structureactuelle de l'expansion et on n'a introduit aucune
époque très reculée de l'histoire de de l'Univers, le cosmologiste du Big force nouvelle. On a simplement admis
l'Univers. Commela théorie du Big Bang Bang doit donc admettre que, dès le que peu après le Big Bang, il y eut de
fait la quasi-unanimitéchezles cosmolo- début de l'histoire de l'Univers, il y eut petites variations de la densité de masse
gistes et les astrophysiciensqui pensent certainesaccumulationsde matière. Ilest et d'énergie partout dans l'Univers. Ces
que ce modèlepermetd'appréhendertous possibleque cespremièreshétérogénéités variations résultaientde la superposition
les phénomènescosmologiques, il faut aient étéfaibles et presqueindiscernables de fluctuations de faible amplitude de la
examiner,dans le cadrede cette théorie, du fond homogène ; de petites fluctua- densité, à toutes les longueurs d'onde
la très irrégulière distribution de matière tions dansla courburede l'Univers primi- possibles, c'est-à-dire à toutes les
dansl'Univers et sonévolution. tif se traduiraientpar de faibles compres- échellesde longueur ; les amplitudesde
Selon la théorie du Big Bang, sions ou raréfactions de matière ou ces diversesfluctuations étaientréparties
l'Univers naquit il y a 10 à 20 milliards d'énergie d'une région à l'autre de aléatoirement,de sorteque les variations
d'annéespar « explosion d'un » point sin- l'espace.L'amplitude de ces fluctuations de densité qui en résultèrent seraient
gulier de densitéinfinie ; l'expansionqui (c'est-à-dire la variation par rapport à la aléatoires et chaotiques.À partir de cet
suivit l'explosion se poursuit encore densitémoyenne) doit être assezgrande état et en utilisant desprincipes de phy-
aujourd'hui. Dans la version la plus pour conduire aux agrégatsde matière sique bien connus,on arrive à la struc-
simple de la théorie, l'Univers est en que nous observonsactuellement; cepen- ture actuelle de l'Univers.
expansionuniforme à partir du point sin- dant, la déterminationde cette amplitude A mesure que l'Univers poursuivait
gulier. Une telle expansionuniforme rend est un problème théorique délicat. Si les son expansion, les particules élémen-
compte d'observations importantes : la fluctuations initiales avaient été trop taires, en se déplaçantlibrement et aléa-
matièreextragalactiques'éloignede notre importantes,elles auraientprovoqué des toirement, effacèrent toutes les fluctua-
Galaxieà une vitessequi varie régulière- variationsde la températuredu rayonne- tions initiales inférieures à une taille
ment avec la distanceet un rayonnement ment thermique cosmologique de telles critique : seulessurvécurentles fluctua-
micro-onde remarquablementisotrope, variations ont été récemmentobservées tions qui comprimaient ou raréfiaient
dit rayonnement thermique cosmolo- par le satellite COBE,mais leur valeur des massesde matière d'au moins 1015
gique, baigne le ciel ; ce rayonnement relativeest très faible, égaleà 10-5 (voir ou 1016fois la masse du Soleil. Sous
correspond à une température dont la Les fluctuations primordiales de l'effet de la force de gravitation, cer-
variation en fonction de la direction est l'Univers, par Laurent Nottale, dans ce taines des masses comprimées se
1. CETTE DISTRIBUTION DE 400 000 GALAXIES sur 100 degrés du ciel que dans tous les carrés adjacents dans deux ou trois directions (hori-
a été cartographiée par un programme d'ordinateur conçu pour zontale, verticale ou diagonale). Les carrés rouges désignent des
mettre en évidence la structure filamenteuse de l'Univers. La couleur régions ou le nombre de galaxies atteint un maximum local dans les
de chaque petit élément carré de l'image indique le nombre de quatre directions. Les « filaments » verts pourraient correspondre à des
galaxies
qui superamas de galaxies ; si c'est le cas, ils s'étendent sur 100 millions
y est contenu : les carrés noirs représentent les régions
contenant le plus petit nombre de galaxies, et l'augmentation de la d'années-lumière. Cette carte est fondée sur un relevé de
densité des galaxies est indiquée par des teintes de plus en plus claires, l'Observatoire de Lick. Son centre est le pôle Nord de la galaxie, dauts
allant du brun au blanc. Les carrés verts et rouges correspondent à la constellation de la Chevelure de Bérénice ; son bord est le parallèle
des crêtes et des pics locauxdans la distribution des galaxies. Les car- galactique situé à 40 degrés Nord, et la carte est orientée de sorte que
rés verts désignent des régions où le nombre de galaxies est plus grand le centre de notre Galaxie soit vers le haut.
contractèrent préférentiellement dans dressé des cartes en trois dimensions de Une troisième méthode est fondée
une direction. Les fluctuations initiales la distribution des galaxies. sur l'existence de trois types de neutri-
donnèrent ainsi naissance à des nuages Ces cartes présentent des particula- nos : le neutrino électronique, le neu-
de gaz gigantesques et irréguliers, res- rités : les galaxies sont concentrées en trino muonique et le neutrino tauique. Si
semblant à des crêpes. Là où deux immenses « feuillets » aux structures les trois types de neutrinos ont une
crêpes se coupent, il se forme de longs filamenteuses dont la plus grande masse, si les trois types peuvent appa-
filaments de matière. Certains des dimension, environ 100 millions raître avec des probabilités différentes et
nuages restèrent intacts, d'autres se bri- d'années-lumière, est dix fois plus si la différence entre les carrés des
sèrent pour former des galaxies ou des grande que sa dimension la plus faible. masses de deux types quelconques de
amas de galaxies. L'un de nous (J. Silk) Une telle structure peut contenir neutrino n'est pas nulle, la mécanique
expliqua le premier l'émergence jusqu'à un million de galaxies, et sa quantique implique que les trois types de
d'une échelle caractéristique pour les masse est d'environ 1016 masses neutrinos peuvent osciller, c'est-à-dire
fluctuations. Un autre d'entre nous solaires. En outre, à l'intérieur de cha- échanger leurs identités. Comme ces
(Y. Zel'dovich) montra comment se for- cune de ces structures, les galaxies ne oscillations devraient provoquer une
maient, par gravitation, ces fines sont pas uniformément réparties : on y variation dans le temps de la population
couches de matière. Nous appellerons distingue des « blocs » et des « lignes » de chaque type de neutrino, on devrait
ce modèle la « théorie des crêpes ». de peuplement plus dense, beaucoup détecter ces oscillations sous la forme
d'entre eux se trouvant à l'intersection d'une variation de la population des neu-
Deux dimensions de deux « feuillets ». Enfin, intercalés trinos électroniques (par exemple) le
extrêmes entre les plus grandes structures se long de la trajectoire d'un faisceau de
trouvent de gigantesques vides de neutrino. Plusieurs expériences de ce
La théorie des crêpes met en scène matière ne contenant presque aucune type ont été effectuées par différentes
deux objets très différents car ils sont galaxie, qui s'étendent sur 100 à 400 équipes de chercheurs. Jusqu'à présent,
aux extrémités de l'échelle physique. millions d'années-lumière. aucune de ces équipes n'a obtenu de
L'un d'eux est un système astrono- La détermination de la masse du preuve irréfutable de l'existence d'oscil-
mique assez grand pour remplir 1023 neutrino (si elle n'est pas nulle) est plus lations des neutrinos. L'absence d'oscil-
années-lumière cube de l'espace ; problématique. Plusieurs types d'expé- lations pourrait simplement indiquer que
I'autre est le neutrino, une particule élé- riences ont ce dessein. Dans la méthode la différence entre les carrés des masses
mentaire qui interagit faiblement et n'a la plus directe, on peut déduire l'exis- de deux types de neutrinos est nulle ;
pas de dimensions décelables. Si l'on tence de cette masse si l'on trouve cer- une absence d'oscillations est donc com-
veut confirmer la théorie des crêpes, il taines variations dans la vitesse de patible soit avec une masse non nulle,
faut observer ces deux objets et attri- désintégration d'isotopes radioactifs. soit avec une masse nulle du neutrino.
buer une masse non nulle au neutrino. Dans les années 1980, Valentin Les résultats expérimentaux ne per-
Comme les deux masses (si elles exis- Lubimov et ses collaborateurs de mettent pas de conclure sur la masse du
tent toutes deux) diffèrent de 80 ordres l'Institut de physique de Moscou ont neutrino, mais, si l'on accepte l'exis-
de grandeur (d'un facteur 1080), il faut mesuré la vitesse de désintégration du tence de cette masse, les conséquences
utiliser des méthodes sortant de l'ordi- tritium, l'isotope radioactif de l'hydro- cosmologiques sont importantes : un
naire pour les mesurer. gène. Leurs résultats faisaient apparaître neutrino massif conduirait inéluctable-
On a vérifié que l'échelle astrono- une masse très petite mais non nulle pour ment à des structures en crêpes à
mique existait, et il est tentant d'affirmer, le neutrino, comprise entre 20 et 40 élec- grande échelle. Avant d'examiner cet
au vu de la masse du système, que la tronvolts, ce qui est inférieur au dix mil- effet, il est utile de décrire une version
théorie des crêpes est un pas dans la lième de la masse de l'électron. plus ancienne de la théorie des crêpes,
bonne direction. On a mesuré la distance Un deuxième type d'expériences, qui rend finalement peu compte de cer-
de plusieurs milliers de galaxies en déter- mis au point par Ettore Fiorini de taines observations importantes mais
minant le décalage vers le rouge de leur l'Université de Milan, est fondé sur la qui a donné naissance à la théorie
spectre, c'est-à-dire le déplacement des vitesse d'un mode de désintégration actuelle, plus fructueuse.
raies spectrales vers le domaine des radioactive, appelé désintégration
grandes longueurs d'onde du spectre double-bêta, que l'on observe dans cer- La « soupe » primordiale
électromagnétique. Le décalage vers le tains isotopes. En se fondant sur la
rouge est la traduction d'un effet Doppler vitesse de désintégration du germanium Les astrophysiciens croient com-
dû au fait que les galaxies lointaines 76, E. Fiorini a annoncé que la masse du prendre assez bien les processus phy-
s'éloignent de la nôtre (c'est la récession neutrino ne pouvait être supérieure à 10 siques qui ont dû apparaître quelques mil-
des galaxies). On calcule la vitesse de ou 20 électronvolts. Cette méthode est lisecondes après le Big Bang. Comme les
cette récession à partir du décalage vers moins directe que la mesure de la vitesse énergies des particules qui entrèrent en
le rouge grâce à une formule mathéma- de désintégration du tritium ; on ne peut collision à cette époque ne sont pas supé-
tique simple, puis la distance (l'éloigne- interpréter ces résultats comme une rieures aux énergies typiques que l'on
ment) de la galaxie car celle-ci est pro- mesure de la masse du neutrino que si atteint dans un petit accélérateur de parti-
portionnelle à la vitesse de récession de l'on admet que le neutrino est sa propre cules, on obtient une image du début de
la galaxie. La mesure du décalage vers le antiparticule. En revanche, si le neutrino l'Univers en considérant un fluide dense
rouge associée aux coordonnées de la et l'antineutrino sont distincts, la désin- de particules dont on connaît bien les pro-
galaxie sur la sphère céleste permet aux tégration double-bêta du germanium 76 priétés individuelles.
astronomes de connaitre la position de est modifiée et on ne peut pas en déduire Les particules de loin les plus abon-
cette galaxie dans l'espace. On a ainsi une valeur de la masse du neutrino. dantes dans ce fluide étaient le photon,
l'électron et les trois types de neutrino ; il
restait peu de neutrons et de protons après
les annihilations qui se produisirent au
tout début de l'Univers. Les électrons et
les neutrinos, en contact étroit durant la
majeure partie de la première seconde,
étaient continuellement créés et annihilés.
L'énergie était distribuée aléatoirement
dans tout le fluide grâce à de fréquentes
collisions entre électrons et neutrinos ; en
d'autres termes, les particules étaient en
équilibre thermique. À mesure que
l'Univers poursuivait son expansion, la
densité des particules diminua et les col-
lisions devinrent moins fréquentes.
Comme l'énergie d'un photon est inver-
sement proportionnelle à sa longueur
d'onde, l'énergie moyenne des photons
diminua à mesure que leurs longueurs
d'onde « grandissaient » avec le reste de
l'Univers, et ainsi, l'Univers commença
à se refroidir.
Les recherches théoriques sur l'uni-
fication des forces fondamentales de la
nature permettent de remonter au-delà
de la première milliseconde de l'histoire
de l'Univers. Ces théories sont dites
« grandes unifiées » car elles essaient
d'expliquer la force électromagnétique,
la force nucléaire forte et la force
nucléaire faible comme les différentes
manifestations à basse énergie d'un
même phénomène sous-jacent. (On n'a
pas encore réussi à incorporer la gravi-
tation qui est la quatrième force fonda-
mentale dans une théorie unifiée.) La
densité d'énergie à laquelle les trois
forces deviennent indiscernables corres-
pond à la densité de l'Univers 10-35
seconde seulement après le début du
Big Bang. On peut donc considérer
l'Univers primitif comme un laboratoire
permettant de vérifier les prédictions
des théories unifiées.
L'une de ces prédictions est que si
la densité de matière fluctue aux pre-
miers instants de l'Univers, la densité
des photons, c'est-à-dire du rayonne-
ment, fluctue également, mais le quo-
tient de la densité de matière par la
densité de rayonnement doit rester
constant. Selon la théorie de la relati-
vite générale, la matière et l'énergie
sont des sources gravitationnelles équi- 2. DE PETITESPERTURBATIONS DE LA DENSITÉde matière et d'énergie apparurent dans
valentes et elles déterminent la géomé- tout l'Univers, peu après le Big Bang. On peut considérercesperturbations comme des fluc-
trie de l'espace-temps. C'est pourquoi tuations de type ondulatoire de la densité autour d'une valeur moyenne, réparties aléatoire-
une fluctuation de la densité de masse ment sur toutes les longueurs d'onde. La moitié supérieure de cette image engendrée par
et d'énergie entraîne une fluctuation du ordinateur est une coupe instantanée d'une telle fluctuation aléatoire. Les régions jaunes,
champ gravitationnel, ce qui est équi- verteset bleues sont plus denses alors que les régions orange, rouges et violette sont de plus
valent à une fluctuation de la courbure en plus raréfiées. Dans la moitié inférieure de cette figure, toutes les fluctuations qui
embrassentune masseinférieure a 1016 masses solaires ont été éliminées par les interactions
de l'espace-temps. Le physicien russe
matière-rayonnement au cours des premières étapes de l'Univers. Selon la théorie des crêpes
Eugene Lifshitz a mis au point en 1946 propose par les auteurs, les fluctuations restantes ont donné naissance aux superamas de
une théorie complète de ces fluctua- galaxies et aux videsintermédiaires que l'on observeaujourd'hui.
tions dans l'Univers en expansion, et bien plus grand que l'horizon spatial de ment tend à disperser le volume dans
cela dans le cadre de la théorie de la tout observateur. D'autre part, comme l'espace. À grandes échelles, c'est tou-
relativité générale. on pense que l'expansion de l'Univers jours la gravitation qui l'emporte. La
On peut raisonnablement admettre se ralentit, des masses de plus en plus pression ne peut pas résister à l'effondre-
qu'au début de l'Univers, les fluctuations importantes entrent dans l'horizon de ment gravitationnel, de sorte que les par-
ont dû exister sur une vaste gamme tout observateur. Des fluctuations indé- ticules sont attirées vers les régions de
d'échelles possibles : il semblerait arbi- celables au début de l'Univers devien- plus forte densité. Une fois que l'effon-
traire et tout à fait fortuit que les fluctua- nent décelables plus tard car elles sont drement gravitationnel a commencé, la
tions initiales se soient cantonnées, par perceptibles à l'observateur dont l'hori- matière qui s'est ainsi accumulée peut
exemple, à des régions de dimensions zon s'agrandit. attirer de la matière et du rayonnement
galactiques. Toutefois, il existe une Dès qu'une fluctuation se trouve dans plus lointains, et ainsi toute instabilité
limite supérieure à la taille des fluctua- l'horizon de l'observateur, on peut la initiale est amplifiée. La matière s'accu-
tions pouvant être perçues par un obser- décrire par la théorie classique, c'est-à- mule donc dans certaines régions et se
vateur quelconque à un instant donné. dire non relativiste de la gravitation. Elle raréfie dans les autres.
Cette limite est l'horizon spatial de prend alors la forme d'une perturbation Si la « soupe »de particules et de pho-
l'observateur, c'est-à-dire la sphère ayant observable dans la densité du fluide. Il tons qui constituent l'Univers primitif est
pour centre l'observateur et pour rayon la s'exerce deux effets antagonistes sur tout assimilée à un gaz parfait, les effets
distance parcourue par la lumière depuis volume de matière et de rayonnement d'une fluctuation de densité sur le gaz
le déclenchement du Big Bang. Dans le associé : la gravitation tend à faire sont faciles à imaginer. Toute compres-
modèle standard du Big Bang, l'expan- s'effondrer sur lui-même ce volume, tan- sion locale sur une masse suffisante
sion spatiale et temporelle initiale à partir dis que la pression due aux mouvements déclenchera une instabilité gravitation-
d'un point singulier conduit à un univers chaotiques des particules et du rayonne- nelle et conduira à un début d'effondre-
3. L'HORIZON D'UN OBSERVATEUR CROÎT avec le temps et antérieur quelconque (a). Comme l'expansion se ralentit, la
englobe une fraction de plus en plus grande de l'Univers. L'hori- lumière provenant d'un stade antérieur de l'une des galaxies
zon est une sphère ayant pour centre l'observateur et pour rayon pourra finalement atteindre un observateur situé sur l'autre
la distance parcourue par la lumière depuis le Big Bang. Ici, galaxie (b). Les bords des cônes sont les trajectoires des signaux
I'horizon est un cercle situe à la base d'un cône ; l'expansion de lumineux dans l'espace ; comme aucun signal ne peut se propa-
l'Univers est indiquée par l'éloignement croissant de deux ger plus rapidement que la lumière, ils représentent la limite spa-
galaxies en fonction du temps. Lors des premières étapes de tiale de l'interaction causale a tout instant et aussi la limite des
l'expansion, les deux galaxies s'éloignent l'une de l'autre a une observations. Par suite, toute fluctuatron de densité de l'Univers à
vitesse apparente qui dépassela vitesse de la lumière, de sorte une échelle supérieure à celle de l'horizon de l'observateur
qu'à cette époque, un observateur situé sur l'une de ces galaxies n'aura aucun effet sur l'observateur ni sur la répartition de la
n'aurait pas eu assezde tempspour voir l'autre galaxie à un stade matière et de l'énergie à l'intérieur de l'horizon.
ment gravitationnel. À plus petite la distance parcourue par un photon toutes les fluctuations, sauf des plus
échelle, cependant, la gravitation n'est depuis le déclenchement du Big Bang est grandes. Lorsque l'Univers s'est suffi-
pas assez intense pour vaincre l'augmen- supérieure à la largeur d'une région com- samment refroidi pour que les noyaux
tation de pression du gaz créée par primée à la suite d'une fluctuation, ce atomiques capturent les électrons libres,
l'accroissement de densité. Le volume de photon ne maintiendra pas l'état com- les photons ont diffusé à travers une
gaz comprimé va donc « rebondir » et se primé mais dissipera plutôt sa part de région de l'Univers dont la masse est
raréfier et la fluctuation se propagera l'énergie de la fluctuation. Comme les égale à environ 1014 masses solaires.
comme une onde sonore, c'est-à-dire par photons sont bien plus nombreux que les Toutes les fluctuations initiales qui
compression et dilatation périodiques du particules massives, ils transportent englobaient une masse inférieure à cette
milieu à travers lequel elle se propage. presque toute l'énergie de la fluctuation, quantité sont ainsi effacées.
Dans l'air, la plupart des ondes et ainsi les fluctuations à une échelle Quand les électrons se combinent
sonores s'atténuent sur quelques dizaines inférieure au déplacement radial moyen finalement aux noyaux pour former des
de mètres car les particules qui forment d'un photon depuis le Big Bang sont atomes, la matière et le rayonnement ces-
les ondes de pression sont diffusées et entièrement dissipées. sent d'interagir et le rayonnement se pro-
l'énergie de leur mouvement d'ensemble page indépendamment des atomes. La
est dissipée sous forme de chaleur. De Une marche au hasard viscosité du fluide disparaît brusquement
même, les ondes sonores engendréesdans et les fluctuations qui ont survécu à l'ère
le cosmos par les fluctuations perdent On peut comparer la trajectoire d'un (dite ère radiative) où les photons prédo-
leur énergie et disparaissent à toutes les photon au chemin suivi par un ivrogne minaient dans les interactions, ne rencon-
longueurs d'onde, sauf aux plus grandes. qui quitte en chancelant un réverbère, trent plus d'obstacle à leur amplification.
De plus, les particules et les photons de chaque direction ayant la même probabi- L'instabilité gravitationnelle se déve-
l'Univers primitif sont beaucoup trop lité. Au lieu de faire les N pas néces- loppe alors sans entrave.
denses pour que l'on puisse les assimiler saires pour franchir (à jeun) une certaine La disparition soudaine de la pression
à un gaz parfait. Pendant les 300 000 pre- distance à partir du réverbère, l'ivrogne de radiation a un effet prépondérant sur la
mières années de l'histoire de l'Univers, devra faire N2 pas. De même, un photon forme et la structure des premiers objets
les photons étaient assez énergétiques doit être diffusé N2 fois afin de parcourir apparus. Une pression de nature ther-
pour maintenir toute la matière ionisée. une distance radiale égale à celle qu'il mique agit toujours de façon isotrope,
Les photons étaient environ 100 millions parcourrait s'il se déplaçait librement c'est-à-dire également dans toutes les
de fois plus nombreux que les électrons ; (en ligne droite). Bien que diffusés par directions, de sorte que si l'intensité de la
les électrons libres qui plus tard se lieront les électrons, les photons se déplacent pression de radiation était restée compa-
aux noyaux atomiques, étaient donc radialement dans le milieu à une telle rable à celle de la force de gravitation,
constamment bombardés par les photons, vitesse qu'ils dissipent l'énergie de tous les objets formés par effondrement
ce qui entraînait la diffusion des électrons
par les photons et le phénomène inverse.
Il en résulta un fluide épais et visqueux
de photons ; et d'électrons, où aucune
particule ne pouvait se propager bien loin
avant d'être diffusée.
Les électrons libres étant diffusés par
les photons, tout se passait comme s'ils se
déplaçaient dans une mélasse visqueuse
et froide. La viscosité du fluide empê-
chait ainsi la croissance des instabilités
gravitationnelles qui pouvaient résulter de
la seule accrétion de matière. En outre,
tout comme dans un gaz parfait, la grande
pression de radiation due aux photons
empêchait la matière et le rayonnement
de s'effondrer sous l'effet de la gravita-
tion, sauf à des échelles suffisamment
grandes. Les fluctuations qui subsistèrent
au sein du fluide visqueux, c'est-à-dire
celles qui survivent à l'effondrement gra-
vitationnel, peuvent être considérées
comme des ondes sonores.
Nous l'avons déjà mentionné, les 4. QUAND UNE FLUCTUATION ne comporte qu'une longueur d'onde, la distribution des
théories grandes unifiées imposent que le vitessesdes particules est très régulière; les particules sont attirées,par gravitation, vers les
regions de forte densité et la vitesse d'une particule dépend donc de sa distance par rapport
rapport de la densité de photons à la den- à une telle région, comme indiqué sur le graphe en haut à gauche. Dans le graphe
sité de matière reste constant : dans la en bas a
gauche, la vitesse de chaque particule est donnée par la pente de la ligne qui représente sa
phase de compression d'une fluctuation, trajectoire. Les trajectoires ont tendance a converger et à former des régions de densité
la compression des photons doit donc
accrue. Ainsi les fluctuations régulières sont amplifiées. Si les fluctuations sont réparties
correspondre à la compression des parti- aléatoirement sur toutes les longueurs d'onde(en haut a droite), les trajectoires ne conver-
cules possédant une masse. Cependant, si gent pas (en bas à droite).
DESRÉGIONS
EFFONDREMENT DENSES laire. Dans le futur, à mesure que se for-
meront de plus grands amas de matière,
cette structure devrait disparaître. Ainsi,
ce n'est que pendant une étape intermé-
diaire de l'évolution cosmique que la
structure de la matière reflète les fluctua-
tions initiales de la courbure de
l'Univers. Tout indique que, du point de
vue de l'évolution de la structure à
grande échelle, notre Univers n'est ni
très jeune ni très vieux.
Les difficultés
de la théorie
La matière « sombrer
7. LES DISCONTINUITES DANS LA DENSITE DE MATIERE drement gravitationnel, les mouvements des deux flots de parti-
peuvent résulter de déformations continues du milieu pendant cules ne sont pas exactement symétriques, et les deux discontinui-
l'effondrement gravitationnel. Dans chaque schéma, le plan du tés se terminent en une fronce (d). On peut considérer ces distri-
bas représentedeux directions dans l'espace. On ne considère que butions de densité comme un cas particulier d'un phénomène plus
les mouvements dans ce plan et parallèles à l'axe des x. Les parti- général décrit par la théorie des catastrophes. Si l'on décrit le
cules se déplacent vers un axe central ; la longueur de chaque mouvement des particules dans un espace des phases, c'est-à-dire
flèche indique la vitessed'une particule située à l'origine de la dans un espace a trois dimensions où l'axe vertical représente la
flèche (a, b). Un flot de particules se déplaçant vers la droite vitessedans une direction parallèle à l'axe des x, l'interaction des
(flèches bleues) traverse l'axe central sans entrer en collision avec deux flots de particules est représentée par une surface tordue ou
le flot de particules se déplaçant vers la gauche (flèches rouges). ondulée (en haut sur chaque schéma). La densité de particules en
Ces déplacementsproduisent deux discontinuités dans la densité, tout point est alors donneepar « l'ombre » projetéepar la surface
une de chaque cote de l'axe central (c). Dans presque tout effon- déforméesur le plan x-y originel.
8. ÉVOLUTION DANS LE TEMPSDES FLUCTUATIONS à grande vides. La structure ainsi obtenue ressemble à la distribution des
échelle de la densité de matière et d'énergie simulée par ordina- superamas et des vides que l'on observe actuellement. Dans plu-
teur en admettant l'existence de neutrinos massifs. L'effondre- sieurs régions, on observedes fronces et d'autres types de discon-
ment gravitationnel engendre des crêpes et des filaments, tandis tinuités de la densité ; on peut les identifier et les classer au
que les régions restantes de l'espace deviennent de plus en plus moyen de la théorie des catastrophes.
lorsqu'ils ralentissent, ils deviennent de matière pourrait avoir été bien plus faible crêpes. Quand une crêpe s'effondre, la
plus en plus susceptibles d'être piégés par que l'amplitude des fluctuations néces- « composante-neutrino »du gaz en effon-
des fluctuations à grande échelle qui saires dans un mélange de rayonnement drement traverse le plan central de la
n'ont pas encore été « lissées ».Richard et de matière ordinaire. En supposant que crêpe sans interagir. La distribution de
Bond de l'Université Stanford et l'un de le neutrino a une masse, on peut réduire densité des neutrinos présente d'impor-
nous (A. Szalay) ont évalué l'échelle d'au moins un ordre de grandeur la varia- tantes discontinuités, dont certaines cor-
maximum à laquelle les neutrinos peu- tion de la température du rayonnement respondraient à de riches amas de
vent se déplacer librement avant d'être thermique cosmologique requise pour galaxies. Vladimir Arnold, un mathéma-
piégés, et par conséquent l'échelle mini- engendrer les agrégats de matière que ticien de l'Université de Moscou, a tra-
mum à laquelle les fluctuations ne sont l'on observe aujourd'hui. On réconcilie vaillé avec des astrophysiciens sur ce
pas effacées. Cette échelle correspond à alors la théorie et les observations. problème et il a identifié ces discontinui-
une distance actuelle de 100 millions La nouvelle version de la théorie des tés dans la distribution globale de la den-
d'années de lumière et à une masse de crêpes conduit à une explication naturelle sité avec certains éléments de la théorie
1015 à 1016 masses solaires. L'accord de l'origine de la matière sombre de des catastrophes, l'une des branches des
avec la taille et la masse des superamas l'Univers. L'effondrement gravitationnel mathématiques.
de galaxies observés est frappant. initial d'une crêpe dissémine la plupart La nouvelle théorie des crêpes éclaire
des neutrinos car ceux-ci acquièrent de le caractère et l'origine de la structure
Théorie et observations grandes vitesses (de l'ordre de 1 000 actuelle de l'Univers. Elle est fondée sur
kilomètres par seconde) sous l'effet de des principes physiques connus et sur des
Comment de telles fluctuations de l'effondrement gravitationnel. Ces neu- hypothèses plausibles concernant les
matière peuvent-elles être compatibles trinos iront remplir les régions sombres conditions qui régnaient au tout début de
avec les très faibles fluctuations relatives de l'espace intergalactique. D'autres l'histoire de l'Univers. Elle n'est pas
de température (10-5) du rayonnement neutrinos, cependant, se déplacent plus l'unique théorie de l'origine de la struc-
thermique cosmologique ? Les neutrinos lentement car ils étaient initialement plus ture à grande échelle de l'Univers, mais il
cessent d'effacer les fluctuations de là proches du plan central de la crêpe et ne apparaît que la théorie et les observations
courbure de l'espace-temps avant la fin subissent pas de fortes accélérations. La convergent. Néanmoins, il faudra
de l'ère radiative mais, contrairement aux fine couche de gaz voisine du plan cen- résoudre de nombreux problèmes impor-
électrons, leurs mouvements ne sont pas tral se condense et se fragmente pour for- tants avant de pouvoir considérer cette
inhibés par la viscosité du fluide formant mer les protogalaxies. Les agrégats de théorie comme solidement établie.
l'Univers : les neutrinos entrent en colli- matière ordinaire rassemblent les neutri- Une fois la théorie confirmée, il fau-
sion si rarement avec les photons ou les nos lents, et la matière proche du centre dra la développer dans deux directions
électrons qu'ils ne sont pas soumis au de la protogalaxie continue à se conden- principales. Premièrement, il faudra
freinage dû à la viscosité. Par conséquent, ser et à former des étoiles. En revanche, s'attaquer à la structure fine de l'Univers,
des instabilités gravitationnelles peuvent les neutrinos qui se trouvent à la périphé- à la formation de la première génération
apparaître parmi les neutrinos avant la fin rie de la protogalaxie se répartissent sous d'étoiles à partir d'un gaz primordial
de l'ère radiative, et ainsi elles peuvent l'effet de la gravitation et ne se conden- dépourvu d'éléments lourds.
s'accroître bien plus longtemps que les sent jamais. Ils deviennent la matière Deuxièmement, on doit se demander
fluctuations de la matière ordinaire. Par sombre du halo de la galaxie. comment les fluctuations initiales
suite, l'amplitude initiale des fluctuations On élabore actuellement une théorie admises dans la théorie des crêpes ont pu
de neutrinos nécessaires pour rendre plus détaillée de la formation des galaxies apparaître à partir d'époques encore plus
compte des hétérogénéités actuelles de la dans le cadre de la nouvelle théorie des anciennes de l'histoire de l'Univers.
LES FLUCTUATIONS descend sous 3 000 kelvins : le contenu de
l'Univers est devenu neutre, si bien que les
PRIMORDIALES DE L'UNIVERS photons que s'échangeaient continuelle-
ment les particules chargées cessent sou-
dain d'interagir avec la matière. Après ce
Laurent Nottale découplage, I'Univers est rempli de deux
constituants essentiels qui vont évoluer
mis Les donnéesdu satellite COBEont per- Le Big Bang indépendamment, l'hydrogène neutre et
de franchir une étape essentielle un gaz de photons à la température de
pour la cosmologie : l'équipe de scienti- Une autre propriété essentielle, que 3 000 kelvins ; ce gaz, précédemment en
fiques qui étudie ces données à la NASAa possèdent la plupart des modèles d'Uni- équilibre avec ses sources, doit posséder
pu mesurer des fluctuations du corps vers, est l'existence d'une singularité ini- un spectre de corps noir.
noir cosmologique, de 30 ± 5 microkel- tiale : !'expansion de l'Univers est décrite
vins sur dix degrés pour une tempéra- par un facteur d'echelle variant au cours Le rayonnement primordial
ture de 2, 736 kelvins. Quels sont le sens du temps et qui affecte toutes les distances
et l'importance de ces observations? relatives entre deux points quelconques ; L'hypothèse forte de la cosmologie du
Revenons plus de 75 années en or ce facteur d'échelle diminue quand on Big Bang est que l'Univers, tel qu'on le
arrière. La cosmologie moderne nait remonte dans le passé, jusqu'à s'annuler connait actuellement, résulte de l'évolution
quand Einstein met au point la théorie dans un passé lointain mais fini (l'âge de de la matière et du rayonnement depuis
de la relativité générale. C'est une théo- l'Univers est estimé à une quinzaine de cette époque reculée (quelques centainesde
rie relativiste de la gravitation, force milliards d'années). milliers d'années après la singutarité initiale,
d'attraction dominante à très grande Si cette idée d'un Univers primordial fut ce qui correspond à un décalage spectral
échelle ; les équations d'Einstein relient envisagée, à titre spéculatif, par de nom- cosmologique environ égal à 1 000). Deux
le contenu matériel et énergétique de breux théoriciens, parmi lesquels Georges questions se posent. Qu'est devenu le
l'Univers (décrit comme un gaz de Henri Lemaitre, c'est George Gamow qui rayonnement? Comment le bain uniforme
galaxies caractérisé par une densité et compri le premier, à la fin des années 1940, de matière initial a-t-il évolué pour donner
une pression) à ses propriétés géomé- qu'elle avait des conséquencesobservables. l'Univers actuel, hautement structuré et for-
triques de courbure. Les physiciens ont Examinons le raisonnement,schématisé,de tement hiérarchisé?
rapidement cherché des solutions de ces Gamow. Quand on se rapproche de cette La réponse à la première question
équations, valables pour l'Univers dans singularité initiale en partant de l'époque constitue l'extraordinaire prédiction de
son ensemble, et la cosmologie est aussi- actuelle, on voit que les principales gran- Gamow : une des propriétés des modèles
tôt perçue comme un domaine d'applica- deurs physiques du gaz de galaxies,tellesla cosmologiques est que, si un rayonnement
tion privilégié de la théorie d'Einstein... densité, la température et, finalement, la de corps noir remplit l'Univers à une
En 1922, Friedmann établit les solu- pression, augmentent sans limite. Mais on époque donnée, il resteraun corps noir par-
tions générâtes, à pression nulle, des sait qu'au-delà d'une température de fait a une époque ultérieure, mais à une
équations d'Einstein, fondées sur le prin- quelques milliers de degrés, aucun atome température diminuée.Le rayonnement pri-
cipe cosmologique, qui postule que ne subsistesous sa forme neutre : les élec- mordial doit donc, raisonne Gamow, être
l'Univers est homogène et isotrope à très trons sont arrachés,deviennent libres, émet- encore observableactuellement,mais à une
grande échelle. Celles-ci seront ensuite tent et absorbent sanscessedes photons et température de quelques kelvins seulement.
généralisées, par Robertson et Walker, forment, avec les noyaux, un plasma chargé En 1965, Penzias et Wilson décou-
aux modèles à pression non nulle. Ces qui interagit fortement avec le rayonnement vraient ce rayonnement de corps noir iso-
modèles d'Univers ont des propriétés électromagnétique. À plus haute tempéra- trope à une température de 2,7 kelvins,et
communes remarquables. Directement ture, ce sont les noyaux eux-mêmes qui apportaient ainsi un argument observation-
issues du haut degré de symétrie impli- sont brisés,et l'Univers devient un bain de nel décisif en faveur des idées de Lemaitre
qué par le principe cosmologique, elles particules élémentairesen équilibre thermo- et de Gamow. Un des résultats essentiels
ont permis à la cosmologie de devenir dynamique avec le rayonnement. A cette obtenus par COBEet par l'expériencecana-
une science prédictive, susceptible d'être époque reculée, I'Univers était ainsi fonda- dienne COBRA, est d'avoir confirmé que le
éprouvée par les observations. mentalement différent de ce qu'il est actuel- spectre observe était bien celui d'un corps
La première de ces prédictions théo- lement : c'était un Univers chaud, dominé noir, a la température de 2, 726 kelvins et
riques est l'expansion de l'Univers. En par ta pression de radiation,au contraire de sansdistorsionappréciable.
effet, toutes les solutions cosmologiques l'Univers actuel,froid et sanspression. Depuis,le modèle standardde Big Bang
des équations d'Einstein sont non sta- Que s'est-il passéau cours de la transi- s'est affirmé comme un cadre incontour-
tiques, a une exception près ; il s'agit tion entre ces deux mondes? Si l'on part nable pour aborder les problèmescosmolo-
bien là d'une authentique propriété de la d'un univers de rayonnement, constitué giques fondamentaux, tels ceux de l'abon-
gravitation à grande échelle. Cette essentiellement de protons, d'électrons et dance des éléments et de la formation des
expansion a des conséquences obser- de photons en équilibre thermodyna- galaxies.La solution précise du premier de
vables, dont la principale est l'existence mique, et que l'on suit maintenant le cours ces problèmes a récemment constitue un
d'un décalage spectral systématique de du temps, on voit la température de ce nouveau succès remarquabledu modele de
la lumière émise par les galaxies, déca- mélange baisser peu à peu a cause de Big Bang : ta comparaisondes abondances
lage proportionnel à la distance des l'expansion, les électrons et les protons des éléments légerspréditespar la théorie et
objets. Cet effet cosmologique, observé commencer se à combiner en atomes vers des abondances observées a permis de
par Edwin Hubble en 1929, a été depuis 10 000 kelvins et finalement disparaitre contraindre le nombre de familles de neutri-
confirmé sur des milliers d'objets. comme entités libres quand la température nos légers à trois et de détecter une erreur
Carte du ciel, en cordonnées galactiques, des fluctuations de température observées par COBE,lissée avec une résolution
d'environ dix degrés. Les plus grandes structures observées dépassent le gigaparsec (3 x 1025 mètres).
importante sur le temps de vie du neutron, précédé le dkouplage, et supposons que actuellement abordé, celui de l'instabilité
deux résultats qui furent spectaculairement de telles fluctuations de ta densité de matière gravitationnelle, aurait dû être rejeté.
vérifiés peu après, dans des expériences de existaient A cette époque, le rayonnement Mais ce résultat ne change rien à tous
physique des particules. ne cessait d'interagir avec la matière, mais, les problèmes rencontrés, puisque ceux-ci
pour des valeurs de la température com- t'étaient précisément à partir de l'hypo-
Les fluctuations de densité prises ente 107 et 104 kelvins, les interac- thèse d'un spectre primordial de Harrison-
tions matière-rayonnement sont insuffisantes Zel'dovich. Il faut également, à mon avis,
Le problème de la formation des pour « thermatiser » complètement le rayon- atténuer les annonces suivant lesquelles
galaxies et des grandes structures de nement. En d'autres termes, durant cette cette découverte confirmerait les modèles
l'Univers reste le principal problème non époque précédant la combinaison en d'inflation. Si ('hypothèse d'inflation (c'est-
résolu de la cosmologie. Selon l'hypothèse la atomes et le découplage, les éventuelles à-dire d'une période d'expansion expo-
plus simple, la gravitation est responsable de fluctuations de matière doivent laisser leur nentielle dans l'Univers très primordial)
la structuration de l'Univers telle qu'on empreinte sur le rayonnement de corps noir permet effectivement, comme d'autres
l'observe aujourd'hui. Mais la gravitation ne cosmologique. Ce sont ces empreintes que hypothèses, de prévoir un spectre de fluc-
peut faire croître que des structures préala- COBEa détectées pour la première fois. tuation pratiquement plat a l'époque de la
blement existantes. On aboutit ainsi à ta Les théoriciens ont pu préciser certaines recombinaison, l'amplitude prédite est 105
conjecture que, à l'époque du découplage contraintes auxquelles ces fluctuations fois celle observée. Parler de succès théo-
rayonnement-matière, ta densité n'était pas devraient satisfaire pour qu'elles puissent rique semble donc prématuré...
totalement uniforme. Cette hypothèse pose évoluer vers les structures actuelles ; ta prin- A l'époque des premières données de
aussitôt beaucoup de questions. Quel était le cipale, établie par Harrison et Zel'dovich, COBE,on devait rester prudent sur la réalité
spectre de ces éventuelles fluctuations ? étant que le spectre de fluctuations devrait de cet effet ; on l'obtenait après corrections
Étaient-elles a petite échelle, à grande être indépendant de l'échelle à laquelle on d'un grand nombre d'autres effets, en parti-
échelle ou aux deux ? Sont-elles observables, l'observe. Or COBE a obtenu, au moins culier les émissions synchrotron et ! es émis-
directement ou indirectement ? Comment dans le domaine qui lui est accessible sions dues aux poussières de notre Galaxie,
ont-elles évolué vers ta distribution actuelle (séparations angulaires supérieures à sept qui sont plus de dix fois supérieures. Cet
en étoiles, galaxies, groupes amas et supera- degrés), des fluctuations compatibles avec effet est aujourd'hui bien confirme. Ce résul-
mas de galaxies, très grandes structures un tel spectre de Harrison-Zel'dovich. Ce tat est plus un début qu'une fin : on peut
planes ou filamentaires ? D'où sont-elles spectre de fluctuations a été détecté prati- rêver d'une nouvelle branche observation-
issues? quement à la valeur minimale de son nelle de l'astronomie, où ces fluctuations
On pourrait en effet penser que postu- amplitude possible ; cette valeur a été esti- seront observées et analysées plus en détail,
ler l'existence de fluctuations qui elles- mée à partir des champs de vitesse actuels, en particulier à une meilleure résolution
memes devront être comprises comme observés a grande échelle pour les angulaire, à des échelles où une comparai-
conséquences de fluctuations plus anciennes galaxies. Le résultat de COBEconstitue donc son statistique avec les structures observées
encore, ne fait que reculer le problème. un soulagement pour les théoriciens : si actuellement deviendra possible...
C'est vrai du point de vue théorique, mais l'amplitude des fluctuations avait été infé-
pas du point de vue observationnel. rieure, le cadre préférentiel dans lequel le Laurent Nottale travaille à l'Observatoire
Replaçons-nous en effet à l'époque qui a problème de la formation des structures est de Meudon, CNRS-DAEC.
L'évolution
de la vie terre
sur
Cependant, jusqu'à la fin des années ricellulaire a connu cinq extinctions d'autres planctons unicellulaires (notam-
1970,] la plupart des paléontologues notables (à la fin de l'Ordovicien, du ment les coccolithes et les radiolaires).
considéraient les extinctions de masse Dévonien, du Permien, du Trias et du Avant la limite Crétacé-Tertiaire, de
comme de simples amplifications d'évé- Crétacé) et de nombreuses extinctions de nombreuses diatomées étaient capables
nements ordinaires renforçant, tout au moindre envergure. d'entrer en dormance par enkystement,
plus, les tendances dominantes. Dans Nous n'avons pas de preuves incon- vraisemblablement pour résister aux
cette théorie gradualiste des extinctions testables que ces extinctions ont été conditions défavorables, aux mois d'obs-
de masse, ces événements se seraient déclenchées par des impacts catastro- curité polaire qui auraient été fatals à ces
déroulés sur quelques millions d'années phiques, mais l'analyse détaillée de toutes cellules dont le métabolisme est fondé sur
(l'illusion de la soudaineté résulterait de les données a montré que les extinctions la photosynthèse, ou encore à la disponi-
l'imperfection de la datation des fos- de masse ont été plus fréquentes, plus bilité sporadique de la silice nécessaire à
siles), et ils auraient seulement précipité rapides, de plus grande envergure et de la croissance de leur squelette.
les événements ordinaires (une compéti- conséquencesplus variées que les paléon- Les autres cellules planctoniques ne
tion darwinienne plus intense dans les tologues ne l'admettaient jusqu'à présent. présentaient pas ces mécanismes de dor-
temps difficiles a, par exemple, conduit Ces quatre propriétés des extinctions mance. Si l'impact de la fin du Crétacé a
à une sélection encore plus rigoureuse et de masse soulignent leur importance soulevé un nuage de poussière tel qu'il a
rapide des formes les mieux adaptées). lorsque l'on cherche à comprendre l'évo- bloqué la pénétration de la lumière solaire
lution de la vie comme un ballottement dans l'atmosphère pendant plusieurs mois
Les extinctions de masse au gré de contraintes extérieures et de (un des scénarios envisagés), les diato-
hasards plutôt que comme une évolution mées ont profité de leurs capacités de
En 1979, Luis et Walter Alvarez ont prévisible dans une direction particulière. dormance, acquises dans un contexte
présenté des résultats qui ont conféré aux Les extinctions de masse ne frappent totalement différent. Les diatomées ne
extinctions de masse une portée tout à fait pas le vivant n'importe comment : cer- sont pourtant pas supérieures aux radio-
nouvelle : ils ont montré que la collision taines espèces ont survécu, d'autres ont laires ou aux autres planctons qui ont péri
d'un objet extraterrestre (peut-être un pla- disparu selon qu'elles possédaient ou non en grand nombre ; elles ont simplement
nétoide de sept à dix kilomètres de dia- certains caractères évolués. Quand les eu la chance de disposer des caractéris-
mètre) a vraisemblablement été respon- catastrophes se sont déclenchées brusque- tiques favorables qui les ont protégées
sable de la dernière grande extinction, à ment, le verdict de vie ou de mort ne des conséquencesde l'impact.
la limite du Crétacé et du Tertiaire, il y a dépendait pas des atouts que possédaient Deuxièmement, nous savons que les
65 millions d'années. Quoique cette les espèces dans leur compétition darwi- dinosaures ont disparu à la fin du Crétacé
hypothèse ait d'abord été reçue avec nienne, lors des périodes normales. En et que les mammifères ont alors com-
scepticisme par les scientifiques (une raison de ce bouleversement des règles mencé à dominer le monde des vertébrés.
réaction classique aux explications nou- du jeu, les espèces sont incapables de On admet généralement que les mammi-
velles), quelques preuves ont été amas- s'adapter à des changements drastiques, fères l'emportèrent sur les dinosaures,
sées, notamment avec la découverte, dans ce qui donne un aspect chaotique à l'évo- dans ces temps difficiles, parce qu'ils
la péninsule du Yucatàn, au Mexique, lution de la vie. leurs étaient supérieurs. C'est très peu
d'un cratère qui pourrait avoir été laissé Examinons l'évolution de deux probable : les mammiferes ont cohabité
par l'impact météoritique. groupes, lors de l'extinction de la limite avec les dinosaures pendant 100 millions
Ce regain d'intérêt pour les extinc- Crétacé-Tertiaire, déclenchée par d'années, mais les plus gros sont restés de
tions massives a conduit les paléonto- l'impact d'un astéroïde sur la Terre, il y a la taille d'un rat, et aucun signe évolutif
logues à réexaminer les données avec 65 millions d'années. Premièrement, n'indique qu'ils auraient pu supplanter
plus de précision. Ainsi, pendant ses 530 d'après une étude publiée en 1986, les les dinosaures. Aucun argument convain-
millions d'années d'existence, la vie plu- diatomées ont bien mieux résisté que cant n'a pu être avancé qui justifierait la
apparaissent les vertébrés terrestres (c), les poissons ne sont plus se termine toujours par les mammifères (e) et, bien sur,
représentés, bien que le retour vers la mer de certaines lignées par les hommes (f), même si, poissons, invertébrés et reptiles ne
de vertebres terrestres soit envisagé (d). La séquence cessentde se multiplier.
supériorité des mammiferes, et le hasard fication, et que nous ne considérerons si plus de la moitié des espèces de verté-
semble avoir été le seul à intervenir. pas Homo sapiens comme un fétu de brés descendent des téléostéens).
La survie des mammifères aurait paille tardif dans le buisson touffu des Pourquoi les hommes devraient-ils appa-
résulté de leur petite taille (comme ils formes de la vie, comme une minuscule raître systématiquement à la fin de
étaient nombreux et qu'ils avaient moins ramification qui n'apparaîtrait certaine- toutes les séquences évolutives ? Notre
de contraintes écologiques, ils auraient ment pas une seconde fois si nous ordre des primates est ancien parmi les
mieux résisté aux extinctions). La petite replantions la graine du buisson et si mammifères, et de nombreuses lignées
taille n'était peut-être pas un signe nous le laissions repousser. viables sont apparues après la nôtre.
d'adaptation des mammifères, mais au Parce que, comme tous les primates, Nous ne renverserons notre piédestal
contraire la preuve de leur incapacité à nous sommes des animaux qui aiment et nous n'achèverons la révolution de
dominer les dinosaures. Ainsi une fai- les images, aussi nos dessins trahissent Darwin que le jour où nous aurons ima-
blesse manifestée au cours des époques nos convictions les plus profondes et giné une nouvelle description de l'his-
ordinaires aurait-elle été une condition de révèlent nos limitations conceptuelles. toire de la vie. J. Haldane déclarait la
la survie de ces espèces, une condition Les artistes ont souvent peint l'histoire nature « plus étrange que nous ne l'ima-
nécessaireet suffisante pour que je puisse de la vie fossile sous la forme d'une ginons », mais nos oeillères nous sont
écrire cet article et pour que vous puis- série où les invertébrés seraient devenus plus imposées par l'ordre social que par
siez le lire aujourd'hui. les poissons, puis les amphibiens ter- une incapacité de notre cerveau. Ces
restres et les reptiles, les mammifères et verrous sauteront. Pour sortir de ces
L'homme, un accident enfin les hommes. Toutes les séquences ornières conceptuelles, il nous faudra
de l'évolution évolutives peintes depuis les années considérer la vie comme des arbres ou
1850, suivent cette convention. plutôt comme des buissons luxuriants,
Selon Sigmund Freud, les grandes Toutefois, les a priori de cet ordre couverts de branches, plutôt que comme
découvertes scientifiques ont un point universel sont absurdes. Aucune scène des échelles et des suites régulières
commun amusant : à chaque fois, elles ne représente plus les invertébrés après d'événements évolutifs.
entament un peu plus la conviction que l'apparition des poissons, comme s'ils Nous devons rechercher toutes les
l'homme a de sa supériorité et le font pro- avaient tout simplement disparu ou variations possibles, pas seulement celles
gressivement descendre de son piédestal. cessé d'évoluer ! Après l'arrivée des rep- qui sont compatibles avec notre percep-
Ainsi Copemic nous éloigna du centre du tiles sur la terre ferme, les poissons sont tion étriquée des créatures complexes.
monde, Darwin nous ramena au rang des gommés des représentations ultérieures Nous devons admettre que cet arbre a eu
animaux, et enfin (dans l'une des étapes (certains tableaux d'animaux marins d'innombrables branches au début de la
les plus brillantes de l'histoire intellec- montrent seulement quelques reptiles, vie pluricellulaire et que l'histoire ulté-
tuelle), Freud lui-même découvrit comme l'ichthyosaure ou le plésiosaure, rieure fut essentiellement celle d'un éla-
l'inconscient et détruisit le mythe d'une qui retournent à la mer). gage, où n'ont été épargnées que quelques
pensée totalement rationnelle. Là encore, les poissons n'ont pas branches, plutôt qu'un développement
Dans ce sens, la révolution darwi- cessé d'évoluer quand une petite continu d'une multitude foisonnante.
nienne demeure incomplète : si l'esprit branche a commencé à coloniser la terre Nous devons comprendre que les
humain accepte la théorie de l'évolution, ferme. En fait, l'événement essentiel de petites brindilles sont fragiles et que le
nous n'abandonnons pas l'idée que l'évolution des poissons, l'origine et la buisson qui les porte ne s'en préoccupe
l'évolution repose sur le progrès, lequel domination des téléostéens, ou poissons guère. Souvenons-nous du plus important
aboutit inéluctablement à la conscience modernes à aretes, se produisit à de tous les commandements bibliques à
humaine. Le piédestal ne sera pas ren- l'époque des dinosaures et, par consé- propos de la sagesse: « C'est un arbre de
versé tant que nous n'aurons pas aban- quent, n'apparaît jamais dans les repré- vie pour ceux qui la possède ; et heu-
donné l'idée de progrès et de complexi- sentations des schémas évolutifs (meme reux celui qui la retient ».
rencontre des êtres vivants avec un envi-
AU HASARD
ronnement qui les façonne, à long
terme. Toutefois Lamarck n'a pas précisé
DES RENCONTRES par quels mécanismes un environnement
modifie les êtres qui y vivent. Pour lui,
ces mécanismes devaient être détermi-
nistes : même si la rencontre d'une
André Langaney espèce et d'un environnement relève
d'aleas, c'est une succession de causalités
son matérialisme. Toutefois, on a tort de qui engendre les formes de la vie.
Ce titre est malicieux : selon la défini-
tion d'Antoine-Augustin Cournot, lui attribuer la découverte du rôle du Avant la découverte de la génétique
mathématicien et économiste du siècle hasard dans t'histoire de la vie, comme on modeme, on pensait que chaque individu
paternité de la transmettait a ses descendants,non seule-
dernier, le hasard est « la rencontre de a tort de lui attribuer la
deux séries causales indépendantes ». théorie de l'évolution : neuf ans avant la ment le de son espèce, mais aussi
Aurions-nous donc, en guise de réflexion naissance de Darwin, Lamarck avait pro- son « type » propre. Darwin constate que
théorie généalogique de l'origine certains types individuels, qui survivent
sur le hasard en biologie, à examiner la posé ta
des espèces et de l'histoire du monde mal, se raréfient ou disparaissent: c'est la
rencontre des rencontres ? Cette appa-
vivant. En outre, les premières formula- mortalité différentielle ; de plus, les types
rente circularité décrit fort bien de nom-
tions par Darwin de la théorie de la sélec- qui se reproduisent le plus finissent par
breux mécanismes de la vie, produits
tion naturelle étaient profondément déter- dominer : c'est la fécondité différentielle.
d'enchaînement d'aléas ; elle explique
aussi, nous allons le voir, la diversité des ministes. Darwin cherchait une explication Ces deux processus,mortalité et fécondité
populations. sélectivecertaine à toute particularité d'une différentielles,qui modifient les proportions
espèce. Le finalisme rodait même lorsque, des types au cours du temps, expliquent la
La vie est faite de rencontres : ren-
transformation des populations et des
contres chimiques des molécules qui sous l'influence sociale ambiante, Darwin
interagissent dans les êtres vivants ; ren- imaginait comment la lutte systématique espèces: C'est la sélection naturelle.
Jusqu'aux dernières éditions de
contres du protiste ou de la plante avec pour la vie « optimisait » les caractères.
Nous distinguons ici l'aléatoire du l'Origine des espèces, Darwin croit que
les matières nutritives et/ou la lumière ;
« hasardhistorique ».Le naturaliste Buffon l'action de cette sélection déterministe sur
rencontre du prédateur et de la proie ;
historique la variation des populations est le principal
rencontre des cellules sexuelles, neces- a introduit la notion de hasard
lorsqu'il a appliqué le « principe des mécanisme de l'évolution. Toutefois, la
saire à ta perpétuation et à la diversifica-
tion des populations et des espèces. causes actuelles » au monde cosmique et dernière édition de son ouvrage comporte
vivant ; les refroidissements climatiques des parties nouvelles, où il décrit des varia-
Dans tous les cas, les mécanismes du
de la planète auraient, par exemple, fait tions individuelles ou des comportements
vivant se bornent à favoriser la ren-
migrer les éléphants du Spitzberg à surprenants. II avoue son impuissance à
contre, en synchronisant les partenaires
l'Afrique (en fait, c'était faux : il prenait expliquer certains paradoxes de la sélec-
dans le temps et l'espace. À l'échelle de
la molécule, enzymes, membranes et les mammouths du Spitzberg pour des tion sexuelle : dans le cas de la mante reli-
éléphants !). Lamarck étendit cette notion gieuse, le male sacrifie sa vie pour assurer
structures spatiales organisent, souvent
de hasard historique en envisageant la sa reproduction. N'est-ce pas là une
avec la précision maximale, l'orientation,
contradiction Faut-il désavan-
le contact et les modalités de
l'interaction d'une molécule tager l'individu pour avanta-
ger la continuité de son
avec un partenaire aléatoire. lignage ? Darwin décrit alors
des variations qu'il estime non
L'évolution sélectionnées.Dans une belle
la précision autocritique, il admet avoir
Devant
exagéré l'importance de la
extrême des mécanismes du
sélection naturelle et ne pas
vivant, I'homme a longtemps
comprendre les variations
cru (et les non-rationalistes
croient encore !) a l'interven- entre individus, au sein des
populations ; il effleurait la, au
tion d'une intelligence et
d'une volonté supérieures. moyen de l'observation, l'idée
d'une possible dérive neutre,
Même le très matérialiste
Lamarck balançaitentre Dieu, sinon défavorable, de certains
caractères.
auquel il croyait peu, et le
hasard, qui expliquait mal
une nature apparemment ani- La génétique
mée d'un projet. À ses
C'est le botaniste et physi-
débuts, Charles Darwin évo-
quait dans ses lettres un cien Johann Mendel, dit frère
Gregor, qui découvre, au
« grand sélectionneur »mais; il
siècle dernier, que des méca-
eut la prudence de ne pas le
nismes essentiels de la vie
mentionner dans ses oeuvres.
parmi étaient affaire de probabilités,
Plus tard, dans ses principaux 1. Rencontre de deux molécules complémentaires
écrits, il exprimait clairement une multitude. et non de certitudes. Il hybride
2. Le brassage des gènes. Les cellules d'un des parents (en manières : soit par recombinaison entre paires de chro-
haut) contiennent les chromosomes des grands-parents mosomes (la deuxième paire de chromosomes en partant
(en clair, ceux de la grand-mère, en foncé, ceux du grand- du bas), soit par recombinaison intro-paire, au cours d'un
père). Lors de la formation des cellules sexuelles, la processus d' « enjambement » (ou crossing-over) sur les
méiose mélange les chromosnmes. Ainsi deux gènes indé- chromosomes. Lors de la fécondation, une cellule sexuelle
pendants (tels que le rouge de la grand-mère et le bleu est tirée au sort chez chaque parent (ce que l'on a dessiné
ou le vert du grand-père) peuvent rester indépendants pour les spermatozoïdes du père vaut également pour les
(spermatozoïdes du bas) ou être associés de diverses ovules de la mère).
des lignées pures de petits pois, et rés par leurs interactions et par de nom- matique des plus aptes, ni même des plus
constate, a la deuxième génération, une breuses rétroactions. La rencontre aléa- féconds, comme t'écrivait Darwin ; elle
répartition statistique des caractèresdomi- toire de macromolécules d'acides résulte d'un tri aléatoire d'un échantillon
nants (75 pour cent) et récessifs(25 pour nucléiques et de mutagènes, chimiques arbitraire, apte et fécond, parmi une infi-
cent). Les lois de Mendel montrent que la ou physiques, crée, par mutation, une nité de possibles aptes et féconds. Chez
transmission sexuelle obéit aux lois d'une variation de base. Cette variation est mul- I'humain comme chez le végétal ou l'ani-
épreuve aléatoire ; des particules mate- tipliée par les mécanismes de la sexualité : mal, la génétique moléculaire des popula-
rielles, les gènes, déterminent les carac- lors de la formation des cellules sexuelles, tions montre que la majeure partie de la
tères des êtres vivants et sont réparties au la méiose répartit au hasard les gènes des variation observée relève de ces méca-
hasard lors de la reproduction. L'hérédité grands-parents, présents chez un parent ; nismes aléatoires, et non d'une sélection
biologique, qu'on avait toujours imaginée puis un nouveau tirage aléatoire distribue déterministe qui éliminerait systématique-
systématique et rigide, au nom de la fatale ces gènes entre les cellules sexuelles effi- ment le moins viable et le moins fécond.
transmission du « type » de l'espèce,deve- caces de chaque parent ; enfin la fécon- De même, les mécanismes aléatoires
nait une loterie. Les lots possibles prédéter- dation, en fusionnant les deux cellules jouent un rôle crucial dans l'histoire géné-
minés sortaient, chez le descendant, selon pour faire un oeuf, réunit la moitié des tique des espèceset de leurs populations,
une loi de probabilité et non selon une gènes de chacun des deux parents (voir notamment lorsqu'elles sont peu nom-
règle certaine de transmission. Ce méca- la figure 2) breuses, comme les populations
nisme, Mendel n'en avait certainement La sélection élimine sévèrement le d'humains ou, plus généralement, les
supputé ni la généralité ni les consé- non-viable ou le non-fécond. Toutefois, populations de vertébrés.
quences. Celles-ci, plus d'un siècle après dans un environnement limité et en des
cette découverte, échappent encore à de circonstances aléatoires, le petit nombre Les peuplements
nombreux biologistes réfractaires aux qui survit n'est qu'un échantillon biaisé de
mathématiques. l'ensemble des possibles. Les «meilleurs L'histoire des peuplements illustre
Aujourd'hui, on peut représenter le concevables » ont chances chances
ne pas d'une autre manière le rôle du hasard
monde vivant comme un ensemble de être conçus ou d'être éliminés au hasard. dans les mécanismes de la vie. Cette his-
mécanismes aléatoires imbriqués, structu- La sélection n'est donc pas la survie systé- toire commence par « l'effetdu fondateur ».
3. Effet du fondateur. Un groupe d'émi- 4. Variation au hasard de la fréquence des gènes dans un ensemble de popu-
garants emmène avec lui un échantillon lations, sous l'effet des migrations (les flèches) l'isolement par la dis-
et de
biaisé des gènes de la population mère. tance géographique.
Hervé Le Bras
Une enquête sociologique et des simulations probabiliste John Hajnal, court de Saint-
Pétersbourgà Trieste : à l'Ouest de cette
sur ordinateur soulignent le rôle du hasard ligne, depuis la Renaissanceau moins,
on se marie à un âge plus élevé et avec
dans le système matrimonial occidental. une fréquence moindre ; ailleurs, le
mariage est pubertaire (c'est-à-dire que
Cette place laissée au hasard constitue une particularité les jeunes filles sont mariées dès
qu'elles peuvent concevoir) et universel,
de notre société face au reste du monde. puisque 98 à 99 pour cent des femmes
d'une générationtrouventun époux.
Le choix libre du conjoint est un
caractèreessentielde la sociétéocciden-
es liens sociauxse forment-ils geaient le même goût pour le sport, tale : l'historien A. Burguière y voit
par hasard? Sont-ils détermi- puisqu'ils avaient pratiqué le tennis en l'une des causesde l'accumulation des
nés? Pourla plupart,les socio- pension et fréquentaient le même club. capitauxqui a précédéle développement
logues et les démographes Pour A. Girard, un tel mariage ne doit industriel ; l'école historique anglaisede
croient en une mécanique rien au hasard.Parfaitementhomogame, P. Laslett et J. Goody l'associeà l'appa-
sociale ; ils ne voient dans le hasard c'est-à-dire que les conjoints présentent rition des familles nucléaires, opposées
qu'une « illusion nécessaireque», lesindi- les mêmescaractéristiques,il est sociale- au patriarcat,dont résulterait l'idéologie
vidus invoquent pourjustifier leur destin. ment déterminé,et il perpétue les diffé- individualiste moderne. Sans aller si
Le sociologueAlain Girard a enquêtésur rencesde classes,delieu et d'âge. loin, souvenons-nous des pièces de
le choix du conjoint. Un des hommes A. Girard néglige toutefois un fait : Molière, qui opposent régulièrement le
interrogéslui a racontécomment il avait la jeune femme n'était ni mariée ni mariage choisi au mariage arrangé.
rencontré la femme de sa vie à la suite fiancée. Qu'aurait fait l'homme dans le Ainsi le hasard n'est pas seulement
d'une méprisesur l'horaire d'une partie cas contraire ? Aurait-il fréquenté l'illusion nécessaireque le sociologue
de tennis.Était-cebien le hasard? L'un et d'autres lieux pour trouver un conjoint A. Girard évoquait. Des modèlesrécents
l'autre étaientde la mêmeville, du même homogame? considèrent que le mariage tardif et le
milieu social, du même âge et ils parta- Dans une société ancienne, on célibat définitif procèdentdu hasard.
n'aurait pas toléré une telle recherche.
Les familles auraientarrangéde longue La pression individuelle
date l'union, reconduisant,de génération
en génération, un système d'échange ; Chaqueindividu a un nombre assez
comme l'a notamment montré Claude restreint de conjoints potentiels. Louis
Levi-Straussdansles Structuresélémen- Henry, le fondateur de la démographie
taires de la parenté, les sociétés tradi- historique, avait imaginé un modèlede
tionnelles perpétuent un échange de « cercles » inspiré de l'isolement des vil-
femmes, soit entre deux groupes fixes lages dans la France ancienne (anté-
(c'est l'échange simple), soit entre plu- rieure à la Révolution). Dans chaque
sieurs groupes,en suivant un ordre cir- village, les candidats au mariage for-
culaire (c'est l'échangegénéralisé). ment un petit groupe qu'on peut repré-
En revanche, même si les unions senterpar quelques éléments enfermés
modernesrespectentle plus souventles dans un cercle. La proportion des deux
similarités sociales, elles n'en passent sexes fluctue dans ces groupes res-
pas moins par une procédure aléatoire. treints, de même que le nombre de piles
Les effets de ce hasard provoqué sont ou de faces fluctue quand on jette
loin d'être négligeables, puisqu'ils se quelques pièces de monnaie. Selon ce
manifestent par une fréquence impor- modèle, des garçons restent célibataires
tante de mariages tardifs et de célibats quand ils sont trop nombreux par rap-
définitifs. Ces deux particularités, port aux filles, et inversement quandles
1. UNE RENCONTRE peut résulter d'un mariage tardif et célibat définitif, distin- filles sontles plus nombreuses.
malentendu sur l'horaire d'une partie de guent nettement les régions d'Europe L'idée de considérerdescercles était
tennis... Toutefois les deux individus occidentale du reste du monde. La ligne ingénieuse, mais elle ne rendait pas
appartiennent à la même classe sociale. de démarcation, comme l'a montré le compte de la réalité de la France
ancienne : la fréquence de célibat était
indépendante de la taille des villages. De
plus, la notion de cercle fermé ne reflé-
tait pas la succession ininterrompue des
âges. Au cours du temps, de nouveaux
jeunes arrivaient à maturité et entraient
dans le cercle, tandis que les vieux céli-
bataires partaient ou mourraient.
L'hypothèse d'un cercle permanent, à
l'intérieur duquel les célibataires reste-
raient jusqu'à un âge avancé, était irréa-
liste : elle conduisait à de trop grandes
différences d'âge entre conjoints poten-
tiels. Enfin on ne peut faire abstraction
des différences de conditions sociales et
d'aptitudes. Même s'ils appartenaient
tous au même sous-groupe du tiers-état,
les paysans n'étaient pas de même
condition. Certains étaient riches,
d'autres pauvres, certains susceptibles
de s'enrichir, d'autres non.
L'idée intéressante de ce modèle de
cercles est que chaque individu possède,
au départ, un nombre limité de conjoints
possibles. Mieux qu'un cercle fermé,
une représentation constructive de cette
idée serait celle d'un réseau, où chaque
individu est relié à n conjoints pos-
sibles, eux-mêmes reliés à m autres, et
ainsi de suite. Les liens entre individus
formalisent l'homogamie : ils joignent
les individus qui présentent de faibles
différences d'âge, de condition, de rési-
dence, voire de goûts comme chez les
deux joueurs de tennis d'A. Girard.
Combien de liens un tel réseau, pour
être réaliste, doit-il contenir ? L'enquête
de A. Girard sur le choix des conjoints
permet de le préciser. Une question por-
tait sur le nombre de conjoints potentiels.
En moyenne, les personnes interrogées
répondaient qu'elles auraient pu choisir 2. MODÈLE DE CHOIXDES MARIAGES SUR UN RÉSEAU NUPTIAL. Les liens entre homme
leur conjoint parmi trois ou quatre parte- et femme symbolisent des unions possibles (a).
On choisit au hasard un lien qui se trans-
naires, ce qui est peu. On peut simuler la forme en mariage. On exclut du réseau les jeunes mariés, et on choisit d'autres liens
distribution des mariages à l'aide d'un au hasard, jusqu'à ladisparition
desliens reste
: il neplus que des célibataires
(c).
réseau nuptial, où des points représentant
les hommes sont reliés à un nombre fini
de points désignant des femmes, et réci-
proquement (voir la figure 2).
Supposons que les unions aient lieu au
hasard : on tire au sort un premier lien,
ce qui détermine le premier mariage. Un
couple étant formé, on élimine les liens
qui aboutissent aux deux personnes
concernées. Puis on recommence le
tirage parmi les liens subsistants. Le
réseau devient squelettique et, finale-
ment, des individus, hommes ou
femmes, sont isolés : tous leurs conjoints
potentiels ont épousé un de leurs rivaux. 3. FRÉQUENCES DE REALISATION DES UNIONS, en pour cent, pour chaque lien (en noir)
Un bal donne une image accélérée de et fréquences de mariages des individus (chacune étant égale à la somme des fréquences
ce processus. Chaque garçon a repéré associées aux liens d'un individu ; en blanc). Les personnes situées aux extrémités
quelques cavalières. II se dirige vers l'une du réseause marient rarement, tandis que leurs voisins se marient sûrement.
du sien : chaque personne dispose de
milliers de conjoints potentiels. Dans ces
conditions, on s'attend à observer de très
faibles taux de célibat. Pourtant, les
résultats des simulations sont tout
autres : les groupes extrêmes exhibent
un fort taux de célibat, les individus des
groupes voisins d'une extrémité se
marient tous, et les groupes centraux
possèdent quelques célibataires. Comme
dans un réseau d'individus, le célibat
résulte de la concurrence : les groupes
extrêmes ne peuvent s'adresser qu'à un
seul groupe voisin, où ils entrent en
concurrence avec le voisin du voisin. Au
centre de la chaîne aussi, la concurrence
entre groupes engendre un célibat,
quoique à un taux bien inférieur.
Ce modèle simple reproduit bien la
répartition du célibat en France en fonc-
tion de la catégorie sociale. II simule en
effet l'« hypergamie » des femmes, c'est-
4. SUR UN RÉSEAU ÉGALITAIRE, où le nombre de conjoints possibles est le même pour à-dire leur tendance à rechercher des
tous, la fréquence de mariage tend vers une limite inférieure à cent pour cent : le taux de conjoints d'une classe supérieure à la
célibat semble ne jamais devoir s'annuler. leur (ou l'« hypogamie » des hommes,
qui choisissent leur épouse dans la
classe immédiatement inférieure). Notre
d'elles quand la musique commence, semble une limite inaccessible. Ces pro- culture entretient cette tendance : le
mais il peut être devancé par un autre qui babilités sont néanmoins supérieures à mariage, plus que le travail, favorise
a eu la même idée. Il reporte alors son celles observées sur un réseau où le l'ascension sociale des femmes.
choix vers une seconde candidate, mais la nombre de liens varie d'un point à un D'ailleurs les contes de fées ne s'y
probabilité qu'un autre le devance aug- autre. Ainsi les forts taux de célibat du trompent pas : les princes épousent les
mente, car il a maintenant pris du retard. premier exemple proviennent moins du bergères, mais il est bien rare qu'une
Àce jeu, il risque de se retrouver seul. De nombre moyen de conjoints potentiels, princesse épouse un berger.
même, quelques jeunes filles restent en que de l'inégalité de ce nombre d'un Ainsi les groupes de conjoints
attente, car leurs éventuels admirateurs site à l'autre. potentiels se succèdent de la manière
ont choisi une autre cavalière. Ainsi un suivante : en bas de l'échelle, se trou-
petit groupe de garçons et de filles font La pression sociale vent les hommes petits agriculteurs, sui-
« tapisserie », car tous leurs partenaires vis des femmes de la même condition ;
potentiels sont en piste. Ils ne se choisis- Nous avons vu que, lorsque le puis viennent les hommes ouvriers, sui-
sent plus, peut-être pour ne pas trahir un nombre de conjoints potentiels est iden- vis des femmes ouvrières ; puis les
pis-aller, et sans doute parce qu'ils ne se tique pour tous, le célibat diminue, hommes cadres moyens, et ainsi de
correspondent pas. quoique lentement, avec ce nombre. On suite jusqu'au haut de l'échelle,
Un tel modèle se prête aisément à la peut donc penser qu'à mesure que des qu'occupent les femmes cadres supé-
simulation sur ordinateur. En tirant au liens se ferment, les célibataires subsis- rieurs. On mesure effectivement les
sort les liens entre individus, on obtient tant en essaient de nouveaux jusqu'à ce taux de célibat masculin les plus élevés
des fréquences de mariages compatibles qu'ils trouvent un conjoint. II existe tou- chez les petits agriculteurs (plus de 30
avec les situations observées (voir la tefois des réseaux où, malgré un nombre pour cent) et les plus faibles chez les
figure 3). Les personnes qui n'ont élevé de conjoints potentiels, le célibat cadres supérieurs (8 pour cent). La
qu'un seul lien se marient rarement. reste important. Nous allons considérer situation est inverse chez les femmes,
Inversement leurs proches voisins se un tel réseau. avec de forts taux de célibat chez les
marient toujours, car ils peuvent se Imaginons une échelle sociale le cadres supérieurs (17 pour cent) et les
rabattre sur elles. On voit que la proba- long de laquelle alternent des groupes plus faibles chez les agricultrices et
bilité de mariage croît rapidement avec nombreux d'hommes et de femmes : tout ouvrières (7 pour cent).
le nombre de liens. Faut-il en conclure en bas de l'échelle, un premier groupe de La pression sociale est-elle détermi-
que les réseaux les plus denses, ceux où milliers d'hommes, juste au-dessus, un nante ? Pour connaître l'effet des situa-
tous les individus ont beaucoup de groupe de milliers de femmes, puis des tions sociales sur les cas individuels,
liens, entraînent un mariage quasi uni- hommes à nouveau, et ainsi de suite nous avons calculé les taux de célibat
versel ? Dans le cas où chaque individu jusqu'au sommet, où réside un second définitif en supposant, sur le même
a le même nombre de conjoints poten- groupe social qui n'a qu'un voisin. réseau, que les points figurent d'abord
tiels, les calculs montrent que les proba- Supposons que chaque personne des individus, puis des groupes impor-
bilités de mariage croissent lentement puisse se marier avec n'importe laquelle tants de personnes du même sexe et de
(voir la figure 4) : le mariage universel des personnes des deux groupes voisins la même catégorie sociale. L'exemple de
la figure 6 montre que les taux de célibat variance, etc.) de cette distribution de
diffèrent peu, qu'il s'agisse d'individus temps sont des lois gammas d'exposants
(18, 5 pour cent en moyenne) ou de s entiers. De même, le mariage est
groupes (15 pour cent en moyenne) ; ces l'aboutissement de plusieurs actes élé-
taux dépendent moins du nombre de mentaires du rituel de la cour, voire de
liens entre groupes ou individus que de plusieurs cours successives, et les délais
la situation globale du réseau. De sur- de mariage dans une génération sont dis-
croit, ils sont proches des valeurs obser- tribués selon une loi gamma.
vées en France depuis le XVIIe siècle
jusqu'à la Seconde guerre mondiale. Le rôle de la parenté
Ainsi ce n'est pas le faible nombre
de conjoints potentiels qui entraîne le Les exigences de la parenté (les
célibat, mais la position dans le réseau règles de filiation et d'héritage, les pra-
global. En outre, le nombre de conjoints tiques économiques, rituelles et poli-
potentiels ne dépend pas seulement de tiques, etc.) entravent le mariage uni-
paramètres objectifs de lieu, de fortune versel, pour une raison qui tient aussi
ou de capacité, mais aussi du temps au hasard. Le nombre d'hommes et de
qu'on passe à faire la cour. Dans sa femmes à marier est rarement équilibré.
magistrale étude sur l'illégitimité. Peter Pour parvenir à un mariage universel et
Laslett a montré comment une cour de pubertaire, les sociétés devraient acqué-
durée inadaptée se solde par un échec, rir une vision globale de la réalisation
et comment, a contrario, la norme de des unions, comme si elles disposaient
cour, qui suppose des gestes, des de marieurs informés de toutes les
réponses rituelles, mais aussi des durées combinaisons possibles. La résolution
précises, est l'une des plus égalitaires de ce problème, reposé par les hasards
qui soient. de la fécondité-donc du nombre et du
En conclusion, le hasard matrimo- sexe des enfants-et de la mortalité,
nial résulte moins de la liberté indivi- oblige ces sociétés à optimiser sans
duelle, que de la configuration des cesse leurs unions.
groupes sociaux. Cette configuration Certaines règles de parenté semblent
engendre un célibat définitif, à des taux fournir une solution à ce problème.
différents d'un groupe social à l'autre. Ainsi, comme l'a montré G. Pison en
Le hasard est aussi la raison des étudiant les populations traditionnelles
mariages tardifs, qui vont de pair avec du Sud du Sénégal, un grand écart d'âge
les taux élevés de célibat définitif. En au mariage des hommes et des femmes
effet, la concurrence des conjoints conduit à un effectif d'hommes mariés
potentiels multiplie les essais et les nettement plus faible que celui des
échecs de cour. Ceux qui ne sont pas femmes. La polygamie résout la ques-
arrivés à leur fin se lancent dans de nou- tion d'effectif en facilitant le mariage
velles cours qui peuvent encore universel pubertaire pour les femmes.
échouer. La recherche au hasard du Toutefois, puisque les polygames acca-
conjoint prend du temps et retarde la parent les femmes, ce système risque
date moyenne des unions. Il est d'engendrer un fort taux de célibat mas-
d'ailleurs remarquable que toutes les culin ; le mariage tardif des hommes
distributions européennes de l'âge des évite cet inconvénient.
hommes ou des femmes au mariage En cas de monogamie, la solution
aient l'allure de lois gammas (voir la adoptée, notamment en Asie du Sud-
figure 7), caractéristiques des processus Est, est la répudiation fréquente et pré-
de files d'attente. coce ; on peut assimiler cette pratique à
Les fonctions gammas servent à une polygamie successive, car en géné-
décrire la distribution de durées ral, les femmes ne se remarient pas, au
d'attente, lorsque celles-ci résultent du contraire des hommes.
cumul de plusieurs délais élémentaires ; Quand on exige à la fois la monoga- 5. ÉCHELLE SOCIALEDES MARIAGES :
elles sont égale au produit d'une puis- mie et la stabilité des unions, la solution les femmes ont tendance a épouser
adoptée en Europe occidentale semble des hommes appartenant à la classe sociale
sance de la durée par une exponentielle
négative de la durée (ts e-r t, où s et r la seule possible. Elle présente plusieurs immédiatement supérieure à la leur.
Les chiffres indiquent les taux de célibat
sont des paramètres de la fonction). On avantages : elle soulage l'ensemble de
(en pour cent) : on observe de forts taux
observe de telles distributions en phy- la société du calcul de la parenté et des
de célibat aux deux extrêmes, c'est-à-dire
sique ou en recherche opérationnelle. unions ; elle est très robuste à des varia-
chez les hommes agriculteurs et chez
Par exemple, les temps de désintégration tions de la proportion d'hommes et de les femmes cadres supérieurs. En effet, ces
d'un ensemble de particules radioactives femmes. On peut montrer à l'aide des catégories rencontrent moins de parte-
suivent une loi exponentielle négative ; modèles précédents, en supposant les naires potentiels gui leur conviennent
les moments successifs (la moyenne, la hommes plus nombreux que les femmes socialement.
(ou l'inverse), que les taux de célibat
varient peu. On constate en effet, en
réponse aux demandes des représentants
du sexe surnuméraire, une nette aug-
mentation de la fréquence de mariage
parmi les représentants du sexe en
minorité. Ce phénomène s'est produit
en France, après la Première guerre
mondiale. Les générations masculines,
qui avaient laissé près d'un tiers de leur
effectif sur les champs de bataille, ont
eu des taux de célibat très faibles, et les
générations féminines correspondantes,
à peine plus élevés : la disparition de
leurs conjoints potentiels s'était diluée
dans l'ensemble des unions possibles.
II est possible que les forts taux de
célibat constatés dans les deux classes
extrêmes résultent également d'une
règle de parenté. Ces deux classes
extrêmes se reproduisent peu, ce qui
favorise l'étirement de la génération sui-
vante vers le haut (une nouvelle fraction
de la population connaît une ascension
sociale) et vers le bas (une autre fraction
descend un échelon de l'échelle sociale).
Toutes ces explications sont hélas
6. TAUX DE CELIBAT DFFINITIF (enpour cent) sur un exemplede réseaude nuptialité. On a
insuffisantes. Elles ne font que repous-
calculé ces taux en supposant que les points (rouges pour les femmes, bleus pour les
d'un cran la réponse aux questions
hommes)représententdes individus, puis desgroupes sociaux de 1000 individus. Dans le pre- ser
mier cas, les liens représentent une possibilité de mariage entre un homme fondamentales : pourquoi la monogamie
et une femme ;
dans le second,ils représententun million depossibilités de mariage. Dans les deux cas, les et la stabilité des unions se sont-elles
frequences sont comparables: elles dépendent surtout de la position dans le réseau. imposées en Europe occidentale ?
Pourquoi, au Moyen Âge, à un stade
précoce de leur développement, les
sociétés occidentales ont-elles aban-
donné le modèle d'alliance fondé sur
l'échange, en vigueur dans tout le reste
du monde, au profit d'un mécanisme
fondé sur le hasard ?
Quelques théories proposent des
réponses. L'une d'elles, celle de
J. Goody, impute à la volonté de puis-
l'Église la prohibition des
sance de
mariages jusqu'à des degrés lointains de
parenté : elle aurait cherché à détruire
ainsi les lignages et les parentèles.
Toutefois, aucune de ces théories ne ral-
lie tous les suffrages. Et nous ne
sommes pas au bout de nos peines !
Actuellement, de nouvelles perspectives
s'ouvrent à nos yeux : vers les années
1970, l'Europe de l'Ouest est entrée
dans un nouveau modèle d'alliance, où
se généralisent les unions hors mariage
et les ruptures d'unions. Les conditions
qui favorisaient l'émergence de la
« structure européenne du mariage »,
pour reprendre les termes de J. Hajnal,
sont donc bouleversées. De nouvelles
règles devraient changer le rôle du
7. DISTRIBUTION DE L'ÂGE auquel les Françaises nées dans les années 1930 se sont hasard dans la « mise en couple », terme
mariées pour la première fois. Cette distribution est une fonction gamma, fonction qui désormais utilisé par la sociologie pour
décrit également les processus de fil d'attente. caractériser les unions modernes.
Le hasard trouve...
Jean Jacques
des statistiques
reine
Aimé Fuchs
valeur en bourse est égale à la somme La loi normale et nulles ; (2) elle est maximale dans le cas
des fluctuations quotidiennes en bourse ; la théorie de l'information de l'équipartition, c'est-à-dire lorsque
or ces fluctuations peuvent être catastro- toutes les probabilités Pi sont égales (on
phiques, et il arrive qu'une seule fluctua- La théorie de l'information, qui a ne sait rien sur le système). On lui
tion soit comparable à la somme de pour vocation la mesure du degré de impose également une propriété d'addi-
nombreuses autres. Ainsi, la loi de fluc- complexité d'un système, s'est dévelop- tivité : (3) l'entropie d'un couple de
tuations des valeurs en bourse ne tend pée dans les années 1940, à partir des variables aléatoires indépendantes est
pas vers une loi normale. travaux d'avant-garde de C. Shannon et égale à la somme des entropies des
La condition de non-prévalence d'une de N. Wiener. La loi normale n'a pas variables individuelles (rappelons que
variable aléatoire n'est pas tout à fait suf- manqué, une fois de plus, de se tailler lorsqu'un événement est composé de
fisante pour établir un théorème central une place de choix dans cette nouvelle deux événements indépendants, sa pro-
limite. Les continuateurs de Laplace, dont théorie. En effet, comme nous allons le babilité est égale au produit des deux
le J. Lindeberg, lui ont adjoint des condi- voir, la notion d'entropie qui en est un probabilités individuelles).
tions supplémentaires, et ont énoncé des des outils principaux, permet de distin- Ces conditions étant posées, Shannon
théorèmes plus précis, dans des cas de guer la loi normale parmi d'autres lois a défini l'entropie par la somme (discrète)
suites plus générales que celles de au moyen d'une propriété d'extremum. des termes pi log (1/pi), où log désigne la
Laplace. L'exploitation la plus fructueuse Rappelons d'abord ce qu'est l'entropie. fonction logarithme népérien. On vérifie
de l'idée sous-jacente à la condition de Supposons que l'on étudie un sys- que cette fonction convient : le loga-
non-prévalence a été faite par Gnedenko tème caractérisé par une variable aléa- rithme de 1 est nul (condition 1) ; la
et Kolmogorov, deux mathématiciens qui toire X, admettant un nombre n de somme est maximale (égale à log n)
ont contribué à la théorie de l'informa- valeurs discrètes avec les probabilités lorsque tous les pi = l/n (condition 2); le
tion. Ils ont montré qu'une variable aléa- P1, P2,..., pn. L'entropie statistique logarithme d'un produit est égal à la
toire normale est la somme d'un grand mesure le degré d'indétermination du somme des logarithmes (condition 3).
nombre de variables aléatoires, indépen- système, ou la quantité d'information à Dans le cas continu, avec une densité de
dantes et petites, dont aucune n'est pré- laquelle on ne peut accéder. Pour rem- probabilité f d'une variable aléatoire X,
pondérante. Ainsi toute erreur normale plir ce rôle, l'entropie doit posséder 1'entropie de Shannon est égale à la
sur une grandeur mesurée est la somme quelques propriétés particulières, dont somme, sur toutes les valeurs de X, de la
d'erreurs infinitésimales indépendantes. les suivantes : (1) elle est nulle quand quantité f log (1/f). Le calcul de cette
Cette propriété rend bien compte de la l'un des événements est certain (on sait somme continue est plus difficile, mais la
quasi-universalité de la loi normale dans tout sur le système), c'est-à-dire quand signification de l'entropie est analogue au
les disciplines les plus diverses. pi = 1, les autres probabilités étant cas discret.
Nous avons dit que la loi de densité d'une fonction statistique, telle que La conservation
normale se distingue des autres par une l'espérance mathématique, à englober et la cohérence
propriété d'extremum de l'entropie. En toute l'information d'un système. La
effet, parmi toutes les densités de proba- quantité d'information de Fisher dis- La loi normale possède une autre pro-
bilité centrées et réduites (où l'écart- tingue, elle aussi, la loi normale parmi priété remarquable : la conservation par
type vaut 1), il en existe une et une seule d'autres lois au moyen d'une propriété l'addition. Autrement dit, la somme de
qui maximise l'entropie : c'est la densité d'extremum. On montre en effet que la deux variables aléatoires normales et
de la loi normale. Ainsi la loi normale quantité d'information de Fisher est tou- indépendantes est encore une variable
est adaptée à la description d'un sys- jours supérieure à 1, est qu'elle est aléatoire normale. Illustrons cette pro-
tème sur lequel on possède peu d'infor- égale à I si et seulement si f est une priété par l'exemple industriel siuvant :
mation : de sa variable aléatoire, on ne densité de loi normale. une pièce usinée, de longueur X, est obte-
connaît que la moyenne et l'écart-type. Les deux théorèmes que nous nue en mettant bout à bout deux pièces
Une autre notion d'information, venons d'énoncer et qui présentent la provenant d'usines différentes, de lon-
moins connue que celle de Shannon, loi normale comme un objet mathéma- gueurs X1 et X2. Parmi les nombreuses
mais utile en théorie de l'estimation, est tique extrémal ont été mis à profit par le piècesproduites, on peut supposerque les
la quantité d'information de Fisher : elle probabiliste Y. Linnik. Il a fourni une longueurs X1 et X2 sont normales ; elles
est définie comme la somme, sur toutes démonstration du théorème central sont en outre indépendantes. De même, la
les valeurs de la variable aléatoire X, de limite, entièrement fondée sur la théorie variable X = X1 + X2 désignant la lon-
la quantité f(f'/f)2, où f' est la dérivée de l'information. II a en outre établi un gueur de la pièce finale, est normale.
de f. Cette quantité permet d'introduire lien étroit entre la convergence d'une L'hypothèse de l'indépendance des
de façon élégante les principales notions suite de lois de probabilité vers la loi variables aléatoires que l'on additionne
de cette théorie, en particulier celle normale et la croissance de l'entropie est essentielle ; si elle n'est pas vérifiée, il
d'exhaustivité, c'est-à-dire la capacité des termes de cette suite. peut arriver que la somme de deux
variables normales ne soit pas normale.
Illustrons ce fait à l'aide de l'exemple
mathématiques suivant : soient X et Z
deux variables aléatoires indépendantes,
X étant normale centrée réduite et Z pre-
nant chacune des deux valeurs + 1,-1
avec la probabilité 1/2. Il est clair que la
variable Y = XZ est aussi normale centrée
réduite. On voit alors que X + Y, qui est la
somme de deux variables normales cen-
trées réduites, n'est pas normale,
puisqu'elle vaut 0 avec probabilités 1/2 et
2X avec probabilité 1/2.
La propriété de conservation est
facile à démontrer, mais elle n'est pas
caractéristique de la loi normale. La loi
de Cauchy par exemple, de la forme
1/(1+x2), la possède également. En
revanche, la propriété de cohérence, bien
plus profonde que la propriété de conser-
vation, est propre à la loi normale. Selon
cette propriété, si une variable aléatoire
normale peut être décomposée en la
somme de deux variables aléatoires indé-
pendantes, alors chacun des termes de la
somme suit une loi normale. C'est le cas
des longueurs des pièces usinées partielle
dont la somme est la lonueur de la pièce
usinée totale. La propriété de cohérence
est appelée théorème de Cramer-Lévy, du
nom de Paul Lévy qui l'a conjecturé en
1935 et de Gabriel Cramer qui l'a
démontré en 1936.
5. RÉPARTITION DES VITESSES DES PARTICULES DANS UN GAZ PARFAIT, OU distribution
de Maxwell. Dans un gaz, les vitesses des particules ont des directions et des modules aléa- La loi normale
toires (en haut à gauche). La densité de probabilité du vecteur vitesse d'une particule (le
dans l'espace
nuage bleu) est maximale au centre (en moyennela vitesseest nulle) et diminue à mesure
que l'extrémité du vecteur s'éloigne de son point d'attache. Chaque composante Vi du vec-
teur vitessed'une particule estrépartie selon une loi normale (en bas à gauche).Le module La loi normale s'est aussi imposée
de la vitessesuit la loi de Maxwell (en bas au milieu). Enfin le module de la projection sur dans notre espace à trois dimensions,
un plan suit la loi de Rayleigh (en bas à droite). principalement à la suite des travaux de
6. APPARITION SURPRENANTE DE LA LOI NORMALE EN GÉOMÉTRIE. distribution de densité gn de la masse de la boule projetée sur l'axe
Soit une boulede rayon R et de volume n dans un espacea n dimen- Ox. Divisons gn par le volume Vn : on obtient une densité de probabi-
sions. Projetons sur un axe Ox, pour toute abscisse x, le contenu lité fn. Lorsque la dimension n de l'espacetend vers l'infini et pour un
d'une tranche d'épaisseurtrès faible est d'abscisse x. On obtient une rayon R = n, on constate que
James Clerk Maxwell sur la répartition propriété est caractéristique des vecteurs lité sur la droite que nous notons fn(x, R)
des vitesses des particules dans un gaz aléatoires à composantes normales, cen- = gn (x, R)/Vn(R). Cette densité est
parfait. Au milieu du siècle dernier, au trées, indépendantes et identiquement encore nulle quand x est en dehors de
cours de ses tentatives pour modéliser le distribuées. Elle est en outre vraie quelle l'intervalle [-R, +R] ; quand x est à l'inté-
mouvement désordonné observé dans un que soit la dimension n de l'espace étu- rieur de cet intervalle, sa valeur pour n =
tel gaz, Maxwell a été amené à représen- dié, c'est-à-dire quel que soit le nombre 1, 2 et 3 est donnée sur la figure 6.
ter la vitesse d'une particule par un vec- n de composantes du vecteur. Finalement, dans fn(x, R), nous pre-
égal à #n et nous obte-
teur aléatoire, dont les trois composantes Dans le cas n = 2, signalons une nons le rayon R
V1, V2, V3 sont des variables aléatoires autre propriété curieuse de la loi nor- nons une suite de densités de probabilité
indépendantes admettant toutes la même male, elle aussi liée à une rotation sur la droite, de terme général fn(x, #n).
loi normale centrée. La loi du vecteur autour de l'origine. Elle affirme que si Le comportement asymptotique de cette
représentatif d'une particule est encore Xl, X2 sont deux variables aléatoires suite est très surprenant : lorsque n tend
appelée loi normale (à trois dimensions). indépendantes de même loi et si X1-X2 vers l'infini, elle converge vers la densité
La longueur V de ce vecteur, c'est-à- et Xl + X2 sont également indépen- de la loi normale. Autrement dit, la fonc-
dire le module de la vitesse d'une parti- dantes, alors la loi commune de X1, X2 tion fn(x, #n) tend (-x2/2)/#2#,
vers exp
cule, est une variable aléatoire suivant la est normale. Cette propriété, associée lorsque n tend vers l'infini.
loi de Maxwell ; elle admet pour densité aux noms de Bemstein et Darmois, a été Ce phénomène, que le calcul
fM,(v) = #(2/#) V2 exp (-v2/2). considérablement généralisée. constate, n'a encore reçu, à notre connais-
La longueur V0 de la projection du Avant de clore ce paragraphe, men- sance, aucune explication qui satisfasse
vecteur vitesse sur un plan est un vecteur tionnons un lien remarquable entre la loi l'esprit. On peut s'étonner de l'apparition
à deux composantes, dont la longueur normale et le volume d'une boule. de la loi normale dans un domaine qui, à
est une variable aléatoire à valeurs posi- Désignons par Vn(R) le volume de la première vue, lui est étranger.
tives ; cette variable aléatoire suit la loi boule dans un espace de dimension n, de Les remarquables propriétés de la
de Rayleigh, qui a pour densité fR(v0)= rayon R et centrée à l'origine. Pour n = 1, loi normale la rendent indispensable
(-v02/2). Évidemment 2 et 3, Vn(R) vaut respectivement 2 R,
v0 exp les deux aux calculs statistiques. Dans la théo-
lois que nous venons d'évoquer et qui #R2 et 4#R3/3. rie des tests d'hypothèse pour de petits
sont dans la filiation de la loi normale Projetons la masse constituant ce échantillons, il convient de supposer
jouent un rôle essentiel dans la théorie volume sur l'un des axes, disons Ox. On que chaque variable dont est constitué
statistique des gaz parfaits. obtient ainsi une distribution de masses l'échantillon suit une loi normale, car
Revenons à la loi normale du vecteur sur la droite qui suit la loi notée gn (x, R). alors la moyenne et la variance expéri-
aléatoire représentant la vitesse d'une Lorsque x est en dehors de l'intervalle mentale sont des variables aléatoires
particule. Son principal intérêt aux yeux [-R, +R], cette distribution est évidem- indépendantes. Cette dernière pro-
des physiciens est qu'elle est isotrope, ment nulle et pour x à l'intérieur de cet priété s'est révélée caractéristique de
c'est-à-dire identique dans toutes les intervalle, un calcul aisé en fournit la la loi normale, comme l'a montré le
directions. Autrement dit, la densité de valeur (voir la figure 6). On norme cette statisticien anglais Geary. Cela fournit
probabilité du vecteur vitesse ne dépend distribution en la divisant par Vn(R) et une raison supplémentaire pour préfé-
que de la longueur de ce vecteur. Cette l'on obtient ainsi une densité de probabi- rer la loi normale.
Le mouvement brownien
la théorie du potentiel
et
Une nouvelle branche des mathématiques, la théorie pliste selon laquelle les déplacements
saccadésdes particules seraient dus à
probabiliste du potentiel, résulte du mariage l'impact de molécules isolées, était à
rejeter : même la plus petite particule
de deux disciplines apparemment distinctes : !'étude observable au microscope était de loin
trop pesante pour être déplacée de
du mouvement brownien et la théorie du potentiel. façon visible par l'impact d'une seule
molécule à la fois.
Albert Einstein, en 1905 (I'année
où il publia son premier article sur la
uel est le point commun était propre aux cellules sexuelles théorie de la relativité), améliora
entre le mouvement mâles de la plante, puis élimina cette considérablementla compréhensiondu
désordonné d'une petite hypothèse en remarquant que des par- mouvement brownien par une étude
particule ballottée dans ticules d'autres substancesorganiques, théorique de mécanique statistique.
une mer turbulente de de verre ou de granit, se mouvaient Sur la base de la théorie cinétique de
molécules et la réparti- pareillement. la chaleur, Einstein montra qu'une
tion de la chaleur dans Vers 1860, le problème du mouve- particule de taille observable, soumise
un corps solide en équilibre ther- ment brownien commença véritable- au bombardement moléculaire du
mique ? C'est l'action d'un grand ment à intriguer les physiciens. Les milieu, devait être animée d'un mou-
nombre d'éléments. premièresexplications qu'ils en donnè- vement aléatoire dû à la différence
La théorie probabiliste des proces- rent étaient fondées sur des courants entre les nombres des impacts agissant
sus aléatoires, qui traite notamment du fluides dans le milieu baignant les par- sur des parties opposéesde sa surface
mouvement brownien, et la théorie du ticules : ces explications furent vite à un instant donné.
potentiel, qui a pour objet les états écartéesquand on observa qu'il n'exis- Dans cette hypothèseplus la parti-
d'équilibre d'un milieu homogène,sont tait aucune corrélation entre les mou- cule est petite, plus l'amplitude du mou-
deux branches maîtresses de la phy- vements de deux particules voisines. vement est importante. Sous l'effet de
sique théorique. Elles semblent indé- De plus, il semblait que la probabilité chaquepoussée,la particule se déplace
pendantes l'une de l'autre, mais leur associée au déplacement d'une parti- d'autant plus vite et d'autant plus loin
équivalence mathématique implique cule à partir d'une position donnée que le fluide est moins visqueux. La
que les progrès réalisés dans une des était isotrope, c'est-à-dire indépen- viscosité du fluide, en freinant la parti-
deux disciplines peuvent être transférés dante de la direction, et que le mouve- cule, diminue l'amplitude des déplace-
dans l'autre. En utilisant cette pro- ment passé d'une particule n'avait ments. Chaquemouvement est indépen-
priété, on a obtenu de nombreux résul- aucune influence sur le mouvement dant du mouvement précédent, et ne
tats intéressants dans chacune de ces présent. Enfin et surtout, le mouve- dépend que de la variation aléatoire de
deux branches. ment était incessant. la pression moléculaire sur différentes
La relation entre la températuredu surfaces opposées de la particule, par
Le mouvement brownien milieu et la vitesse de la particule sug- exemple les surfaces gauche et droite,
gérait que le mouvement brownien haute et basse, avant et arrière. Ces
Le phénomèneappelé «mouvement était d'origine moléculaire ; en effet, mouvementssuccessifséloignent la par-
browniens a été observé pour la pre- en théorie cinétique, la température ticule de sa position initiale ; bien que
mière fois en 1827 par le botaniste d'un corps est proportionnelle à la sa position exacte, à chaqueinstant, soit
écossaisRobert Brown au cours d'une moyenne du carré de la vitesse des évidemment inconnue, on peut mesurer
étudeportant sur le processusde fertili- molécules qui le composent : lorsque la probabilité pour que la particule soit
sation d'une nouvelle espèce de fleur. la température augmente, la vitesse dans une position donnée.
Brown observa au microscope que les moléculaire augmente également ; or En répétantla même expérience,où
grains de pollen de cette fleur, en sus- les expériences avaient déjà montré l'on note la position de la particule en
pension dans l'eau, étaient animés d'un que plus la température était élevée, fonction du temps, on obtient les
mouvement désordonnérapide. Brown plus le mouvement brownien était courbes en cloche représentées sur la
crut, tout d'abord, que cette agitation rapide. Toutefois, l'hypothèse sim- figure 3. On a représentésur l'axe hori-
1. MOUVEMENT BROWNIEN de particules placées dans un fluide, vement desparticules est calculé par la méthode de Monte-Carlo : une
reconstitué sur ordinateur ; cette vue illustre l'aspect irrégulier des tra- particule choisie au hasard est déplacée d'une valeur aléatoire, choisie
jets des particules ballottées par une « mer turbulente » de molécules. également au hasard parmi une série de nombres aléatoires engendrés
Chaque particule est représentée par un point rouge sur l'écran de par l'ordinateur. On peut simuler certaines conditions aux limites en
l'ordinateur, et laisse une traînée rouge dernière son passage. Le mou- declarant « impossibles » certains mouvements.
zontal la distance parcourue par une La marche au hasard tiques) fut de montrer en quoi consistait
particule, en supposant qu'au temps un choix « au hasard » parmi les élé-
t = 0, la particule était au point x = 0. Après les prédictions théoriques ments de cet ensemble.
On a représenté sur l'axe vertical de d'Einstein, le mouvement brownien Nous n'essaierons pas ici de rendre
chaque courbe, la probabilité pour était quasiment résolu à la satisfaction compte de l'ensemble des travaux de
qu'une particule soit en un point donné des physiciens. Il en était tout autrement Wiener ; nous en esquisserons certains
d'abscisse x aux temps t = 1, 10 et 100 des mathématiciens pour qui l'histoire résultats. Considérons, à titre d'illustra-
secondes. Ces courbes montrent évi- du mouvement brownien ne commence tion, le chemin parcouru par une parti-
demment que la position la plus pro- qu'en 1920 avec le premier article de cule pendant un laps de temps fini (par
bable est toujours la position initiale ; la Norbert Wiener sur ce sujet. En effet exemple une heure) ; la particule se
probabilité attachée à un point est pour les mathématiciens, le mouvement déplace sur une droite avec une vitesse
d'autant plus petite que ce point est plus brownien était un sujet attirant et extra- constante en valeur absolue ; l'orienta-
éloigné de la position initiale. ordinairement difficile. La difficulté tion de la vitesse est, à intervalles régu-
De plus, les courbes sont symé- principale était la définition mathéma- liers, choisie au hasard, avec une proba-
triques : la particule se déplace avec la tique précise du mouvement «aléatoire » bilité 1/2, dans un sens ou dans l'autre
même probabilité vers la gauche ou vers d'une particule. (la vitesse est de valeur constante, seule
la droite. Comme on peut s'y attendre, Tout le monde sait ce que signifie sa direction change).
ces trois courbes montrent que la proba- choisir « au hasard »entre pile et face : Le nombre total de chemins pos-
bilité pour que la particule reste au voi- c'est assigner à chacune de ces alterna- sibles est égal à 23 600. La particule
sinage du point origine diminue avec le tives une probabilité 1/2 ; autrement dit, choisit, au hasard, un chemin ; chacun
temps. Ces courbes en cloche corres- on ne peut déterminer, a priori, laquelle de ces chemins a une probabilité
pondent à des distributions de probabi- de ces deux alternatives résultera d'un 1/23 600. Un tel chemin, fait de dépla-
lité appelées «normales » ou « gaus- lancer donné. Lors de son mouvement cements finis, est appelé « marche au
siennes » ; de telles distributions « brownien », une particule suit un che- hasard » ou « marche en ivrogne ». La
apparaissent lorsque les quantités mesu- min choisi « au hasard » parmi tous les difficulté consiste à prendre la forme
rées résultent de la somme d'un grand chemins possibles. limite d'un tel chemin pour des inter-
nombre de variables aléatoires, indépen- L'ensemble de tous les chemins valles de temps infiniment petits.
dantes et strictement identiques, comme possibles comprend un nombre énorme Wiener montra comment réaliser ce
dans ce cas, les nombreuses petites d'éléments qui compliquent grandement passage à la limite de façon mathémati-
poussées successives qui entraînent le son étude. La majeure contribution de quement correcte, et fit entrer le mouve-
déplacement total. Wiener (dans le domaine des mathéma- ment brownien dans le langage des
mathématiques. Dans le modèle de
Wiener du mouvement brownien, les
distances totales parcourues par une
particule sont distribuées selon une
courbe gaussienne, tout comme dans le
modèle physique d'Einstein. Wiener
démontra que le trajet est une courbe
presque certainement continue, mais
irrégulière en tout point (en aucun de
ses points, la courbe représentant le tra-
jet n'a de tangente).
Ces propriétés coïncident avec
l'intuition physique qu'on peut avoir du
phénomène : une particule ne peut pas
sauter instantanément d'une position à
une autre, ce qui fait que son trajet doit
être continu. Toutefois, des change-
ments aléatoires de direction ont lieu en
permanence, ce qui fait que la courbe
du trajet est entièrement constituée
« d'angles vifs ».
L'oeuvre de Wiener a suscité de
nombreuses recherches sur le sujet. La
plupart des recherches modernes sur
les processus aléatoires sont un pro-
longement direct des travaux de
2. L'ORIGINE MOLÉCULAIRE DU MOUVEMENT BROWNIEN a été suggérée par l'accroisse-
Wiener, et la théorie probabiliste du
ment de la vitesse des particules avec la température : selon la théorie cinétique des
gaz, une
température plus élevée correspond à des mouvements moléculaires plus rapides. Toutefois,potentiel en est le plus beau fruit. Il
même la plus petite particule observableau microscopeétait de loin trop pesantepour être faut, pour expliquer les circonstances
déplacée de façon visible par l'impact d'une molécule à la fois (à gauche). Au contraire,on qui ont amené cette fusion, considérer
a démontré que le mouvement brownien aléatoire d'une particule, était dû à des variations un moment la théorie classique (ou
aléatoires de la pression moléculaire sur différentes parties de la particule (à droite). non probabiliste) du potentiel.
La théorie du potentiel
Gregory Chaitin
et mesurer son caractère aleatoire, mais il est impossible La nouvelle définition d'une suite
aléatoire est issue de la théorie de
de démontrer qu'une suite donnée est aléatoire. l'information, science qui traite de la
transmission des messageset qui s'est
Ce paradoxe illustre les limites des mathématiques. développéedepuis la Deuxième Guerre
mondiale. Supposezqu'un de vos amis
visite une planètedans une autregalaxie
et que cela coûte très cher de lui
Noussavons tous intuitive- Si l'origine d'un événement était le seul envoyer un télégramme ; votre ami a
ment ce qu'est une suite critère du caractèrealéatoiredu résultat, oublié d'emporter ses tables de trigono-
(ou un nombre) aléatoire. les deux suites ci-dessus devraient être métrie et vous demande de lui en faire
Considérons, par exem- considéréescomme aléatoires,ainsi que parvenir le contenu. Vous pourriez évi-
ple, les deux suites sui- n'importe quelle suite parmi les 220 demment transposer les nombres selon
de
vantes composées 0 et de 1. obtenues par tirage. Cette analyse ne un code donné (par exemple les mettre
nous aide alors en rien pour distinguer sous forme binaire) et les transmettre
01010101010101010101
une suite aléatoire d'une suite ordonnée. directement ; hélas les tables les plus
01101100110111100010 Une définition plus raisonnable simples contiennent quelques milliers
La première est construite suivant d'une suite aléatoire,ne doit pas êtreen de chiffres et les frais d'envoi seront
une règle simple : elle est composéedu contradiction avec le concept intuitif de exorbitants. Vous auriez tout avantageà
nombre 01 répété dix fois. Si nous vou- suite (ou de nombre) « dépourvue de transmettrela mêmeinformation sousla
lions continuer la suite, nous suppose- structureinterne ».Une telle définition a forme d'une formule trigonométrique
rions évidemment que les deux chiffres été élaborée; elle ne prend pas du tout fondamentale telle que l'équation
suivants sont 0 et 1. En revanche, la en compte l'origine de la suite et ne d'Euler eix = cos x + i sin x. Ce dernier
structure de la deuxième suite de dépend que des caractéristiques de la messageest bref et contient tous les ren-
chiffres n'est pas aussi évidente. Les suite de ses chiffres. Grâce à cette nou- seignementsdestables.
chiffres qui la composent ne s'ordon- velle définition, nous pouvons préciser Supposezmaintenant que votre ami
nent pas selon une règle précise et cela ce qu'est une suite aléatoire et établir s'intéresse non plus à la trigonométrie
nous empêche de prédire rationnelle- une hiérarchie : ainsi le caractèrealéa- mais au football. II désire connaître les
ment quels pourraient être les chiffres toire d'une suite peut être quantifié. résultats de tous les matchs de cham-
suivants. Cette suite semble n'obéir Enfin, ce qui est peut-être encore plus pionnat depuis son départ de la Terre, il
qu'au hasard,c'est-à-dire résulter d'une intéressantque les possibilités ouvertes y a quelquesmilliers d'années. Dans ce
combinaisonaléatoirede 0 et de 1. par cette définition, ce sont ses limites cas il est très improbable que vous puis-
En fait, la secondesuite de 0 et de 1 logiques intrinsèques ; la définition ne siez trouver une formule permettant de
a été engendréepar vingt tirages à pile nous permet pas, sauf dans des cas très condenser toute l'information dans un
ou face, en notant 1 quandle résultatest particuliers, de déterminer si une suite court message ; dans une suite de ce
face et 0 quand le résultat est pile. Un de chiffres donnée, telle que le second genre,chaquechiffre représenteun évé-
tel tirage à pile ou face est une méthode exemplecité, est réellementaléatoireou nement particulier qu'il est impossible
classique pour obtenir un nombre aléa- ne l'est qu'en apparence.Cette limita- de déduire des chiffres précédentsou à
toire ; notre première inclination serait tion n'affecte en rien l'intérêt de la défi- l'aide d'une quelconqueformule. B n'y
de croire que la manièredont cette suite nition, elle ne résulte que d'une subtile a donc pas d'autre possibilité que de
a été engendrée garantit le caractère et fondamentaledifficulté logique inhé- transmettrela liste complètedesrésultats.
aléatoire du résultat obtenu. En jouant rente à l'architecture des mathéma- Ces deux exemples opposés nous
20 fois à pile ou face, on obtient l'une tiques. Cette difficulté est étroitement font entrevoir la nouvelle définition
des 220suites de 0 et de 1 (soit un peu liée à un célèbre théorème, énoncé et d'une suite aléatoire. L'idée fondamen-
plus d'un million de suites différentes) démontré en 1931 par Kurt Godel et tale est que l'information contenue
toutes équiprobables. On ne doit donc nommée théorème d'incomplétude de dans une telle suite ne peut être com-
pas plus s'étonner d'obtenir une suite Gödel. Ce théorème et les récentes primée ou mise sous une forme plus
apparemment aléatoire que d'obtenir découvertesconcernantla « qualité aléa- réduite. Pour formuler précisément
une suite dont la régularité semble évi- toires d'une suite permettentde préciser cette définition, supposezque la com-
dente : chacune d'elles représente un les limitations intrinsèquesde certaines munication soit établie non pas avec un
événement de probabilité égale à 2-20. méthodesmathématiques. lointain correspondant, mais avec un
ordinateur. Votre correspondant peut
raisonner par récurrence et continuer
une suite à partir d'informations par-
tielles ; l'ordinateur au contraire en est
totalement incapable et pour le pro-
blème qui nous préoccupe cette inca-
pacité est un avantage. Les instruc-
tions données à l'ordinateur doivent
être exhaustives et explicites ; elles
doivent lui permettre de procéder
étape par étape sans qu'il ait besoin de
comprendre le résultat des opérations
qu'il effectue. On appelle un tel pro-
gramme d'instructions un algorithme.
Cet algorithme compte un nombre fini KURT GÖDEL (1944) : « En fait,
d'instructions qui ne demandent, pour la solution de certains problèmes
leur réalisation, ni intelligence, ni arithmétiquesnécessitedes hypothèses
compréhension de leur finalité. qui dépassent le cadre de l'arithmé-
Évidement les mathémati-
tique. [...]
Pour définir une suite aléatoire il
ciensperdent ainsi beaucoupde leur
faut aussi que nous puissions mesurer
DAVID HILBERT (1900) : certitude absolue,mais sous l'effet
l'information contenue dans un message
« Tout problème mathématique défini doit pouvoir des critiquesmodernes de leurs fonde-
d'une manière plus précise qu'en déter- ments, n'en est-il pas déjà ainsi ? [...] »
être résolu, soit qu'onen trouve une solutionexacte,
minant le coût d'envoi d'un tel message
soit que l'onprouve qu'il est impossible
par télégramme. L'unité d'information de le résoudre, etdonc que toute tentative 1. HILBERT croyait qu'un ensemble
fondamentale est le «bit » ; un bit est la dansce senssoit vouée à l'échec [...] fini d'axiomes et de règles de déduc-
plus petite information qui permette de Même si lesproblèmes nous semblent intraitables tion suffirait pour démontrer ou infir-
distinguer deux objets d'égale vraisem- et si nous nous sentons désemparés, nous n'en avons mer tout énoncé mathémathique.
blance. En notation binaire, le bit est pas moinsla ferme conviction que leur solution doit Gödel a montré l'existence deproposi-
équivalent à un chiffre, soit 0, soit 1. résulter d'un nombre fini de processus logiques. [...] » tions indémontrables.
Nous pouvons maintenant préciser
la différence entre les deux suites de
chiffres indiquées au début de notre lité. Nous dirons donc qu'une suite de La théorie classique des probabilités
article, à savoir : chiffres est aléatoire quand le plus petit établie au XVIIe siècle est encore
algorithme nécessaire pour l'introduire aujourd'hui d'une très grande impor-
01010101010101010101
dans un ordinateur contient à peu près tance pratique. Elle sert à la statistique et
01101100110111100010 le même nombre de bits que la suite. s'applique à toute une gamme de pro-
La première suite peut être communi- Vers 1965, le mathématicien russe blèmes théoriques et pratiques. La nou-
quée à l'ordinateur par un algorithme très A. Kolmogoroff et moi-même, alors étu- velle théorie algorithmique a également
simple : « Afficher 10 fois 01 ».Au cas où diant à l'université de New York, avons d'importantes conséquences, mais la
la suite serait continuée, il suffirait indépendamment proposé cette défini- plupart sont de nature théorique. L'une
d'allonger légèrement l'algorithme qui tion. Aucun de nous n'avait eu connais- des plus intéressantes est la connexion
deviendrait par exemple : « Afficher un sance d'une idée analogue émise par Ray avec le théorème d'incomplétude de
million de fois 01 ». Le nombre de bits Solomonoff, qui cherchait à établir une Godel qu'elle permet d'amplifier. Une
dans un tel algorithme est très inférieur mesure de la simplicité d'une théorie autre application intéressante est la
au nombre de bits de la suite qu'il déter- scientifique. Depuis, de nombreux cher- méthode d'induction scientifique de
mine ; de ce fait, la longueur du pro- cheurs ont continué les recherches visant Solomonoff ; cette méthode a été décou-
gramme augmente bien moins vite que le à définir ce qu'est un nombre aléatoire ; verte avant que la théorie algorithmique
nombre de chiffres de la suite. En les premières définitions ont été amélio- ne soit précisément formulée, mais elle
revanche il est impossible de condenser rées et la valeur heuristique de telles apparaît aujourd'hui, comme une de ses
la seconde suite ; la façon la plus écono- recherches est aujourd'hui reconnue. ramifications logiques.
mique de la transmettre est de la trans- Dans la méthode de Solomonoff un
crire intégralement ; le plus court algo- La méthode inductive chercheur commence par représenter ses
rithme permettant d'introduire la suite résultats selon une suite de 0 et de 1 ; il
dans l'ordinateur est donc : La définition algorithmique d'une essaie ensuite de rendre compte de ces
« afficher 01101100110111100010 ». suite aléatoire fournit un fondement nou- observations à l'aide d'une théorie, qu'on
Dans ce cas, le nombre de pas de veau à la théorie des probabilités. Elle peut, en l'occurrence, considérer comme
l'algorithme augmente dans les mêmes ne remplace nullement la théorie clas- un algorithme engendrant la suite des
proportions que le nombre de chiffres sique des probabilités, qui attribue une chiffres obtenus et permettant de la conti-
de la suite. L'« incompressibilité » ainsi probabilité donnée à un ensemble de nuer, c'est-à-dire de prédire les observa-
définie est une propriété commune à possibilités, mais elle la complète : elle tions suivantes. À chaque suite corres-
toutes les suites aléatoires ; on peut permet de mieux définir des concepts pondent toujours plusieurs théories
même prendre pour critère de définition séduisants sur le plan intuitif mais qui possibles parmi lesquelles le chercheur
d'une suite aléatoire son incompressibi- échappaient à un traitement rigoureux. doit choisir. Dans la méthode
Solomonoff, on choisit parmi les diffé- tions aléatoires, il ne peut mieux faire ter au début du programme un cours
rents algorithmes le plus petit, c'est-à- que les publier intégralement. d'anglais complet rédigé en français. De
dire celui qui contient le moins de bits. Définir le caractère aléatoire ou la cette manière, le programme ne s'accroît
Une telle règle n'est pas nouvelle ; ce simplicité d'une théorie en fonction des que d'un nombre fixé de bits, nombre
n'est qu'une autre formulation de la capacités d'un ordinateur semble avoir dont l'importance relative diminue avec
célèbre règle du rasoir d'Occam, laquelle l'inconvénient de faire intervenir dans la longueur de la suite programmée.
prescrit de choisir, parmi différentes théo- des notions abstraites un élément arbi- D'ailleurs, un organe spécial, le compila-
ries qui semblent se valoir, la plus simple. traire, à savoir les caractéristiques de teur, permet le plus souvent de ne pas se
Ainsi, dans la méthode de l'ordinateur utilisé. Comme différents préoccuper de ces différences de langage.
Solomonoff, toute théorie permettant de ordinateurs utilisent des langages diffé- Étant donné que la nature de la
comprendre une suite d'observations est rents, le nombre de bits nécessaires pour machine n'a pas d'importance, on peut
considérée comme un petit programme transmettre une série d'instructions varie choisir d'utiliser un ordinateur idéal de
d'ordinateur qui rend compte des expé- selon le langage utilisé. En réalité, la mémoire illimitée et disposant de tout le
riences passées et prédit les observa- nature de l'ordinateur n'a que peu temps nécessairepour effectuer les opéra-
tions futures. Plus le programme est d'influence et d'ailleurs, s'il le fallait, on tions. Les données à l'entrée et les résul-
court, plus le champ d'application de la pourrait s'imposer d'utiliser toujours le tats à la sortie de cet ordinateur sont
théorie est vaste, et mieux on la com- même ordinateur pour déterminer le exprimés en nombres binaires. La
prend. Des observations aléatoires ne caractère aléatoire des suites considérées. machine se met en route dès l'introduc-
peuvent être représentées par un pro- De plus, même si l'on utilise diverses tion du programme et ne s'arrête qu'après
gramme court ni par conséquent expli- machines, on peut pallier les idiosyncra- avoir donné le résultat sous forme d'une
quées par une théorie. De plus, le com- sies de leur langage respectif. Supposons, suite de 0 et de 1. Sauf erreur de pro-
portement d'un système aléatoire ne par exemple, qu'on utilise un programme grammation, la machine donne un résul-
peut être prédit. Quand un chercheur en anglais sur un ordinateur ne compre- tat et un seul par programme.
veut transmettre, de façon aussi concise nant que le français. Au lieu de traduire
que possible, les résultats d'observa- l'algorithme lui-même, il suffira de rajou- Programmes
minimaux et complexité
4. LE RAISONNEMENT PAR RÉCURRENCE, tel qu'il est couramment de mots ou dephrases mais de chiffres binaires et leur dimension est
utilisé en science,a été analyséd'un point de vue mathémahique par mesuréeen bits et non en signes). On se trouve icidevantdeux théo-
Ray Solomonoff. Celui-ci identifie les observations d'un chercheur à ries possibles pour expliquer la série d'observations ; selon le prin-
une suite de 0 et de 1 ; il s'agit d'expliquer ces observations et de cipe du rasoir d'Occam, il faut trancher en faveur de la théorie la
prévoir les suivantes à l'aide de théories qui seront des algorithmes plus simple (ou la plus courte). Le chercheur devra donc trouver des
contenant les instructions nécessaires à l'ordinateur pour repro- programmes minimaux. Dans le cas de données aléatoires, les pro-
duire les observations(les programmes ne sont alors pas composés grammes minimaux sont la transcription intégrale des observations.
C'est dans le domaine des démons- sensée, une liste finie d'axiomes ou plétude est fondée sur le paradoxe d'Épi-
trations mathématiques que le théorème d'hypothèses de base et une liste finie ménide le Crétois ; Épiménide aurait
d'incomplétude de Gödel prend sa de règles de déduction permettant affirmé « tous les Crétois sont menteurs ».
signification la plus profonde. C'est d'obtenir des théorèmes à partir Ce paradoxe s'exprime plus générale-
ainsi que, dans la version que j'en d'axiomes ou de théorèmes existants. ment sous la forme de l'assertion « la pré-
donne, il implique qu'une démontra- Un tel langage, régi par de telles règles, sente assertion est fausse », laquelle est
tion du caractère aléatoire d'une suite est appelé un système formel. Un sys- vraie si et seulement si elle est fausse, et
donnée est impossible. Ce résultat tème formel est défini de manière si qui n'est par conséquent ni vraie, ni
éclaire autant le théorème de Gödel lui- précise qu'il existe un procédé récursif, fausse. Godel a substitué au concept de
même que la nature des nombres aléa- ne faisant intervenir que des manipula- vérité celui de démontrabilité, ce qui l'a
toires. Le théorème de Godel a clos la tions logiques et arithmétiques élémen- conduit à la phrase « la présenteproposi-
polémique qui faisait rage au début du taires, qui permet de décider de la vali- tion est indémontrable », assertion qui,
siècle parmi les mathématiciens. La dité d'une démonstration. En d'autres dans un système formel donné, est
question posée était la suivante : termes, dans le système considéré, il démontrable si et seulement si elle est
« Qu'est-ce qu'une démonstration existe un algorithme permettant de juger fausse. Il en résulte que soit une proposi-
mathématique exacte et comment peut- la validité des démonstrations. tion fausse est démontrable, ce qui est
on reconnaître qu'une telle démontra- Aujourd'hui, on pourrait faire passer exclu, soit une proposition vraie est
tion est bonne ?» Le grand mathémati- l'algorithme sur un ordinateur à qui l'on indémontrable ce qui prouve que le sys-
cien allemand, David Hilbert avait tenté demanderait de juger la démonstration. tème formel est incomplet. Godel a
d'y répondre en confectionnant un lan- Puisqu'un système formel doit, pour ensuite appliqué la technique suivante :
gage artificiel où la validité d'une répondre aux exigences de David numéroter toutes les propositions et
preuve pouvait être démontrée mécani- Hilbert posséder un algorithme de véri- démonstrations du système formel et
quement sans aucun recours à l'intuition fication des démonstrations, il est théo- remplacer la phrase « la présente propo-
ou au jugement humain. Godel a montré riquement possible de dresser la liste de sition est indémontrable » par une asser-
qu'un tel langage idéal n'existait pas. tous les théorèmes démontrables dans tion sur les propriétés des nombres
David Hilbert avait créé un alphabet un système donné. II suffit pour cela de entiers positifs. Cette substitution étant
constitué d'un nombre fini de symboles, classer d'abord par ordre alphabétique, possible, le théorème d'incomplétude
une grammaire précise spécifiant les les suites de symboles composées d'un s'applique à tous les systèmes formels
règles de construction d'une proposition seul caractère, de leur appliquer l'algo- traitant des entiers positifs.
rithme de décision pour trouver les Le rapport entre la démonstration de
théorèmes (s'il en existe) dont la Godel et la théorie des suites aléatoires
démonstration ne s'écrit qu'à l'aide apparaît à la lueur d'un autre paradoxe,
d'un seul caractère. Puis on doit faire de très d'Epiménide. C'est une variante du
même avec les suites de symboles à paradoxe de Berry, publié pour la pre-
deux caractères, trois caractères, etc. mière fois en 1908 par Bertrand Russell.
Cette méthode permet de vérifier toutes Sa formulation est : « Trouver le plus
les démonstrations possibles et de petit entier positif qui, pour être spéci-
découvrir tous les théorèmes, rangés fié, nécessite plus de signes que n'en
selon la longueur croissante de leurs contient la présente phrase ». La phrase
démonstrations. (Ceci n'est évidemment est composée de 123 caractères (espaces
que théorique, la procédure étant beau- entre les mots inclus) et spécifie le
coup trop longue pour être réalisable !) nombre qui, par définition, devrait
n'être spécifié que par une définition
Propositions comportant plus de 123 caractères !
indémontrables Comme dans le cas précédent, il faut
considérer le paradoxe non plus dans le
Godel a prouvé en 1931 que le projet cadre de la vérité mais dans celui de la
de David Hilbert n'était pas réalisable. Il démontrabilité. On remplacera donc les
a pour ce faire construit, dans le langage mots « pour être spécifié » par « dont on
du système formel, une affirmation sur peut démontrer que pour être spécifié »,
les nombres entiers positifs, qui est à la étant bien entendu que les propositions
fois vraie et indémontrable dans ce sys- seront exprimées dans un système for-
tème. Quelles que soient sa taille et la mel donné. De plus, au lieu de la notion
manière dont il a été construit, un sys- vague et typographique de nombre de
tème formel ne peut inclure tous les théo- signes nécessaires, on utilisera le
rèmes vrais ; il est donc incomplet. La concept clairement défini de com-
S. LA PLUPART DES SUITES de chiffres méthode de Godel s'applique pratique- plexité, qui se mesure en bits.
binaires sont aléatoires. La plupart des 2n
ment à tous les systèmes formels ; il en Après toutes ces modifications, on
suites a n chiffres sont de complexité voi- résulte la conclusion surprenante, et fort obtient le programme d'ordinateur sui-
sine de n. À mesure que la complexité
diminue, le nombre de suites décroît à peu
inquiétante, que l'on ne peut apporter de vant : « Trouver une suite de 0 et de I
près exponentiellement. Rares sont les réponse définitive à la question : « Qu'est- dont on peut démontrer que la com-
suites régulières ; il n'y en a qu'une, par ce qu'une démonstration juste ?» plexité est supérieure au nombre de bits
exemple,qui soit composée de n chiffres 1. La démonstration du théorème d'incom- composant le présent programme ».
L'ordinateur examine l'une après PARADOXEDERUSSEL
l'autre, et par ordre de taille, toutes les Considérons l'ensemble de tous les ensembles non inclus dans eux-mêmes.
démonstrations appartenant au système Cet ensemble est-il inclusdans lui-même?
formel jusqu'à ce qu'il trouve la pre-
mière démonstration qu'une suite donnée PARADOXE D'ÉPIMÉNIDE
de 0 et de 1 est de complexité supérieure Considérons la proposition suivante : « La présenteproposition est fausse ».
Cette proposition est-elle vraie?
au nombre de bits du programme. Puis il
imprime ladite suite et s'arrête. Il est
bien évident que le paradoxe initial de la PARADOXE DE BERRY
proposition (qu'on a transformée pour en Considérons la phrase suivante : « Trouver leplus petit entier positif qui s'écrit
faire un programme) n'a pas disparu. Le avec plus de signes que n'en contient la présente phrase ».
La phrase ci-dessus spécifie-t-elle un entier positif?
programme aurait pour but de calculer
un nombre que la dimension de ce même 6. CES TROIS PARADOXES illustrent les limites de la démontrabilité. Le premier, énoncé par
programme ne lui permet pas de calculer. Bertrand Russell, déclare qu'un raisonnement mathématique informel peut aboutir à une
Pour être précis, le programme trouve le contradiction ; c'est pour éliminer de telles contradic
premier nombre dont on peut prouver mels. Le second, généralement attribué à Épiménide, a été adapté par Gö
qu'il est incapable de le trouver. que dans un systèmeformel des propositions vraiespeuvent être indémontrables. Le troi-
Cette conclusion absurde montre siemeparadoxe montre qu'il est impossible de démontrer qu'un nombre donné est aléatoire.
simplement que le programme ne pourra
jamais déterminer le nombre pour la
définition duquel il a été conçu ! À l'inté-
rieur d'un système formel, il est impos-
sible de démontrer que la complexité
d'une suite donnée de chiffres est supé-
rieure au nombre de bits composant le
programme qui engendre cette suite.
On peut encore généraliser ce para-
doxe. La limitation ne provient pas du
7. PARMI LES PROPOSITIONS INDÉMONTRABLES, on peut démontrer la fausseté de celles
nombre de bits du programme mais du
qui sont fausses, mais pas la vérité des autres. Démontrer la proposition (a), « la présente
nombre de bits de l'ensemble du sys- proposition n'est pas démontrable » fait surgir une contradiction interne du système formel.
tème formel. Le programme contient Pour évaluer la complexité d'une suite donnee (b), ilfaut démontrer qu'il n'existe pas
implicitement les axiomes et règles de d'algorithme plus petit engendrant cette suite ; cela ne serait possible que si la complexité
déduction qui déterminent le comporte- du système formel était supérieure au nombre de bits formant la suite. Les propositions for-
ment du système et l'algorithme de mulées en (C) et (d) sont sujettes aux mêmes limitations du fait que pour déterminer si une
décision. L'information contenue dans suite est aléatoire ou si un programme est minimal, il faut déterminer sa complexité.
ces axiomes et principes peut se mesu-
rer ; on dira que c'est la complexité du
système formel. La dimension totale du suite donnée, on doit se placer dans un que l'on peut considérer une suite de
programme est donc supérieure à la système de complexité supérieure. chiffres de taille arbitraire : il existe donc
complexité du système formel, d'un Si la complexité d'un système formel toujours des suites dont il n'est pas pos-
nombre fini de bits c (la valeur de c a une grande influence sur la démontra- sible de prouver qu'elles sont aléatoires !
dépend du langage machine utilisé). Le tion du caractère aléatoire, c'est que cette Cet effort pour définir une suite
théorème démontré par le paradoxe peut complexité mesure la quantité d'infor- aléatoire et en mesurer le caractère aléa-
donc s'énoncer comme suit : dans un mation contenue dans le système et donc toire a permis de mieux comprendre la
système formel de complexité n, il est la quantité maximale d'information que signification et les implications du théo-
impossible de démontrer que la com- l'on peut en tirer. Le système formel est rème de Gödel. Celui-ci n'apparaît plus
plexité d'une suite donnée de 0 et de 1 est fonde sur des axiomes : ces axiomes sont comme un paradoxe isolé mais comme
supérieure à n + c, c étant une constante des propositions fondamentales irréduc- l'une des conséquences naturelles des
indépendante du système considéré. tibles, c'est-à-dire qu'il est impossible de contraintes imposées par la théorie de
« concentrer », tout comme on ne peut l'information. En 1946, Hermann Weyl
Limites réduire un programme minimal ; si on déclara : « Les incertitudes soulevées
des systèmes formels pouvait énoncer un axiome plus briève- par une découverte telle que le théo-
ment, on obtiendrait un nouvel axiome et rème de Godel ont considérablement
Ayant défini la complexité comme le premier ne serait plus qu'un théorème freiné l'enthousiasme et la détermina-
une mesure du caractère aléatoire, il qui en découle. L'information contenue tion avec lesquels je poursuivais mes
découle du théorème que, dans un sys- dans les axiomes est ainsi par essence recherches ». Il nous semble en
tème formel, il est impossible de prou- aléatoire ; on peut donc l'utiliser pour revanche qu'en théorie de l'informa-
ver qu'un nombre est aléatoire sauf si juger du caractère aléatoire d'autres don- tion, le théorème de Godel n'ait rien de
sa complexité est inférieure à celle du nées. Il n'est par conséquent possible de décourageant. Ne semble-t-il pas sug-
système. De plus, tout programme prouver qu'une suite est aléatoire que si gérer que, tout comme les autres
minimal étant aléatoire, le théorème cette suite est plus petite que le système sciences, les mathématiques ne pro-
établit également que pour démontrer formel. En outre, le système formel est gresseront que par la découverte de
qu'un programme est minimal pour une nécessairement de dimension finie alors nouveaux axiomes ?
L'espérance mathématique
Jean-Paul Delahaye
Les critères de décision sont fondés sur la notion peut-être pas très cher si cela vous
amuse !). Les deux lois de base du
d'espérance mathématique. Toutefois ces raisonnements joueur éclaire semblent irréfutables et
devraient donc dicter nos décisions en
aboutissent parfois à des choix surprenants. toutes circonstances.Nous allons voir
que, dans certains cas, les règles fon-
déessur le calcul de l'espérancemathé-
matique ne correspondentpas aux choix
Unde vos amis vous pro- Si votre ami vous proposait 80 francs que nousjugeons bon de faire, ou même
pose le jeu suivant : tu en plus de votre mise au lieu de 20 conduisentà desabsurdités.
mises 10 francs, ensuite tu francs pour une sortie du 6, votre espé-
lancesun dé. Si tu sors le rance mathématique serait (80-50)/6, En cas d'inflation
6, je te donne 30 francs soit 5 francs par partie, et vous auriez
(tes 10 francs de mise plus 20 francs de intérêt à jouer. S'il vous proposait 50 Le premier exemple m'a été donné
ma poche) ; sinon, je ne te donnerien et francs au lieu de 20 francs, votre espé- par JacquesPitrat, qui est chercheuren
j'empoche tes 10 francs. rance mathématique à chaque partie intelligence artificielle à l'Université
Votre intérêt est-il dejouer ? serait nulle. Dans ce cas, on dit que le des Sciences de Paris : il nous fait
Non, bien sûr, car, en moyenne, jeu est équitable. soupçonner une difficulté. Lorsque
sur six parties, vous aurez gagné 30 l'inflation annuelle est supérieure à
francs et dépensé60 francs, ce qui fait Les deux lois de base 1/37, soit 2, 7 pour cent, et qu'il
5 francs de perdu en moyenne par par- du joueur éclairé n'existe aucun moyen sûr d'obtenir
tie. En théorie des probabilités, on dit une espérancemoyenne de gain proté-
que votre espérance mathématique à La notion d'espérance mathéma- geant votre argent de l'inflation
chaque partie est de-5 francs. Cette tique, que l'on pourrait aussi appeler (c'était le cas en France il y a une
espérancemathématique est égale à la gain moyen espéré, est parfaitement quinzaine d'années, et c'est le cas
somme des gains (et des pertes), cha- claire, et il semble naturel et rationnel dans tous les pays dont l'économie est
cun multiplié par la probabilité du gain d'énoncer les deux lois de base du en crise grave), les casinos constituent
(ou de la perte) : dans notre jeu, cette joueur éclairé : la moins mauvaise méthode pour pro-
espérance mathématique est égale à Loi 1 : Lorsqu'on te proposeun jeu, téger vos économies.
(20) x 1/6 + (-10) x 5/6 =-5. si l'espérance est positive, accepted'y En effet, chaqueannée,il vaut mieux
Lorsqu'elle est négative, vous ne jouer ; si elle est négative, refuse d'y aller miser l'argent qu'on a mis de côté
devez pas jouer : en moyenne, vous jouer ; sielle est nulle, fais ce qui te plaît. durant les douzemois précédentsque de
perdrez la valeur de cette « espérance ». Loi 2 : Entre deux jeux, si tu es le confier à une banque,car, enjouant au
contraint de jouer, choisis celui dont casino, vous ne perdrez, en moyenne,
l'espérance mathématique est la que 1/37 de votre argent,quelle que soit
plus élevée. la durée de la période pendant laquelle
Le calcul de l'espérance mathéma- vous économisez,alors qu'en le confiant
tique d'un jeu est rarementaussi simple à la banque, plus vous le laissez long-
que dans notreexemple, mais soyezcer- temps(ce qui est inévitablepour arriver à
tain que lorsqu'un casino vous propose une sommeintéressante),plus vous per-
un jeu, c'est que votre espérancemathé- dez de l'argent. Donnons un exemple
matique est négative. L'exemple de la numérique.
roulette est clair : en misant 100 francs Imaginons que l'inflation annuelle
sur un numéro, vous gagnez 3 600 soit de dix pour cent et que votre
francs (votre mise plus 35 fois votre banque vous donne cinq pour cent
mise payée par le banquier), I fois sur d'intérêts sur l'argent que vous lui
37, car les numéros vont de 0 à 36. En confiez (ce qui ne compensepas l'infla-
moyenne, vous dépensez 3 700 francs tion) ; dix annéesde suite, le 1"janvier,
pour en gagner 3 600, et votre espé- vous déposez 100 000 francs à la
rance est donc de-100/37, soit-2, 70 banque dans le but d'acheter une mai-
francs. En moyenne,à chaque fois que son. Alors, le 31 décembre de la
1. LE SUCCÈS AUX JEUX DE HASARD vousjouez 100 francs à la roulette, vous dixième année, vous retirez de la
dépenddel'espérancemathématique. perdez donc 2,70 francs (ce qui n'est banque 100 000 francs multipliés par
(1, 05 + 1, 052 + 1, 05' +... + 1, 05'°), Les problèmes de choix en écono-
soit 1 320 678 francs, dont le pouvoir mie sont complexes et quasi para-
d'achat (ramené à l'année de départ) doxaux. En voici encore deux exemples.
est égal à 1 320 678/(1, 10)10, On constate qu'un consommateur hésite
soit 509 178 francs. beaucoup moins à acheter un autoradio
Au bout de dix ans, en ayant joué de prix élevé le jour où il se décide pour
tous les ans vos 100 000 francs à la rou- l'achat d'une voiture, qu'un jour ordi-
lette et en ayant protégé vos gains de naire. La jouissance qu'il va en tirer est
l'inflation dès que vous avez gagné (ce pourtant la même !
qui est possible, car, quand vous gagnez, Le philosophe américain D. Dennett,
vous pouvez acheter la maison de vos dans son excellent livre La stratégie de
rêves), votre espérance mathématique de l'interprète (éditions Gallimard, 1990),
pouvoir d'achat (toujours recalculée pour rapporte l'étonnante expérience de psy-
l'année de départ) est égale à la somme chologie réalisée par D. Kahneman et
de 3 600 000 x 1/37 x (1 + 1/1, 1 + A. Tversky en 1983. On raconte à des
1/(1,1)2+... + ll (1, 1) 9), soit 657 634 sujets l'histoire suivante :
francs, ce qui est bien meilleur ! (A) Vous avez acheté un billet de
2. JOUER À LA ROULETTE est parfois plus
Ce résultat n'a rien d'étonnant, car, théâtre à 100 francs depuis une
sage que confier son argent au banquier.
en quelque sorte, jouer vos 100 000 semaine. En arrivant au théâtre, vous
francs chaque année revient à confier vous apercevez que vous avez perdu
votre argent au casino qui, pour 1/37 de comme moi, vous répondrez non. La votre billet. II reste des places dispo-
sa valeur, prend à sa charge le problème probabilité de gagner semble trop nibles à 100 francs. Est-ce que vous
de l'inflation jusqu'à ce qu'il vous faible, même si le gain, quand on tire vous achetez un nouveau billet ? Plus
rende votre argent. le bon billet, est énorme et même si de la moitié des personnes répondent
Malgré cet imparable calcul, je ne l'espérance est nettement supérieure à qu'elles ne rachètent pas de billet.
connais personne qui ait utilisé la la mise ! Si vous êtes assez riche pour Présentons autrement la même
méthode du casino pour protéger son pouvoir jouer un grand nombre de fois histoire :
argent de l'inflation. Pourquoi ? Sans à ce jeu (ou si vous rencontrez (B) Vous arrivez au théâtre sans
doute parce que l'incertitude sur la quelqu'un disposé à vous prêter avoir acheté de billet. Au moment de
date d'aboutissement est si déplaisante quelques centaines de millions de prendre la queue au guichet, vous vous
qu'on préfère perdre plus, mais ne pas francs), vous ne devez pas hésiter, apercevez que vous avez perdu un des
être soumis aux aléas des lancers du mais celui qui ne peut jouer qu'une ou billets de 100 francs qui étaient dans
croupier. L'espérance mathématique deux parties, qui lui coûtent très cher, votre portefeuille, ce matin. Il vous
ici ne détermine donc pas le comporte- ne souhaitera pas prendre le risque. reste de quoi acheter un billet. Est-ce
ment le plus rationnel. Dans les situations où l'enjeu corres- que vous achetez un billet ?
pond aux limites de vos possibilités, L'histoire (B) est « financièrement
Très fort refus même en cas d'espérance mathématique équivalente » à l'histoire (A) ; pourtant,
d'un gain très favorable, il apparaît raisonnable de dans ce cas, 12 pour cent seulement des
moyen
refuser de jouer. Les règles énoncées plus personnes testées indiquent qu'elles
II existe un exemple encore plus haut concernant l'espérance ne corres- renoncent à acheter le billet de théâtre.
frappant de l'inadéquation, dans les cas pondent pas à la réalité psychologique ; Le mathématicien Daniel
extrêmes, de la notion d'espérance l'espérance mathématique ne fournit pas Bernoulli, qui avait déjà découvert, au
mathématique pour déterminer les préfé- toujours un critère de décision rationnel, XVIIIe siècle, des situations analogues,
rences d'un sujet. Imaginez qu'on vous et les deux lois de base du joueur éclairé proposait de remplacer le critère
propose le jeu suivant : tu me donnes un doivent être revues. objectif donné par l'espérance mathé-
million de francs ; ensuite, tu tires un Doit-on déduire de l'exemple du matique (mesurée en francs dans nos
billet dans cette urne qui contient 1 billet billet rouge qu'en cas de très petits exemples) par un critère d'espérance
rouge et 99 billets bleus. Si tu tires le enjeux, même si l'espérance mathéma- d'utilité subjective mesurant le plaisir
rouge, je te donne un milliard de francs ; tique est négative-situation opposée ou la peine engendrés par un résultat.
sinon, je ne te donne rien. à celle envisagée à l'instant-, il est L'utilité subjective n'étant pas une
En acceptant de jouer à ce jeu, rationnel de jouer ? Si tel est le cas, fonction linéaire du résultat en francs,
vous gagnerez un milliard de francs alors nous comprenons le succès des un gain de dix millions de francs n'est
une fois sur 100, donc, en moyenne, jeux proposés par les organismes pas dix fois préférable à un gain d'un
vous gagnerez 1 000 millions de publics tels que La Française des million de francs et ne donne pas, en
francs pour 100 millions engagés, ou Jeux, qui redistribuent souvent moins plaisir, l'équivalent de la peine que
10 millions pour 1 million engagé de la moitié des sommes engagées par vous ressentez en perdant un million
L'espérance mathématique du jeu est les parieurs (les jeux proposés ont tou- de francs économisés au long de nom-
donc de 9 millions par partie jouée. jours une espérance mathématique breuses années de travail. Des études à
Cela semble extrêmement intéressant. négative). Pendant longtemps, j'ai partir d'expériences analogues à celle
Posez-vous maintenant honnêtement pensé qu'il était absurde de jouer à de des billets de théâtre permettent
la question (en imaginant que vous dispo- tels jeux ; aujourd'hui, à cause de d'avoir une idée précise des liens entre
sez d'un million de francs d'économies) : l'exemple des billets rouges et bleus, la valeur objective et l'utilité subjec-
est-ce que je jouerai ? Je suis certain que, je n'en suis plus certain. tive, et donnent ainsi des moyens de
comprendre les choix faits par les pour que le jeu suivant soit équitable. pour jouer, l'espérance mathématique
sujets économiques (voir la figure 3). On jette une pièce de monnaie jusqu'à vous est encore infiniment favorable.
Toutefois le mathématicien n'a que ce qu'on obtienne pile. Si pile arrive Je suis pourtant certain que vous
faire de la psychologie, et ces dès le premier coup, la banque donne n'accepteriez même pas d'engager
exemples ne le troublent pas vraiment ; 2 francs au parieur, et le jeu s'arrête. Si 100 francs pour jouer une telle partie.
aussi venons-en à des problèmes plus pile arrive au deuxième coup, la Qu'est-ce qui ne va pas ?
délicats encore, où la notion d'espé- banque lui donne 4 francs, et le jeu On pourrait, comme précédemment,
rance mathématique est, plus grave- s'arrête. Si pile arrive au troisième évoquer la notion d'utilité et dire qu'il
ment encore, mise en difficulté. coup, la banque lui donne 23, soit s'agit d'un problème de psychologie.
8 francs, et le jeu s'arrête, etc. Je crois qu'on peut faire mieux, car,
Le paradoxe Le calcul de l'espérance mathéma- ce qui ne va pas, c'est que le banquier,
de Saint-Pétersbourg tique est aisé : celui qui sort pile au pre- en proposant ce jeu-disons pour
mier lancer reçoit 2 francs, avec une 100 francs-, triche. Il ne dispose en effet
Le classique paradoxe de Saint- probabilité 1/2 ; celui qui sort pile au que d'une somme finie d'argent, et il
Pétersbourg doit son nom à l'étude que deuxième coup reçoit 4 francs, avec une omet donc de prendre en compte les cas,
lui consacra Daniel Bernoulli dans les probabilité 1/4 ; celui qui sort pile au rares mais essentiels, où il ne sera pas en
commentaires de l'Académie des troisième coup, 8 francs, avec une pro- mesure d'assurer son engagement d'orga-
sciences de Saint-Pétersbourg en 1738, babilité 1/8, etc.-et donc l'espérance nisateur du jeu. Si l'on mène les calculs
mais, en fait, c'est Nicolas Bernoulli de gain (si la partie est gratuite) est de : avec l'hypothèse que le banquier ne dis-
-l'oncle de Daniel-qui l'inventa et 2 x (1/2) + 4 x (1/4) + 8 x (1/8) pose que d'un million de francs (et que
l'exposa à son ami Pierre Rémond de +16 x (1/16) +... =1+1+1+1+1+... c'est donc le maximum qu'il est suscep-
Montmort (ce dernier le mentionne La valeur de cette somme est infi- tible de perdre), alors l'espérance de gain
dans son Essai d'analyse des jeux de nie. Cela signifie que vous devriez est : 2 x (1/2) + 4 x (1/4) + 8 x (1/8) +...
hasard de 1701). miser une somme infinie pour que le + 219 x (1/219) + 1 000 000 x (1/219)
La question est de savoir quelle mise jeu soit équitable : même si la banque = 20, 91 francs (le dernier terme corres-
la banque doit demander à un parieur vous demande un million de francs pond à tous les cas où il y a 19 faces
consécutives ou plus avant pile, et où
le banquier donne donc un million de
francs au joueur alors qu'il devrait
donner plus). Cette mise de 20, 91
francs pour rendre le jeu équitable est
maintenant tout à fait raisonnable.
Avec un banquier ne disposant que
d'un million, la partie vaut 20, 91
francs, pas un centime de plus !
Le paradoxe
du changement inutile
90 joueurs numérotés de 11 à 100. Le 90 joueurs du groupe 2 ont gagné, et il Raisonnement 1. Je vais risquer
groupe 3 comporte 900 joueurs jette le dé une troisième fois. S'il 100 francs, on va jeter le dé. La proba-
numérotés de 101 à 1 000, etc. 11n'est obtient un 10, les 900 joueurs du bilité pour que je perde est de 1/10,
pas nécessaire que les groupes soient groupe 3 ont perdu, et la partie est ter- puisque seul le 10 me fait perdre (au
constitués à l'avance. minée. Dans un tel cas, 900 joueurs en premier coup, c'est même un peu
Le banquier jette le dé à dix faces. tout ont perdu et 100 = 10 + 90 joueurs moins, puisque le joueur numéro 1 est
S'il obtient un 10, les joueurs 2, 3,..., ont gagné, etc. certain de gagner). Ayant donc plus de
10 du premier groupe ont perdu, et la Remarquons que, quel que soit le neuf chances sur dix de gagner,
partie est terminée. Donc, dans un tel moment de l'arrêt, quand la partie se j'accepte.
cas, neuf joueurs ont perdu et un termine, neuf joueurs sur dix exacte-
joueur (le numéro 1) a gagné. Sinon ment ont perdu, et un sur dix a gagné. Raisonnement 2. Parmi tous les
(s'il a obtenu I ou 2 ou... 9 au premier Chaque partie du jeu « 9 sur 10 » est gens à qui le banquier propose le jeu et
lancer), les dix joueurs du groupe 1 ont finie (car la probabilité pour qu'on ne quelle que soit la durée de la partie, il y
gagné, et le banquier jette le dé une tombe jamais sur un 10 est nulle). a exactement neuf joueurs sur dix qui
deuxième fois. S'il obtient un 10, les La partie a commencé, le banquier perdent. Si j'accepte de jouer, je serai
90 joueurs du groupe 2 ont perdu, et la est en train de constituer le prochain un joueur quelconque, en rien différent
partie est terminée. Donc, dans un tel groupe. Il vous demande si vous accep- des autres à qui le banquier a proposé
cas, en tout 90 joueurs ont perdu et 10 tez de jouer (sans vous indiquer le le jeu. Comme il y a neuf joueurs sur
joueurs ont gagné. Sinon (s'il a obtenu numéro que vous aurez). Voici deux dix qui perdent, j'ai neuf chances sur
I ou 2 ou... 9 au second lancer), les raisonnements possibles. dix de perdre. Donc, je refuse.
LES Alors le jeu contre le casino est équitable (si
TURPITUDES
l'on tient compte du zéro, le casino prélève
un impôt de 1,35 pour cent sur les chances
DU JOUEUR simples). Vous jouez une série de coups a
la roulette en jouant une couleur et vous
partez quand vous avez gagné 100 francs,
ou quand vous avez perdu votre mise de
1 000 francs. Vous avez 90 chances sur
Les mathématiciens probabilistes ont accident de la route. Or nous prenons 100 de gagner 100 francs, et 10 chances
depuis longtemps démontré qu'il était notre automobile et, dans ce cas, nous sur 100 environ de perdre votre mise de
impossible de gagner au jeu. Pourtant, rai- estimons qu'une probabilité, pourtant 1 000 francs. Cet enjeu vous paraît-il rai-
sonnons-nous,des millions de gens jouent, 2 000 fois plus grande, est négligeable... sonnable ? Alors, vous devez jouer 100
et certains gagnent, parfois beaucoup. Cela étant, pouvons-nous jouer sur la francs au premier coup. Vous avez une
Aussi jouons-nous.II y a, dans le jeu, le plai- base de connaissances mathématiques, chance sur deux de gagner et de partir
sir de jouer qui dépassele goût du gain. plus intelligemment que d'autres? avec votre gain de 100 francs. Si vous per-
Nous savons tous que le hasard ne dez au premier coup, jouez alors 200
garde aucun souvenir du passe,et que si Quelques règles simples francs et abandonnez si vous gagnez, et
rouge est sorti vingt fois à la roulette, la et de bon sens ainsi de suite : c'est en pariant ainsi que
probabilité que noir sorte au coup suivant vous optimisez votre chance de ne pas être
n'en est pas augmentée. « Laroulette n'a ni Jouez a un jeu où votre espérance ruiné avant d'avoir atteint votre objectif.
conscienceni mémoire. C'est lui faire trop mathématique, la probabilité de gain mul- Au Loto, vous pouvez choisir votre
d'honneur que de croire qu'elle garde le tipliée par la valeur du gain possible, est grille. Comme tout le monde croit que la
souvenir de ses égarements et qu'elle égale à votre enjeu : la bataille est un bon suite ordonnée 1, 2, 3, 4, 5, 6 est moins
s'impose ledevoir de les réparer », écrivait le exemple ! Au casino, choisissez le jeu le probable que les autres, elle sera moins
mathématicien Joseph Bertrand. Pourtant, moins désavantageux, par exemple les jouée. Aussi, quand elle sort, serez-vous
raisonnons-nous,les probabilités de rouge chances simples à la roulette. Jouez avec l'unique gagnant... Une tricherie assez
et de noir sont égales et une longue suite un partenaire moins riche que vous : il subtile optimiserait vos chancesde gain : si
de rouge devra être équilibrée. Aussi sera presque certainement ruiné, car il un moyen informatique permettait de repé-
avons-nous tendance à jouer noir après des aura, avant vous, épuisé la somme qu'il rer toutes les grilles jouées, vous pourriez
sorties de rouge. Nous ne raisonnons pas voudra consacrer au jeu. Jouez à pile ou choisir celle qui ne t'est pas et vous seriez
sur des suites infinies, mais sur des suites face avec un pauvre ou avec quelqu'un seul à gagner le gros lotsi cette suite sort
finies, la est notre erreur : nous croyons qui n'aime pas miser beaucoup, si vous
que le réequilibrageest imminent. arrivez a le convaincre. Le hasard est la meilleure stratégie
Remarquons un phénomène psycho- Si vous désirez jouer au casino, fixez-
logique : nous surestimons toujours la pro- vous un gain souhaite, utilisez une martin- Le hasard est utilisable dans les jeux de
babilité d'un événement favorable et sous- gale qui limite votre temps de résidence type duel. Examinons un exemple simple
estimons la probabilité d'un accident devant le tapis et partez quand vous avez mais illustratif, l'angoissedu gardien de but
défavorable. Nous considérons qu'une réalisévotre gain. au moment du penalty. Le gardien peut
probabilité de un sur dix millions de Donnons un exemple : vous désirez plonger à droite ou à gauche, et le tireur
gagner le gros lot au Loto n'est pas négli- gagner 100 francs. Vous êtes prêt à miser peut tirer à droite ou à gauche. La prédic-
geable... car nous jouons avec l'espoir de 1 000 francs.À la roulette, supposons que tion du tir est impossible : on ne peut
gagner. Nous avons pourtant une probabi- le jeu soit équitable et que le zéro, où ni le déduire la direction du tir à partir de statis-
lité beaucoup plus forte d'avoir un grave noir ni le rouge ne gagnent, soit éliminé. tiques passéesou de 1'6valuation
de l'intel-
ligence de l'adversaire. Ce type d'estima-
tion est inefficace, contrairement à ce que
pensait Dupin, le héros d'Edgar Poe, dans
La lettre volée. Ce que sait le gardien de
but, cest qu'il peut minimiser ses échecs
contre n'importe quel adversaireen tirant à
pile ou face sa direction de plongeon.
La théorie des jeux de Von Neumann,
perfectionné par Nash, s'applique à ce type
de jeu où deux adversairesjouent à un jeu
équitable. Pour un jeu du type caillou,
feuille et puits, vous choisissez les enjeux
des gains et des défaites, et un ordinateur
programmé par l'algorithme de Nash vous
battra à la longue. Vous pouvez alors pro-
grammer votre ordinateur pour jouer à
votre place. C'est un des rares résultats
mathématiques qui ait une application en
dehors de la physique et des mathéma-
tiques elles-mêmes,mais elle nous entraine
James Bond surveille les desseins ludiques de sa partenaire, au craps. en dehors des lois du hasard.
Les probabilités
géométriques
Roger Cuculière
se demander si elle retombera sur le côté pite ou face : Quelle est la difficulté de ce genre de
problème? Pour répondre à cette ques-
t'événement est discret. On peut aussi se demander tion, nous devons rappeler la définition
de la probabilité, due à Laplace : la pro-
quel sera son point de chute sur un pavage : t'événement babilité d'un événementest « le rapport
du nombre de cas favorables à celui de
est continu et la probabilité associée est géométrique. tous les cas possibles ».Ainsi la probabi-
lité d'obtenir 2 quandvous lancezun dé
est 1/6, car il y a six résultats, six cas
possiblessur lesquelsun seul est « favo-
ans notre pays, les pro- après sa chute, se trouvera à franc- rable »: un seul fournit bien le chiffre 2.
grammes d'enseigne- carreau, c'est-à-dire sur un seul carreau La probabilité ainsi définie recouvre
ment mathématique qui ; le second parie que cet ecu se trou- une réalité empirique : si vous lancezun
comportent du calcul des vera sur deux carreaux, c'est-à-dire dé un grand nombre de fois, le chiffre 2
probabilités laissent peu qu'il couvrira un des joints qui les apparaîtra,en moyenne,une fois sur six ;
de place à la géométrie, et vice versa. séparent; un troisième joueur parie que en divisant le nombre de lancers ayant
Trop souvent d'ailleurs, la mode for- l'écu se trouvera sur deux joints ; un amené le 2 par le nombre total de lan-
maliste de ces dernières annéestrans- quatrième parie que l'écu se trouvera cers, vous devez donc trouver 16 ou 17
forme ces deux disciplines en un gali- sur trois, quatre ou six joints : on pour cent. Ce rapport, nommé la fré-
matias algébrique où elles perdent leur demande les sorts de chacun de ces quence de l'événement considéré, doit
charme propre. Et jamais on ne les joueurs.» Autrement dit, on demandela être raisonnablementvoisin de la proba-
laisse dialoguer. probabilité de gain de chacun. bilité. Bien sûr, ce phénomènetendanciel
Nous verrons que la rencontrede la et approximatif n'exclut pas de longues
géométrie et des probabilités, l'une des séquencesde 2 ou de longuesséquences
plus anciennesbranchesdes mathéma- sans2 ; tous lesjoueursle saventbien.
tiques et l'une des plus récentes,conduit La première difficulté apparaît très
à des énoncés attachants, auxquels le vite. Si, au lieu d'un dé, vous en prenez
traitement informatique apporte un deux, vous avez 11 totaux possibles : 2,
regain d'intérêt. Pour trouver l'origine 3, 4, 5, 6, 7, 8, 9, 10, 11, 12. La probabi-
de ces questions,il faut se tourner vers lité d'obtenir un total de 6, par exemple,
un... naturaliste, le plus célèbre peut- devrait donc être 1/11 si l'on appliquait
être de tous les naturalistes français, brutalementla définition précédente.Or,
Buffon (1707-1788). Il vivait à une en réalisant l'expérience un grand
époque où les hommesde savoir s'illus- nombre de fois, on trouve une fréquence
traient dans plusieurs disciplines scien- plutôt proche de 14 pour cent que des 9
tifiques ou intellectuelles. pour centcorrespondantà 1/11.La raison
Bien avant que sa réputation se fût est que les « cas possibles » et les « cas
affirmée dans le domaine des sciences favorables » dénombrés doivent être, dit
naturelles, le premier mémoire qu'il Laplace, « également possibles », c'est-à-
publia en 1733 était consacréau Jeu de dire doivent avoir la même probabilité.
franc-carreau, sur lequel il revint en Cette définition contient une sorte de
1777 dans son Essai d'arithmétique cercle vicieux, puisque l'on définit la
1. BUFFONETLEJEU DE FRANC-CARRBAU.
morale. Voici sa description de ce jeu : On jette un écu au-dessus d'un pavage, etprobabilité par la probabilité. Dans la
« Dans une chambre parquetée ou les joueurs parient sur son point de chute pratique, on sort de ce cercle par des
:
pavée de carreaux égaux, d'une figure tombera-t-il sur un seul carreau (à franc- considérationsde symétrie : dans notre
quelconque, on jette en l'air un écu ; carreau), sur un joint, ou encore sur deux, exemple, si nos deux dés sont parfaite-
l'un des joueurs parie que cet écu, trois ou quatrejoints? ment équilibrés, chaqueface a autantde
chances d'apparaître. Donc deux dés
fournissent 36 cas : un avec le premier dé
et un avec le deuxième, un avec le pre-
mier dé et deux avec le deuxième et ainsi
de suite jusqu'à six et six. Sur ces 36 cas,
cinq cas donnent une somme de 6 (1 + 5,
2 + 4, 3 + 3, 4 + 2, 5 + 1), d'où la proba-
bilité du total de 6 : 5/36, soit environ
0, 1388...
2. POSITIONSFAVORABLES (en orange) du
Cette difficulté étant levée, les cal-
centre 0 de l'écu pour que celui-ci tombe à
culs de probabilités concernant les jeux franc-carreau ; d est le diamètre de l'écu, c
usuels de cartes, de dés, les jeux de est le cote du carreau.
casino, les loteries, etc. se ramènent à
3. LE JEUDE FRANC-CARREAU EST ÉQUITABLE lorsque la probabilité que la pièce tombe à
des dénombrements de cas dont le rap-
franc-carreau est égale a la probabilité du contraire. L'exigence d'équitabilité détermine le
port détermine la probabilité cherchée. rapport d/c du diamètre de la pièce à la longueur d'un côté. Nous avons calculéce rapport
Et ce, pour la raison que cas favorables dans le cas réguliers.
et cas possibles sont en nombre fini.
La probabilité continue
Les probabilités
composées
Triangles et paradoxes
1. Mesure de l'aire d'un étang par un tir de canon aléatoire. 2. Une étape du jeu des élections.
3. Franchissement de la porte par les zombies. Distribution des intervalles entre deux traversées, ou distribution de Poisson.
ment des intentions de vote, si l'on veut L'ensemble des opérations décrites ci-des- I'utilise pour obtenir les heures d'arrivee
suivre pas a pas !'état du corps électoral, sus est inclus dans une boucle. On a intérêt des dients. La méthode de la porte a zom-
on peut procéder à une élection, mais ce à définir le nombre maximal de répétitions bies est beaucoup plus facile à expliquer et
n'est pas indispensable. de la boucle comme un paramètre donne egalement des resultats réalistes.
Quand on fait évoluer ce modèle sim- variable, à la disposition de l'expérimenta- La porte à zombies est une fente de
pliste du corps électoral, il se passe des teur ; on peut l'appeler, par exemple, N et largeur I dans un mur impénétrable. Des
choses curieuses. Tout d'abord, on voit introduire la valeur de N à l'aide du clavier, milliers de zombies marchent continuelle-
apparaitre dans la grille de grands « fiefs » lorsqu'on lance l'exécution du programme. ment vers ce mur et on suppose qu'à
politiques, où tout le monde vote dans le Le jeu s'arrête alors automatiquement au chaque seconde, I'un d'eux atteint le mur
même sens. Ces blocs se déplacent à bout de N évaluations d'opinion. La même en un point aléatoire. Les zombies chan-
l'intérieur de la grille et pendant quelque remarque s'applique aux autres pro- ceux se trouvent alors en face de la porte
temps les deux tendances s'affrontent. grammes décrits dans cet article. et la franchissent, les autres se heurtent au
Enfin, le système bipartite s'effondre : tout On visualise facilement la carte électro- mur (voir la figure 2). Supposons que la
le monde vote de la même façon. Notre rale en incorporant les instructions corres- fente représente la porte d'entrée d'une
grille, totalement démocratique a l'origine, pondantes dans la boucle. II suffit d'utiliser banque : la distribution des instants d'arri-
est devenue totalitaire. Doit-on en conclure deux couleurs, par exemple le rouge et le vée des zombies qui réussissent à la fran-
que la démocratie contient le germe de sa bleu ; l'effet est très frappant. Si vous n avez chir, que nous appellerons des traversées,
propre destruction ? Voila une belle ques- pas été dégoûtés par révolution totalitaire ressemble beaucoup a la distribution des
tion philosophique. inhérente a ce jeu, je vous conseille de instants d'arrivée de clients reels dans la
On programme simplement les princi- mettre en oeuvre une version appelée le banque. Pour régler la fréquence
pales caractéristiques de ce modèle. Dans jeu de l'anti-vote. Dans cette nouvelle ver- moyenne des traversées à la valeur voulue,
un tel programme, la circonscription élec- sion, l'électeur tiré au sort adopte systémati- il suffit de faire varier la largeur de la fente.
torale est représentée par un tableau à quement l'opinion contraire de celle du voi- Dans mon programme de simulation
deux dimensions. Une brève séquence de sin sélectionné. La démocratie survit-elle des temps d'arrivée a ! a banque-simulés
calcul tire au sort trois entiers aléatoires, dans ces nouvelles conditions ? par les traversées des zombies-, la lon-
dont les deux premiers désignent la ligne gueur totale du mur est égale a une unité.
et la colonne de l'électeur choisi, et le troi- Zombies et distribution Pour simuler l'intervalle de temps écoulé
sième le voisin choisi parmi les huit. Cette de Poisson entre deux arrivées successives d'un zom-
séquence se répète à chaque unité de bie sur le mur, j'utilise une boucle qui
temps de l'horloge. Pour construire ces Le deuxième thème exploite un pro- commence par l'instruction WHILE,en fran-
trois nombres aratoires, il faut d'abord cédé appelé « la porte a zombies ». çais « tant que » (chaque exécution des ins-
multiplier par une constante le nombre Imaginez que vous surveilliez les gens qui tructions de la boucle représente une unité
décimal fourni par la fonction RND, puis franchissent la porte d'une banque. de temps, par exemple une seconde, dans
prendre la partie entière du resultat (fonc- Chaque client a sûrement de bonnes rai- le monde des zombies).
tion INT ou équivalent). Lorsque, par sons personnelles d'arriver a un instant À chaque passage dans la boude, l'ordi-
exemple, la grille possède 50 lignes, on précis et, si l'on connaissait ces raisons, on nateur fait appel à la fonction RND,qui déter-
calcule le numéro de ligne, i, à l'aide de saurait simuler exactement l'instant de son mine alors le point d'arrivée d'un zombie.
l'instruction : i F INT (50 * RND). arrivée. Cependant, cette information n'est Lorsque ce zombie n'arrive pas devant la
La même méthode permet d'obtenir le évidemment pas accessible et pour simu- fente, l'ordinateur augmente d'une unité la
numéro de colonne, j. Pour désigner au ler, malgré tout, l'arrivée des clients, beau- valeur d'un compteur et reprend l'exécution
hasard un voisin, on tire un entier aléatoire coup de programmes emploient une fonc- au début de la boucle. Ainsi, tant qu'aucun
entre 0 et 7 indus (n'oubliez pas de numé- tion mathématique particulière, appelée zombie n'arrive devant la fente, le « chrono-
roter les voisins). Enfin, on remplace la distribution exponentielle décroissante (ou mètre » -le compteur-tourne. Vous avez
valeur contenue dans la case (i, j) du distribution de Poisson). II me faudrait au intérêt, pour des raisons de commodité, a
tableau qui représente la grille par la valeur moins une page pour expliquer à la fois ce supposer que la fente se trouve entre le
lue dans la case voisine sélectionnée. qu'est cette distribution et comment on point 0 (à l'extrême gauche de la ligne) et le
point de coordonnée L En revanche, lorsque une boucle principale, et on insère le
la valeur du nombre aléatoire, c'est-à-dire la nombre de répétitions de cette boucle à
position du zombie, est comprise entre ces l'aide du clavier. La boucle commence par
deux valeurs, l'exécution du programme un branchement conditionnel qui compare
reprend a l'extérieur de la boude : le chro- les valeurs de ta et ts, c'est-à-dire déter-
nomètre s'arrête et l'ordinateur enregistre le mine la nature du prochain événement ou
temps écoulé entre deux traversées. événement critique : lorsque ta est infé-
Le délai moyen entre deux traversées rieur à ts, il s'agit d'une arrivée et sinon, il
successives est égal à 1/1 secondes. Par s'agit d'un départ.
exemple, pour/= 1/10, ce délai vaut Dans le premier cas, I'heure de c aug-
1/ (1/10) ; autrement dit, en moyenne, un mente de ta et ts est diminué de la même
zombie franchit la porte toutes les dix quantité. En outre, q augmente d'une
secondes. Cependant, comme le pro- unité, puisque la file comporte à présent
gramme donne une meilleure simulation un nouveau dient. Enfin, le programme fait
quand I est très petit les intervalles entre tra- appel au programme des zombies pour
versées successives risquent de devenir trop déterminer) la nouvelle valeur de ta, c'est-à-
longs. C'est pour cette raison qu'il peut être dire l'instant d'arrivée du prochain client.
utile, dans certains cas, de choisir une autre Si l'on avait trouvé, a l'entrée de la
unité de temps et de supposer, par boucle, que ta n'est pas inférieur à ts
exemple, que les zombies atteignent le mur (c'est-à-dire si le prochain événement avait
tous les dixièmes de seconde. été le départ d'un client), on aurait effectué
'Pour déterminer la valeur de l qui 4. Organigramme de simulation de les mêmes opérations, mais en permutant
simule bien le phénomène que vous voulez files d'attente. le rôle de ta et ts. Dans ce cas, le branche-
recréer, il vous suffit d'ecrire que le délai ment a l'issue du test provoque l'exécution
moyen souhaité entre deux traversées est des instructions correspondantes. La lon-
égal a 1/ (10l), puis en déduire la valeur de 1. théorie mathématique des files d'attente, la gueur de la file d'attente diminue (q
Je vous ai dit précédemment que vous pou- longueur moyenne d'une telle queue n'a devient q-1) et le programme des zom-
viez placer la fente entre les points 0 et l, pas de limite finie. Je l'ai d'ailleurs constaté, bies fournit la prochaine valeur de ts.
mais certains générateurs de nombres aléa- parfois, en faisant la queue dans une À la fin de la boucle, les deux branches
toires donnent parfois de mauvais résultats grande surface le samedi après-midi. de programme se rejoignent à un test sur
pour les très petites valeurs. Si c'est te cas, On peut écrire un programme de la valeur de q. Si q est nul, il faut attendre
vous pouvez recaler la fente, par exemple, simulation d'une file d'attente simple, où l'arrivée du client suivant pendant un
entre les points 0, 5 et 0, 5 +/. l'on simule l'arrivée des gens au moyen du temps égal a ta ; l'exécution repart donc
La distribution des délais entre traver- programme des zombies. Au début de la dans le segment correspondant au premier
sées consécutives fournie par ce pro- queue se trouve un employé chargé de branchement du test initial. Dans le cas
gramme est intéressante. Pour représenter servir les clients ou du moins d'essayer de contraire, t'exécution reprend au test initial
cette distribution, il suffit d'insérer la boucle le faire. Dans les programmes de simula- (qui compare ta et ts).
WHILE à l'intérieur d'une autre boude, qui tion, on adopte souvent l'hypothèse que Ce programme est plus long que les
compte combien de fois le délai est égal à les temps nécessaires au service des clients précédents, mais il est encore assez court
une des valeurs possibles (les valeurs pos- sont distribués de la même façon que les pour être qualifié de « facile ». Vous avez
sibles sont les multiples de l'unité de temps intervalles qui séparent l'arrivée de deux intérêt a vous laisser le loisir de spécifier,
choisie). Ce comptage vous permet de clients successifs. au début, le temps moyen écouté entre les
construire l'histogramme de la distribution. Cette hypothèse est raisonnable : il arrivées de deux clients successifs, ainsi
Sur la figure 2, on a représenté un histo- vous faut très peu de temps pour déposer que la durée moyenne de passage au gui-
gramme caractéristique ; on a également de l'argent au guichet d'une banque, mais chet ; cela vous facilitera la vérification des
dessiné la courbe représentative de l'expo- pour obtenir de l'employé des explications résultats essentiels de la théorie des files
nentielle décroissante caractéristique de la au sujet d'une somme d'argent qui a dis- d'attente.
Notamment, lorsque le temps
distribution de Poisson, pour faciliter la paru de votre compte, il vous en faut par- moyen entre deux arrivées est supérieur
comparaison. On peut imaginer beaucoup fois beaucoup plus. J'utilise donc aussi le au temps moyen de service, la longueur
d'applications de la méthode de la porte à programme des zombies pour déterminer moyenne de la queue est finie. Dans le cas
zombies. Je n'en citerai qu'une seule, a les temps de service des clients. contraire, la longueur moyenne de la
Le programme gère l'écoulement du infinie la voit effectivement
propos du troisième thème facile. queue est : on
temps par la méthode dite des événe- s'allonger sans cesse. Dans le cas où les
ments critiques. Une variable c joue le rôle deux moyennes sont strictement égales, la
Les files d'attente
d'horloge : sa valeur représente toujours longueur moyenne de la queue n'est ni
Ce dernier thème vous fournira l'heure du prochain événement, que ce finie ni infinie ! Comment est-ce possible ?
matière à réflexion lorsque vous serez obli- soit l'arrivée ou le départ d'un client. On a On peut trouver ta réponse en observant
gés d'attendre dans une queue. Si le également besoin de trois autres variables : la queue pendant quelques heures ou,
départ des premières personnes de la file ts, la durée du service en cours, to, le mieux, en réfléchissant quelques minutes.
s'effectuait, en moyenne, au même rythme temps d'attente avant l'arrivée du prochain
que l'arrivée des dernières, ta longueur de client et q, la longueur de la queue. Alexander Dewdney travaille au Département
la file ne serait-elle pas plus ou moins Au début du programme, ts et ta sont d'informatique de l'Université
constante ? Apparemment non. D'apres la nuls, et q vaut 1. Le programme comporte de l'Ontario occidental, au Canada.
LE HASARD MAITRISE
1. LES FLUCTUATIONS D'UNE VALEUR EN BOURSE sont extrême- (en lançant une pièce de monnaie) ; la loi de probabilité d'un tel
ment irrégulières. On compare ici l'évolution réelle de la valeur tirage au sort tend vers une loi de Laplace-Gauss. Cette loi ne
de la Livre Sterling en 1992 (en rouge) à l'évolution d'un tirage au décrit pas l'évolution du marché financier, où les fluctuations
sort (en bleu) : on a obtenu cette courbe en choisissant au hasard, d'une cote àsuivante
la peuvent être beaucoup plus grandes
a chaque pas, l'augmentation ou la baisse de la valeur d'une unité qu'une unité.
le contexte des options que le mathéma-
ticien Louis Bachelier a, le premier, for-
mulé ce qui allait devenir la théorie du
mouvement Brownien, en 1900, cinq
ans avant Einstein ! Il a cependant fallu
attendre 1973 pour que Fisher Black
(qui vient de disparaître) et Myron
Scholes expriment la solution complète
du problème, et donnent à des milliers
d'opérateurs une base rationnelle de
choix de stratégie.
Leur calcul est pourtant fonde sur une
hypothèse irréaliste, mais commode d'un
point de vue mathématique : ils suppo-
sent que les fluctuations des cours sont
« gaussiennes ». Nous avons dit que la
variation d'un actif peut prendre des
2. DEUX FORMESDU HASARD : la distribution de Laplace-Gauss (en bleu) et celle de Lévy. valeurs arbitraires continues dont il faut
Les fluctuations du marché gaussien sont « moyennes », et on les earaetérisepar un écart- estimer la probabilité. La loi de Laplace-
type. En revanche, un marché de Lévy est « calme », sauf quand il bouge beaucoup : Gauss, en forme de cloche, est la plus
les fluctuations importantes ont une probabilité non négligeable.
connue des lois de probabilité pour des
variables continues. Véritable « reine des
statistiques »,cette loi est universellement
Considérons une option d'achat sur le dollars à 4, 98 francs, elle peut en utilisée, en finance comme ailleurs !
dollar à cinq francs. Une entreprise qui reverser à l'acheteur de l'option sans Une caractéristique remarquable de
importe des biens facturés en dollars a perte. La couverture des options cette loi est la rapidité de sa décrois-
intérêt à ce que le cours du dollar reste nécessite une approche financière spé- sance quand on s'écarte de son centre,
bas. Elle peut acquérir une option cifique, et requiert une modélisation ce qui signifie que les grandes dévia-
d'achat qui l'assure contre la hausse du de la forme du hasard. tions sont rares-tellement rares que si
dollar au-dessus du prix d'exercice de les cours étaient réellement gaussiens, le
l'option (cinq francs dans l'exemple, Le hasard gaussien krach de 1987 (et beaucoup d'autres
voir la figure 3). Si le dollar reste sage- plus petits dont la mémoire collective
est bénin
ment au-dessous de cette limite, l'assu- n'a pas retenu l'occurrence) n'aurait pas
rance contractée ne sert pas. En Le problème de l'appréciation et de dû exister, même si la première place
revanche, si le prix du dollar augmente la couverture des options est remar- boursière avait été ouverte par Lucy.
brutalement, la société importatrice quable : il est à la fois bien posé et non Dès 1962, Benoît Mandelbrot signalait
ayant acheté les options n'en supporte trivial, même si l'évolution du cours est que la loi de Laplace-Gauss sous-estime
qu'une partie des conséquences : la imprévisible... C'est précisément dans considérablement les risques extrêmes ;
hausse limitée à cinq francs. selon son expression, le hasard gaussien
L'extraordinaire explosion du mar- est « bénin »(voir Hasard bénin, hasard
ché des options tient au fait que bon sauvage, par Benoît Mandelbrot, dans ce
nombre de ces options sont devenues dossier). Il a alors proposé une descrip-
« négociables », c'est-à-dire reven- tion d'un hasard « malin », que nous
dables à tout moment à un tiers. Si exposerons plus loin.
l'entreprise décide de ne plus se proté- Malgré cet avertissement maintes
ger contre la hausse du dollar (elle fois répété, la loi de Laplace-Gauss a la
estime par exemple que le dollar va peau dure. Elle présente l'avantage de
baisser), elle peut revendre l'option et procurer un formalisme extrêmement
encaisser la prime correspondante. puissant-celui du calcul différentiel
Sur l'option proprement dite, la stochastique, qui généralise à des pro-
question qui se pose est double : sur cessus aléatoires le calcul différentiel
quel prix doivent s'entendre les parties ordinaire. Grâce à ce formalisme,
contractantes ; quelle stratégie doit l'obtention de la formule de Black et
suivre l'émetteur de l'option (« I'assu- Scholes pour le prix des options est
reur ») en fonction du mouvement du assez aisée. En outre, la loi gaussienne a
cours ? À la différence des compagnies 3. L'OPTION D'ACHAT est ici une assu- une vertu particulière, la stabilité : à un
d'assurances, qui ne peuvent rance contre les hausses trop fortes d'une changement d'échelle près, les fluctua-
qu'attendre la catastrophe en prodi- valeur. Par exempleune option sur le dollar tions horaires, quotidiennes, hebdoma-
à cinq francs permet de s'affranchir du sur-
guant des conseils de prudence, l'éta- coût conséquent à une hausse du prix du
daires, mensuelles, etc. sont toutes
blissement bancaire émetteur de décrites par la même loi. Cette stabilité,
dollar au-dessus de cinq francs (courbe
l'option a intérêt à réagir avant que le rouge). Lorsque le prix du dollar reste sous directement liée au théorème « central
cours n'ait dépassé sa valeur fatidique. la barre des cinq francs, l'assurance limite », est l'argument souvent avancé
Si la banque parvient à acheter des contractéene sert pas (courbe verte). pour justifier l'utilisation de statistiques
gaussiennes (voir La loi normale, reine
des statistiques, par Aimé Fuchs, dans
ce dossier). Plus que la normalité des
distributions des rentabilités boursières,
leur stabilité est une propriété indispen-
sable à la théorie financière moderne.
Ainsi c'est surtout parce qu'elle appar-
tient à la famille des lois stables que la
loi de Gauss présente un grand attrait
pour la théorie financière.
Le résultat de Black et Scholes est à
la fois remarquable et troublant : dans un
monde gaussien, l'émetteur de l'option
peut suivre une stratégie « idéale », oùle
risque est strictement nul. Les mouve-
ments de la valeur sur laquelle porte
l'option ont beau être imprévisibles, on 4. EXEMPLE DE DISTRIBUTION HIÉRARCHISÉE. En dix ans, la valeur de l'indice S&P500 a
peut gérer un portefeuille contenant à la augmenté de 16, 2 pour cent par an en moyenne.Cette hausse résulte d'un mouvement aléa-
fois cette valeur et l'option correspon- toire : certains jours ouvrables se terminent en hausse, d'autres en baisse,
avecune amplitude
dante de façon à annuler l'incertitude sur variable. On s'aperçoit que très peu de jours contribuent à la performance totale de l'indice
;
le résultat global ! ainsi, 80 pour cent de la performance totalede l'indice résulte des 40 meilleurs jours (pour
lesquelsla haussede l'indice a été la plus importante), soit a peine 1,6 pour cent des 2 526
jours ouvrables. Or ces 40 jours de forte variation du marché ne sont pas pris en compte par
Le hasard financier
une descriptiongaussiennedu hasard ; ils correspondent aux queues épaisses de Pareto.
est bien plus malin !
Hélas, cette belle construction se Curieusement, la même réticence a Dans tous ces cas, le cumul des
lézarde dès qu'on cherche à décrire de longtemps entravé l'utilisation des lois contributions des éléments classés par
façon plus réaliste les fluctuations de de Lévy en physique. Finalement, celles- importance suit une loi de puissance.
grande amplitude, qui correspondent ci se sont imposées par l'expérience. De Les premiers éléments contribuent
aux « queues » de distributions. Nous nombreux travaux théoriques ont en beaucoup plus que les suivants : les
avons vu que ces « chocs »ont une pro- outre éclairé la nature et la signification grandes valeurs de la distribution repré-
babilité négligeable dans le cas d'une de cet écart-type infini. La proposition sentent l'essentiel de la valeur totale.
distribution de Laplace-Gauss. Pourtant de B. Mandelbrot (certes quelque peu À cette statique parétienne correspond
ils existent, et leur présence empêche la amendée) a été confirmée ces dernières une dynamique parétienne : les varia-
construction d'une stratégie à risque années. Ainsi le hasard peut devenir tions d'un marché, semblent aussi hié-
nul. On doit alors définir une stratégie à « malin », ou « sauvage »les; fluctuations, rarchisés selon une loi de puissance de
risque résiduel minimal-stratégie opti- tempérées dans le cas gaussien, sont par- type Pareto (au moins dans une certaine
male caractéristique de la distribution fois extrêmes et catastrophiques. gamme de variations). L'omniprésence
statistique des fluctuations. À quelle réalité la forme du hasard des lois de puissance en économie pose
Quelle distribution de probabilité financier correspond-elle ? Les queues d'ailleurs une question intéressante :
décrit-elle fidèlement les risques de distribution des lois stables non gaus- que signifie l'émergence spontanée de
extrêmes dans les marchés financiers ? siennes appartiennent à la famille des telles structures hiérarchisées dans les
B. Mandelbrot a proposé d'utiliser des lois de puissance de type Pareto (du activités humaines ?
lois stables non gaussiennes, que Paul nom de l'économiste italien Vilfredo Les lois stables non gaussiennes de
Lévy a découvertes dans les années 1930. Pareto, mort en 1923). B. Mandelbrot Paul Lévy présentent des queues de dis-
Ces lois décroissent lentement et rendent avait d'ailleurs nommé « parétien » le tribution parétiennes. Elles décrivent
compte des « queues épaisses » observées hasard sauvage, par opposition au par conséquent, de manière réaliste, le
sur les marchés. En fait, elles décroissent hasard gaussien. Or les lois de Pareto comportement des marchés. Cependant,
si lentement que l'écart-type, qui mesure expriment l'observation connue selon avec ces lois, l'écart-type n'est plus la
généralement l'amplitude des fluctua- laquelle « trèspeu possèdent beaucoup et bonne mesure du risque. On le remplace
tions, est... infini ! Cette divergence a beaucoup possèdent très peu ». Dans un par la probabilité d'une perte d'ampli-
perturbé bon nombre d'économistes, univers parétien, les contributions des tude donnée, ou probabilité de risques
pour qui l'écart-type était une notion fon- individus à la collectivité sont extrême- extrêmes. Ainsi, on ne pourra maîtriser
damentale. Elle a également effrayé les ment hiérarchisées. Cette loi est souvent ces risques extrêmes qu'après une révi-
financiers, qui fondaient toutes leurs observée en économie : ainsi quelques sion des théories classiques de la
techniques de couverture de risques sur la jours de bourse contribuent à l'essentiel finance. L'enjeu est de taille : mieux
mesure de la volatilité (égale à l'écart- de la performance de l'indice S&P500que toute régulation dirigiste, une
type). Une volatilité infinie représentait de la bourse New-Yorkaise (voir la meilleure appréciation des risques
alors un obstacle intellectuel majeur, un figure 4) ; un petit nombre d'entreprises financiers et donc des coûts qui leur
monstre dans la galerie des instruments contribue à la plus grosse part du cumul sont associés pourrait augmenter la sta-
financiers à risque (faussement !) des chiffres d'affaires ; ou encore, la bilité des places financières, encore
contrôlé. Du coup, la proposition de plupart des disques d'or vendus sont sous le coup des quelques débâcles
B. Mandelbrot a eu du mal à s'imposer. produits par quelques artistes. retentissantes de ces dernières années.
UNE STRATÉGIE ALEATOIRE votre choix. La probabilité qu'Andromède
soit dans la caveme du milieu est un tiers,
n'est-ce pas?
SURPRENANTE -C'est ce que vous m'avez dit.
-Bien. De sorte que la probabilité
d'être dans l'erreur est le double de celle
d'être dans le vrai. La probabilité que vous
lan Stewart
ayez raison est 1/3 et celle que vous ayez
tort est 2/3. D'accord?
Pie-gasemégalovolante, l'énorme pie
voleuse, vous révéler sansrisque. -Bien sûr!
se posa en douceur sur le -Si vous insistez. Je choisis... que... -Nous savons que vous avez deux
bras de Persée,fils de Zeus et de Danaé.Le Andromède est dans la caverne du milieu. fois plus de chancesd'avoir tort que d'avoir
malheureux roi de Tirynthe recherchait la -Excellent, dit la pie. Je puis, à présent, raison. Si vous changez pour l'autre
belle Andromède. vous dire qu'il y a une gorgone dans la caveme,vous aurez deux fois plus souvent
- « Bizarre, dit-il à Pie-gase, je
pensais la caveme de gauche. » Persée jeta son glaive raison que tort. En d'autres termes, votre
trouver enchaînée àun rocher. sur le sol pour trépigner plus aisément. probabilité de localiser Andromède est de
-Je gage qu'elle l'est, dans une de ces — « Enquoi cela m'aide-t-il ? 2/3 si vous changez et seulement de 1/3 si
trois cavemes,dit Pie-gase. -Je pense que cette information pour- vous ne changez pas. » Persée s'affaissasur
-Horreur, s'exclama Persée, les rait vous inciter a changer d'avis. le sol, la têtedans sesmains.
obstruées par des rochers! -Pourquoi donc? II y a nécessairement ¿)
entréessont - « pie perfide, vous savez combien
-Attachez le ceinturon magique une gorgone dans au moins une des les héros ont peu de goût pour les mathé-
d'Hippolyte a ma queue, d'un côté, et à un cavemesque je n'ai pas choisie.En quoi me matiques! Comment puis-je savoir si votre
rocher, de l'autre, et Sésamecherra,affirma serait-il utile de choisir la caveme de droite raisonnement est correct?
Pie-gase. si vous me dites seulement qu'il y a une -Vous pourriez essayerde prendre un
-D'accord, dit le héros. Commençons gorgone dans la caverne de gauche? Ce avis autorisé, suggéra la pie.
par la première caverne. que j'ai besoin de savoir, c'est dans quelle -Non ! Les chances doivent être
-Attention : vous oubliez quelque caveme se trouve Andromède ! égales. Vous avez éliminé une caverne ; il
chose,grommela la pie ! -Ainsi vous maintenez votre choix? m'en reste donc deux, parmi lesquelles je
-Quoi encore, ô pie rogue ? -Et pourquoi pas? Tout ce que vous dois choisir. Chacune est également pro-
-Andromde est dans une caverne, avez fait est de restreindreles possibilités.Je bable!
mais dans chacune des deux autres il y a sais a présent qu'Andromede est, soit dans -Ce n'est pas dans cet ordre que nous
une gorgone : dans rune Méduse, et dans la caverne du milieu, soit dans celle de avons opéré »,murmura la pie. Puis, elle
l'autre Sthéno, sa soeur jumelle, qui ont droite. La chance pour qu'elle soit dans celle ajouta a haute voix :- « Tant pie, vous avez
toutes deux le pouvoir de vous changer en que j'ai choisie ou dans celle de gauche, raison. Faitescomme bon vous semble!
pierre d'un simple regard. c'est 50-50. 11n y a donc aucun avantage a -C'est bien mon intention, affirma
-J'ai mon fidèle bouclier d'or, pour changer. Persée.II attacha la pie au rocher du milieu
renvoyer tout regard pétrifiant gorgonien à -Faites comme vous voulez, dit Pie- avec la ceinture magique d'Hippolyte. Le roc
sa propriétaire,répliqua Persée. gase, seulement... roula, libérant l'ouverture, et...
-Trop rouillé pour être efficace; heu- -Seulement quoi, cria Perséeexaspéré
reusement, nous les pies géantes, nous et qui se dirigeait vers la cavemecentrale? Faites
Je parie àvos jeux, Mesdames et Messieurs!
avons des pouvoirs cachés que nous a -Seulement vous auriez deux fois plus 3 contre 2 que Persée a tort.
conférés la déesse Déméter. Je sais dans de chancesd'être dans le vrai en changeant S'il est vrai que les chances de succèssont
quelle cavemeest Andromède. égales pour l'une ou l'autre
-Merveilleux ! Alors caverne, alorsvous gagnerez en
dites-le moi ! moyenne, mais bien sur, si la
-Par malheur, nous avons pie a raison, et si les chances
juré le secret et, si nous révé- d'échecsont de 2 contre 1, alors
lons notre savoir caché, la vous perdrez en moyenne. Et je
déesse Déméter nous entéri- serai heureux d'effectuer autant
nera (c'estson mot pour mettre d'essais que vous voudrez.
en terrine dans une amphore, à Rappelez-vousla regle :
20 mètres sous terre, et pour -Andromède est dans
l'éternité).Pie-gaseréfléchit l'une des cavernes. La probabi-
- « Malgré tout, je peux lité qu'ellesoit dans une caveme
vous aider. donnée est 1/3, quelle que soit
-Comment ? la caveme.
-D'abord, je peux vous - Persée choisit une
dire que la probabilité caveme.
qu'Andromède soit dans une -La pie désigne une des
quelconque des cavemesest un deux autres cavernes et lui dit
tiers. À présent, vous pouvez (sans mentir) qu'elle abrite une
choisir une caveme et nous ver- gorgone.
rons alors ce que je pourrai 1. Persée, qui cherche Andromède, est conseillé par Pie-gase. -Alors Persée peut choisir
I'autre caveme. S'il conserve son choix ini- dansRécemment ce problème fit grand bruit «11y a assez de gens qui ignorent les
tial, je parie a 3 contre 2 qu'il a tort : ainsi, si les journaux américains. Une mathématiques de par le monde ; aussi
Andromede est dans la caveme choisie par dame nommée Marilyn vos Savant, qui n'est-il pas nécessaire que le Ql le plus
Persée, je vous donne 3 francs, mais si c'est apparait dans le livre Guinness des Records élevé contribue a ta propagation de l'igno-
une gorgone, vous me donnez 2 francs. du Monde comme ayant le plus grand Ql rance. Honte sur vous ! »
Acceptez-vous l'arnaque ? Inscrivez jamais enregistré, tient une chronique « Votre réponse est incorrecte, mais si
votre décision sur un morceau de papier. régulière appelée Demandez à Marilyn, qui cela peut vous consoler, beaucoup de
Les chances de Persée sont-elles 1/2, qu'il parait simultanément dans plusieurs cen- mes collègues universitaires ont donné,
change ou non son choix (c'est ce qu'il taines de journaux américains. Marilyn comme vous, une réponse idiote ! »
pense) ou sont-elles de 2/3 s'il change et de posait la même question, mais, au lieu de Ce a quoi Marilyn répliqua que sa
1/3 sinon (comme la pie l'affirme) ? Si Persee cherchant Andromède, elle décrivait réponse était correcte. On a représenté
Persée a raison, vous gagnez ; si la pie a rai- un candidat d'un jeu télévisé qui devait sur la figure 3 une des diverses justifica-
son, je gagne. choisir une porte parmi trois. Derrière l'une tions qu'elle proposa. Supposons (pour
11est facile d'écrire un programme d'elles est le premier prix-une voiture et, simplifier le raisonnement) que vous choi-
d'ordinateur qui simule le problème et de derrière les deux autres, sont des caram- sissiez la caverne 1. II y a alors trois possi-
l'exécuter un grand nombre de fois en bars. Quand le candidat a choisi, le présen- bilités, chacune également probable
comptant combien de fois Persée gagne et tateur désigne une des deux portes res- puisque, comme la pie nous l'a dit, la pro-
combien de fois il perd. Peut-être aimeriez- tantes et dit : « Il y a un carambar derrière babilité qu'Andromède soit dans
vous tenter la simulation avant de pour- celle-ci. » Le candidat doit-il alors changer n'importe quelle caverne est la même
suivre ? Je vais vous décrire un programme pour la troisième porte ? Marilyn expli- quelle que soit la caveme. Les caractères
analogue où, au lieu d'utiliser un ordinateur, quait, tout comme Pie-gase que les en rouge désignent quelle caverne (ou
on utilise une table standard de nombres chances de gagner la voiture étaient multi- quelles cavernes) la pie peut désigner. Les
aléatoires (par exemple, la suite des déci- pliés par deux s'il changeait son choix. résultats sont indubitables : la stratégie de
males de # ou les Cambridge Elementary Citons quelques lettres de lecteurs, tous Persée gagne une fois sur trois, la ou celle
Statistical Tables). Voici la méthode. Seuls universitaires ou appartenant à des instituts de la pie gagne deux fois sur trois.
les chiffres 1, 2 et 3 seront utilisés, un de recherche : II y eut de nouvelles lettres :
chiffre correspondant à une caveme. Ces « Vous vous êtes fourvoyée ! En tant « Votre réponse est, à l'évidence,
chiffres 1, 2, 3 sont les seuls « acceptables ». que mathématicien professionnel, je suis contraire à la vérité. »
Je parcours la table des nombres aléatoires, très concerné par l'absence générale de « Pourrais-je vous suggérer de vous
notant les chiffres acceptables dans l'ordre sens mathématique du public. De grâce procurer un manuel standard sur les pro-
où ils apparaissent. confessez votre erreur et, à l'avenir, soyez babilités avant d'essayer de répondre a
1.Le premier chiffre acceptable A déter- plus perspicace ! » une question de ce type ? »
mine dans quelle caverne se trouve
Andromède.
2. Le second chiffre acceptable B déter-
mine le choix de Persée.
3. Le chiffre acceptable suivant C, diffé-
rent de A et de S, détermine ce que la pie
dit a Persée. II doit indiquer une caveme
abritant une gorgone (donc C n'est pas )
parmi celles que Persée n'a pas choisies
(donc C n'est pas B). Remarquez que A et
B peuvent être égaux, auquel cas la pie
choisira à son gré une des deux cavernes
abritant les gorgones.
4. En supposant que Persée maintient
son choix, notez s'il a raison ou tort
5. Pour comparer, supposez qu'il a
tenu compte de t'avis de la pie et opté
pour l'unique caverne autre que B et C ;
notez, d'autre part, si le choix corrigé
est correct.
6. Allez au chiffre acceptable qui suit
et répétez toute la procédure.
Nous avons fait le test (voir la figure 2) :
si la stratégie de Persée est de ne pas chan-
ger, il a raison 6 fois et tort 14 fois. S'il se
range à l'avis de la pie et modifie son
choix, il a raison 14 fois et tort 6 fois. La
pie doit être dans le vrai : il est préférable
de changer ! Le résultat est si contraire à
l'intuition que nombre de personnes
l'acceptent difficilement. 2. Résultats des tactiques de Persée obtenus avec une table de nom
Supposons que Persée s'en tienne à une
stratégie « choix maintenu ». Dès lors, il ne
peut modifier cette probabilité puisqu'il ne
fait rien. Donc l'idée que ses chances sont
50-50 est définitivement incorrecte. Et avec
un million de cavernes, la stratégie « choix
maintenu* ne lui donne qu'une chance sur
un million d'avoir raison.
Admettez-vous que, si Persée a tort, et si
la pie réduit ! es probabilités restantes a une
seule autre caveme, alors Persée aura raison
de changer son choix ? Une fois encore, je
l'espère. Andromède est bien quelque part.
Elle n'est pas dans une caveme désignée par
la pie et, si Persée a tort, elle n'est pas non
plus dans celle qu'il a choisie. Dans ce cas,
chaque fois que la stratégie « choix main-
tenu » mène à une mauvaise caveme, la stra-
tégie « choix modifié » doit conduire à la
bonne. De sorte que la probabilité que la
3. La stratégie où Persée modifie toujours son choix est meilleure. stratégie « choix modifié » soit gagnante est
1-1/3 = 2/3. Avec un million de cavemes,
« Combien vous faut-il de mathémati- Que jugez-vous plus vraisemblable : la probabilité que la stratégie de la pie soit
ciens courroucés pour vous faire changer Persée a choisi la bonne caverne (une gagnante est de 0, 999999.
d'avis ? » chance sur un million) ou ce n'est pas la Dire les choses avec d'autres mots est
Au total, 92 pour cent des lettres de bonne, et le comportement de la pie nous parfois intéressant. La pie donne a Persée
non-spécialistes donnaient tort à la pie et donne une indication autrement plus fiable ? une information utile : elle indique une
il en était de même de 65 pour cent des Si vous ne croyez ni les démonstrations, ni caverne où Andromède n'est pas. Persée
lettres provenant des universitaires. Qui les expériences, ni les analogies, ni les doit utiliser cette information pour amélio-
donc avait raison ? Marilyn vos Savant et contre-exemples, que vous faut-il donc ? rer ses chances : c est a quoi sert l'informa-
la pie, ou Persée et plusieurs milliers de tion ; mais il n'utilise pas cette information
personnes ? Revenons a nos expériences Ceproblème
La difficulté vient est amusant, n'est-ce pas ? s'il maintient son choix, puisque ce choix a
statistiques. Vous pourriez estimer que de ce que nous trai- été fait avant que l'information soit acces-
20 essais ne suffisent pas a prouver le tons de probabilité conditionnelle : la proba- sible. Cela ne prouve pas qu'il doive chan-
résultat. Aussi tentons un essai plus sub- bilité qu'un événement se produise sachant ger son choix, mais implique que la straté-
stantiel. Je vais vous communiquer mes qu'un autre événement s'est déjà produit. gie « choix toujours maintenu » ne saurait
résultats ; doutez de leur véracité si vous L'intuition est mauvaise conseillère pour les être la meilleure.
voulez, mais si vous écrivez votre propre probabilités conditionnées : le point impor- Et si vous ne me croyez toujours pas,
simulation, suivez bien l'ordre prescrit tant est que le choix d'une caveme par la trouvez un ami et essayez avec un mor-
des événements. Si vous introduisiez des pie dépend du choix de Persée. Si Pesée a ceau de sucre dans le rôle d'Andromède,
raccourcis, vous pourriez bien être à côté raison, alors la pie peut choisir entre les et des tasses dans les rôles des cavernes.
de la question. deux autres cavemes, mais si Persée a tort Jouez une stratégie sur 100 coups, puis
Je traitai le problème sur un ordinateur (ce qui est deux fois plus probable), alors la adoptez l'autre. Pour comparer, demandez
en 100 000 épreuves. La stratégie de pie n'a qu'un seul « choix ». a votre ami de vous révéler une tasse vide
Persée fut gagnante 33 498 fois et per- L'argument selon lequel, avec deux avant que vous ne choisissiez : cette fois,
dante 66 502 fois. Les probabilités corres- cavernes restantes, Andromède a autant de vos chances seront 50-50.
pondantes de 0, 33498 et 0, 66502 sont chances d'etre dans l'une que dans l'autre « Lorsque la réalité heurte si violem-
suffisamment proches des valeurs 1/3 et serait correct si la pie choisissait en premier ; ment l'intuition, continue Marilyn, les gens
2/3 prévues par la pie pour lui donner rai- il est faux si son choix dépend de ce que sont choqués. » Le plus terrible est que le
son : les vérités mathématiques ne résul- Persée a déjà choisi : dans cet exemple, problème n'est pas nouveau : un pro-
tent pas d'un vote démocratique. l'ordre des choix importe, phénomène fré- blème équivalent se trouve dans le Calcul
Toujours sceptique ? Marilyn proposa quent avec les probabilités conditionnelles. des probabilités de J. Bertrand, publié en
un argument final qui pourrait vous En fait, bien examiné, le problème 1889. Il est connu comme Paradoxe de la
convaincre. Supposez qu'il y ait un million est très simple. Non seulement la pie a la Boîte de Bertrand.
de cavernes, dont une occupée par bonne stratégie, mais encore elle a le Un point me vient à i'esprit Si la for-
Andromède. Persée choisit celle numéro 1. bon raisonnement. Revoyons-le encore mation des mathématiciens professionnels
La pie en indique alors 999 998 des une fois, très lentement. Admettez-vous comportait un cours de mathématiques
autres qui contiennent chacune une gor- que, lorsque Persée fait le choix initial dites amusantes, cela pourrait éviter que
gone. Rappelez-vous que la pie sait où est d'une caverne, la probabilité qu'il ait rai- certains d'entre eux soient si redoutable-
Andromede, et qu'elle ne peut donc dési- son est de 1/3 ? Je l'espère, puisque c'est ment solennels tout en pensant si mal.
gner cette caverne. Vous observez sur plu- une des hypothèse du problème (ta pie
sieurs essais que la pie évite soigneuse- nous a informés que les cavernes étaient Ian Stewart enseigne
ment la caverne numéro 777 777. équiprobables). les mathématiques à l'Université de Warwich.
Le paradoxe de Stein
4. UN PROBLÈMEEN STATISTIQUES est de déduire la moyenne schéma ci-dessusne peuvent correspondre a une distribution nor-
vraie et l'écart-type de la distribution associée à un ensemble de male ayant une moyenne de 6,5 alors que les cinq points sont de
données. Même si l'on sait que la distribution est de type « nor- plus de deux écarts-typesau-dessus de la moyenne. On peut mon-
male » et que l'écart-type vaut 1, la moyenne peut-en principe- trer que les donnéescorrespondent plus vraisemblablement à une
prendre n'importe quelle valeur. Certaines valeurs sont cependant distribution dont la moyenne est égale a la moyenne des données
plus probables. Par exemple, les cinq points x indiqués sur le observées,soit 9,6.
Que peut-on tirer de ces équations,
en ce qui concerne le comportement de
l'estimateur ? Le procédé de James-
Stein présuppose que toutes les
moyennes inobservables sont voisines
de la moyenne globale Y. Si les données
confirment cette supposition, c'est-à-
dire si les moyennes observées ne sont
pas trop éloignées de Y, on rapproche
les estimations individuelles de la
moyenne globale. Si la supposition est
infirmée, alors on ne fait plus guère de
« rapprochement ».
Le facteur de rapprochement c est
ajusté, en fonction de la distribution des
moyennes autour de la moyenne globale
Y, par l'équation précédente. Le nombre
de moyennes estimées influe aussi sur
le facteur de rapprochement, par l'inter-
médiaire du terme (k-3) qui apparaît
dans la même équation. S'il y a beau- 5. DIVERS ESTIMATEURS d'une seulemoyenne vraie #, peuvent être évalués au moyen
coup de moyennes, t'équation rend le d'une fonction de risque. Le risque est défini comme la valeur probable du carré de l'erreur
rapprochement plus fort puisqu'il est d'estimation, considéré comme fonction de la moyenne #. La moyenne arithmétique X des
alors peu vraisemblable que les varia- donnéesx est un estimateurdont la fonction risque est constante : quelle que soit la valeur
de la moyenne vraie, la valeur probable du carré de l'erreur est la même. La médiane de
tions observées représentent de simples
l'ensemble des données a aussi un risque supérieur
constant, mais(par
il estun fa
par
fluctuations dues au hasard.
teur de 1,
57) au risque associé de la moyenne arithmétique. La moitié de la moyenne arith-
La valeur de c étant calculée ainsi, metique (X/2) est un estimateur dont le risque dépend de la vraie valeur de la moyenne ; le
la fonction de risque, pour l'estimateur z risque estminimum quand la moyenneest voisine de zéro et augmenterapidement a mesure
de James-Stein est inférieure à celles que la moyennes'éloigne de zéro. Pour l'estimation d'une seule moyenne, aucun estimateur
des moyennes y associées à chaque n'a unefonction de risque en tout point inférieure à celle de la moyenne arithmétique X.
échantillon, quelles que soient les
valeurs réelles des moyennes #. Le
risque peut être considérablement
moindre, en particulier quand le nombre
de moyennes dépasse 5 ou 6. Pour ces
estimateurs de Stein z, la fonction de
risque n'est pas constante pour toutes
les valeurs de la moyenne vraie 0, alors
qu'elle est constante pour les moyennes
individuelles y observées. Le risque de
l'estimateur de James-Stein est mini-
mum quand toutes les moyennes sont
égale. Lorsque les moyennes vraies
s'écartent les unes des autre, le risque
de l'estimateur augmente, se rappro-
chant de celui des moyennes observées,
mais ne l'atteignant jamais tout à fait.
Comparé aux moyennes arithmétiques,
l'estimateur de James-Stein n'est vérita-
blement meilleur que si les moyennes
vraies sont voisines ; l'hypothèse ini-
tiale se trouve ainsi confirmée. Ce qui
est surprenant, c'est que l'estimateur
fasse toujours un peu mieux, quelles
que soient les moyennes vraies !
L'expression de l'estimateur de
James-Stein que nous avons utilisée rat-
6. LA FONCTION DE RISQUE TOTAL, pour les estimateurs de James-Stein, est en tout point
tache toutes les moyennes observées de
inférieure à celle des moyennes individuelles observées, à condition que le nombre de
la moyenne globale Y. Ce procédé n'est
moyennesestimées soit supérieur à deux. Dans le cas représenté sur cette figure, il y a dix
pas le seul possible. D'autres expressions moyennesinconnues. Le risque est minimum quand toutes les moyennes sont regroupées
de l'estimateur écartent complètement Y.
en un même point. Lorsque les valeurs des différentes moyennes s'écartent les unes des
Mais on ne peut éviter l'hypothèse ini- autres, le risque associé aux estimateurs de James-Stein augmente. Ce risque associe se
tiale, plus ou moins arbitraire, qui est à rapproche de celui des moyennesobservées,sans toutefois jamais l'atteindre tout à fait.
l'origine de l'estimateur. On notera que sies dans des groupes d'importance type implique une incertitude impor-
les moyennes observées ne dépendent variable, dans 36 villes, ont subi les tante quant au résultat de la mesure. Si
pas d'un choix d'origine. Avant que tests de dépistage de la toxoplasmose. la fréquence relative mesurée est inhabi-
Stein ne découvre sa méthode, on sentait Par commodité, on exprime la fré- tuellement grande, il est plus raison-
que de tels estimateurs « invariants » quence observée dans chaque ville par nable d'attribuer ce fait aux variations
devaient être préférables à tous ceux rapport à la fréquence nationale (c'est- aléatoires liées à la distribution normale
dont les prévisions varient en fonction du à-dire la moyenne globale Y). Par qu'à une valeur réellement grande de la
choix de l'origine. La théorie de l'inva- exemple, une fréquence relative de 0, 05 moyenne vraie 0. Il convient alors de
riance, à laquelle Stein a pourtant large- indique une ville où la fréquence de la réduire cette valeur de la fréquence rela-
ment contribué, fut fortement ébranlée maladie surpasse de cinq pour cent la tive, en lui appliquant un facteur de rap-
par le contre-exemple de James-Stein. moyenne nationale. Les fréquences prochement faible.
Du point de vue mathématique, c'est mesurées ont une distribution à peu près On peut renforcer cet argument en
l'aspect le plus gênant du théorème de normale. On connaît les écarts-types, reprenant l'exemple du baseball. Frank
Stein. Le paradoxe n'a sans doute pas été mais ils varient de ville en ville en rai- O'Connor jouait pour Philadelphie pen-
découvert plus tôt à cause d'un préjugé : son inverse de l'importance de l'échan- dant la saison de 1893. Pendant sa car-
on croyait que le problème de l'estima- tillon de population testé. C'est au sta- rière en première division, il fit deux
tion, qui ne faisait référence à aucune tisticien d'estimer la moyenne vraie de essais à la batte, tous deux réussis. Sa
origine particulière, devait être résolu de la distribution pour chaque ville, en moyenne observée est égale à 1. La
la même manière. fonction de la fréquence relative mesu- règle de James-Stein, obtenue avec les
rée y (et rapportée à la moyenne Y). 18 joueurs considérés plus haut, estime
Les statistiques L'expression appropriée de l'esti- sa capacité réelle à la batte à :
de la toxoplasmose mateur de James-Stein est dans ce cas 0, 265 + 0, 212 (1-0, 265) = 0, 421
z = cy. Notre choix de l'expression de la (sans tenir compte de l'impact de la
Dans les applications de la méthode fréquence relative y par rapport à la nouvelle donnée sur la moyenne globale
de Stein, on étudie des ensembles com- moyenne nationale Y permet cette sim- et sur le facteur de rapprochement).
prenant un grand nombre de données, plification : la moyenne globale Y est Cette estimation est ridicule, mais don-
avec beaucoup de paramètres inconnus, nulle, et par conséquent, les termes ner une valeur I aux possibilités à la
certaines difficultés, ainsi que le potentiel contenant Y disparaissent de l'équation. batte de O'Connor l'est aussi ! Une
pratique de la méthode, sont illustrés par En revanche, la méthode d'estimation moyenne parfaite, après deux coups à la
l'exemple suivant : l'analyse de la répar- est maintenant compliquée par le fait batte n'est pas du tout incompatible
tition de la toxoplasmose au Salvador que le facteur de rapprochement c varie avec une valeur réelle de la moyenne
(Amérique centrale). La toxoplasmose selon les villes en fonction inverse de comprise entre 0, 242 et 0, 294 (obtenue
est une maladie du sang, endémique dans l'écart-type (sur y) associé à chacune pour les autres joueurs). Le facteur de
une grande partie de l'Amérique centrale d'elles. Cette dépendance du facteur de rapprochement-la constante c-appli-
et dans d'autres régions tropicales. Au rapprochement de l'écart-type peut être qué à la moyenne d'O'Connor, devrait
Salvador, 5 000 personnes environ, choi- analysée intuitivement. Un grand écart- être plus sévère, afin de compenser le
petit nombre des données.
Dans le cas du Salvador, la plupart
des facteurs de rapprochement sont de
valeur modérée-entre 0, 6 et 0, 9-mais
quelques-uns se situent entre 0, 1 et 0, 3.
Quel ensemble de nombres faut-il préfé-
rer : les estimateurs de James-Stein ou
les fréquences relatives mesurées ? La
réponse dépend en grande partie de ce
qu'on veut faire de ces nombres !
Si le ministre de la santé du
Salvador a l'intention de construire des
hôpitaux régionaux pour les personnes
atteintes de toxoplasmose, les estima-
teurs de James-Stein sont probablement
de meilleurs guides. Ceci parce que le
7. LA FRÉQUENCE DE LA TOXOPLASMOSE ; une maladie du sang, ressort lors d'une enquête carré de l'erreur totale probable, avec
réalisée dans 36 villes du Salvador. La fréquence mesurée dans chaque ville peut être considé- les estimateurs de James-Stein, est infé-
ree comme un estimateurde la fréquence vraie, qui est inobservable. Les fréquences mesurées
rieur d'un facteur 3 environ. Le point
ont une distribution normale, dont l'écart-type dépend du nombre de personnes examinées
important de ce calcul est qu'on fait le
dans chaque ville. Les chiffres indiqués sur la figure sont des fréquences relatives, c'est-à-dire
des écarts par rapport à la fréquence moyennenationale (la moyennedes fréquences obser- total des erreurs probables pour toutes
véesdans toutes les villes). La fréquence relative nationale est arbitrairement choisie égale à les villes. Un hôpital donné pourrait être
zéro, et une ville dont relative
la fréquence
mesurée est de-0,04 a une fréquence relative de taille disproportionnée ou mal situé,
observéede quatre pourcent inférieure a celle de l'ensemble du pays. mais la somme de toutes les erreurs de
8. LE RAPPROCHEMENT DES FRÉQUENCES relatives observées de pourquoi cette mesure est plus rapprochée que les autres. Dans les
toxoplasmose pour obtenir un ensemble d'estimateurs de James- données du Salvador les observations les plus extrêmes tendent à
Stein, altère la répartition apparente de la maladie. Le facteur de etre corréléesaux plus grands écarts-types, suggérant eneore le peu
rapprochement n'est pas le même pour toutes les villes, mais de confiance que l'on peut accorder à de telles mesures.Par com-
dépend de l'écart-type associé au taux mesuré dans cette ville. Un paraison avec les moyennes observées, on peut prouver que les esti-
grand écart-type implique que la mesure a été basée sur un petit mateurs de James-Stein ont une erreur totale d'estimation plus
échantillon et est soumise à de grandes variations aléatoires ; c'est faible. Ils déterminent aussiun classement des villes plus exact.
ce genre serait inférieure, avec les esti- meilleures estimations pour une majorité importées. Il s'avère que le risque, pour
mateurs de James-Stein, à la somme de villes et réduit l'erreur totale d'esti- les joueurs de baseball et pour les auto-
obtenue avec les fréquences observées. mation pour l'ensemble des villes. On mobiles, n'est réduit que si justement le
De même, les estimateurs de James- ne peut cependant pas démontrer que, pourcentage de voitures importées est du
Stein sont certainement préférables dans le cas d'une ville particulière, la même ordre que les moyennes estimées à
quand il s'agit de classer les moyennes méthode de Stein soit supérieure ; en la batte ; sinon, le risque d'erreur est aug-
vraies. k cet égard, il est remarquable de fait, la prévision associée peut être nette- menté pour les deux sortes de problèmes.
constater que la ville dont la fréquence ment moins bonne. Savoir si une moyenne particulière
relative apparente est la plus élevée Quand on estime par la méthode de est exceptionnelle ou non est une ques-
(d'après les taux mesurés y) est, selon Stein, la moyenne vraie d'une ville par- tion subtile dont les conséquences ne
les estimateurs de Stein, classée dou- ticulière, on fait une erreur importante sont pas encore tout à fait élucidées.
zième. La valeur de cette estimation est quand cette moyenne a une valeur Revenons au problème de la toxoplas-
considérablement réduite parce que exceptionnelle. Le fondement de la mose au Salvador et considérons la ville
l'échantillon de cette ville était très petit. méthode consiste à réduire le risque d'Alégria, dont la fréquence relative
Ce renseignement pourrait être utile si global en admettant que les moyennes mesurée, égale à-0, 294 est au cin-
on ne disposait de crédits que pour un vraies sont plus proches les unes des quième rang, en comptant à partir des
hôpital. Imaginez qu'un spécialiste des autres que les données observées. Cette taux les plus faibles. C'est l'une des
épidémies veuille rechercher la corréla- supposition peut dévaluer l'estimation quatre villes situées à l'Est du fleuve
tion existant entre la fréquence réelle d'une moyenne qui est de nature diffé- Lempa. Les taux d'incidence mesurée y
dans chaque ville et des facteurs tels que rente des autres. Nous comprenons de ces quatre villes sont remarquable-
les chutes de pluie, la température, I'alti- maintenant pourquoi on ne doit pas ment bas. On peut supposer que ce n'est
tude ou la population ? Une fois encore, inclure les voitures importées dans les pas une coïncidence et que le taux de
les estimateurs de James-Stein sont à mêmes calculs que les 18 joueurs de toxoplasmose à l'Est du Lempa est réel-
préférer ; un calcul rapide montre qu'ils baseball : il est fort probable que les lement plus faible. Un estimateur de
donneraient une meilleure approxima- automobiles sont de nature essentielle- James-Stein, qui corrobore les rensei-
tion dans 70 pour cent des cas. Dans cer- ment différentes. gnements donnés pour le pays tout
tains cas, la fréquence mesurée peut être Imaginez que nous ignorions ce fait entier, peut, par conséquent ne pas être
bien supérieure à l'estimateur de James- et que nous regroupions ces 19 pro- -et de loin-le meilleur pour ces villes.
Stein pour une ville particulière considé- blèmes ; nous pouvons alors calculer Nous avons développé des tech-
rée isolément. Comme nous l'avons vu, l'erreur totale probable comme une fonc- niques pour tirer profit des renseigne-
la méthode de James-Stein donne de tion du vrai pourcentage de voitures ments supplémentaires de ce genre,
ment égale de la moyenne m, lorsque
tous les joueurs sont inclus dans le cal-
cul. La méthode de James-Stein a
cependant un avantage important sur
celle de Bayes : on peut utiliser l'esti-
mateur de James-Stein sans rien
connaître de la distribution a priori ; en
vérité, on n'a même pas besoin de sup-
poser que les moyennes à estimer
ont une distribution normale.
Malheureusement, l'ignorance a son
prix qu'il faut payer par une réduction
de la précision de l'estimation.
Nous avons énoncé que la méthode
de James-Stein augmente la fonction
de risque d'une quantité proportion-
nelle de 3/k, k désignant encore le
nombre de moyennes estimées : le
risque supplémentaire est négligeable
quand k est supérieur de 15 ou 20 ; il
est encore acceptable jusqu'à k = 9.
Dans ce contexte historique, on peut
considérer l'estimateur de James-Stein
comme une « règle de Bayes empi-
rique » (terme introduit par Herbert E.
9. DES PROBLÈMES INDÉPENDANTS peuvent être regroupés pour être analysés par la Robbins de l'Université de Columbia).
méthodede Stein, mais au risque d'augmenter l'erreur. Aux 18 moyennes à la batte calcu- Dans des travaux commencés en 1951
léesplus haut, on pourrait ajouter un nombre représentant la proportion de voitures impor- environ, Robbins démontra qu'on pou-
téesobservéede Paris. Les nouveaux estimateurs de James-Stein pourraient alors être cal- vait parvenir
au même risque minimum
culéspour les joueurs de base-ball et les automobiles en se fondant sur la moyenne globale qu'avec la règle de Bayes sans
des 19 nombres. Rien, dans le théorèmede Stein, n'interdit un tel procédé, mais le manque
connaître la distribution a priori, à
de logique évident de celui-cia été critiqué à juste titre. En fait, si l'on inclut des données
condition que le nombre de moyennes
sansaucun rapport entre elles, elles ne peuvent réduire la fonction risque que si la propor-
tion de voitures importées est justement voisine de la moyenne à la batte de 0,265. qu'on estime soit très grand. La théorie
Autrement, l'erreur probable d'estimation est augmentée tout à la fois pour les voitures et de Robbins a été immédiatement
pour lesjoueurs de baseball. reconnue comme un progrès fonda-
mental ; le résultat obtenu par Stein,
qui en est très proche, n'a été accepté
mais la théorie sur lesquelles elles rapprochement C est différent ; il qu'avec plus de réticence.
reposent reste rudimentaire. Un fer- dépend de l'écart-type (égal à 0, 015) L'estimateur de James-Stein n'est
vent de baseball pourrait savoir que, de la distribution a priori. pas le seul estimateur qui se soit révélé
tout comme la capacité à la batte de meilleur que les moyennes arithmé-
chaque joueur peut être représentée L'équation de Bayes tiques d'un échantillon. En vérité,
par une loi normale, les capacités l'estimateur de James-Stein est lui-
réelles à la batte de tous les joueurs de Ce procédé n'est pas un raffine- même inacceptable ! Son défaut vient
première division sont également ment de la méthode de Stein ; au de ce que le facteur de contraction c
réparties selon une distribution de peu contraire, il lui est antérieur de deux peut prendre des valeurs négatives, et il
près normale. Cette dernière distribu- cents ans. C'est l'expression mathéma- éloigne alors les moyennes de la
tion a pour moyenne 0, 270 et pour tique d'un théorème du Révérend moyenne globale, au lieu de les en rap-
écart-type 0, 015. Avec cette intéres- Thomas Bayes, publié en 1763 de procher. Quand cela se produit, si on
sante information supplémentaire, que façon posthume. II montrait que cet remplace simplement c par zéro, on
les statisticiens appellent « distribution estimateur minimise l'erreur quadra- obtient un meilleur estimateur. Celui-ci
a priori », il est possible de construire tique probable due au hasard, à la fois est à son tour inacceptable mais on n'a
une meilleure estimation de la capacité pour les moyennes observées (y) et encore trouvé aucun estimateur qui soit
réelle à la batte de chaque joueur. Ce pour les moyennes vraies (#). meilleur en tout point.
nouvel estimateur, que nous noterons La formule de l'estimateur de La recherche de nouveaux estima-
Z est défini par l'équation : James-Stein ressemble de façon frap- teurs continue. Pour des problèmes où
Z = m + C (y-m), pante à l'équation de Bayes. Quand le interviennent des distributions autres
où y désigne encore ici la moyenne nombre de moyennes, dont on fait la que la distribution normale. Plusieurs
observée de chaque joueur à la batte, moyenne arithmétique, est très grand, voies de recherches comprenant celles
mais où la moyenne globale Y a été les deux équations sont équivalentes ; de Stein et Robbins et les méthodes
remplacée par m, moyenne de la distri- les deux facteurs de rapprochement c et plus classiques de Bayes, semblent
bution a priori, dont on connaît la C convergent vers la même valeur et la converger vers une théorie, générale et
valeur : 0, 270. De plus, le facteur de moyenne globale Y devient précisé- puissante, de l'estimation.
Florence Nightingale,
infirmière et statisticienne
Bernard Cohen
Elle sauva la vie de milliers de soldats pendant 1854, les troupes françaises et britan-
niques envahirentla Crimée, sur la côte
la guerre de Crimée et fut l'une des créatrices Nord de la mer Noire, afin de soutenir
la Turquie dans le conflit qui l'opposait
de l'assistance médicale moderne. Elle contribua à la Russie.Les forces alliées remportè-
rent une victoire rapide à la bataille de
également au développement des statistiques l'Alma, le 20 septembre,puis entrepri-
rent le siège de Sébastopol, la base
et de leur représentation graphique. navale russe. Ces événements provo-
quèrent en Grande-Bretagne une allé-
gresse générale qui fit place à la
consternation lorsque le Times signala
FlorenceNightingale s'était L'ange soigneur que des soldats britanniques mouraient
assigné une vaste mission : de maladies et de blessures, faute de
servir l'humanité par la pré- Très tôt, Florence nourrit l'ambition recevoir les moindres soins médicaux :
vention des décès et des de devenirinfirmière. S'il était déjàorigi- on manquait de chirurgiens et même de
maladies évitables.Pendantla nal pour une femme de sa classesociale tissu pour les bandages,et il n'y avait
plus grandepartie de sa longue vie (née d'exercer une profession quelconque, pas une seule infirmière qualifiée. Au
en 1820, elle mourut en 1910), elle celle d'infirmière n'était pas envisa- contraire, les Français avaient envoyé
accomplit cette mission avec acharne- geable.Ces femmes travaillant dans les 50 Soeursde la Charité en Crimée.
ment, notamment lors de la guerre de hôpitaux étaient considérées comme C'était l'occasion rêvée pour
Crimée (1854-1856). Après elle, les ignoranteset ivrognes, voire immorales. l'ambitieuse Florence Nightingale, qui
infirmières bénéficièrent d'une forma- Sesparentslui ayant interdit cette profes- proposa ses services au Ministre de la
tion convenable et de règles de sion, Florencecherchaun réconfort dans Guerre : celui-ci l'envoya à Scutari.
conduite bien définies. Ces acquis, qui la religion et y trouva, toute savie durant, Elle s'embarqua pour la Turquie le 21
paraissent aujourd'hui naturels, n'en une raison d'être et d'agir. Elle lut de octobre 1854en compagniede 38-infir-
résultent pas moins des luttes difficiles nombreuxouvragesconcernantla méde- mières, avec l'appui officiel du gou-
menées par F. Nightingale au XIXe cine et la santé,consacradu temps à visi- vernement (mais sans celui de l'armée)
siècle. Pour prouver le bien-fondé de ter les hôpitauxde Londres et travailla à et surtout un soutien financier privé :
ses idées, elle fit usage de méthodes titre personnel avec les enfants des bas les fonds spéciaux réunis par le Times.
statistiquesd'avant-garde. quartiers, qu'elle appelait ses « petits À son arrivée à Scutari, elle décou-
L'oeuvrede FlorenceNightingale est voleursde Westminster ». vrit une situation épouvantable. Le
plus impressionnante quand on la Finalement,en 1851,elle parvint à se baraquementqui servait d'hôpital était
replace dans le contexte social de libérer de son entouragefamilial et passa infecté de puces et de rats, et construit
l'Angleterre victorienne, très contrai- trois mois en Allemagne, près de sur des égouts d'où remontaient les
gnant à l'égard des femmes.Elle était la Düsseldorf dans un hôpital orphelinat, miasmes. La lessive se faisait à l'eau
fille d'un riche propriétaire terrien, et puis dansun autrehôpitalfrançais,situéà froide et les draps restaient infectés de
sa famille évoluait dans les plus hautes Saint-Germain-en-Laye,dirigé cette fois vermine aprèslavage. Ce sont les épi-
sphèresde la société anglaise.Or, sous par les Soeursde la Charité. De retour à démies du choléra et de typhus qui ont
le règne de la reine Victoria, une Londres en 1853,elle obtint un premier causé le plus grand nombre de morts,
femme de cette classe sociale n'allait « poste »(non rémunéré) de directrice et non les blessures elles-mêmes : en
pas à l'université et n'exerçait aucun d'un « établissement réservé aux dames février 1855, le taux de mortalité de
métier : sa seule finalité était de se de bonnefamille à la santé déficiente », l'hôpital était de 42,7 pour cent. Les
marier et d'élever des enfants. Par où elle devait superviser le travail des autorités militaires refusaient tout
chance, son père considérait que les infirmières,vérifier le matériel médicalet changementpouvant apparaître comme
femmes devaient être instruites et il lui la qualité desmédicaments. l'aveu de leurs erreurs et de leur
enseignalui-même l'italien, le latin, le Elle n'occupa ce premier poste que incompétence.
grec, la philosophie, l'histoire et même pendant un an, car des taches plus En dépit de ces obstacles, et grâce
les mathématiques. importantesl'attendaient. En septembre aux dons privés, elle installa une blan-
chisserie, avec des chaudières servant à résoudre ce problème, l'astronome et sta- Ainsi Charles Dickens détestait cette
faire bouillir l'eau, et elle fournit l'hôpi- tisticien belge Adolphe Quetelet organisa approche statistique, car il la trouvait
tal « en chaussettes, chemises, couteaux, en 1841 le service central de statistiques déshumanisante et il vilipende, par le
fourchettes, cuillères de bois, baignoires de Belgique, qui servit de modèle pour terme péjoratif d'« horloge statistique
métalliques, tableaux et formulaires, d'autres pays. Il introduisit le concept funèbres, les régularités trouvées par
choux et carottes, tables d'opérations, d'« homme moyen » qui lui permit de les statisticiens dans les taux de mala-
serviettes, savons, peignes fins, lotion contourner l'obstacle de l'individu. dies mentales, de crimes, de suicides
pour les poux, ciseaux, bassins et Son travail le plus original et le plus et de prostitution.
oreillers ». Ces taches administratives ne saisissant est son analyse de l'influence Florence Nightingale, en revanche
l'empêchaient pas de s'occuper des de facteurs tels que le sexe, l'âge, l'édu- était une fervente admiratrice des tra-
malades : tard dans la nuit, elle effectuait cation, le climat et les saisons sur le vaux de Quetelet et elle avait manifesté
seule des rondes interminables qui don- taux de criminalité en France. Les très tôt un grand intérêt pour la collecte
nèrent naissance à la légende de « l'Ange chiffres révélaient, selon lui, non pas et l'analyse des données. Ainsi, lors de
soigneurs de Crimée et à l'image de la qui commettrait tel crime particulier, son séjour en Crimée, parallèlement aux
« dame à la lampe », immortalisée par le mais « le nombre d'individus qui réformes qu'elle avait apportées, elle
poète Longfellow. Au printemps de souilleraient leurs mains du sang de avait systématisé les méthodes d'archi-
1855, soit six mois après son arrivée à leurs semblables, le nombre de faus- vage jusqu'alors anarchiques : même le
l'hôpital, la mortalité était tombée de saires ou le nombre d'empoisonneurs ». nombre de morts n'était pas connu avec
42, 7 pour cent à 2, 2 pour cent. La découverte de régularités conduisit certitude. Lorsqu'elle revint en
À
son retour en Angleterre, en juillet Quetelet à conclure : « c'est la société Angleterre, en 1856, elle fit la connais-
1856, Florence jouit d'une renommée et qui prépare tous ces crimes, dont les cri- sance du médecin et statisticien William
d'un respect universels. Elle refuse tou- minels ne sont que les exécutants ». Farr ; à son contact, elle comprit la
tefois les honneurs publics et déclare La « physique sociale » de Quetelet valeur potentielle des données statis-
que la meilleure façon de récompenser était un véritable anathème pour qui se tiques qu'elle rapportait de son expédi-
ses efforts est de mettre sur pied une réclamait de la doctrine du libre arbitre tion pour l'amélioration des soins médi-
commission d'enquête sur la qualité des et de la responsabilité individuelle. caux dans les hôpitaux.
soins médicaux dans l'armée britan-
nique : en Crimée, écrivait-elle, quelque
9 000 soldats sont morts de causes qui
auraient pu être évitées. Les morts
inutiles se perpétuaient tragiquement
dans toutes les casernes et tous les hôpi-
taux, même en temps de paix.
Comment faire admettre la nécessité
des réformes ? Florence comprit que les
meilleurs arguments seraient statistiques.
S'il est naturel aujourd'hui de recourir
aux statistiques (I'analyse des conditions
de vie et de l'efficacité des politiques
sociales), il n'en allait pas de même à
cette époque où les statistiques sociales
n'étaient qu'une science naissante.
Florence Nightingale se révéla également
un pionnier dans ce domaine.
Representing the Relative Mortality of the Army at Home and of the English Male Population at corresponding Ages.
Representing the Relative Mortality, from different Causes, of the Army in the East in Hospital and of the English Male
Population aged 15-45.
3. CES DIAGRAMMES, extraits du rapport de la commission royale, chiffres du diagramme supérieur sont exprimés en pour cent, ceux du
mettent en parallèle les conditions de vie des militaires et des civils. diagramme inférieur en pour mille. Ce rapport a suscité l'adoption
La mortalité dans l'armée en temps de paix était presque le double ded'un code sanitaire militaire et une série d'améliorations matérielles
ce qu'elle était chez les civils (en haut). Au cours de la guerre de dans les bâtiments de l'armée. Comme d'autres diagrammes, ils sont
Crimée, les maladies zymotiques furent la principale cause de morta- des exemplesde l'approche novatrice de Florence Nightingale pour
lité, laquelle était bien plus élevée qu'en Angleterre (en bas). Les ce qui estde la représentation des données statistiques.
de statistiques réuni à Londres en été
1860. Toutefois la collecte régulière de
données dans les hôpitaux restait diffi-
cile, en raison de la complexité du sys-
tème et de nombreuses résistances.
Chaire de statistiques
et école d'infirmières
traque le hasard
Daniel Schwartz
Granger Morgan
Une mauvaise évaluation des risques conduit rent du plomb dans l'environnement, et
comment ce métal s'accumule dans
à des décisions parfois désastreuses. l'organisme des enfantsqui inhalent ou
ingèrent des poussières.Puis on analyse
Les ingénieurs ont récemment mis au point les effets des expositions au plomb :
l'augmentation des quantités de plomb
des techniques rationnelles d'évaluation des risques. dans le sang réduit-elle les perfor-
mancesintellectuelles?
L'exposition à un polluant ou à
d'autres dangers est suivie d'une cas-
Nousvivons bien plus long- l'ensemble des citoyens ; ainsi seule- cade d'événements complexes, aux
tempset en bien meilleure ment accepteront-ils les conséquences effets variés. Cependant on peut repré-
restons préoccupés
santé qu'autrefois, mais parfois désagréablesdesdécisions. senter ces effets par des fonctions qui
par Nos sociétés ont de nombreux pro- associentun seul nombreà chaquedegré
notre santé, notre sécurité blèmes à résoudre : le SIDA, I'alcoo- d'exposition. Par exemple, le risque
et notre environnement.Les industriels lisme, l'amiante, la contamination de la moyen de cancer est proportionnel à la
qui prônent des techniques impopu- nourriture et de l'eau potable... Par consommation de cigarettes : une
laires, ainsi que les membres des orga- ailleurs, les progrès scientifiques et consommation quotidienne de 10 ciga-
nismes de protection de l'environne- sociaux apportent leur lot de difficul- rettes multiplie généralementpar 25 la
ment, pensentque le public évalue mal tés, tels le réchauffement du Globe, la probabilité de cancerdu poumon, et une
les risques de maladies,d'accidents ou surpopulation ou les risques liés au consommation quotidienne de 20 ciga-
de catastrophes : les citoyens deman- génie génétique. Pour limiter ces rettesmultiplie cette probabilité par 50.
dent au gouvernement de faire des risques, les responsables politiques L'étude de l'exposition aux risques
efforts considérables pour limiter des doivent non seulement évaluer leur et de leurs effets est souvent pleine
risques mineurs qui les angoissent,mais importance, mais aussi adopter de nou- d'incertitudes ; cette incertitude est au
ignorent presqueentièrementdesrisques velles règles de communication et être coeur de la définition du risque. Les
bien plus graveset plus répandus. à l'écoute du public, au lieu de le gaver risques sont généralement connus en
Toutefois l'expérience semblemon- d'informations. termes de probabilités, mais la survenue
trer que le public est conscient des Paradoxalement l'évaluation des d'événements particuliers est souvent
risques qui le menacent. Au cours des risques s'est affinée, alors que la très imprévisible : les compagnies
dernières décennies, il a accepté de confiance publique à l'égard des ges- d'assurancessaventestimer précisément
nombreusesmesuresvisant à limiter ces tionnaires du risque diminuait. On sait le nombre annueld'accidents de la route
risques : le tabagisme,qui a considéra- aujourd'hui analyser rationnellement et en France, mais elles ne peuvent évi-
blement diminué, est de moins en moins quantifier les dangerspotentiels, afin de demment pas prédire quel automobiliste
bien supportépar la société ; l'alimenta- fournir au public, à ses élus et aux seratué ou blessédansun accident.
tion s'est allégéeet enrichie en fibres ; administrations des faits précis sur les- Pour d'autres risques, comme ceux
des efforts de sécurité routière ont été quelsils peuventfonder leurs décisions. liés à des techniquesnouvelles ou à des
faits (réduction des vitesseset port obli- Analyser les risques consiste
gatoire de la ceinture de sécurité). d'abord à distinguer l'exposition au
Les spécialistes du risque ont danger et ses conséquences. On exa- 1. LA CATASTROPHE AFRIEYNE de Madrid
observé que le public est très sensible mine les phénomènes susceptibles de en novembre1983,a tué183 personnes. Le
aux risques lorsque les gouvernements nuire aux personnes, aux écosystèmes risque (faible) de décès par accident
d'avion est un prix que la sociétéaccepte
et des institutions l'en informent. La ou aux oeuvresd'art exposées; puis on
définition populaire du risque est plus depayerpour un transport rapide et pra-
chercheles effets possiblesde ces expo-
tique dans le monde.Certains systèmes,
large et, peut-être, plus rationnelle que sitions. Ainsi, pour étudier les risques telles les centrales nucléaires, font peu de
celle des spécialistes. La gestion des d'intoxication au plomb des enfantsqui morts mais sont très réglementés,tandis
risques requiert des choix politiques, vivent dans des bâtiments vétustes, on que d'autres,commela circulation auto-
économiques et sociaux qui, dans une commence par observer comment les mobile, sont très meurtriers mais mobili-
démocratie, doivent être faits par peintures anciennesqui s'écaillent libè- sent peu le public.
événements ayant rarement des effets système doit être décrit de plusieurs corrigé de nombreux risques, tels ceux
néfastes, l'incertitude est plus générale : façons avant que les analystes en saisis- qui sont liés à l'acheminement de mul-
on ne peut ni prédire les événements sent toute la complexité et, même alors, tiples circuits de commande dans une
individuels, ni même calculer les proba- ils ne sont jamais certains d'avoir iden- même zone. De même, les ingénieurs de
bilités de l'exposition. En l'absence de tifié tous ses modes de défaillance. la Société Alcoa ont utilisé les arbres de
données actuarielles fiables, les ana- défaillances pour étudier la sécurité de
lystes recherchent d'autres méthodes Les arbres de défaillance leurs fours de grande capacité. Sur la
pour estimer la probabilité d'exposition base de leurs résultats, la société a
et les effets associés. Les progrès réali- Après avoir recensé les différents révisé ses normes de sécurité et imposé
sés dans l'évaluation des risques, au modes de défaillance d'un système, on l'utilisation de commandes program-
cours des 20 dernières années, provien- estime la probabilité de chaque mode à mables dans les zones dangereuses ;
nent surtout de la découverte de l'aide d'un arbre qui décrit les compo- pour prévenir les fuites, elle a égale-
méthodes d'analyse des risques rares. sants du système et qui montre com- ment instauré des systèmes de contrôle
Dans une de ces méthodes couram- ment le dysfonctionnement de chaque rigoureux des vannes de fermeture auto-
ment utilisées, nommée analyse du composant perturbe le fonctionnement matiques, pour prévenir les fuites, et
mode de défaillance et des effets, on général. Grâce à cet arbre, on détermine ajouté des alarmes signalant aux opéra-
recherche tous les événements suscep- le risque de panne du système entier, teurs de fermer les vannes manuelles
tibles de mettre un système hors d'état, dans des conditions données, à partir de lors des pannes. Ces modifications
puis on étudie, aussi exhaustivement la probabilité de panne de chaque com- auraient divisé par 20 le risque d'explo-
que possible, les différentes successions posant. En 1975, Norman Rasmussen, sion. Des sociétés chimiques comme Du
de causes (« modes »)par lesquelles ces du Massachusetts Institute of Pont de Nemours, Rhône Poulenc et
événements peuvent produire la Technology, fut l'un des premiers à uti- Monsanto emploient aussi cette
défaillance du système (par exemple, un liser cette méthode pour estimer la sécu- méthode pour concevoir les processus de
réservoir de produit chimique peut fuir rité des réacteurs nucléaires. Les arbres fabrication, choisir les sites d'implanta-
parce qu'une soudure lâche ou qu'un de défaillance sont aujourd'hui couram- tion de leurs usines et évaluer les risques
court-circuit, dans le système de refroi- ment utilisés dans l'industrie nucléaire liés au transport des produits chimiques.
dissement, provoque sa surchauffe, puis et dans d'autres domaines. L'analyse du risque consiste non
son explosion). Dresser la liste exhaus- La Société Boeing utilise les arbres seulement à évaluer la probabilité des
tive des modes de défaillance est moins de défaillance pour concevoir ses gros événements nuisibles, telle l'avarie d'un
simple qu'il n'y paraît. En général, un porteurs. Ses ingénieurs ont identifié et équipement crucial, mais aussi à estimer
2. LAGESTlON DES RISQUES commence par l'étude des popula- Finalement on évalue les coûts et les bénéfices de ce risque. Pour
tions et de l'environnement exposés à une nuisance, comme les gérer correctement les risques, on doit également définir les
émissions d'une centrale électrique au charbon (à gauche). règles sur lesquelles se fonde la prise de décision, et s'assurer
Après avoir quantifié les effets de l'exposition (deuxième illustra- que tous les effets possibles ont été pris en compte-ce que l'on
tion), on analyse les réactions du public face au risque. néglige souvent de faire.
d'autres inconnues : en cas de fuite d'un mettent à des analystes entraînés de réali- dait de classer différentes activités par
réservoir de produit chimique, estimer ser des projets qui, il y a seulement une ordre de risque croissant, donnait un
la quantité exacte de polluant déversé, dizaine d'années, semblaient réservés aux classement qui ne correspondait pas à
la forme de la courbe dose-réponse chez organisations les plus puissantes. Une l'ordre du nombre des décès liés à ces
les personnes exposées, et la vitesse des formation reste nécessaire, mais l'évalua- activités : on en avait déduit qu'il éva-
réactions qui transforment le contenu du tion rigoureuse des risques devrait deve- luait mal les risques et que son avis ne
réservoir en composés plus ou moins nir plus facile, donc plus fréquente. méritait pas d'être pris en compte.
toxiques. Ces incertitudes sont souvent Toutefois les psychologues ont étu-
représentées par des histogrammes La perception dié en détail la perception publique des
décrivant les probabilités qu'une sociale des risques risques et découvert qu'elle était bien
variable prenne une valeur donnée, à plus subtile. Quand on demande au
l'intérieur d'un intervalle de valeurs. Les spécialistes du risque ne s'arrê- public de classer des risques bien identi-
Pour estimer la probabilité de panne tent pas à la détermination de la proba- fiés selon le nombre de décès et d'acci-
d'une pièce ou assigner un intervalle bilité des événements nocifs et à la des- dents qu'ils occasionnent chaque année,
d'incertitude à une variable essentielle cription de leurs effets : ils étudient on obtient d'assez bons résultats ; en
d'un système, on utilise parfois des don- ensuite les mécanismes psychologiques revanche, le classement par ordre de
nées recueillies dans d'autres systèmes et sociaux de perception et d'évaluation. risque est très différent. Pour le public, le
similaires : même dans une usine chi- La façon de percevoir et d'évaluer les risque n'est pas uniquement le nombre
mique de conception nouvelle, par risques détermine le choix, parmi tous prévu de décès ou de blessures par unité
exemple, les diverses pièces des turbines les événements nuisibles susceptibles de de temps : les individus classent les
à vapeur sous haute pression sont iden- se produire, de ceux que l'on juge risques selon leur compréhension des
tiques à celles des usines préexistantes. importants et contre lesquels on veut se événements, la répartition du danger,
Malheureusement on ne dispose pas prémunir ; chacun de nous a des règles leur capacité à se soustraire à ce danger
toujours de données concernant des sys- pour évaluer les différents risques, choi- et leur volonté d'assumer le risque.
tèmes analogues. Les analystes élabo- sir le risque à traiter et décider des Le public évalue les risques selon
rent alors des modèles prédictifs qui se moyens de lutte à mettre en oeuvre. La trois types de critères. Le premier dépend
fondent sur les éléments connus de sys- gestion des risques oblige les sociétés à du degré d'atrocité d'un événement
tèmes aussi semblables que possible, et, identifier les problèmes qu'elles jugent (selon les effets produits ou le degré
souvent, ils s'en remettent aux juge- prioritaires et à déléguer à des personnes d'innocence des victimes, par exemple) ;
ments subjectifs des spécialistes. Une le pouvoir de décider, une fois les le deuxième est lié à la compréhension
telle approche est généralement biaisée, risques définis, ceux qui seront traités. du risque, et le troisième est fonction du
mais l'analyse quantitative des risques Longtemps les économistes et les nombre d'individus exposés. Ces trois
conserve l'avantage de révéler explicite- experts industriels ont perçu les risques types de critères définissent un «espace
ment les hypothèses et les biais. en termes de valeurs moyennes. Par de risque ». Les réactions du public face
Il y a quelques années, l'analyse exemple, travailler quelques heures à un danger dépendent de la position de
détaillée des risques nécessitait des dans une mine de charbon, manger des ce danger dans un tel espace : il réclame
mois de programmation spécifique, et sandwichs au beurre de cacahuète tous plus de protection contre les risques qui
plusieurs semaines de calcul sur de gros les jours pendant des mois et vivre cinq présentent un degré élevé d'atrocité que
ordinateurs. Aujourd'hui des pro- ans près d'une centrale nucléaire sont contre les risques quotidiens, qui provo-
grammes puissants et polyvalents calcu- trois situations qui augmentent le risque quent pourtant davantage d'accidents.
lent les probabilités. Ces programmes, de décès d'environ un millionième ; elles Pour évaluer les risques, le public uti-
exécutables sur des ordinateurs person- semblaient correspondre à trois risques lise inconsciemment des critères empi-
nels, révolutionnent la discipline : ils per- équivalents. Le public, à qui l'on deman- riques qui sont généralement assez
Le calcul des bénéfices nets des dif-
férentes stratégies est parfois complexe.
Par exemple, les coûts et bénéfices ne
sont pas toujours proportionnels à la
quantité de polluant émis ou à l'argent
dépensé pour combattre le risque. En
outre, les bénéfices et les coûts d'une
même stratégie ne sont pas toujours
mesurés avec les mêmes unités.
Toutefois, même quand on ne peut pas
estimer la valeur absolue des bénéfices
et des coûts, on peut faciliter la prise de
décision en utilisant des critères relatifs
comme le rapport bénéfices/coûts.
Le deuxième type de règles est
fiables, mais qui introduisent parfois des règles : les règles d'usage, les règles de fondé sur le droit : la notion de justice
biais : par exemple, il sous-estime d'un droit et les règles technologiques. Pour remplace alors celle d'efficacité. Dans
facteur 10 la fréquence des causes de établir le premier type de règles, on la plupart des règles fondées sur
décès les plus fréquentes, comme les recherche la stratégie qui produit le plus l'usage, toute évaluation demeure sub-
attaques vasculaires, les cancers ou les de bénéfices nets : on dresse le bilan des jective ; en revanche, les règles juri-
accidents, alors qu'il surestime de plu- bénéfices et des coûts de chaque straté- diques définissent des actions qu'une
sieurs ordres de grandeur la fréquence de gie, on compare les bilans et on retient partie ne peut mener sans le consente-
causes de décès exceptionnelles, comme la stratégie la plus efficace. ment de l'autre, indépendamment des
le botulisme (une intoxication due à la Pour établir ce premier type de coûts et des bénéfices.
contamination des aliments par la bacté- règles, on utilisait auparavant des esti- Le troisième type de règles dépend
rie Clostridium botulinum). mations fixes de la valeur des bénéfices de l'état des techniques dont on dispose
Ces biais semblent dus à la « heuris- et des coûts. Aujourd'hui l'on utilise pour limiter le risque. Ces règles pres-
tique de la familiarité ». Les gens évaluent plutôt des estimations probabilistes, afin crivent généralement « les meilleures
souvent la probabilité d'un événement de tenir compte de l'incertitude des pré- techniques disponibles » ou des rejets
selon la facilité avec laquelle ils se remé- visions. Les décisions finales sont « aussi faibles que le permettent les
morent ou s'imaginent un tel événement. exprimées en termes d'espérance techniques actuelles ». Leur application
Bien que l'attaque vasculaire cérébrale mathématique, mais on utilise parfois est parfois difficile, car les différentes
soit une causede décès très commune, les d'autres critères. Par exemple, pour évi- parties concernées s'accordent rarement
gens n'en ont connaissanceque lorsqu'un ter un désastre, on adopte une stratégie sur les définitions des termes « dispo-
ami, un parent ou une célébrité en meurt ; « minimax » : on minimise les dégâts nibles » et « permis par les techniques
en revanche, presque toutes les intoxica- produits par l'événement le plus délé- actuelles ». En outre, les progrès tech-
tions botuliques sont signalées par les tère, même si c'est au détriment de la niques modifient parfois les objectifs
médias. Ce biais, et d'autres, n'est pas moyenne des résultats de cette stratégie. fixés aux législateurs et aux industriels.
l'apanage du public : les spécialistes en
sont eux-mêmes parfois victimes
lorsqu'ils évaluent des probabilités.
L'incertitude caractérise la plupart des risques. Les ana- valeur la plus probable du coût social net serait minimale
lystes disposent aujourd'hui de plusieurs logiciels pour étudier pour une réduction de 55 pour cent des émissions de TXC.
les effets de l'incertitude. Ces outils informatiques, qui indi- Avec une valeur de la vie humaine estimée à 15 misions de
quent tes conséquenceslogiques des hypothèses et des régies francs ta réduction optimale serait d'environ 88 pour cent.
pour un risque donne, facilitent la prise de décision. L'un de Le programme Demos calcule également les corrélations
ces systèmesest le programme Demos, mis au point par Max entre chaque variable d'entrée et le coût total. Des corréla-
Henrion, de la société Lumina Decision Systems. tions étroites correspondent aux variables qui augmentent
Supposons qu'une population de 30 millions de per- l'incertitude de l'estimation du coût final. Ainsi, lorsque la lutte
sonnes soit uniformément exposée a un polluant chimique antipollution est peu intensive, l'incertitude résulte essentielle-
fictif, nommé « TXC ».Dans une première étape, on définit la ment des variations de la pente de la courbe des dommages,
fonction qui décrit le risque associé aux divers du
degrés
seuild'expo-
de toxidté et de la concentration de base en polluant.
sition (par exemple, une fonction dose-réponse linéaire, avec En revanche, lorsque la lutte antipollution est très intensive,
un seuil au-dessousduquel il n'y a aucun danger). l'incertitude résulte presque entièrement des inconnues
Le programme Demos estime le nombre de décès concernant te coût de ta réduction des émissions nocives.
annuels résultant de l'exposition au TXC. La distribution des Enfin le programme Demos calcule la différence du coût
probabilités montre estime entre ! a déci-
que dans 30 pour sion optimale fondée
cent des cas, per- sur les informations
sonne ne meurt ; disponibles et la déci-
dans 50 pour cent sion optimale fondée
des cas, la mortalité sur des informations
annuelle est inférieure parfaites-c'est-à-dire
à 100 ; et dans 10 le bénéfice obtenu en
pour cent des cas, éliminant toutes les
elle est supérieure incertitudes des cal-
à 1 000. culs. Cette différence
A condition d'y est nommée, en
mettre le prix, on dis- analyse de la déci-
pose de méthodes sion, valeur espérée
antipollution qui de l'information par-
réduisent ! a concen- faite ; elle correspond
tration en TXC le coût à la limite supérieure
d'une réduction don- de la valeur de
née, ainsi que les la recherche. Par
risques de l'exposition exemple, si une vie
sont déterminés par épargnée a un coût
des spécialistes. Pour social de 1,5 million
choisir l'intensité de la Chaque bloc du diagromme ci-dessus, quand clique dessus, de francs, cette valeur
4. on
lutte antipollution qui est de 190 millions
montre une fenêtre avec des courbes et des tableaux sur les hypo-
minimisera le coût thèses, les équations et les lois de probabilités. de francs par an ; si
social global, on doit une vie épargnée
d'abord déterminer le vaut 15 millions de
pnx que la société est prête a payer pour diminuer la morta- francs, cette valeur atteint 355 millions de francs par an.
lite. Dans cet exemple, ce prix varierait de 1,5 à 15 millions de Avec des outils comme le programme Demos, qui-
francs par décès évite (la fixation de ces valeurs est un juge- conque possède un ordinateur personnel peut pratiquer une
ment de valeur ; en pratique, la phase cruciale de l'analyse analyse quantitative des risques, mais l'utilisation correcte de
consiste à déterminer comment les résultats dépendent du ces outils exige une formation sérieuse. Mes collègues et
prix attribué à la vie et santé).
à la moi-même avons constaté que, lors de la première utilisation
Dans notre modèle, le coût social net est égal à la somme de Demos, des étudiants en première année de thèse igno-
du coût de la lutte antipollution et de la mortalité. Avec une raient généralement les éventuelles corrélations entre les
valeur de la vie humaine estimée à 1, 5 million de francs, la variables, surestimant ainsi lincertitude de leurs résultats.
4. DANS L'ESPACEDU RISQUE, l'abscisse
représente l'« atrocité » d'un danger et
l'ordonnée le degré de compréhension de
ce danger dans la population. Les risques
situés dans le cadran supérieur droit sont
ceux qui suscitent la plus forte demande
de réglementation.
constituer un comité de résidents fictif, tains risques (la combustion des pyja- tion globale unique pour limiter un
chargé de conseiller l'administration sur mas pour enfants, par exemple), elle en risque. Il serait pourtant bien plus effi-
le site d'implantation de lignes élec- a parfois créé d'autres (un risque accru cace de tester plusieurs stratégies pour
triques à haute tension. Nous avons de cancer par exposition à des produits déterminer la meilleure, ce qui est rare-
demandé aux membres de ce comité de chimiques ignifuges). Les décideurs ont ment pratiqué. Enfin les gestionnaires
réfléchir aux risques, controversés pour parfois ignoré des risques importants, des risques n'ont pas su faire participer le
la santé, des champs électriques et alors qu'ils combattaient ardemment public aux prises de décisions, auprès
magnétiques produits par ces lignes à des risques mineurs. Ainsi ils ont investi d'experts qui lui auraient fourni les infor-
haute tension. Nous leur avons fourni des des sommes considérables pour limiter mations nécessaires. Malgré l'existence
informations détaillées sur ce problème les risques liés à des cancérogènes arti- de lois instituant des enquêtes d'utilité
et une liste de questions précises. Après ficiels, tandis qu'ils ignoraient totale- publique pour la délivrance des permis
une journée et demie de réflexion, le ment des cancérogènes naturels, pour- d'installation des réacteurs nucléaires ou
comité a défini les problèmes politiques tant bien plus nocifs. des décharges à risques, le public parti-
et proposé des solutions que n'aurait pas Par ailleurs, les gouvernements ont cipe rarement au débat, et il est souvent
reniées une société de conseil. fondé peu d'institutions pour tirer des informé trop tard pour intervenir dans la
Le public n'est pas responsable de leçons du passé. On confond trop sou- prise de décisions.
la médiocrité de ses réactions face aux vent les analyses des accidents et les Dans une démocratie, le bon fonc-
risques ; la faute en est aux gestion- enquêtes judiciaires, et l'on ignore ou tionnement de la société nécessite
naires des risques qui privilégient le l'on cache au public des informations l'information des citoyens. Pour mieux
court terme, préférant les actions efficaces pour sa sécurité. Pourtant gérer les risques, les gouvernements
immédiates aux investissements qui l'exemple de l'aviation civile est ins- devront améliorer leurs méthodes de
permettraient d'accroître nos connais- tructif : la sécurité aérienne a largement communication et créer des institutions
sances sur les risques. En témoignent bénéficié des enquêtes sur les catas- permettant au public et à ses représen-
les lois qui régissent la préservation de trophes aériennes, car les enquêteurs ont tants d'intervenir dans la gestion des
l'environnement, la sécurité des lieux su écarter les problèmes de responsabi- risques. La participation du public
de travail et l'innocuité des produits de lité pour déterminer les causes de ces n'empêchera sansdoute pas les décisions
consommation. catastrophes, et diffuser leurs conclu- absurdes-que nulle autre procédure ne
En outre, l'administration a souvent sions aux personnes concernées. peut éviter-, mais elle devrait limiter les
traité les risques dans une perspective De nombreux décideurs sont proba- affrontements trop fréquents dans les
trop étroite : en essayant de réduire cer- blement trop pressés de trouver une solu- débats sur la gestion des risques.
LE ASSURÉ tiques. II observe, par exemple, que la
HASARD
pièce tombe autant de fois sur pile que
sur face. Puis, si un autre joueur lui pro-
pose un jeu où il gagne deux francs
Jean-Jacques Duby quand ta pièce indique pile et où il perd
trois francs quand la pièce tombe sur
dent aitriser le risque, c'est éviter l'acci- une branche d'hyperbole : les risques les face, il calcule le gain moyen, encore
et, quand l'accident survient, plus graves sont les plus rares (on les nommé espérance mathématique ; dans
en limiter les conséquences. Maitrisant nomme risques de catastrophes), les cet exemple, l'espérance mathématique
mieux les risques, les hommes vivent risques les plus fréquents sont les plus est-1 franc, de sorte que le joueur doit
plus longtemps : dans les pays industria- bénins (risques de fréquence). refuser de jouer.
lisés, la durée moyenne de vie augmente Ainsi le risque d'accident automobile Comment calculer l'espérance
d'un an tous les cinq ou six ans. Quelles est un risque de fréquence : les accidents mathématique dans des situations plus
techniques permettent ce remarquable sont fréquents, mais leur coût unitaire est complexes ? Les cindyniciens utilisent
résultat ? Quelles sont leurs limites ? généralement faible. En revanche, les deux méthodes différentes. Pour prévoir
Nos sociétés affrontent le risque à cyclones sont des risques de catastrophe : les risques de fréquence, ils emploient
l'aide de techniques de prévision et de Andrews, en 1992, a causé plus de cent surtout la méthode ex post, une statis-
prévention, d'assurance et de précaution. milliards de francs de dégâts ; de telles tique à partir des événements ayant été
La science du risque, ou cindynique, se catastrophessont heureusement rares. observés. C'est ainsi que Edmund Halley
développe afin de pallier l'impossibilité établit la première table de mortalité, à la
de la parfaite maitrise du risque. C'est La prévision fin du XVIIe
siecle, à partir de l'étude de la
parce que cette dernière est impossible population de Breslau. Aujourd'hui les
que l'on recourt à a prévention ; c'est Pour maitriser les risques, on cherche méthodes ex post sont devenues très éla-
parce que la prévention totale est impos- d'abord à les prévoir et, plus précisément borées : pour les risques automobiles, on
sible que l'on recourt à l'assurance, et, à en calculer les probabilités de survenue sait calculer les probabilités d'accidents
pour les cas ou l'assurance est impos- et de coût. Chaque fois que nous selon le conducteur, le lieu de circulation,
sible, on recourt a la précaution. sommes confrontés à une situation ris- le véhicule... On découvre parfois des
Qu'est-ce qu'un risque ? C'est un quée, nous sommes dans la situation du facteurs inattendus : le risque automobile
danger éventuel, plus ou moins prévi- joueur qui lance une pièce de monnaie et dépend de la couleur du véhicule (il est
sible. Certains risques sont naturels : aimerait savoir le résultat du lancer. Pour maximal pour les véhicules rouges) !
c'est le cas des tsunamis, des cyclones, envisager de prendre des paris sur le côté Toutefois, aussi fine que soit l'analyse
des volcans, des inondations, des glisse- qu'affiche la pièce, le joueur avisé étudie des risques automobiles, on ne pourra
ments de terrains, des chutes d'astéroïde, des séries de lancers et dresse des statis- jamais prévoir qui sera touché, où et
mais aussi des épidémies. D'autres risques
sont artificiels, créés par l'homme : acci-
dents du travail, risques automobiles,
explosions, vols, dommages a autrui,
pertes financières, pollutions...
Enfin les risques « stochastiques »
n'occasionnent pas de dégâts directs,
mais accroissent la probabilité d'autres
risques : le tabac, par exemple, accroit
indirectement la probabilité d'avoir un
cancer du poumon.
L imposable énumération
des risques
La prévention
La vision probabiliste de Laplace Le hasard trouve... bien les choses Les marchés aléatoires
Bernard BRU est professeur à l'Université JeanJACQUES, directeur de rechercheémérite Jean-Philippe BOUCHAUDest chercheur au
René Descartes. au CNRS(Collège de France), a longtemps tra- CEA. Christian WALTER, actuaire au Crédit
P.-S : LAPLACE, Théorie analytique des pro- vaillé en chimie des hormoneset en stéréochimie. Lyonnais et membre agrégé de l'Institut des
habilités, Paris, 1812. René TATON,Causalité et accidents de la actuaires français, enseigne à l'École supérieure
P.-S. LAPLACE,Essai philosophique sur les découverte scientifique, 1955. des scienceséconomiqueset commerciales.
probabilités, Paris, Christian Bourgeois, 1986. G. SHAPIRO, TheSkeleton in the Darkroom, H. M. MARKOWITZ, Portfolio Selection,
Stories and Serendipity in Science, 1989. Efficient Diversification of Investments, New
Du hasard bénin au hasard sauvage R. M. ROBERTS,Serendipity : Accidental York, J. Wiley and Sons, 1959.
Discoveries in Science, 1989. B. MANDELBROT, « Sur certains prix spécula-
Benoît MANDELBROT, ancien élève de
l'École polytechnique et professeurde mathéma- A. KOHN, Fortune and Failure ; Missed tifs : faits empiriques et modèle base sur les pro-
Opportunities and Chance Discoveries in cessus stables additifs non gaussiens de Paul
tiques à Yale, nous a autorisésà extraire ce texte Science, 1989. Lévy »,Compte-rendu à l'Académie des sciences,
de son ouvrage, Fractals, hasards et tourbillons,
Jean JACQUES, L'imprevu ou la science des séance du 4 juin 1962, pp 3968-3970. C'est la
dont la parution chez Flammarion est imminente. objets trouvés, 1990. première suggestionde l'application des lois de
Lauréat du prix Wolf de physique en 1993,il est Lévy à la modélisation desvariations de marché.
surtout connu pour la découverte de l'Ensemble La loi normale, J.-P. BOUCHAUD& D. SORNETTE,The «
qui porte son nom et pour son rôle de « pèredes reine des statistiques Black-Scholes Option Pricing Problem in
fractals »; il est l'auteur desObjets fractals (la 4e
Aime FUCHSest professeur à l'Université Mathématical Finance : generalisation and
édition a paru chez Flammarion dans la collec-
de Strasbourg 1. extention for a large class of stochastic pro-
tion de poche, Champs) et du livre The Fractal
A. de MOIVRE,The Doctrine of Chances or cesses., Journal de Physique France 4, juin
Geometry of Nature (New York, W. H. Freeman, 1994, pp 863-88 1.
1982). La nouvelle abondancedes données et la a Method of Calculating the Probability of
Events in Play, London, Millar, 1756 ; réim- C. WALTER, « L'utilisation des lois Lévy-
puissancedes ordinateurs donnent à ses travaux
pression par Chelsea,New York, 1967. stables en finance : une solution possible au pro-
sur la finance et le risque une acuité nouvelle ; ils blème posé par les discontinuités des trajectoires
Y. V. LINNIK, An Information-theoretic
vont être réimprimés sous le titre Fractals in boursières », Bulletin de l'IAF, n° 349 (octobre
Finance : Discontinuity and Concentration. Proof of the Central Limit Theorem with the
Lindeberg Condition, in Theory 1990) et 350 (janvier 1991). pp 3-32 et 4-23.
La répartition des étoiles and its Applications, tome 4, 1959.
Le paradoxe de Stein
A. FUCHSet G. LETTA,Sur certaines équa-
et des galaxies
tions fonctionnelles liées à la loi normale, Bradley EFRON est directeur du
Joseph SILK est professeur d'astronomie à L'Enseignement Mathématique, 2e série, tome Département de statistiques de l'Université de
l'Université de Californie, à Berkeley. Alexander 25, 1979. Stanford. Carl MORRISest maître statisticien à
SZALAYest professeurde physique à l'Université la Rand Corporation, à SantaMonica.
de Budapest. Yakov ZEL'DOVICHest professeur Le mouvement brownien Grace M. CARTER et John E. ROLPH,
d'astrophysiqueà l'Université de Moscou. et la théorie du potentiel Empirical Bayes Methods Applied to
Joseph SILK, The Big Bang : The Creation Estimating Fire Alarm Probabilities, in Journal
Reuben HERSHet Richard GRIEGOsont pro-
and Evolution of the Universe, W.H. Freeman fesseurs au Département de mathématiques et of the American Statistical Association, vol. 69,
and Company, 1980. n° 348, pp. 880-885, décembre 1974.
statistiques,à t'Université du Nouveau-Mexique.
J.R. GOTT,The Growth of Structure in the Anthony W. KNAPP, Connection between B. EFRON et C. MORRIS,Data Analysis using
Universe, in Physical Cosmology, sous la direc- Brownian Motion and Potential Theory, in Stein's Estimator and its Generalizations, in
tion de Roger Balian, Jean Audouze et David N. Journal of the American Statistical Association,
Journal of Mathematical Analysis and
Schramm,Elsevier-North Holland, Inc., 1980. Applications, vol. 12, n° 2, pp. 328-349, vol. 70, n° 350, pp. 311-319, juin 1975.
Y. B. ZEL' DOVICH, Modern Cosmology in octobre 1965.
Highlights of Astronomy, vol. 6, sousla direction M. KAC, Wiener and Integration in Florence Nightingale,
de R. West, D. Reidel Publishing Co., 1983. infirmière et statisticienne
Function Spaces, in Bulletin of the American
Mathematical Society, vol. 72, n° 1, partie II, Bernard COHENest professeurd'histoire des
L'évolution de la vie sur Terre pp. 52-68, janvier 1966. sciencesà l'Université Harvard.
Stephen JAY GOULDest professeur de bio- Florence NIGHTINGALE, Notes on Nursing :
logie, de géologie et d'histoire des sciences, à Les suites aléatoires What It Is, and Whate It Is Not, Harrison and
l'Université de Harvard. Gregory CHAITIN est programmeur chez Sons, 1859.
L'évolution, collection Science d'avenir, IBM et enseigne l'informatique et les mathéma- Sir Edward COOK, The Life of Florence
Pour la Science, 1989. tiques à l'Université de Buenos Aires. Nightingale, Macmillan and Co., 1913.
S.J. GOULD, La vie est belle : les surprises Gregory J. CHAITIN,Information-Theoretic John M. EYLER, Victorian Social Medicine
de l'évolution, Collection Science ouverte, édi- Limitations of Formal Systems, in Journal of The Ideas and Methods of William Farr, The
tions du Seuil, 1991. the Associationfor Computing Machinery, vol. JohnsHopkins University Press, 1979.
Les fossiles, témoins de l'évolution, 21, pp. 403-424, juillet 1974.
Bibliothèque Pour la Science, 1991. Jean-Paul DELAHAYE, Information, com- L'épidémiologiste traque le hasard
Les origines de l'homme, Bibliothèque plexité et hasard, éditions Hermès, 1994. Daniel SCHWARTZ, professeur de statistique
Pour la Science, 1992. médicale et biologique à la faculté de médecine
David RAUP, De l'extinction des espèces. L'espérance mathématique de Paris-Sud, directeur de l'unité de recherches
Sur les causes de la disparition des dinosaures Jean-PaulDELAHAYEest professeur d'infor- statistiquesdel'INSERM(U21), est le fondateur de
et de quelques milliards d'autres, éditions matique à l'Université de Lille. l'École françaisede statistiquemédicale.
Gallimard, Les Essais 1993. D. KAHNEMANet A. TVERSKY,La psycho- D. SCHWARTZ,P. LAZAR et L. PAPOZ,
logie des préférences, in Pour La Science, mars Statistique médicale et biologie, Flammarion
Le hasard matrimonial 1982. médecine sciences,Paris 1985.
Hervé Le BRASest directeur du Laboratoire D. DENNETT,La stratégie de l'interprète, D. SCHWARTZ, Le jeu de la science et du
de démographie historique, à l'École des hautes NRFEssais, éditions Gallimard, 1990. hasard, Flammarion, 1994.
étudesen sciencessociales. M. GARDNER,La magie des paradoxes,
Bibliothèque Pour La Science, 1993. L'évaluation et la gestion
A. GIRARD,Le choix du conjoint, PUF, 1971.
P. LASLETT, Family Life and Illicit Love in des risques
Les probabilités géométriques
Eatlier Generations : Essays in Historical Granger MORGANdirige le département de
Sociology,Cambridge University Press, 1977. Roger CUCULIÈREenseigne les mathéma- politique industrielle à l'Université Camegie
K. WACHTER,E. HAMMEL,P. LASLETTet H. tiques en classede mathémathiquessupérieures. Mellon.
LE BRAS,Statistical Studies of Historical Social M. KENDALL et P. MORAN, Geometrical Readings in risk, sous la direction de
Structures, Academic Press,New York, 1978. Probability, Charles Griffin &
Co., Ltd., Theodore S. Glickman et Michael Gough,
H. LE BRAS, Les jeux du hasard et du Londres 1963. Resourcesfor the Future, 1990.
mariage, in Demographie et Sociologie, SEDEIS- L. SANTALO, Integral Geometry and Risk analysis, publication trimestrielle de la
La Sorbonne, 1988. Geometric Probability, Addison Wesley, 1976. Societyfor Risk Analysis, PlenumPublishing.