Vous êtes sur la page 1sur 128

TABLE MATIERES

DES

PRÉFACE REPRISE D'EMILE BOREL 4

LE HASARD DÉCELÉ

La vision probabiliste de Laplace, Bernard Bru 8

Du hasard bénin au hasard sauvage, Benoît Mandelbrot 12

La répartition des étoiles et des galaxies, J. Silk, A. Szalayet Y Zel'dovich 18

Les fluctuations primordiales de l'Univers, Laurent Nottale 28

L'évolution de ta vie sur Terre, StephenJay Gould 30

Au hasard des rencontres, André Langaney 38

Le hasard matrimonial, Hervé Lebras 42

Le hasard trouve... bien les choses,JeanJacques 48

LE HASARD EVALUÉ

La loi normale, reine des statistiques, Aimé Fuchs 54


Le mouvement brownien et la théorie du potentiel, R. Hersh,R. Griego 60
Les suites aléatoires, Gregory Chaitin 68

L'espérance mathématique, Jean-Paul Delahaye 76

Les turpitudes du joueur 81

Les probabilités géométriques, Roger Cuculière 82

Les hasards simulés, Alexander Dewdney 88

LE HASARD MAITRISÉ

Les marchés aléatoires, J.-P.Bouchaud et C. Walter 92

Une stratégie aléatoire surprenante, Ian Stewart 96

Le paradoxe de Stein, B. Efron, C. Mords 100

Florence Nightingale, infirmière et statistidenne, Bemard Cohen 110

L'épidémiologiste traque le hasard, Daniel Schwartz 116

L'évaluation et la gestion des risques, GrangerMorgan 120

Le hasard assuré, Jean-JacquesDuby 127


PRÉFACE

Émile Borel

II y a quelques mois, à une question qu'elles étaient bien avant qu'il y eût des inouïe, bien qu'il n'y ait place que pour
posée sur mes travaux scientifiques, hommes, sur ce qu'elles seront long- deux alternatives quant à la solution.
j'eus l'imprudence de répondre que je temps après que l'humanité aura dis- D'autres phénomènes fortuits, tels que
terminais un livre sur le hasard ; mon paru (à supposer que ces questions aient ceux qui se présentent dans les jeux de
interlocuteur me demanda aussitôt, non un sens), il parait incontestable qu'au hasard (dés, cartes, etc.), sont d'une
sans quelque ironie, ce que je dirais de point de vue pratique, pragmatiste nature un peu moins complexe : qui
neuf sur ce « magnifique sujet ». comme on dit parfois, la croyance en ces analysera néanmoins en détail les mou-
II me fallut assurer que je ne ferais lois est pour nous une nécessité : nous vements de la main qui jette les dés ou
connaître aucune recette pour gagner à ne poumons pas nous endormir si nous qui bat les cartes?
la roulette, aucun talisman propre à n'étions pas assurés que le soleil se La caractéristique des phénomènes
écarter les hasards funestes ou à attirer lèvera demain. De même, on concevrait que nous appelons fortuits ou dus au
sur nous et nos proches les hasards difficilement t'existence d'un homme hasard, c'est de dépendre de causes trop
favorables ; mais, avec son mystère, le qui, lâchant une pierre au-dessus de son complexes pour que nous puissions les
livre avait perdu tout son prestige, et ta pied, ne s'attendrait pas à la voir tomber connaître toutes et les étudier.
question attendue, « mais que ren- et a avoir le pied écrasé.
ferme-t-il donc alors? »,fut posée avec La nécessité « humaine » des lois des Une étude, même très superficielle,
une indifférence courtoise qui n'exi- naturelles est le point de départ de toute phénomènes fortuits les plus
geait aucune réponse. spéculation scientifique ; ce principe est fréquents, montre que ces phéno-
Les lecteurs habituels de cette collec- tellement évident qu'on juge inutile de mènes obéissent à ce qu'on appelle
tion n'ont pas commis la même méprise le répéter dans chaque ouvrage de des lois statistiques. Soient,
par
et ne cherchent pas id une sauvegarde sciences. J'aurais pu aussi le sous- exemple, mille enfants à naitre d'ici
contre les hasards de la vie. Ils pourront entendre ; si je ne rai pas fait, c'est parce quelques mois ; pour chacun d'eux pris
y trouver, cependant, à coté de la spécu- que le hasard, qui est l'objet de ce livre, individuellement, nous n'avons actuel-
lation pure, des remarques plus s'oppose précisément à la notion de loi ; lement aucun moyen de prévoir son
concrètes et même des règles d'action il n'était donc peut-être pas inutile de sexe ; mais nous sommes sûrs de ne
pratique, pourvu qu'ils veuillent bien, rappeler brièvement la place éminente pas nous tromper en affirmant que sur
pour les formuler, s'aider de leur qu'il ne saurait être question de contes- les mille enfants, il y aura des garçons
réflexion personnelle. Mon but principal ter a cette notion. et il y aura aussi des filles. De même, si
a été de mettre en évidence le rôle du Malgré le progrès de la science, il y l'on donne un dé à chacun des soldats
hasard dans les branches diverses de la a beaucoup de faits que l'homme est d'une armée et si chacun d'eux lance
connaissance scientifique. incapable de prévoir ; l'exempte le plus ce dé, on peut affirmer que le point 6
banal est celui de la pluie et du beau sera certainement amené par
Qu'il s'agisse de la culture du sol temps ; nous n'y insisterons pas, car la quelques-uns. Sur un million de jeunes
auquel
on confie des semences complexité des phénomènes météoro- gens de vingt ans, reconnus d'excel-
précieuses en vue d'une récolte lointaine logiques ne nous permettrait d'en par- lente santé par les meilleurs médecins,
ou des problèmes sans nombre qu'il a ler avec précision qu'au prix de longs on peut être certain que plusieurs
fallu résoudre pour l'élevage des ani- développements. La sexualité dans les seront morts avant dix ans et, cepen-
maux, la chasse, la pêche, la navigation, naissances humaines est un cas typique dant chacun d'eux pris individuelie-
la conservation ou la cuisson des ali- d'un problème jusqu'ici insoluble, mal- ment peut très légitimement espérer
ments, l'homme n'a pu vivre et progres- gré la simplicité au moins apparente de vivre jusqu'à trente ans.
ser que grâce à la connaissance des lois son énoncé ; tel enfant à naître sera-t-il On voit quelle est ta différence qui
naturelles toujours plus nombreuses et a un garçon ou une fille ? Nous ne savons sépare la loi statistique des lois natu-
une confiance grandissante en la valeur même pas avec certitude si le sexe est relles : ta loi statistique ne permet pas de
de ces lois. Quelque opinion métaphy- déterminé dès l'instant de la concep- prévoir un phénomène déterminé, mais
sique que l'on professe sur la contin- tion ; la recherche des « causes » dusexe énonce seulement un résultat global
gence des lois de la nature, sur ce est un problème d'une complexité relatif à un assez grand nombre de phé-
nomènes analogues ; de plus, sa certi-
tude ne parait pas être de même nature
et n'entraine pas l'assentiment de tous.
Si, en présence d'une nombreuse assem-
blée, je prends une pierre dans la main et
j'annonce que je vais la lâcher et qu'elle
ne tombera pas, tous mes auditeurs res-
teront sceptiques, et si l'expérience
annoncée réussit, chacun sera persuadé
que la pierre a été maintenue en rair par
un fil invisible ou par tout autre moyen.
Si, devant la même assemblée, je parie
que je lancerai deux dés vingt fois de
suite et que j'obtiendrai chaque fois le
double six, je rencontrerai certainement
un égal scepticisme, et si l'expérience
réussit, chacun croira à une supercherie.
Les deux cas ne sont néanmoins pas
identiques ; pour la pierre qui reste sus-
pendue en l'air après que je l'ai lâchée, la
certitude de la supercherie subsistera,
même après que j'aurai fait vérifier à
chaque spectateur qu'on n'a pas
employé les « trucs » auxquels il avait
pensé, et cette certitude sera assez forte-
ment ancrée pour que chacun soit prêt à
parier tout ce que l'on voudra, même sa
propre vie, que l'expérience réussie n'est
pas celle que j'avais décrite. Au contraire,
pour les vingt coups de dés, si les dés
sont examinés avec soin, si l'on a
confiance en mon honnêteté et si
j'affirme que je les ai lancés loyalement,
certains se demanderont peut-être si la
coincidence des vingt coups identiques
n'est pas simplement due à un hasard,
sans doute fort invraisemblable, mais
tout de même possible.
La question de savoir si cette impres-
sion est justifiée est au nombre de celles
que nous chercherons a éclaircir plus
loin, mais le fait qu'elle existe ne peut pas
être entièrement négligé ; il prouve que
ta loi statistique ne s'impose pas à l'esprit
humain avec le même caractère de
nécessité que les lois naturelles.

Émile Borel était membre


de l'Institut, et ses travaux sur
les probabilités firent date.
Ce texte est extrait du Hasard, par
Émile Borel, Librairie Félix Alcan, 1928.
LE HASARD DÉCELÉ
H

Le mythe, cher à Émile Borel,


des singes dactylographes
qui reconstituent l'oeuvre
de Molière, illustre la notion
de hasard miraculeux
et cependant logiquement
réalisable. Là réside le grand
mystère. Quelle est la part
du hasard dans la nature
actuelle des choseset
des êtres? Par quel hasard
l'Univers s'est-il formé ?
Par quel hasard,
l'évolution a-t-elle engendré
l'homme et la diversité
compliquée où il vit ?
La vision probabiliste

de Laplace

Bernard Bru

Le très déterministe Laplace a élaboré une oeuvre Moivre (1667-1754) et surtout Laplace
ont étendu et précisé. Dans sa version
monumentale sur le calcul des probabilités. élémentaire, ce théorème affirme qu'au
cours d'une longue suite de parties de
Celle-ci préfigure les vives polémiques de la première pile ou face, la fréquence observée des
faces s'approche très probablement
moitié de notre siècle entre les déterministes d'une valeur fixe, égale à 1/2 si la pièce
est parfaitement équilibrée.
et les partisans du « hasard essentiel ». Laplace commente ce théorème
ainsi : « II suit de ce théorème que, dans
une série d'événements indéfiniment
prolongée, l'action des causes régulières
Tous les événements,ceux même qui tion de Newton détermine les révolutions et constantes doit l'emporter à la longue
par leur petitesse semblent ne pas tenir des planètes autour du Soleil. Que sur celle des causes irrégulières. C'est
aux grandes lois de la Nature, Laplace n'ait pas compris le rôle du ce qui rend les gains de la loterie aussi
en sont une suite aussi nécessaire hasard dans la Nature, ce serait un certains que les produits de l'agricul-
que les révolutions du Soleil. moindre mal. Mais on lui reproche par- ture... » Il expose ensuite quelques
fois d'avoir engagé, grâce à son immense exemples. Ainsi le nombre de lettres
Certes Pierre-Simon de autorité scientifique, le cours des sciences mises au rebut pour cause de défaut
Laplace (1749-1827) est dans la voie (de garage) déterministe dont d'adresse est constant d'une année sur
«comme
détermiste », en elles ont eu tant de mal à se dégager au l'autre à Paris (et même à Londres) ; le
témoigne cet extrait de début du XXe siècle. Et l'on fustige alors rapport des nombres de naissances mas-
I'Essai philosophique sur ce déterminisme laplacien, étroit et rétro- culines et féminines est fixe ; les fron-
les probabilités, où l'auteur présente son grade, qui aurait façonné à son image tières des états, déplacées au hasard des
oeuvre probabiliste à un large public cul- toute la physique mathématique, particu- conquêtes par la « perfidie et l'ambi-
tivé. Selon lui, le calcul des probabilités lièrement en France. tion » de leurs chefs, reviennent néces-
ne joue aucun rôle dans l'intelligibilité Cette vision de l'oeuvre de Laplace sairement à leurs limites géographiques
des événements de la Nature, si ce n'est est erronée. Si l'École laplacienne a privi- naturelles ; les flots momentanément
celui, modeste en somme, de maîtriser les légié l'approche mécaniste, elle est aussi soulevés par de violentes tempêtes
erreurs de mesure ; autrement dit, le cal- à l'origine de l'approche statistique des retombent inéluctablement dans leurs
cul des probabilités sert à corriger les fai- sciences dures de la matière et de la vie, bassins naturels sous l'action, constante
blesses de nos instruments et de nos sens, approche qui consiste non pas à exprimer et régulière, de la pesanteur.
en l'attente de progrès ultérieurs. En ses propres convictions sur la Nature, Nombre d'auteurs antérieurs à
revanche, les lois de la Nature sont abso- mais à l'observer, à la décrire, à la com- Laplace avaient cette vision du hasard.
lument déterministes. La Nature ne se prendre. Dans son oeuvre probabiliste, Au XVIIIe siècle, Abraham de Moivre
trompe jamais, elle ne joue pas, elle ne Laplace pose lui-même les jalons de cette avait associé au théorème de Bernoulli la
choisit pas, elle fixe la succession « néces- approche statistique. « loi naturelle de l'Éternel retour ». Dès
saire »des événements, aussi petits soient- l'Antiquité, Boèce écrit dans sa
ils. Le but éminent de la science est de La loi des grands nombres Consolation de la Philosophie (524) :
préciser cette détermination en la soumet- « Le Tigre et l'Euphrate se confondent en
tant au calcul, et seule l'analyse (détermi- Reprenons l'Essai philosophique sur une seule source et, bientôt, leurs eaux se
niste) peut y contribuer. les probabilités, édité cinq fois de 1814 à séparent et ils se désunissent. S'ils se
Si l'on s'en tient à cette observation, 1825, et que tous les savants du XIXe rejoignaient et réintégraient un lit unique,
on conclut aisément que Laplace n'a pas siècle ont lu. Laplace y énonce et com- tout ce que chacun transporte se retrouve-
compris l'importance des statistiques mente, sans formules, les deux théorèmes rait pêle-mêle, les bateaux se rencontre-
dans les sciences, aveuglé qu'il était par fondamentaux de la théorie des probabili- raient comme les troncs arrachés par le
ces « grandeslois de la Nature » qui déter- tés. Le premier est le théorème de courant et leurs eaux mêlées dessineraient
mineraient la succession des événements Bernoulli (du mathématicien Jacques un tracé hasardeux. Pourtant ces errances,
les plus infimes, comme la loi de l'attrac- Bernoulli, 1654-1705) qu'Abraham de ce sont la déclivité du terrain et les lois de
1. PIERRE-SIMON MARQUIS DE LAPLACE (1749-1827). Astronome, mathématicien et physicien, célèbre pour son déterminisme,
il est pourtant l'auteur d'une œuvre impressionnante sur le calcul des probabilités.

l'écoulement de l'eau qui les régissent. considérables d'événements d'une même rances maritimes, les assurances sur la
Ainsi, bien qu'il semble s'écouler en nature, dépendants de causes constantes vie. Poisson précise que « la constitution
toute liberté, le hasard subit une règle et et de causes qui varient régulièrement, des corps formés de molécules disjointes
son cours obéit à des lois. » tantôt dans un sens, tantôt dans l'autre, que séparentdes espacesvides de matière
Denis Poisson (1781-1840), le dis- c'est-à-dire sans que leur variation soit pondérable (les gaz) offre aussi une appli-
ciple préféré de Laplace, poussera plus progressive dans un sens déterminé, on cation de la loi des grands nombres...
loin le commentaire, créant du même trouvera, entre ces nombres, des rapports Autour de chaque point, la distribution
coup le concept de « loi des grands à peu près constants.» Comme Laplace, il des molécules pourra être très irrégulière
nombres ». Son cours de calcul des proba- ajoute que le calcul des probabilités four- et très différente d'un point à un autre ;
bilités fait autorité dans toutes les univer- nit aux savants les formules qui précisent elle changera même incessamment par
sités du XIXe siècle, de Cambridge à les limites entre lesquelles ces rapports l'effet des oscillations intestines des
Saint-Pétersbourg, en passant par Berlin varient probablement et qui permettent molécules, car un corps en repos n'est
et Gottingen. Voici comment il expose, ainsi de déceler d'éventuels changements rien d'autre qu'un assemblage de molé-
en 1837, sa nouvelle loi naturelle : « Les dans les causes constantes qui détermi- cules qui exécutent des vibrations conti-
choses de toute nature sont soumises à nent lesdits événements. nuelles... Or si l'on divise chaque portion
une loi universelle qu'on peut appeler la La loi des grands nombres étant uni- du volume, de grandeur insensible, par le
loi des grands nombres. Elle consiste en verselle, ses applications sont nom- nombre des molécules qu'elle contient, et
ce que si l'on observe des nombres très breuses : les marées océaniques, les assu- si l'on extrait la racine cubique du quo-
tient, il en résultera un intervalle dans l'air du temps. Elle triomphera bien- des procès, restent constantes ; de même,
moyen des molécules, indépendant de tôt en Angleterre et en Allemagne, et les nombres annuels de condamnations et
l'irrégularité de leur distribution, qui reviendra en France, terre promise du de jugements sont aussi invariables. Dans
sera constant dans toute l'étendue d'un déterminisme savant, après 1902. les années 1830, la statistique devient à la
corps homogène et partout à la même Une des grandes révélations de mode. Dans tous les domaines où l'on
température... » l'époque est que cette loi universelle des peut compter et mesurer, on recense les
Poisson appelle ainsi de ses voeux, grands nombres s'applique aussi à rapports constants ; on les collectionne,
contre la théorie de Fourier, une théorie 1' « ordre morale.Poisson en cite de nom- comme des fleurs ou des papillons, des
moléculaire de la chaleur. Ainsi l'idée breux exemples : les recettes annuelles du plus communs aux plus saugrenus.
d'une « mécanique statistique » (voire droit de greffe, qui dépend de la fré-
d'une thermodynamique statistique) est quence et de l'importance changeantes La théorie des erreurs

Le second théorème que Laplace


énonce et commente dans l'Essai phi-
losophique porte son nom, et ce n'est
que justice : il t'a démontré en 1810,
après y avoir réfléchi durant plus de 30
ans. Le théorème de Laplace affirme
que ces fameux rapports, ou moyennes,
ne sont véritablement constants que
lorsque l'on a accumulé un nombre
immensément grand d'observations ; si
l'on se contente d'un nombre modéré-
ment grand, ces rapports varient. Ainsi,
au cours d'une série de lancers d'une
pièce de monnaie, les fréquences de
faces fluctuent.
Néanmoins les fluctuations de ces
rapports suivent une certaine loi. Ils se
concentrent autour d'une valeur fixe,
qui est le vrai rapport constant qu'on
obtiendrait après un nombre infini de
tirages. Les fréquences des rapports
2. LA LOI DES GRANDS NOMBRES permet d'estimer la distance moyenne entre deux particules observés décroissent à mesure qu'ils
d'un gaz : cette estimation est égale à la racine cubique du volume divisé,
par le nombre n de s'écartent de cette valeur moyenne.
particules qu'il contient. Si le nombre n est grand et si le gaz est homogène, Ainsi, quel que soit l'ordre physique ou
la distance moyenne ainsi calculée pour une portion de volume est la même dans tout le gaz.moral auquel
se rattachent les rapports
(D'après Poisson,1837.)
mesurés, leurs valeurs se répartissent
sur une courbe en cloche, régie par une
formule mathématique unique.
Laplace s'intéressait surtout à
l'astronomie et à la vérification de la
loi de l'attraction par l'observation des
mouvements des corps célestes. Son
théorème fondait la théorie des erreurs
qui pouvait seule décider si les obser-
vations s'accordaient ou non, dans la
limite de leur précision, avec les
valeurs théoriques.
Quand on effectue plusieurs
mesures d'une même quantité comme
la position d'un objet céleste, chaque
mesure est affectée d'une erreur inévi-
table et inconnue. La moyenne de ces
mesures, qu'on espère proche de la
vraie valeur cherchée, varie malheureu-
sement d'une série de mesures à une
3. CHOISISSONS AU HASARD UNE BOULE DANS LA PREMIÈRE URNE, et placons-la dans
autre. Ces variations sont toutefois dis-
la deuxième urne ; de même, choisissons au hasard une boule dans la deuxième urne,
tribuées de part et d'autre d'une valeur
et plaçons-la dans la première urne. Quandon répète ceffe opération un grand nombre de
fixe, la vraie mesure de la quantité, sui-
fois, la proportion de boules d'une couleur dans chaque urne tend vers la valeur constante
1/2. Quand on mesure cette proportion après chaque échange au hasard, on observedes vant une courbe en cloche que Laplace
fluctuations autour de la valeur 1/2, qui se répartissent selon une courbe en cloche. nomme « loi des erreurs » (voir La loi
(D'après Laplace, 1811.) normale, reine des statistiques, par
Aimé Fuchs, dans ce dossier). deux variables de la surface
La plupart des applications que atteinte suit une loi des erreurs.
Laplace fera de son théorème Ce sont eux qui adopteront
relèvent de la théorie des erreurs l'image de la cloche, formée par
d'observation et de mesure. l'empilement des boulets de
Toutefois nous présentons ci- canon en leurs points de chute.
après deux exceptions, posté- Cette image fera mouche : bien-
rieures à la démonstrations de tôt on ne parlera plus de loi des
1810 : ces deux exemples, trai- erreurs, mais de courbe en
tés par Laplace, relèvent de phé- 4. LES IMPACTS DES BOULETS DE CANON se répartissentcloche. Les artilleurs de Metz ont
nomènes naturels. autour du but visé, selon une cloche. (D'après Jouffret, aussi inventé et popularisé la
En 1811, alors qu'il vient de 1872.) « fourchette », qui encadre le
donner la solution générale de point de chute moyen du boulet,
t équation de la chaleur de rouner (le La physique sociale et où l'on trouve presque toujours la
paradigme de la physique mathématique même proportion de coups.
déterministe française du XIXe siècle), L'immense succès de la loi des Ainsi, dans la littérature statistique
Laplace reprend le modèle de mélange erreurs provient de l'astronome belge du temps, une volée de cloches s'ajoute
des gaz proposé en 1770 par Daniel Adolphe Quetelet (1796-1874), dont on à la collection de rapports constants.
Bernoulli (le neveu de Jacques, 1700- fête cette année le bicentenaire. Quetelet Inversement, on considère qu'une popu-
1782). On considère deux urnes conte- était fasciné par l'oeuvre de Laplace. lation est homogène lorsque ses diverses
nant des boules de deux couleurs diffé- Grand collectionneur de rapports caractéristiques biologiques varient
rentes ; on prend, au hasard, une boule constants et de grands nombres, il souhai- selon une courbe en cloche. La Nature
dans une urne pour la mettre dans tait fonder une « physique sociale » en paraît alors disperser ses déterminations,
l'autre. Quand on répète cette opération appliquant la statistique à l'homme en comme un observateur disperse ses ten-
un grand nombre de fois, on répartit les société. Vers 1845, il eut l'idée de com- tatives de mesure d'une grandeur phy-
deux couleurs dans les deux urnes. parer la loi des erreurs à la distribution sique ; il semble exister un modèle idéal,
Bernoulli montrait que, en moyenne, les des tours de poitrine de 5 732 soldats l'homme moyen, que la Nature repro-
proportions de boules des deux couleurs écossais, à partir de données publiées duirait plus ou moins habilement selon
tendent à s'égaliser. Par une analyse dans une revue médicale d'Edimbourg. la loi des erreurs.
subtile, Laplace précise que la distribu- La comparaison se révéla aussi bonne Désormais on s'intéresse non seule-
tion statistique limite des boules d'une qu'en astronomie. Les tours de poitrine ment aux rapports constants, qui mani-
couleur dans une urne suit la loi des militaires varient comme les erreurs de festent l'action permanente des causes,
erreurs. Une fois atteint le « régime per- mesure d'une constante physique. De la mais aussi aux distributions des valeurs
manent », comme l'appelait déjà même façon, on peut ajuster des courbes d'un caractère dans une population don-
Bernoulli, les proportions de boules en cloche aux tailles, aux poids, aux péri- née. On cherche à leur ajuster une
colorées restent quasiment égales, dans mètres crâniens, puis à la sensibilité, à courbe en cloche. Depuis Galilée, on
les limites de la loi des erreurs. l'excitabilité et à l'intelligence ( !) de décrivait la Nature dans la langue de la
En 1819, lors de l'élaboration de la populations homogènes. géométrie ; après Descartes, on
nouvelle carte de France (la future À la même époque, les artilleurs- employait la langue de l'algèbre ;
carte de l'état-major au 80 000e), savants de l'École de Metz constatent Laplace a inventé la langue probabiliste.
Laplace tente de préciser les effets de que les boulets de canon se distribuent L'approche « populationniste », qui
la réfraction de la lumière sur l'évalua- autour du but visé suivant la loi des s'intéresse aux phénomènes de masse
tion des reliefs. La réfraction atmo- erreurs à deux dimensions : chacune des dans leur constance et leur variabilité,
sphérique modifie les distances zéni- prend alors sa forme moderne. Dans la
thales d'une quantité qui varie entre seconde moitié du XIXe siècle paraîtront
deux stations et au cours de la journée. les oeuvresdes premiers grands représen-
Laplace suppose que le coefficient de tants de cette tradition : Charles Darwin
réfraction varie suivant la loi des constate la variabilité des espèces et en
erreurs. Ainsi, sans état d'âme, déduit un processusde sélection naturelle
Laplace abandonne la loi déterministe des plus aptes ; Mendel montre comment
de Descartes, inadaptée à la descrip- les petits pois se reproduisent et transmet-
tion de la réfraction atmosphérique, tent leurs caractères en jouant à pile ou
pour une approche statistique. Ce n'est face ; Boltzmann décrit les mouvements
que bien plus tard, en 1859, que aléatoires des particules d'un gaz, etc.
Maxwell proposera un traitement simi- Alors les savants ont inversé le sys-
laire de la variabilité anarchique d'une tème de valeurs déterministes au béné-
quantité physique ; il énoncera la loi fice de l'approche statistique. Les lois
des vitesses des particules d'un gaz, déterministes ne fournissent que les
dont chaque composante est distribuée valeurs moyennes des vraies lois scien-
selon une loi des erreurs. Entre temps, 5. ADOLPHE QUETELET (1796-1874), tifiques, essentiellement probabilistes.
la loi des erreurs connaît une apo- astronome et mathématicien belge, est La Nature, ignorante comme l'homme
théose au moins comparable à celle le premier à avoir appliqué les statistiques de ses véritables déterminations, est
des rapports constants. aux sciencessociales. soumise aux lois du hasard.
Du hasard bénin

hasard
au sauvage

Benoît Mandelbrot

Dans les sciences, « hasard » est une notion multiforme. l'unité du calcul des probabilités, sont
trompeuses.Du point de vue qui m'inté-
Sa forme la mieux domptée, qu'on peut appeler resse,le calcul des probabilités présente
des analogies de plus en plus trou-
« bénigne », ne décrit ni la Bourse, ni maints autres phéno- blantes avec la théorie de la matière.
L'application de lois générales à des
mènes naturels ou sociaux ; pour en comprendre t'irrégu- contexteshétéroclitesrévèle l'existence
de plusieurs « états » très
distincts. Deux
larité, il faut faire appel à une forme « sauvage » du hasard. états de la matière sont connus depuis
toujours, les mots « solide » et « liquide »
étant dérivés du grec et du latin, et
« gazeux datant
» du xvM siècle. La phy-
La variété des phénomènes Pour le profane ou le philosophe, sique est à la fois unifiée et variée.
naturels et sociaux est infi- « hasard »est une notion unifiée. De Manifestation de son unité, tous ces
nie, les techniquesmathéma- plus, son unité mathématique a été états (et d'autres, car on ne cessed'en
tiques susceptibles de les expriméede façon abstraiteet très géné- identifier de nouveaux) se déduisentdes
dompter sont fort peu nom- rale. Trop générale même,comme nous mêmes principes et utilisent tous les
breuses: aussiarrive-t-il que desphéno- allons le voir, car elle noie des diffé- mêmesconcepts,tels que la température
mènesqui n'ont rien de commun parta- rences fondamentales, et parce que le et la pression. Manifestation de la
gent la mêmestructuremathématique.Il ciment que l'axiomatique fournit au cal- variété de la physique, les états de la
y a 30 ans, cette constatation philoso- cul des probabilités dissout sa spécifi- matièrediffèrent de façon très nette.
phique s'imposa à mon esprit. Mes tra- cité. Elle en fait un chapitre mal diffé- J'ai vécu un phénomène analogue
vaux sur la Bourse étaient près d'abou- rencié de la théorie de la mesure. de « différenciation »dans le cas du cal-
tir et j'entrevoyais des structures Au troisième quartde ce siècle,l'uni- cul des probabilités. Je vois maintenant
aléatoires très semblablesdans les tra- fié, l'abstrait et le généraldominaient la le hasard comme pouvant prendre
vaux que j'entamais sur les bruits et la recherche.Les mathématiquesfrançaises divers « états »,aussi distincts l'un de
turbulence. II s'agissait dans tous ces affichaient leur intérêt, non plus pour les l'autre qu'un gaz l'est d'un solide. Afin
cas des premiers stadesde la construc- « détails tarabiscotésde » l'analyse ou de de les faire comprendre,le mieux est de
tion d'une géométrie fractale. la géométrie,mais pour leurs « structures retracer l'histoire.
Quelle était donc l'idée centrale de fondamentales ». De même, la physique Pour commencer, pesons une affir-
mes travaux sur la finance? L'idée, si se complaisait dans la recherchedespar- mation que l'on trouve à la première
l'on ose dire, ambiante, était que les ticules fondamentales. page d'un traité célèbre dont un des
prix sont des fonctions continues du II est vrai qu'il n'y a de scienceque coauteurs, Andrei Kolmogorov, fut un
temps et que les fluctuations ne sontpas du général,et ma longuecarrièrescienti- des plus illustres mathématiciensdu XXe
plus sévèresque celles que décrit la dis- fique a été marquéepar l'identification siècle. C'est lui qui apporta à l'axioma-
tribution bien classique de Gauss. Le et l'étude d'une nouvelle structuregéné- tique du calcul des probabilités les
hasard auquel faisaient appel ces théo- rale, sous-jacente àmaints phénomènes touches ultimes qui rendirent ce
ries peut très légitimement être qualifié d'apparencehétéroclite,et qui diffuse à domaine d'étude acceptableaux mathé-
de « bénin ».Mais l'examen des faits traversles mathématiqueset les sciences maticiens « purs ».Or, la préface de
montrait le contraire : desfonctions dis- physiques,biologiques et sociales.Cette Gnedenko et Kolmogorov, en 1954,
continues et des fluctuations tout à fait structureest celle de l'auto-similarité et, nous affirme que « toute lavaleur épisté-
extrêmes. Je dus vite conclure qu'il plus généralement,de l'invariance par mologique de la théorie des probabilités
s'agissait d'une toute autre forme de réductionet dilatation ; lesobjets qu'elle est basée sur ceci : les phénomènes
hasard, qu'on peut très légitimement caractérisesontles fractales. aléatoires, considérés dans leur action
qualifier de « sauvage ». Les traits tech- Cependant,et peut-être paradoxale- collective à grande échelle, créent une
niques de mon approche seront décrits ment, la construction de la géométrie régularité non aléatoire ». Le modèle
par J.-P. Bouchaud et C. Walter (page fractale m'a vite fait découvrir, et sous-jacent est celui d'une suite de
92), aussim'attaqueraije ici à quelques confirmer abondamment,que l'unité du nombres obtenus en tirant un dé : sur
questionsphilosophiquessous-jacentes. monde des modèlesaléatoires,et même dix coups, la proportion du « deux »est
très variable (phénomène aléatoire),
mais sur un grand nombre de tirages (à
grande échelle), cette proportion sera
très proche d'un sixième (régularité non
aléatoire) ; nous y reviendrons. Je suis
certain qu'un sondage parmi les mathé-
maticiens et les savants empiriques
montrerait qu'ils sont d'accord avec la
thèse énoncée par Gnedenko et
Kolmogorov. Malheureusement, ladite
thèse est ambiguë, et l'approbation
générale reflète souvent un malentendu
dont les conséquences sont quotidiennes
et très sérieuses.
Précisons : tout mathématicien
entend par la thèse en question que
toute action collective possède au moins
un aspect qui soit, à la limite, régulier
non aléatoire. Toutefois, ceci ne suffit
pas pour satisfaire ni le savant ni l'ingé-
nieur ; l'un ou l'autre a besoin de
s'assurer que cette régularité collective
et non aléatoire ne porte pas sur des
phénomènes qui ne l'intéressent pas. De
plus, s'il y a régularité, il veut s'assurer
qu'elle s'établit assez rapidement pour
que les valeurs asymptotiques reflètent
la structure des systèmes finis que l'on
rencontre dans la nature.

Sur le fil du rasoir

Précisons encore. Le mode clas-


sique du hasard est celui du dé : quand
le nombre d'observations a suffisam-
ment augmenté ou que la précision de
l'analyse a été rendue suffisamment
grossière, les fluctuations aléatoires se
neutralisent et deviennent très vite rela-
tivement insignifiantes.
Un exemple de tous les jours est le
fil d'une lame bien aiguisée : au micro- LE FIL D'UNE LAME BIEN AFFUTÉEest
scope, il semble extraordinairement une forme bénigne de hasard. Vue de près,
irrégulier, mais à l'oeil nu, il paraîtra le fil est extrêmement irrégulier (1a) ; vue à
absolument droit. On peut, sans crainte, moins fort grossissement,il est plus régu-
extrapoler la direction représentée par le lier (lb et Ic). L'étude des fluctuations de
fil à partir de tout morceau plus grand cette forme estfacilitee par la possibilité
d'en décomposerla difficulté : on peut étu-
que les irrégularités, même s'il est plus dier d'abord la tendance (qui est ici recti-
petit que le tout.
ligne) et puis superposer les fluctuations.
Examinons aussi le courant élec-
En revanche, le profil d'une cote sauvage
trique dans un fil conducteur de cuivre : de Bretagne ne fait apparaître aucune
fortement amplifié et transmis aux régularité ni aucune tendance quand on la
bornes d'un haut-parleur, il apparaît regarde a des échelles de plus en plus
comme affligé d'un « bruit thermique » petites (figures 2a à 2d). L'étude d'une telle
très audible. Toutefois, un ampèremètre forme estplus difficile, car la décomposi-
ordinaire indique une intensité bien défi- tion en tendance etfluctuations est impos-
nie : il faut peu de temps pour la mesurer sible. L'étude n'en est toutefois pas impos-
sible grâce au caractère « égal » de son
exactement, la raison étant que le fil est
irrégularité, traduisible en homothétie
en parfait équilibre thermodynamique. interne. Les irrégularités de la lame sont
Deux termes interviennent souvent stationnaires, celles de la côte ne le sont
dans l'étude des bruits thermiques : dis- certainement pas. Cependant, une courbe
tribution gaussienne et mouvement mathématiquement stationnaire peut être
brownien. Plus généralement, nous presque aussi irrégulière que la côte.
allons donner une définition quantita- haut, les irrégularités « locales »devien- discussion entre Cauchy et Bienaymé.
tive à l'idée de hasard « presque brow- nent négligeables, mais on affronte de En substance, une exclamation la
nien », que j'ai qualifié par un terme nouvelles irrégularités, disons, « com- concluait : « On ne saurait comment qua-
coloré et fort : « bénin ». munales » ; et celles-ci, à leur tour, se lifier ces artisans qui fabriqueraient un
Décrire mes amis statisticiens fondent derrière des irrégularités qu'on instrument entaché d'erreurs si sau-
comme se limitant à l'étude du hasard peut dire « cantonales »,et ainsi de suite. vages » (voir le tableau 2). Donc, la pos-
bénin ne se veut pas un persiflage : Même si l'on inclut toute la Bretagne, sibilité qu'il existe de tels phénomènes
affronter le hasard ne peut éviter des aucune extrapolation rectiligne de la fut aussitôt classée comme pathologique,
souffrances, mais celles-ci tombaient direction de la côte ne vaut. et nul ne s'attendait à les rencontrer dans
dans un registre limité qu'un travail Or notre deuxième exemple de le réel. Donnons-en cependant quelques
intense avait permis de dominer. De hasard bénin concerne le bruit ther- exemples.
plus, on sait que les physiciens ont long- mique dans un fil de cuivre. Il y a 35 Le plus ancien (et très familier) est la
temps eu l'impression d'avoir bien ans, j'en rencontrais de nombreuses chronique des crues annuelles du Nil. Le
dompté le hasard. La raison, à mon avis, contreparties non bénignes, d'abord en moule intellectuel forme par l'étude des
est qu'ils ont pu et su commencer par finance, puis dans l'étude des crues du fluctuations bénignes suggère tacitement
des problèmes où le hasard était bénin, Nil, de la turbulence dans les fluides et que les moyennes des crues annuelles du
donc domptable. Dans toute science où de divers bruits électroniques auxquels Nil, prises sur des périodes successives
il en est ainsi, l'affirmation de Gnedenko on ne comprenait pas grand-chose et pas trop courtes, doivent être, en gros,
et Kolmogorov prend un sens très fort, qu'on appelait donc « anormaux ». C'est identiques. Mais la parabole biblique de
et ladite science peut devenir exacte. d'ailleurs la logique interne de mon Joseph, le fils de Jacob, celle des
Cependant, tout le monde connaît approche (que je vais expliquer dans un « vachesgrasses et des vaches maigres »,
des domaines du savoir qui sont depuis instant) qui fit obliquer mes travaux suggère au contraire que deux moyennes
longtemps reconnus et délimités, mais d'une « science sociale » à une science successives de sept ans ont, en une occa-
qui résistent à la quantification. Nous physique. Au moment de m'engager, sion au moins, été très différentes.
allons bientôt décrire trois domaines de j'étais étranger à ces domaines, et je fus D'après des données plus modernes et
ce genre : un concerne la géographie, un appelé au secours par des chercheurs de donc mieux vérifiables, des moyennes
deuxième, la physique, et le plus patent ma connaissance. Chacun d'eux avait prises sur 17 et 70 ans tendent également
porte sur les fluctuations économiques accumulé des données très abondantes, à s'écarter l'une de l'autre.
et tout particulièrement financières. et avait fait de longs efforts pour les Autre exemple important, moins
L'exactitude de la physique statistique décrire et interpréter par les méthodes familier qu'il ne le mériterait : les fluctua-
est le modèle pour ces derniers, mais acceptées. Bien sûr, faute de toute alter- tions de l'intensité des courants élec-
(nous allons y revenir) le moins qu'on native, ils appliquaient les méthodes du triques à travers les lames métalliques
puisse dire est que ce modèle reste un hasard bénin. Et chacun avait été arrêté fines, les microphones à carbone, les
idéal très lointain. par un échec flagrant. contacts et les semi-conducteurs, et toutes
Ayant étudié ce domaine et quelques Revenant aux fluctuations en sortes de composants électriques.
autres dans le même style, je me vis finance, où voyait-on donc un équilibre Fortement amplifiés, ces courants se trou-
obligé, en 1964, de distinguer le hasard économique qui serait l'équivalent de vent être perturbés par des « bruits élec-
bénin de celui qui ne l'est pas. Le non- l'équilibre thermodynamique « nor- triques anormaux » dits en llf (I'ampli-
bénin a deux causes.Premièrement, il se mal »? J'ai vite acquis le sentiment que tude de chaque fréquence du signal est
peut que des quantités satisfassent bien la la notion d'équilibre économique est proportionnelle à l'inverse de cette fré-
régularité de Gnedenko et Kolmogorov, vide de contenu, et que, pour décrire la quence). Si l'on trace ces bruits et la
mais qu'elles soient sans intérêt, tandis variation des prix, il ne suffit pas de chronique du Nil sur des graphiques de
que les quantités importantes subissent modifier le hasard bénin en incorporant dimensions analogues, leurs aspects se
des fluctuations qui ne sont pas bénignes. des innovations de détail. Je conclus révèlent étonnamment semblables. Ceci
Deuxièmement, il se peut que la conver- que le hasard bénin de la mécanique sta- sert à souligner que le contraste entre
gence vers le régulier non aléatoire ait tistique n'avait représenté qu'un pre- fluctuations bénignes et sauvages n'est
lieu, mais soit extraordinairement lente. mier stade de l'indéterminisme dans les pas affaire d'échelle, mais de structure.
sciences. Il était désormais indispen- Hâtons-nous de constater que les
De la côte de la Bretagne sable, sans d'ailleurs changer de calcul distinctions entre « blancs et « noir » ont
à la Bourse des probabilités, d'aller au-delà du une manière fâcheuse de permettre entre
bénin, de passer à un « deuxième stade » elles de nombreux niveaux de « gris ».
Hâtons-nous de préciser ces consi- du hasard, que je dénote maintenant par Ainsi, entre les états bénin et sauvage,
dérations trop générales par des un autre terme coloré et fort : « sau- une zone intermédiaire est bientôt appa-
exemples. Le souvenir de la lame bien vage ». Peu à peu, je fus conduit à consi- rue, où l'on peut identifier un « tiers
acérée conduirait à considérer le tracé dérer ces deux hasards, non plus seule- état ». Par exemple, il existe des situa-
d'un petit bout de la côte de Bretagne ment comme deux stades successifs tions intermédiaires entre le fil du rasoir
comme fait d'irrégularités superposées d'un processus historique, mais comme et la côte bretonne, telles que les côtes
à une « tendance générale » représentable deux « états »de caractères intrinsèque- Ouest des Amériques, où une direction
par un segment rectiligne. On est tenté ment distincts. générale apparaît derrière les fluctua-
d'extrapoler cette tendance à toute une Dans un contexte mathématique, tions. Un exemple mathématique d'une
ligne, mais nous savons tous qu'une l'idée du hasard sauvage remonte très telle convergence tardive est donné par
telle extrapolation ne signifierait rien. loin, à 1853, la crainte qu'il suscite distribution lognormale, un loup
Lorsque l'on examine une côte de plus s'étant déjà manifestée lors d'une dure déguisé en agneau. Ce hasard définit un
hasard lent : il conduit, à la longue, à la
même régularité non aléatoire que le 1. LE BRUIT THERMIQUE BLANC, EXEMPLE DE HASARD BÉNIN
hasard bénin, mais il y arrive avec une
extraordinaire lenteur.
J'insiste sur le fait que l'introduc-
tion des distinctions entre divers états
du hasard ajoute aux mathématiques,
sans les changer, mais surtout boule-
verse leur interprétation. Trois états du
hasard ne sont devenus indispensables
que quand des problèmes posés par la La théorie des fluctuations bénignes repose sur les piliers suivants.
Nature m'ont conduit à bâtir sur des
bribes ou des pans de mathématiques -La loi des grands nombres, dite aussi théorème ergodique :
existantes, tout en les ramenant d'un T
*Tt=1 X(t) tend
abstrait général indifférencié à un vers une limite non aléatoire, que l'on désigne,
T selon les disciplines,
par EX, MX ou <X>.
concret très structuré.
-Le théorème central limite, dit classique,mieux dit « gaussienen *T » :
Quantifier « bénin », *Tt=1 [X(t)-EX]
*T tend une verslimite gaussienne.
« sauvage » et « lent »

Pour ce faire, esquissons l'histoire On peut décomposer le théorème central limite en plusieurs affirmations :
des théorèmes limites du calcul de pro- • *Tt=1 [X(t)-EX]
babilités. Pour commencer, il s'agissait possède une limite.
de tirer J fois une pièce de monnaie qui A(T)
a la même chance de tomber sur pile • Cette limite a une distribution gaussienne.
(faisant gagner Paul) et sur face (faisant • Le facteur de pondération prend la forme A(T)=*T
gagner Francis ; d'habitude, ce joueur • Enfin, un passéet un avenir suffisamment séparés
sont asymptotiquement indépendants.
est appelé Pierre, mais je préfère attri-
buer aux joueurs de pile ou face les ini-
tiales P et F !). Il fut très tôt démontré
que, quand J augmente, la distribution Ces théorèmes sont présentés sur le Maynard Keynes se moquait de l'affec-
des gains de Paul allait se simplifier des tableau 1, et tout ce qui suit tourne tion de ses collègues pour le long terme,
deux façons que voici. autour de leur degré de validité. Trois leur rappelant que « dansle long terme,
Le nombre relatif de fois où le jeton cas sont à distinguer. nous serons tous morts ».
tombe sur pile est de plus en plus voisin Le cas bénin. On peut donner un Quelle est donc l'applicabilité pra-
de 1/2. C'est le cas le plus simple de la sens précis à la notion que ces théo- tique des théorèmes limites ? La phy-
« loi des grands nombres ». La différence rèmes « s'appliquent rapidement ». Si tel sique macroscopique étudie des échan-
pondérée entre ce nombre et 1/2 suit est le cas, une fluctuation sera dite tillons si immenses (le nombre
une distribution qui s'approche de plus « bénigne ». Il s'ensuit en général que les d'Avogadro est l'étalon de mesure)
en plus près de la distribution prétendue structures les plus intéressantes ne sont qu'il n'y a aucune difficulté. Mais
« normale » de Gauss. C'est le plus pas statistiques. Les fluctuations considérons la variable lognormale, qui
simple des « théorèmes centraux bénignes ont été bien décrites par les est tout simplement l'exponentielle
limites ». Puis à 1 000 petits pas, ces mathématiciens ; beaucoup ont été d'une variable gaussienne. Dans le long
résultats étendirent leur emprise. expliquées par les savants, et les ingé- terme, ses propriétés sont dominées par
D'abord, ils restèrent dans le même nieurs ont appris à bien les contrôler le fait que ses moments (moyenne, dis-
esprit et conduisirent à une vision de pour les rendre plus supportables. Ces persion, etc.) sont tous finis et s'obtien-
l'indéterminisme dans la Nature assise, derniers pouvaient évaluer la probabilité nent par des formules faciles ; donc la
comme le temple de Lamartine, sur trois d'un événement futur sur la base de variable lognormale paraît bénigne.
« vivants piliers ». moyennes, calculées sur un nombre suf- Dans le court ou le moyen terme, tout se
A. La « loi des grands nombres » fisamment grand d'événements passés. gâte, et son comportement paraît sau-
(souvent appelée « théorème ergodique »). Le cas lent. Il se peut que l' « action vage. On en traite comme si elle ne sen-
B. La « forme classique du théorème collective » conduise aux théorèmes A, B tait pas le soufre, mais c'est un mer-
central limite » (il faut préciser « forme et C, mais les limites seraient atteintes veilleux (et dangereux) caméléon.
classique », car nous verrons qu'il en est de façon si lente qu'ils n'apprennent pas Le cas sauvage. Les symptômes de
d'autres, et qui s'appliquent aux cas grand-chose sur le sujet « collectif » l'échec complet du mode bénin de
sauvages). qu'on rencontre dans les problèmes convergence des fluctuations sont au
C. Un troisième résultat qu'on a ten- scientifiques concrets. Que dire alors des nombre de deux, qui agissent seuls ou en
dance à omettre parce qu'on le croit évi- théorèmes A, B et C ? Il serait rassurant combinaison : (a) la rencontre occasion-
dent. Même si les « coups de dés généra- de savoir qu'ils restent applicables. Mais nelle d'énormes écarts par rapport à ce
lisés » ne sont pas indépendants, tout ce il faut reconnaître que ce ne sont que des qu'on aurait voulu considérer comme la
qui se rapporte à un « futur » suffisam- mirages, car le monde réel est fini. Dans « normes, et (b) la rencontre occasion-
ment éloigné est pratiquement indépen- un cadre de pensée très différent, mais nelle de très longues suites de valeurs,
dant du « passé »suffisamment éloigné. parallèle, le grand économiste John telles que chacune prise séparément
la physique. Or, toutes ces techniques
2. LE PROCESSUS DE CAUCHY, EXEMPLE DE HASARD SAUVAGE concernent le hasard bénin.
Prenons une suite de variables aléatoires indépendantes X(t), dont chacune a C'est là que se trouve l'origine de
la densité de probabilité de Cauchy : l'idée tentante que les fluctuations
1 s'effectuent nécessairement autour d'une
*(1 +x2) moyenne, laquelle peut elle-même être
Cesvariables ont la propriété que la moyenne, interprétée comme point d'équilibre et
reste soumise à divers déplacements, ou
EX=*Tt=1X(t)
tendances. A chaque fois qu'il en est
T effectivement ainsi, on peut décomposer
est elle-même une variable de Cauchy. Prendre la moyenne n'a aucun effet et la la difficulté : d'abord procéder sans tenir
loi des grands nombres ne s'applique pas. En fait, l'espérance mathématique est compte du hasard, et ne tenir compte de
infinie, donc l'expression qui entre dans le théorème central limite classique n'a l'incertitude que dans une deuxième
pas de sens, et le théorème lui-même n'est utilisable que sous une forme étape, à titre de correction. On sait que,
«généralisée
« »qui en altère totalement le sens. L'échec des théorèmes habituels est
dans les cas bénins, cette procédure a
dû ici à la présence fréquente de valeurs extrêmement grandes, exemples de ce
réussi magnifiquement. Mais dans les
que j'ai dénommé « fluctuationsde Noé ».
fluctuations non bénignes, s'il se
confirme que les fluctuations écono-
miques sont non bénignes, on devra
s'écarte assez peu de la norme, mais les dire obéisse à des règles qui restent s'attendre à ce que le concept d'équilibre
écarts dans une même direction sont si constantes dans le temps. Si c'était vrai, économique « file entre les mains » de qui
« persistants » quela moyenne ne peut se une fluctuation pour laquelle les trois voudra le saisir expérimentalement.
faire que très lentement ou pas du tout. théorèmes A, B, C ne s'appliquent pas Au fond, cette attitude défaitiste part
Par allusions bibliques connues de tous, ne pourrait pas être stationnaire. d'une incompréhension, à savoir de
j'ai proposé que les exemples associés à Prenez les « chroniques » boursières l'idée, déjà citée, que l'aléatoire à
ces deux symptômes soient respective- qui nous disent comment tel ou tel prix grande échelle crée à tous égards une
ment appelés « fluctuations de Noé » et varie dans le temps. Dès qu'on pût dis- régularité non aléatoire. Tel n'est abso-
de « Joseph ». Des exemples isolés de poser de données suffisantes, on lument pas le cas, et les théoriciens des
l'un ou de l'autre genre de fluctuation s'aperçut qu'aucun signe n'indique que probabilités le savaient. Si les scienti-
étaient connus de bien des savants, mais les trois théorèmes A, B et C puissent fiques ne s'attendaient pas au hasard
du fait même que chacun les considérait s'appliquer. Pour les tenants du « point sauvage, c'est que les probabilistes
comme isolés, leur existence restait pour de vue pratique », la conclusion fut que avaient, suivant le cas, soit exagéré, soit
ainsi dire secrète. Mes travaux procla- les bruits anormaux et les changements minimisé ladite « sauvagerie ». Elle fut
ment leur importance et leur unité ; le de prix ne sont pas stationnaires, c'est- exagérée par ceux qui l'ont affichée
hasard sauvage mérite d'être considéré à-dire que leur mécanisme varie dans comme « exceptionnelle » ou « patholo-
comme un objet d'étude en soi. le temps. gique » et sans application. Elle fut
On peut même se demander pour- Cette attitude et sa persistance m'ont minimisée ou cachée aux yeux du scien-
quoi il n'était pas déjà reconnu comme toujours surpris et affligé. Surpris, parce tifique dans l'esprit de la quête du géné-
tel. Une explication réside dans une opi- que les statisticiens qui la défendent se ral qui, il y a 30 ans, caractérisa toutes
nion que j'ai maintes fois entendu expri- résignent bien trop facilement au chô- les sciences. La tendance ne fut pas à
mer. La voici : sinon en théorie, tout au mage. Affligé, parce que je voyais en dire qu'un théorème, ergodique ou cen-
moins « du point de vue pratique », il suf- filigrane l'attitude défaitiste, qui prétend tral limite, était pris en défaut : on disait
fit, pour que les théorèmes A, B et C que l'étude de l'économie doit se plutôt qu'il pouvait être « généralisé »,
soient tous les trois applicables, qu'une contenter des techniques probabilistes sans même changer de nom.
fluctuation soit « stationnaire », c'est-à- déjà éprouvées et rendues familières par Cependant, « généraliser » n'est pas
k
un concept neutre. un certain
moment, les contenus des théorèmes
3. LE BRUIT EN 1/f, AUTRE EXEMPLE DE HASARD SAUVAGE centraux limites changent très profondé-
ment, perdant la signification intuitive
dont ils avaient jusque-là bénéficié. II
est fâcheux que l'utilisation du même
mot crée l'impression que la généralité
s'obtient, en quelque sorte, à peu de
frais et sans vrai changement.

Caractère « créatif »
Les bruits où l'amplitude d'une fréquence est inversement proportionnelle à du hasard sauvage
cette fréquence, dénommés bruit en 1/f, ont, comme les processusde Cauchy, la
propriété que « prendre la moyenne » n'asur eux aucun effet Ni la loi des grands Mes travaux ont toujours été domi-
nombres, ni le théorème central limite dassique ne s'appliquent nés par le caractère fortement visuel de
L'échec de ces théorèmes habituels est dû ici à la présence de « cycles » très toute ma pensée. Tout le monde semble
longs et très lents, exemples de ce que j'ai désigné par « ftuctuationsde Joseph ». le savoir dans le cas de l' « ensemble de
Mandelbrot ». Mais la même attitude
s'appliquait déjà dans mes recherches des exemples isolés. Ainsi les bruits
sur le hasard et m'a appris une grande fondamentaux de la physique sont les
leçon. Pour l'énoncer, comparons divers bruits thermiques, qui sont bénins, les
bruits électriques et ces bruits des mar- phénomènes non bénins étant des « cas
ches financiers que sont les change- spéciaux » que l'on aimait croire dénués
ments de prix. Un bruit thermique, dont d'importance.
il a été dit qu'il est bénin, est monotone, Parmi les raisons non contingentes
sans caractère, et l'on voit qu'il puisse qui ont fait que telle science a pu deve-
être éliminé ( « filtré ») assez aisément. nir exacte, on doit compter le fait que
Tout au contraire, un tracé boursier, un ses fluctuations les plus importantes se
bruit en l/f ou tout autre bruit sauvage trouvent être bénignes. Au contraire,
paraissent sans cesse changer de carac- les sciences dont le hasard non bénin
tère. Ils regorgent de traits dont on jure- régit les bruits de base risquent de
rait que chacun signifie quelque chose, demeurer longtemps dans un état
qu'ils ne sauraient être des effets du pur « moins exact ». L'opinion opposée est
hasard ; tel est bien le cas si on se limite fort répandue : elle postule que les
au hasard usuel, c'est-à-dire bénin. sciences exactes ont seulement eu
En revanche, observation d'abord l'avantage accidentel d'avoir eu plus de
stupéfiante, j'ai trouvé que ces traits peu- temps pour se développer, mais ce
vent « très facilement » être des effets point de vue me paraît contraire aux
d'un hasard sauvage. C'est dans le leçons de l'histoire. Même à l'intérieur
contexte de la Bourse que je pris pour la de la physique, les problèmes de la pré-
première fois conscience d'un phéno- vision des crues des rivières et celui de
mène troublant et magnifique : le pur la prévision des positions des planètes
hasard peut avoir un aspect qu'on ne avaient été identifiés à peu près aussi
peut s'empêcher de qualifier de créatif. anciennement, mais le premier resta du
Je saute de sujet pour dire aussitôt que domaine de la superstition, tandis que
c'est cette créativité-là qui, dix ans plus le second progressait brillamment. Or
tard, nous donna les pseudo-reliefs ter- « il se trouve » que c'était dans son sein
restres fractals, qui sont désormais clas- que les fluctuations sont faibles et à la
siques et ont été partout répétés et imités. limite négligeables.
Au vu de ce qui a été dit, comment II se pourrait donc que certaines
ne pas dire que le hasard bénin et malin sciences soient intrinsèquement plus
diffèrent l'un de l'autre autant qu'un complexes que d'autres. On pourrait
gaz diffère d'un solide. Que les règles craindre que le « degré d'exactitude »
les décrivant au niveau le plus abstrait d'une science n'ait, dans tous les cas, une
leur soient communes et très générales limite, plus ou moins haute. Allant des
n'empêche pas que ces deux cas posent plus exactes à celles qui le sont de moins
des questions très différentes. La notion en moins, on verrait décroître la propor-
de « traitement », en suivant l'analogie tion des quantités intéressantes que
médicale, doit se résigner à prendre, l'action collective régularise, et aussi la
dans ces deux cas, des formes totale- proportion des quantités régularisables
ment différentes ? qui se trouvent être intéressantes.
Je mentionnerai ici qu'au lieu du Avant de s'essayer à résoudre tout
terme sauvage, j'avais d'abord utilisé problème qui se pose, il faudrait que l'on
« malin »,qui était ainsi pris, tout à la fois, reprenne et approfondisse la notion du
dans deux sens nullement diaboliques. « problème bien posé », formulée vers
Le sens médical suggérait des problèmes 1900 par Jacques Hadamard. Celui-ci, en
très difficiles et pour lesquels la notion étudiant diverses équations de la méca-
même de traitement ou de cure n'avait nique, a constaté avec surprise que les
pas le même sens que dans les cas effets d'un petit changement des données
bénins. Le sens non médical de « malin » initiales ne sont pas nécessairement limi-
était tout aussi suggestif, mais passons... tés. Au contraire, il est des cas où ces
effets sont considérables ; s'il en est
Sciences et hasards ainsi, la « relation de cause à effet » a
beau être non aléatoire et connue impec-
On constate que des fluctuations cablement, on ne pourra guère s'en servir
non bénignes se rencontrent dans toutes en vue de prédiction. Lorsque la relation
les sciences. Dans les sciences (disons) de cause à effet et l'incertitude sur les
« moins exactes », je trouvai du non- données initiales sont toutes deux aléa-
bénin partout, tandis que dans les toires, le « bien posé » soulève de nou-
sciences « exactes », la règle semblait veaux problèmes ; mais ce n'est pas le
être que le non-bénin se concentre dans lieu pour les discuter !
La répartition

des étoiles et des galaxies

Joseph Silk, Alexander Szalay et Yakov Zel'dovich

Sur des milliards d'années-lumière, t'espace dossier).De plus, cesfluctuationsdoivent


engendrerdes structuresde taille particu-
n'est qu'un grand vide parsemé de superamas lière : on a maintenant identifié des
étoiles,desgalaxies,des amasde galaxies
de galaxies. Cette structure alvéolaire de l'Univers et même dessuperamas,c'est-à-diredes
amasd'amas, mais à l'échelle supérieure
résulterait de perturbations aléatoires de la densité à celle des superamas, l'Univers est à peu
près uniforme (il n'y existe pas « d'amas
de matière peu après sa création, le Big Bang. desuperamas »).

Des fluctuations
de densité
Ô ciel au-dessus de moi, inférieureà 1/30 000. Malgré ces succès,
ciel pur et haut, sois un séjour de danseon sait que l'expansionde l'Univers n'est Grâce aux résultats conjugués de la
pour les hasards divins ! pastout à fait uniforme. En effet, si cette cosmologie et de la physique des parti-
AINSI PARLAIT SARATHOUSTRA, NIETZCHE. expansionétait absolument uniforme, il cules, on a réussi à satisfaire toutes ces
n'existerait pas d'agglomération de exigences,sansfaire d'hypothèses cho-
Depuis longtemps les astro- matière et l'Univers ne serait qu'un gaz quantes sur l'état primitif de l'Univers.
nomes sont persuadésque de particulesélémentairesdont la densité En particulier, on n'a émis aucune
la distributionactuelledela diminueraitavec le temps : les étoileset hypothèsesur l'échelle ou la configura-
matière à l'échelle cos- lesgalaxiesn'existeraientpas. tion de la masseou de l'énergie au début
mique est un vestiged'une Afin d'expliquer la structureactuelle de l'expansion et on n'a introduit aucune
époque très reculée de l'histoire de de l'Univers, le cosmologiste du Big force nouvelle. On a simplement admis
l'Univers. Commela théorie du Big Bang Bang doit donc admettre que, dès le que peu après le Big Bang, il y eut de
fait la quasi-unanimitéchezles cosmolo- début de l'histoire de l'Univers, il y eut petites variations de la densité de masse
gistes et les astrophysiciensqui pensent certainesaccumulationsde matière. Ilest et d'énergie partout dans l'Univers. Ces
que ce modèlepermetd'appréhendertous possibleque cespremièreshétérogénéités variations résultaientde la superposition
les phénomènescosmologiques, il faut aient étéfaibles et presqueindiscernables de fluctuations de faible amplitude de la
examiner,dans le cadrede cette théorie, du fond homogène ; de petites fluctua- densité, à toutes les longueurs d'onde
la très irrégulière distribution de matière tions dansla courburede l'Univers primi- possibles, c'est-à-dire à toutes les
dansl'Univers et sonévolution. tif se traduiraientpar de faibles compres- échellesde longueur ; les amplitudesde
Selon la théorie du Big Bang, sions ou raréfactions de matière ou ces diversesfluctuations étaientréparties
l'Univers naquit il y a 10 à 20 milliards d'énergie d'une région à l'autre de aléatoirement,de sorteque les variations
d'annéespar « explosion d'un » point sin- l'espace.L'amplitude de ces fluctuations de densité qui en résultèrent seraient
gulier de densitéinfinie ; l'expansionqui (c'est-à-dire la variation par rapport à la aléatoires et chaotiques.À partir de cet
suivit l'explosion se poursuit encore densitémoyenne) doit être assezgrande état et en utilisant desprincipes de phy-
aujourd'hui. Dans la version la plus pour conduire aux agrégatsde matière sique bien connus,on arrive à la struc-
simple de la théorie, l'Univers est en que nous observonsactuellement; cepen- ture actuelle de l'Univers.
expansionuniforme à partir du point sin- dant, la déterminationde cette amplitude A mesure que l'Univers poursuivait
gulier. Une telle expansionuniforme rend est un problème théorique délicat. Si les son expansion, les particules élémen-
compte d'observations importantes : la fluctuations initiales avaient été trop taires, en se déplaçantlibrement et aléa-
matièreextragalactiques'éloignede notre importantes,elles auraientprovoqué des toirement, effacèrent toutes les fluctua-
Galaxieà une vitessequi varie régulière- variationsde la températuredu rayonne- tions initiales inférieures à une taille
ment avec la distanceet un rayonnement ment thermique cosmologique de telles critique : seulessurvécurentles fluctua-
micro-onde remarquablementisotrope, variations ont été récemmentobservées tions qui comprimaient ou raréfiaient
dit rayonnement thermique cosmolo- par le satellite COBE,mais leur valeur des massesde matière d'au moins 1015
gique, baigne le ciel ; ce rayonnement relativeest très faible, égaleà 10-5 (voir ou 1016fois la masse du Soleil. Sous
correspond à une température dont la Les fluctuations primordiales de l'effet de la force de gravitation, cer-
variation en fonction de la direction est l'Univers, par Laurent Nottale, dans ce taines des masses comprimées se
1. CETTE DISTRIBUTION DE 400 000 GALAXIES sur 100 degrés du ciel que dans tous les carrés adjacents dans deux ou trois directions (hori-
a été cartographiée par un programme d'ordinateur conçu pour zontale, verticale ou diagonale). Les carrés rouges désignent des
mettre en évidence la structure filamenteuse de l'Univers. La couleur régions ou le nombre de galaxies atteint un maximum local dans les
de chaque petit élément carré de l'image indique le nombre de quatre directions. Les « filaments » verts pourraient correspondre à des
galaxies
qui superamas de galaxies ; si c'est le cas, ils s'étendent sur 100 millions
y est contenu : les carrés noirs représentent les régions
contenant le plus petit nombre de galaxies, et l'augmentation de la d'années-lumière. Cette carte est fondée sur un relevé de
densité des galaxies est indiquée par des teintes de plus en plus claires, l'Observatoire de Lick. Son centre est le pôle Nord de la galaxie, dauts
allant du brun au blanc. Les carrés verts et rouges correspondent à la constellation de la Chevelure de Bérénice ; son bord est le parallèle
des crêtes et des pics locauxdans la distribution des galaxies. Les car- galactique situé à 40 degrés Nord, et la carte est orientée de sorte que
rés verts désignent des régions où le nombre de galaxies est plus grand le centre de notre Galaxie soit vers le haut.
contractèrent préférentiellement dans dressé des cartes en trois dimensions de Une troisième méthode est fondée
une direction. Les fluctuations initiales la distribution des galaxies. sur l'existence de trois types de neutri-
donnèrent ainsi naissance à des nuages Ces cartes présentent des particula- nos : le neutrino électronique, le neu-
de gaz gigantesques et irréguliers, res- rités : les galaxies sont concentrées en trino muonique et le neutrino tauique. Si
semblant à des crêpes. Là où deux immenses « feuillets » aux structures les trois types de neutrinos ont une
crêpes se coupent, il se forme de longs filamenteuses dont la plus grande masse, si les trois types peuvent appa-
filaments de matière. Certains des dimension, environ 100 millions raître avec des probabilités différentes et
nuages restèrent intacts, d'autres se bri- d'années-lumière, est dix fois plus si la différence entre les carrés des
sèrent pour former des galaxies ou des grande que sa dimension la plus faible. masses de deux types quelconques de
amas de galaxies. L'un de nous (J. Silk) Une telle structure peut contenir neutrino n'est pas nulle, la mécanique
expliqua le premier l'émergence jusqu'à un million de galaxies, et sa quantique implique que les trois types de
d'une échelle caractéristique pour les masse est d'environ 1016 masses neutrinos peuvent osciller, c'est-à-dire
fluctuations. Un autre d'entre nous solaires. En outre, à l'intérieur de cha- échanger leurs identités. Comme ces
(Y. Zel'dovich) montra comment se for- cune de ces structures, les galaxies ne oscillations devraient provoquer une
maient, par gravitation, ces fines sont pas uniformément réparties : on y variation dans le temps de la population
couches de matière. Nous appellerons distingue des « blocs » et des « lignes » de chaque type de neutrino, on devrait
ce modèle la « théorie des crêpes ». de peuplement plus dense, beaucoup détecter ces oscillations sous la forme
d'entre eux se trouvant à l'intersection d'une variation de la population des neu-
Deux dimensions de deux « feuillets ». Enfin, intercalés trinos électroniques (par exemple) le
extrêmes entre les plus grandes structures se long de la trajectoire d'un faisceau de
trouvent de gigantesques vides de neutrino. Plusieurs expériences de ce
La théorie des crêpes met en scène matière ne contenant presque aucune type ont été effectuées par différentes
deux objets très différents car ils sont galaxie, qui s'étendent sur 100 à 400 équipes de chercheurs. Jusqu'à présent,
aux extrémités de l'échelle physique. millions d'années-lumière. aucune de ces équipes n'a obtenu de
L'un d'eux est un système astrono- La détermination de la masse du preuve irréfutable de l'existence d'oscil-
mique assez grand pour remplir 1023 neutrino (si elle n'est pas nulle) est plus lations des neutrinos. L'absence d'oscil-
années-lumière cube de l'espace ; problématique. Plusieurs types d'expé- lations pourrait simplement indiquer que
I'autre est le neutrino, une particule élé- riences ont ce dessein. Dans la méthode la différence entre les carrés des masses
mentaire qui interagit faiblement et n'a la plus directe, on peut déduire l'exis- de deux types de neutrinos est nulle ;
pas de dimensions décelables. Si l'on tence de cette masse si l'on trouve cer- une absence d'oscillations est donc com-
veut confirmer la théorie des crêpes, il taines variations dans la vitesse de patible soit avec une masse non nulle,
faut observer ces deux objets et attri- désintégration d'isotopes radioactifs. soit avec une masse nulle du neutrino.
buer une masse non nulle au neutrino. Dans les années 1980, Valentin Les résultats expérimentaux ne per-
Comme les deux masses (si elles exis- Lubimov et ses collaborateurs de mettent pas de conclure sur la masse du
tent toutes deux) diffèrent de 80 ordres l'Institut de physique de Moscou ont neutrino, mais, si l'on accepte l'exis-
de grandeur (d'un facteur 1080), il faut mesuré la vitesse de désintégration du tence de cette masse, les conséquences
utiliser des méthodes sortant de l'ordi- tritium, l'isotope radioactif de l'hydro- cosmologiques sont importantes : un
naire pour les mesurer. gène. Leurs résultats faisaient apparaître neutrino massif conduirait inéluctable-
On a vérifié que l'échelle astrono- une masse très petite mais non nulle pour ment à des structures en crêpes à
mique existait, et il est tentant d'affirmer, le neutrino, comprise entre 20 et 40 élec- grande échelle. Avant d'examiner cet
au vu de la masse du système, que la tronvolts, ce qui est inférieur au dix mil- effet, il est utile de décrire une version
théorie des crêpes est un pas dans la lième de la masse de l'électron. plus ancienne de la théorie des crêpes,
bonne direction. On a mesuré la distance Un deuxième type d'expériences, qui rend finalement peu compte de cer-
de plusieurs milliers de galaxies en déter- mis au point par Ettore Fiorini de taines observations importantes mais
minant le décalage vers le rouge de leur l'Université de Milan, est fondé sur la qui a donné naissance à la théorie
spectre, c'est-à-dire le déplacement des vitesse d'un mode de désintégration actuelle, plus fructueuse.
raies spectrales vers le domaine des radioactive, appelé désintégration
grandes longueurs d'onde du spectre double-bêta, que l'on observe dans cer- La « soupe » primordiale
électromagnétique. Le décalage vers le tains isotopes. En se fondant sur la
rouge est la traduction d'un effet Doppler vitesse de désintégration du germanium Les astrophysiciens croient com-
dû au fait que les galaxies lointaines 76, E. Fiorini a annoncé que la masse du prendre assez bien les processus phy-
s'éloignent de la nôtre (c'est la récession neutrino ne pouvait être supérieure à 10 siques qui ont dû apparaître quelques mil-
des galaxies). On calcule la vitesse de ou 20 électronvolts. Cette méthode est lisecondes après le Big Bang. Comme les
cette récession à partir du décalage vers moins directe que la mesure de la vitesse énergies des particules qui entrèrent en
le rouge grâce à une formule mathéma- de désintégration du tritium ; on ne peut collision à cette époque ne sont pas supé-
tique simple, puis la distance (l'éloigne- interpréter ces résultats comme une rieures aux énergies typiques que l'on
ment) de la galaxie car celle-ci est pro- mesure de la masse du neutrino que si atteint dans un petit accélérateur de parti-
portionnelle à la vitesse de récession de l'on admet que le neutrino est sa propre cules, on obtient une image du début de
la galaxie. La mesure du décalage vers le antiparticule. En revanche, si le neutrino l'Univers en considérant un fluide dense
rouge associée aux coordonnées de la et l'antineutrino sont distincts, la désin- de particules dont on connaît bien les pro-
galaxie sur la sphère céleste permet aux tégration double-bêta du germanium 76 priétés individuelles.
astronomes de connaitre la position de est modifiée et on ne peut pas en déduire Les particules de loin les plus abon-
cette galaxie dans l'espace. On a ainsi une valeur de la masse du neutrino. dantes dans ce fluide étaient le photon,
l'électron et les trois types de neutrino ; il
restait peu de neutrons et de protons après
les annihilations qui se produisirent au
tout début de l'Univers. Les électrons et
les neutrinos, en contact étroit durant la
majeure partie de la première seconde,
étaient continuellement créés et annihilés.
L'énergie était distribuée aléatoirement
dans tout le fluide grâce à de fréquentes
collisions entre électrons et neutrinos ; en
d'autres termes, les particules étaient en
équilibre thermique. À mesure que
l'Univers poursuivait son expansion, la
densité des particules diminua et les col-
lisions devinrent moins fréquentes.
Comme l'énergie d'un photon est inver-
sement proportionnelle à sa longueur
d'onde, l'énergie moyenne des photons
diminua à mesure que leurs longueurs
d'onde « grandissaient » avec le reste de
l'Univers, et ainsi, l'Univers commença
à se refroidir.
Les recherches théoriques sur l'uni-
fication des forces fondamentales de la
nature permettent de remonter au-delà
de la première milliseconde de l'histoire
de l'Univers. Ces théories sont dites
« grandes unifiées » car elles essaient
d'expliquer la force électromagnétique,
la force nucléaire forte et la force
nucléaire faible comme les différentes
manifestations à basse énergie d'un
même phénomène sous-jacent. (On n'a
pas encore réussi à incorporer la gravi-
tation qui est la quatrième force fonda-
mentale dans une théorie unifiée.) La
densité d'énergie à laquelle les trois
forces deviennent indiscernables corres-
pond à la densité de l'Univers 10-35
seconde seulement après le début du
Big Bang. On peut donc considérer
l'Univers primitif comme un laboratoire
permettant de vérifier les prédictions
des théories unifiées.
L'une de ces prédictions est que si
la densité de matière fluctue aux pre-
miers instants de l'Univers, la densité
des photons, c'est-à-dire du rayonne-
ment, fluctue également, mais le quo-
tient de la densité de matière par la
densité de rayonnement doit rester
constant. Selon la théorie de la relati-
vite générale, la matière et l'énergie
sont des sources gravitationnelles équi- 2. DE PETITESPERTURBATIONS DE LA DENSITÉde matière et d'énergie apparurent dans
valentes et elles déterminent la géomé- tout l'Univers, peu après le Big Bang. On peut considérercesperturbations comme des fluc-
trie de l'espace-temps. C'est pourquoi tuations de type ondulatoire de la densité autour d'une valeur moyenne, réparties aléatoire-
une fluctuation de la densité de masse ment sur toutes les longueurs d'onde. La moitié supérieure de cette image engendrée par
et d'énergie entraîne une fluctuation du ordinateur est une coupe instantanée d'une telle fluctuation aléatoire. Les régions jaunes,
champ gravitationnel, ce qui est équi- verteset bleues sont plus denses alors que les régions orange, rouges et violette sont de plus
valent à une fluctuation de la courbure en plus raréfiées. Dans la moitié inférieure de cette figure, toutes les fluctuations qui
embrassentune masseinférieure a 1016 masses solaires ont été éliminées par les interactions
de l'espace-temps. Le physicien russe
matière-rayonnement au cours des premières étapes de l'Univers. Selon la théorie des crêpes
Eugene Lifshitz a mis au point en 1946 propose par les auteurs, les fluctuations restantes ont donné naissance aux superamas de
une théorie complète de ces fluctua- galaxies et aux videsintermédiaires que l'on observeaujourd'hui.
tions dans l'Univers en expansion, et bien plus grand que l'horizon spatial de ment tend à disperser le volume dans
cela dans le cadre de la théorie de la tout observateur. D'autre part, comme l'espace. À grandes échelles, c'est tou-
relativité générale. on pense que l'expansion de l'Univers jours la gravitation qui l'emporte. La
On peut raisonnablement admettre se ralentit, des masses de plus en plus pression ne peut pas résister à l'effondre-
qu'au début de l'Univers, les fluctuations importantes entrent dans l'horizon de ment gravitationnel, de sorte que les par-
ont dû exister sur une vaste gamme tout observateur. Des fluctuations indé- ticules sont attirées vers les régions de
d'échelles possibles : il semblerait arbi- celables au début de l'Univers devien- plus forte densité. Une fois que l'effon-
traire et tout à fait fortuit que les fluctua- nent décelables plus tard car elles sont drement gravitationnel a commencé, la
tions initiales se soient cantonnées, par perceptibles à l'observateur dont l'hori- matière qui s'est ainsi accumulée peut
exemple, à des régions de dimensions zon s'agrandit. attirer de la matière et du rayonnement
galactiques. Toutefois, il existe une Dès qu'une fluctuation se trouve dans plus lointains, et ainsi toute instabilité
limite supérieure à la taille des fluctua- l'horizon de l'observateur, on peut la initiale est amplifiée. La matière s'accu-
tions pouvant être perçues par un obser- décrire par la théorie classique, c'est-à- mule donc dans certaines régions et se
vateur quelconque à un instant donné. dire non relativiste de la gravitation. Elle raréfie dans les autres.
Cette limite est l'horizon spatial de prend alors la forme d'une perturbation Si la « soupe »de particules et de pho-
l'observateur, c'est-à-dire la sphère ayant observable dans la densité du fluide. Il tons qui constituent l'Univers primitif est
pour centre l'observateur et pour rayon la s'exerce deux effets antagonistes sur tout assimilée à un gaz parfait, les effets
distance parcourue par la lumière depuis volume de matière et de rayonnement d'une fluctuation de densité sur le gaz
le déclenchement du Big Bang. Dans le associé : la gravitation tend à faire sont faciles à imaginer. Toute compres-
modèle standard du Big Bang, l'expan- s'effondrer sur lui-même ce volume, tan- sion locale sur une masse suffisante
sion spatiale et temporelle initiale à partir dis que la pression due aux mouvements déclenchera une instabilité gravitation-
d'un point singulier conduit à un univers chaotiques des particules et du rayonne- nelle et conduira à un début d'effondre-

3. L'HORIZON D'UN OBSERVATEUR CROÎT avec le temps et antérieur quelconque (a). Comme l'expansion se ralentit, la
englobe une fraction de plus en plus grande de l'Univers. L'hori- lumière provenant d'un stade antérieur de l'une des galaxies
zon est une sphère ayant pour centre l'observateur et pour rayon pourra finalement atteindre un observateur situé sur l'autre
la distance parcourue par la lumière depuis le Big Bang. Ici, galaxie (b). Les bords des cônes sont les trajectoires des signaux
I'horizon est un cercle situe à la base d'un cône ; l'expansion de lumineux dans l'espace ; comme aucun signal ne peut se propa-
l'Univers est indiquée par l'éloignement croissant de deux ger plus rapidement que la lumière, ils représentent la limite spa-
galaxies en fonction du temps. Lors des premières étapes de tiale de l'interaction causale a tout instant et aussi la limite des
l'expansion, les deux galaxies s'éloignent l'une de l'autre a une observations. Par suite, toute fluctuatron de densité de l'Univers à
vitesse apparente qui dépassela vitesse de la lumière, de sorte une échelle supérieure à celle de l'horizon de l'observateur
qu'à cette époque, un observateur situé sur l'une de ces galaxies n'aura aucun effet sur l'observateur ni sur la répartition de la
n'aurait pas eu assezde tempspour voir l'autre galaxie à un stade matière et de l'énergie à l'intérieur de l'horizon.
ment gravitationnel. À plus petite la distance parcourue par un photon toutes les fluctuations, sauf des plus
échelle, cependant, la gravitation n'est depuis le déclenchement du Big Bang est grandes. Lorsque l'Univers s'est suffi-
pas assez intense pour vaincre l'augmen- supérieure à la largeur d'une région com- samment refroidi pour que les noyaux
tation de pression du gaz créée par primée à la suite d'une fluctuation, ce atomiques capturent les électrons libres,
l'accroissement de densité. Le volume de photon ne maintiendra pas l'état com- les photons ont diffusé à travers une
gaz comprimé va donc « rebondir » et se primé mais dissipera plutôt sa part de région de l'Univers dont la masse est
raréfier et la fluctuation se propagera l'énergie de la fluctuation. Comme les égale à environ 1014 masses solaires.
comme une onde sonore, c'est-à-dire par photons sont bien plus nombreux que les Toutes les fluctuations initiales qui
compression et dilatation périodiques du particules massives, ils transportent englobaient une masse inférieure à cette
milieu à travers lequel elle se propage. presque toute l'énergie de la fluctuation, quantité sont ainsi effacées.
Dans l'air, la plupart des ondes et ainsi les fluctuations à une échelle Quand les électrons se combinent
sonores s'atténuent sur quelques dizaines inférieure au déplacement radial moyen finalement aux noyaux pour former des
de mètres car les particules qui forment d'un photon depuis le Big Bang sont atomes, la matière et le rayonnement ces-
les ondes de pression sont diffusées et entièrement dissipées. sent d'interagir et le rayonnement se pro-
l'énergie de leur mouvement d'ensemble page indépendamment des atomes. La
est dissipée sous forme de chaleur. De Une marche au hasard viscosité du fluide disparaît brusquement
même, les ondes sonores engendréesdans et les fluctuations qui ont survécu à l'ère
le cosmos par les fluctuations perdent On peut comparer la trajectoire d'un (dite ère radiative) où les photons prédo-
leur énergie et disparaissent à toutes les photon au chemin suivi par un ivrogne minaient dans les interactions, ne rencon-
longueurs d'onde, sauf aux plus grandes. qui quitte en chancelant un réverbère, trent plus d'obstacle à leur amplification.
De plus, les particules et les photons de chaque direction ayant la même probabi- L'instabilité gravitationnelle se déve-
l'Univers primitif sont beaucoup trop lité. Au lieu de faire les N pas néces- loppe alors sans entrave.
denses pour que l'on puisse les assimiler saires pour franchir (à jeun) une certaine La disparition soudaine de la pression
à un gaz parfait. Pendant les 300 000 pre- distance à partir du réverbère, l'ivrogne de radiation a un effet prépondérant sur la
mières années de l'histoire de l'Univers, devra faire N2 pas. De même, un photon forme et la structure des premiers objets
les photons étaient assez énergétiques doit être diffusé N2 fois afin de parcourir apparus. Une pression de nature ther-
pour maintenir toute la matière ionisée. une distance radiale égale à celle qu'il mique agit toujours de façon isotrope,
Les photons étaient environ 100 millions parcourrait s'il se déplaçait librement c'est-à-dire également dans toutes les
de fois plus nombreux que les électrons ; (en ligne droite). Bien que diffusés par directions, de sorte que si l'intensité de la
les électrons libres qui plus tard se lieront les électrons, les photons se déplacent pression de radiation était restée compa-
aux noyaux atomiques, étaient donc radialement dans le milieu à une telle rable à celle de la force de gravitation,
constamment bombardés par les photons, vitesse qu'ils dissipent l'énergie de tous les objets formés par effondrement
ce qui entraînait la diffusion des électrons
par les photons et le phénomène inverse.
Il en résulta un fluide épais et visqueux
de photons ; et d'électrons, où aucune
particule ne pouvait se propager bien loin
avant d'être diffusée.
Les électrons libres étant diffusés par
les photons, tout se passait comme s'ils se
déplaçaient dans une mélasse visqueuse
et froide. La viscosité du fluide empê-
chait ainsi la croissance des instabilités
gravitationnelles qui pouvaient résulter de
la seule accrétion de matière. En outre,
tout comme dans un gaz parfait, la grande
pression de radiation due aux photons
empêchait la matière et le rayonnement
de s'effondrer sous l'effet de la gravita-
tion, sauf à des échelles suffisamment
grandes. Les fluctuations qui subsistèrent
au sein du fluide visqueux, c'est-à-dire
celles qui survivent à l'effondrement gra-
vitationnel, peuvent être considérées
comme des ondes sonores.
Nous l'avons déjà mentionné, les 4. QUAND UNE FLUCTUATION ne comporte qu'une longueur d'onde, la distribution des
théories grandes unifiées imposent que le vitessesdes particules est très régulière; les particules sont attirées,par gravitation, vers les
regions de forte densité et la vitesse d'une particule dépend donc de sa distance par rapport
rapport de la densité de photons à la den- à une telle région, comme indiqué sur le graphe en haut à gauche. Dans le graphe
sité de matière reste constant : dans la en bas a
gauche, la vitesse de chaque particule est donnée par la pente de la ligne qui représente sa
phase de compression d'une fluctuation, trajectoire. Les trajectoires ont tendance a converger et à former des régions de densité
la compression des photons doit donc
accrue. Ainsi les fluctuations régulières sont amplifiées. Si les fluctuations sont réparties
correspondre à la compression des parti- aléatoirement sur toutes les longueurs d'onde(en haut a droite), les trajectoires ne conver-
cules possédant une masse. Cependant, si gent pas (en bas à droite).
DESRÉGIONS
EFFONDREMENT DENSES laire. Dans le futur, à mesure que se for-
meront de plus grands amas de matière,
cette structure devrait disparaître. Ainsi,
ce n'est que pendant une étape intermé-
diaire de l'évolution cosmique que la
structure de la matière reflète les fluctua-
tions initiales de la courbure de
l'Univers. Tout indique que, du point de
vue de l'évolution de la structure à
grande échelle, notre Univers n'est ni
très jeune ni très vieux.

Les difficultés
de la théorie

La théorie des crêpes telle que nous


5. LA STRUCTURETOPOLOGIQUE DES FLUCTUATIONS qui survivent au filtrage des pre- venons de la décrire se heurte à deux dif-
miers stades de l'Univers se retrouve dans la structure des superamas de galaxies et des ficultés principales. Rappelez-vous que
vides.À gauche, la densitéde l'Univers est presque uniforme. Si la probabilité de raréfac- les plus petites fluctuations qui survivent
tion provoquée par une légère fluctuation de la densité le long de tout
axe est égale1/2,
à la après l'ère radiative englobent une masse
probabilité pour qu'une région quelconque soit raréfiée suivant les trois axes de l'espace de 1014massessolaires ; or la distribution
est égalea 1/8. Ces régions sont indiquées en blanc ; elles n'occupent initialement que 1/8 des galaxies est structurée à des échelles
du volume de l'Univers et ne renferment que 1/8 de sa masse (schéma de gauche). La force
bien plus grandes. Les simulations numé-
de gravitation comprime les régions coloriées suivant un (ou plusieurs) axe(s). Ces régions,
qui renferment environ 7/8 de la masse de l'Univers, s'effondrent pour former une « toile riques plaident en faveur d'une théorie où
d'araignée » de filaments qui finalement ne remplissent que 1/8 du volume de l'espace les plus petites fluctuations qui survivent
(schémade droite). Les régions de raréfaction initiale se dilatent pour former des vides qui à l'ère radiative ont une échelle corres-
remplissentles 7/8 restants de l'Univers. pondant à 1015ou 1016 massessolaires.
La seconde difficulté est plus
gênante. Comme le rayonnement ther-
gravitationnel auraient dû avoir une se dilatent pour remplir les 7/8 du volume mique cosmologique s'est propagé libre-
symétrie sphérique presque parfaite. restant. La topologie de l'état initial est ment depuis que les électrons et les pho-
L'anisotropie apparaît parce que la pres- conservée. Le résultat final est une struc- tons ont cessé d'interagir, la variation de
sion de radiation est tout à fait négli- ture cellulaire formée de fines parois et de la température de ce rayonnement suivant
geable jusqu'aux derniers moments de filaments de matière comprimée qui la direction d'observation reflète les hété-
l'effondrement gravitationnel. entourent de gigantesques vides. rogénéités primordiales de la distribution
Comme la pression ne peut contreba- Des considérations similaires permet- de la matière. À l'époque où la théorie
lancer l'effondrement, les instabilités gra- tent de prédire la forme des régions com- des crêpes a été formulée sous sa forme
vitationnelles rassemblent pratiquement primées. Il est improbable qu'un volume originelle, on pensait que la variation
toute la matière dans des régions de cubique quelconque de matière, destiné à relative de la température du rayonne-
l'espace comprimées et de forte densité. s'effondrer, forme une sphère. Un tel ment thermique cosmologique sur
Considérons l'argument suivant : le long effondrement nécessiterait une concor- l'ensemble du ciel ne dépassait pas un
de chacun des trois axes de l'espace, la dance parfaite des fluctuations, tant en millième. Par conséquent, on pensait que
matière peut être soit comprimée, soit direction qu'en amplitude, selon les trois les hétérogénéités de la matière dans
raréfiée ; admettons, pour simplifier, que directions spatiales. Il est bien plus pro- l'Univers primitif pouvaient être égales
la probabilité pour que la matière soit bable que le volume s'effondre (se au tiers de la variation de la température,
comprimée le long de l'un quelconque contracte) d'abord le long d'un axe fixé soit un trois millième. Or des chercheurs
des trois axes soit égale à 1/2. La fraction aléatoirement, puis se contracte ou se ont montré que la variation relative de la
du gaz qui ne sera pas comprimée est dilate plus lentement le long des deux température du rayonnement thermique
égale à 1/2 au cube, soit 1/8. Ce raisonne- autres axes. Il en résulte une distribution cosmologique ne dépassait pas 1/3 000
ment a des implications immédiates sur la de matière fortement anisotrope. Comme sur un angle de six degrés.
structure spatiale prévisible après l'effon- la masse contenue dans le volume initial Les fluctuations de densité de matière
drement gravitationnel. Au début, lorsque ne change pas quand l'épaisseur et le nécessaires pour que les crêpes puissent
la densité est encore presque uniforme, volume du cube diminuent, la densité se former étaient compatibles avec les
les régions qui seront comprimées renfer- devient extrêmement grande et il se premières estimations de la variation de
ment environ les 7/8 de toute la matière. forme ainsi une crêpe. la température du rayonnement thermique
Ces régions entourent des bulles de Tout d'abord, les crêpes se forment cosmologique, mais avec la nouvelle esti-
matière plus petites, qui ne subissent dans des régions isolées, mais elles mation de cette variation de température,
jamais d'effondrement gravitationnel : s'étendent bientôt en feuilles fines qui la compatibilité est marginale. En outre,
ces bulles deviendront des vides. Après finissent par se couper pour former la si la densité globale de matière et d'éner-
l'effondrement gravitationnel, les régions structure cellulaire. Des simulations gie dans l'Univers est si faible que
comprimées n'occupent plus que 1/8 du numériques de l'effondrement gravita- l'expansion actuelle se poursuivra indéfi-
volume de l'espace ; les petites bulles, tionnel suggèrent que l'Univers n'a niment, les fluctuations de densité et la
qui ne renferment que 1/8 de la matière, acquis que récemment sa structure cellu- variation de la température ne sont plus
compatibles. À l'échelle cosmique, les
forces gravitationnelles auraient été si
faibles dans les époques récentes que les
fluctuations auraient terminé leur crois-
sanceet conduit à l'effondrement gravita-
tionnel bien plus tôt que ne le suppose la
théorie, c'est-à-dire lorsque la densité de
matière était très supérieure à ce qu'elle
est aujourd'hui. Cependant, l'amplitude
de ces fluctuations aurait été bien trop
grande pour être compatible avec la
quasi-uniformité du rayonnement ther-
mique cosmologique ; d'un autre côté, si
les fluctuations initiales avaient été suffi-
samment faibles pour être compatibles
avec le rayonnement thermique cosmolo-
gique, la naissance des galaxies aurait été
pratiquement impossible.

La matière « sombrer

Si l'Univers est assez dense pour que


l'amplitude des fluctuations soit juste
compatible avec la quasi-uniformité du
rayonnement thermique cosmologique,
un autre problème apparaît : on ne peut
pas rendre compte de la densité de
l'Univers uniquement avec la masse
totale de matière lumineuse, c'est-à-dire
visible, comme les étoiles, les nébu-
leuses, les galaxies, etc. L'Univers doit
alors être essentiellement constitué de
matière « sombre ».
Cette hypothèse n'est pas nouvelle.
Des études de la rotation de notre Galaxie
et d'autres galaxies spirales ont montré
que les vitesses de rotation d'étoiles
situées à la périphérie de ces galaxies ne
satisfont pas aux lois de Kepler. D'après
ces lois, la vitesse de rotation devrait
diminuer lorsque la distance au centre de
la galaxie augmente, tout comme la
vitesse orbitale d'une planète diminue
avec sa distance par rapport au Soleil.
Cependant, les vitesses de rotation des
étoiles périphériques ne diminuent pas :
elles sont à peu près constantes et indé-
pendantes de la distance au centre galac-
tique. On pense que ce dilemme serait
résolu si l'on admettait que la plus grande
partie de la masse d'une galaxie spirale
est constituée par des halos de matière
invisible. Il se pourrait que la matière
sombre existe en quantités encore plus
grandes au sein de groupes et d'amas de
Galaxies. Sans l'attraction gravitation-
nelle due à la matière sombre, de tels sys- 6. LES CONTOURSDE FORTEDENSITÉ sont ici représentés en trois dimensions pour
tèmes « voleraient en éclats » (se dilue- toutes les galaxies plus brillantes que la magnitude 14,5 dans le ciel de l'hémisphère
raient) en un temps très court. On pense Nord et situées à moins de 250 millions d'années-lumière de notre Galaxie (schéma du
haut). Cette distribution (tracée à partir de l'observation de 1 801 galaxies) est sem-
que la matière sombre pourrait représen- blable à celle obtenue par simulation sur ordinateur des prédictions du modèle des
ter 90 pour cent de la masse de l'Univers. crêpes (schéma du bas). Dans ce modèle, on admet que l'accumulation de matière pro-
II fallait trouver une nouvelle compo- vient des fluctuations de densité supérieures à la plus petite fluctuation qui survit aux
sante de l'Univers pour sauver la théorie effets de nivellement des neutrinos supposésmassifs.
des crêpes et une source de matière même s'il s'avère que le neutrino n'a pas tions de plus grande échelle que ne
sombre pour expliquer les mouvements de masse, la théorie des crêpes n'en est l'auraient fait les photons seuls.
des galaxies. Le candidat naturel pour pas pour autant infirmée. Si le neutrino a une masse, il ne
remplir ces deux missions était le neu- Rappelez-vous que pendant la pre- peut se déplacer indéfiniment à la
trino, quoique d'autres particules exo- mière seconde de son existence, vitesse de la lumière. Lorsque la den-
tiques, mais encore non détectées telles l'Univers est une « soupe »primordiale sité d'énergie des photons tombe au-
qu'un photino massif ou un gravitino où les neutrinos sont très abondants. dessous de l'énergie correspondant
massif, puissent jouer le même rôle cos- Aujourd'hui, le rapport du nombre de approximativement à la masse au repos
mologique. Selon les théories des parti- photons à celui des trois espèces de du neutrino, les neutrinos commencent à
cules élémentaires, dans la première mil- neutrinos n'est que de 11/9. ralentir et à se déplacer à une vitesse
liseconde suivant le Big Bang, il y avait Contrairement aux protons, aux élec- appropriée à leur énergie. Si la masse du
équilibre thermique entre une grande trons et même aux photons, les neutri- neutrino, exprimée en unité d'énergie, est
variété de particules à interactions nos interagissent si faiblement avec les de 30 électronvolts, le ralentissement
faibles. Beaucoup de ces particules ont autres particules qu'ils se déplacent commencera bien avant la capture des
pu survivre et, à condition qu'elles soient librement dans l'Univers bien avant électrons libres par les noyaux atomiques.
stables, elles ont pu avoir d'importantes les photons. Ainsi les neutrinos qui Cette capture ne peut se produire que
implications sur le plan cosmologique. initialement se déplacent à la vitesse lorsque l'énergie ambiante est tombée à
Puisque l'on peut envisager une mesure de la lumière vont plus loin que les 0, 1 électronvolt, énergie à laquelle
expérimentale de la masse du neutrino, photons aux premières époques de l'hydrogène est encore ionisé par le fluide
nous nous référerons dans la suite de l'Univers. À la fin de l'ère radiative, dense des photons. Bien que les neutrinos
cette étude, au neutrino. Néanmoins, les neutrinos ont dissipé des fluctua- continuent à effacer les fluctuations

7. LES DISCONTINUITES DANS LA DENSITE DE MATIERE drement gravitationnel, les mouvements des deux flots de parti-
peuvent résulter de déformations continues du milieu pendant cules ne sont pas exactement symétriques, et les deux discontinui-
l'effondrement gravitationnel. Dans chaque schéma, le plan du tés se terminent en une fronce (d). On peut considérer ces distri-
bas représentedeux directions dans l'espace. On ne considère que butions de densité comme un cas particulier d'un phénomène plus
les mouvements dans ce plan et parallèles à l'axe des x. Les parti- général décrit par la théorie des catastrophes. Si l'on décrit le
cules se déplacent vers un axe central ; la longueur de chaque mouvement des particules dans un espace des phases, c'est-à-dire
flèche indique la vitessed'une particule située à l'origine de la dans un espace a trois dimensions où l'axe vertical représente la
flèche (a, b). Un flot de particules se déplaçant vers la droite vitessedans une direction parallèle à l'axe des x, l'interaction des
(flèches bleues) traverse l'axe central sans entrer en collision avec deux flots de particules est représentée par une surface tordue ou
le flot de particules se déplaçant vers la gauche (flèches rouges). ondulée (en haut sur chaque schéma). La densité de particules en
Ces déplacementsproduisent deux discontinuités dans la densité, tout point est alors donneepar « l'ombre » projetéepar la surface
une de chaque cote de l'axe central (c). Dans presque tout effon- déforméesur le plan x-y originel.
8. ÉVOLUTION DANS LE TEMPSDES FLUCTUATIONS à grande vides. La structure ainsi obtenue ressemble à la distribution des
échelle de la densité de matière et d'énergie simulée par ordina- superamas et des vides que l'on observe actuellement. Dans plu-
teur en admettant l'existence de neutrinos massifs. L'effondre- sieurs régions, on observedes fronces et d'autres types de discon-
ment gravitationnel engendre des crêpes et des filaments, tandis tinuités de la densité ; on peut les identifier et les classer au
que les régions restantes de l'espace deviennent de plus en plus moyen de la théorie des catastrophes.

lorsqu'ils ralentissent, ils deviennent de matière pourrait avoir été bien plus faible crêpes. Quand une crêpe s'effondre, la
plus en plus susceptibles d'être piégés par que l'amplitude des fluctuations néces- « composante-neutrino »du gaz en effon-
des fluctuations à grande échelle qui saires dans un mélange de rayonnement drement traverse le plan central de la
n'ont pas encore été « lissées ».Richard et de matière ordinaire. En supposant que crêpe sans interagir. La distribution de
Bond de l'Université Stanford et l'un de le neutrino a une masse, on peut réduire densité des neutrinos présente d'impor-
nous (A. Szalay) ont évalué l'échelle d'au moins un ordre de grandeur la varia- tantes discontinuités, dont certaines cor-
maximum à laquelle les neutrinos peu- tion de la température du rayonnement respondraient à de riches amas de
vent se déplacer librement avant d'être thermique cosmologique requise pour galaxies. Vladimir Arnold, un mathéma-
piégés, et par conséquent l'échelle mini- engendrer les agrégats de matière que ticien de l'Université de Moscou, a tra-
mum à laquelle les fluctuations ne sont l'on observe aujourd'hui. On réconcilie vaillé avec des astrophysiciens sur ce
pas effacées. Cette échelle correspond à alors la théorie et les observations. problème et il a identifié ces discontinui-
une distance actuelle de 100 millions La nouvelle version de la théorie des tés dans la distribution globale de la den-
d'années de lumière et à une masse de crêpes conduit à une explication naturelle sité avec certains éléments de la théorie
1015 à 1016 masses solaires. L'accord de l'origine de la matière sombre de des catastrophes, l'une des branches des
avec la taille et la masse des superamas l'Univers. L'effondrement gravitationnel mathématiques.
de galaxies observés est frappant. initial d'une crêpe dissémine la plupart La nouvelle théorie des crêpes éclaire
des neutrinos car ceux-ci acquièrent de le caractère et l'origine de la structure
Théorie et observations grandes vitesses (de l'ordre de 1 000 actuelle de l'Univers. Elle est fondée sur
kilomètres par seconde) sous l'effet de des principes physiques connus et sur des
Comment de telles fluctuations de l'effondrement gravitationnel. Ces neu- hypothèses plausibles concernant les
matière peuvent-elles être compatibles trinos iront remplir les régions sombres conditions qui régnaient au tout début de
avec les très faibles fluctuations relatives de l'espace intergalactique. D'autres l'histoire de l'Univers. Elle n'est pas
de température (10-5) du rayonnement neutrinos, cependant, se déplacent plus l'unique théorie de l'origine de la struc-
thermique cosmologique ? Les neutrinos lentement car ils étaient initialement plus ture à grande échelle de l'Univers, mais il
cessent d'effacer les fluctuations de là proches du plan central de la crêpe et ne apparaît que la théorie et les observations
courbure de l'espace-temps avant la fin subissent pas de fortes accélérations. La convergent. Néanmoins, il faudra
de l'ère radiative mais, contrairement aux fine couche de gaz voisine du plan cen- résoudre de nombreux problèmes impor-
électrons, leurs mouvements ne sont pas tral se condense et se fragmente pour for- tants avant de pouvoir considérer cette
inhibés par la viscosité du fluide formant mer les protogalaxies. Les agrégats de théorie comme solidement établie.
l'Univers : les neutrinos entrent en colli- matière ordinaire rassemblent les neutri- Une fois la théorie confirmée, il fau-
sion si rarement avec les photons ou les nos lents, et la matière proche du centre dra la développer dans deux directions
électrons qu'ils ne sont pas soumis au de la protogalaxie continue à se conden- principales. Premièrement, il faudra
freinage dû à la viscosité. Par conséquent, ser et à former des étoiles. En revanche, s'attaquer à la structure fine de l'Univers,
des instabilités gravitationnelles peuvent les neutrinos qui se trouvent à la périphé- à la formation de la première génération
apparaître parmi les neutrinos avant la fin rie de la protogalaxie se répartissent sous d'étoiles à partir d'un gaz primordial
de l'ère radiative, et ainsi elles peuvent l'effet de la gravitation et ne se conden- dépourvu d'éléments lourds.
s'accroître bien plus longtemps que les sent jamais. Ils deviennent la matière Deuxièmement, on doit se demander
fluctuations de la matière ordinaire. Par sombre du halo de la galaxie. comment les fluctuations initiales
suite, l'amplitude initiale des fluctuations On élabore actuellement une théorie admises dans la théorie des crêpes ont pu
de neutrinos nécessaires pour rendre plus détaillée de la formation des galaxies apparaître à partir d'époques encore plus
compte des hétérogénéités actuelles de la dans le cadre de la nouvelle théorie des anciennes de l'histoire de l'Univers.
LES FLUCTUATIONS descend sous 3 000 kelvins : le contenu de
l'Univers est devenu neutre, si bien que les
PRIMORDIALES DE L'UNIVERS photons que s'échangeaient continuelle-
ment les particules chargées cessent sou-
dain d'interagir avec la matière. Après ce
Laurent Nottale découplage, I'Univers est rempli de deux
constituants essentiels qui vont évoluer
mis Les donnéesdu satellite COBEont per- Le Big Bang indépendamment, l'hydrogène neutre et
de franchir une étape essentielle un gaz de photons à la température de
pour la cosmologie : l'équipe de scienti- Une autre propriété essentielle, que 3 000 kelvins ; ce gaz, précédemment en
fiques qui étudie ces données à la NASAa possèdent la plupart des modèles d'Uni- équilibre avec ses sources, doit posséder
pu mesurer des fluctuations du corps vers, est l'existence d'une singularité ini- un spectre de corps noir.
noir cosmologique, de 30 ± 5 microkel- tiale : !'expansion de l'Univers est décrite
vins sur dix degrés pour une tempéra- par un facteur d'echelle variant au cours Le rayonnement primordial
ture de 2, 736 kelvins. Quels sont le sens du temps et qui affecte toutes les distances
et l'importance de ces observations? relatives entre deux points quelconques ; L'hypothèse forte de la cosmologie du
Revenons plus de 75 années en or ce facteur d'échelle diminue quand on Big Bang est que l'Univers, tel qu'on le
arrière. La cosmologie moderne nait remonte dans le passé, jusqu'à s'annuler connait actuellement, résulte de l'évolution
quand Einstein met au point la théorie dans un passé lointain mais fini (l'âge de de la matière et du rayonnement depuis
de la relativité générale. C'est une théo- l'Univers est estimé à une quinzaine de cette époque reculée (quelques centainesde
rie relativiste de la gravitation, force milliards d'années). milliers d'années après la singutarité initiale,
d'attraction dominante à très grande Si cette idée d'un Univers primordial fut ce qui correspond à un décalage spectral
échelle ; les équations d'Einstein relient envisagée, à titre spéculatif, par de nom- cosmologique environ égal à 1 000). Deux
le contenu matériel et énergétique de breux théoriciens, parmi lesquels Georges questions se posent. Qu'est devenu le
l'Univers (décrit comme un gaz de Henri Lemaitre, c'est George Gamow qui rayonnement? Comment le bain uniforme
galaxies caractérisé par une densité et compri le premier, à la fin des années 1940, de matière initial a-t-il évolué pour donner
une pression) à ses propriétés géomé- qu'elle avait des conséquencesobservables. l'Univers actuel, hautement structuré et for-
triques de courbure. Les physiciens ont Examinons le raisonnement,schématisé,de tement hiérarchisé?
rapidement cherché des solutions de ces Gamow. Quand on se rapproche de cette La réponse à la première question
équations, valables pour l'Univers dans singularité initiale en partant de l'époque constitue l'extraordinaire prédiction de
son ensemble, et la cosmologie est aussi- actuelle, on voit que les principales gran- Gamow : une des propriétés des modèles
tôt perçue comme un domaine d'applica- deurs physiques du gaz de galaxies,tellesla cosmologiques est que, si un rayonnement
tion privilégié de la théorie d'Einstein... densité, la température et, finalement, la de corps noir remplit l'Univers à une
En 1922, Friedmann établit les solu- pression, augmentent sans limite. Mais on époque donnée, il resteraun corps noir par-
tions générâtes, à pression nulle, des sait qu'au-delà d'une température de fait a une époque ultérieure, mais à une
équations d'Einstein, fondées sur le prin- quelques milliers de degrés, aucun atome température diminuée.Le rayonnement pri-
cipe cosmologique, qui postule que ne subsistesous sa forme neutre : les élec- mordial doit donc, raisonne Gamow, être
l'Univers est homogène et isotrope à très trons sont arrachés,deviennent libres, émet- encore observableactuellement,mais à une
grande échelle. Celles-ci seront ensuite tent et absorbent sanscessedes photons et température de quelques kelvins seulement.
généralisées, par Robertson et Walker, forment, avec les noyaux, un plasma chargé En 1965, Penzias et Wilson décou-
aux modèles à pression non nulle. Ces qui interagit fortement avec le rayonnement vraient ce rayonnement de corps noir iso-
modèles d'Univers ont des propriétés électromagnétique. À plus haute tempéra- trope à une température de 2,7 kelvins,et
communes remarquables. Directement ture, ce sont les noyaux eux-mêmes qui apportaient ainsi un argument observation-
issues du haut degré de symétrie impli- sont brisés,et l'Univers devient un bain de nel décisif en faveur des idées de Lemaitre
qué par le principe cosmologique, elles particules élémentairesen équilibre thermo- et de Gamow. Un des résultats essentiels
ont permis à la cosmologie de devenir dynamique avec le rayonnement. A cette obtenus par COBEet par l'expériencecana-
une science prédictive, susceptible d'être époque reculée, I'Univers était ainsi fonda- dienne COBRA, est d'avoir confirmé que le
éprouvée par les observations. mentalement différent de ce qu'il est actuel- spectre observe était bien celui d'un corps
La première de ces prédictions théo- lement : c'était un Univers chaud, dominé noir, a la température de 2, 726 kelvins et
riques est l'expansion de l'Univers. En par ta pression de radiation,au contraire de sansdistorsionappréciable.
effet, toutes les solutions cosmologiques l'Univers actuel,froid et sanspression. Depuis,le modèle standardde Big Bang
des équations d'Einstein sont non sta- Que s'est-il passéau cours de la transi- s'est affirmé comme un cadre incontour-
tiques, a une exception près ; il s'agit tion entre ces deux mondes? Si l'on part nable pour aborder les problèmescosmolo-
bien là d'une authentique propriété de la d'un univers de rayonnement, constitué giques fondamentaux, tels ceux de l'abon-
gravitation à grande échelle. Cette essentiellement de protons, d'électrons et dance des éléments et de la formation des
expansion a des conséquences obser- de photons en équilibre thermodyna- galaxies.La solution précise du premier de
vables, dont la principale est l'existence mique, et que l'on suit maintenant le cours ces problèmes a récemment constitue un
d'un décalage spectral systématique de du temps, on voit la température de ce nouveau succès remarquabledu modele de
la lumière émise par les galaxies, déca- mélange baisser peu à peu a cause de Big Bang : ta comparaisondes abondances
lage proportionnel à la distance des l'expansion, les électrons et les protons des éléments légerspréditespar la théorie et
objets. Cet effet cosmologique, observé commencer se à combiner en atomes vers des abondances observées a permis de
par Edwin Hubble en 1929, a été depuis 10 000 kelvins et finalement disparaitre contraindre le nombre de familles de neutri-
confirmé sur des milliers d'objets. comme entités libres quand la température nos légers à trois et de détecter une erreur
Carte du ciel, en cordonnées galactiques, des fluctuations de température observées par COBE,lissée avec une résolution
d'environ dix degrés. Les plus grandes structures observées dépassent le gigaparsec (3 x 1025 mètres).

importante sur le temps de vie du neutron, précédé le dkouplage, et supposons que actuellement abordé, celui de l'instabilité
deux résultats qui furent spectaculairement de telles fluctuations de ta densité de matière gravitationnelle, aurait dû être rejeté.
vérifiés peu après, dans des expériences de existaient A cette époque, le rayonnement Mais ce résultat ne change rien à tous
physique des particules. ne cessait d'interagir avec la matière, mais, les problèmes rencontrés, puisque ceux-ci
pour des valeurs de la température com- t'étaient précisément à partir de l'hypo-

Les fluctuations de densité prises ente 107 et 104 kelvins, les interac- thèse d'un spectre primordial de Harrison-
tions matière-rayonnement sont insuffisantes Zel'dovich. Il faut également, à mon avis,
Le problème de la formation des pour « thermatiser » complètement le rayon- atténuer les annonces suivant lesquelles
galaxies et des grandes structures de nement. En d'autres termes, durant cette cette découverte confirmerait les modèles
l'Univers reste le principal problème non époque précédant la combinaison en d'inflation. Si ('hypothèse d'inflation (c'est-
résolu de la cosmologie. Selon l'hypothèse la atomes et le découplage, les éventuelles à-dire d'une période d'expansion expo-
plus simple, la gravitation est responsable de fluctuations de matière doivent laisser leur nentielle dans l'Univers très primordial)
la structuration de l'Univers telle qu'on empreinte sur le rayonnement de corps noir permet effectivement, comme d'autres
l'observe aujourd'hui. Mais la gravitation ne cosmologique. Ce sont ces empreintes que hypothèses, de prévoir un spectre de fluc-
peut faire croître que des structures préala- COBEa détectées pour la première fois. tuation pratiquement plat a l'époque de la
blement existantes. On aboutit ainsi à ta Les théoriciens ont pu préciser certaines recombinaison, l'amplitude prédite est 105
conjecture que, à l'époque du découplage contraintes auxquelles ces fluctuations fois celle observée. Parler de succès théo-
rayonnement-matière, ta densité n'était pas devraient satisfaire pour qu'elles puissent rique semble donc prématuré...
totalement uniforme. Cette hypothèse pose évoluer vers les structures actuelles ; ta prin- A l'époque des premières données de
aussitôt beaucoup de questions. Quel était le cipale, établie par Harrison et Zel'dovich, COBE,on devait rester prudent sur la réalité
spectre de ces éventuelles fluctuations ? étant que le spectre de fluctuations devrait de cet effet ; on l'obtenait après corrections
Étaient-elles a petite échelle, à grande être indépendant de l'échelle à laquelle on d'un grand nombre d'autres effets, en parti-
échelle ou aux deux ? Sont-elles observables, l'observe. Or COBE a obtenu, au moins culier les émissions synchrotron et ! es émis-
directement ou indirectement ? Comment dans le domaine qui lui est accessible sions dues aux poussières de notre Galaxie,
ont-elles évolué vers ta distribution actuelle (séparations angulaires supérieures à sept qui sont plus de dix fois supérieures. Cet
en étoiles, galaxies, groupes amas et supera- degrés), des fluctuations compatibles avec effet est aujourd'hui bien confirme. Ce résul-
mas de galaxies, très grandes structures un tel spectre de Harrison-Zel'dovich. Ce tat est plus un début qu'une fin : on peut
planes ou filamentaires ? D'où sont-elles spectre de fluctuations a été détecté prati- rêver d'une nouvelle branche observation-
issues? quement à la valeur minimale de son nelle de l'astronomie, où ces fluctuations
On pourrait en effet penser que postu- amplitude possible ; cette valeur a été esti- seront observées et analysées plus en détail,
ler l'existence de fluctuations qui elles- mée à partir des champs de vitesse actuels, en particulier à une meilleure résolution
memes devront être comprises comme observés a grande échelle pour les angulaire, à des échelles où une comparai-
conséquences de fluctuations plus anciennes galaxies. Le résultat de COBEconstitue donc son statistique avec les structures observées
encore, ne fait que reculer le problème. un soulagement pour les théoriciens : si actuellement deviendra possible...
C'est vrai du point de vue théorique, mais l'amplitude des fluctuations avait été infé-
pas du point de vue observationnel. rieure, le cadre préférentiel dans lequel le Laurent Nottale travaille à l'Observatoire
Replaçons-nous en effet à l'époque qui a problème de la formation des structures est de Meudon, CNRS-DAEC.
L'évolution

de la vie terre
sur

Stephen Jay Gould

La vie n'a évoluée ni régulièrement prendre les étapesde l'histoire de la vie.


La théorie explique bien sûr l'histoire,
ni de façon prévisible. L'évolution a résulté sansquoi elle devrait être rejetée,et elle
prévoit certaines caractéristiqueshisto-
d'une succession d'événements fortuits. riques de la vie. Toutefois l'histoire de
la vie reste insuffisamment expliquée
par la théorie générale de l'évolution.
Nous devonsreconnaîtreque nous sous-
Certains créateursclament ne prouve que l'agressivité humaine estimonsla complexité de notre monde :
leurs inventions en grande favorise les chasseurs, ni que la les événements sont si imbriqués, et
pompe : Dieu poussa son musique et la religion renforcent la embrouillés par des élémentschaotiques
Fiat lux en même temps cohésion tribale. Darwin lui-même et aléatoires, ils sont si peu reproduc-
qu'il illumina son monde insista sur la multiplicité des causes tibles, ils mettent en jeu tant d'éléments
nouveau. D'autres, comme Charles d'évolution et mit en garde contre un spécifiques,que les modèlesstandardde
Darwin, exposent modestement de recours excessif à la sélection naturelle, prévision ne s'appliquentpas.
grandes découvertes. En 1859, il pro- concluant l'introduction de son Origine L'explication de l'histoire est satis-
posa ses nouveaux mécanismes de des espècespar cet avertissement: « Je faisantelorsque les conséquencesd'une
l'évolution : « J'ai nommé Sélection suisconvaincu que la sélection naturelle série d'événementssont évidentes,mais
Naturelle le principe selon lequel a été le mécanismeprincipal de l'évolu- la prévision seratoujours imprécise. Le
chaque petite variation est conservée tion, mais pas le seul.» mathématicien et physicien français
quandelle est utile. » Pierre Simon de Laplace s'est fait le
La théorie de la sélection naturelle Les écueils de la théorie porte-paroledu déterminismelorsque ce
est si simple, si remarquablementpuis- de l'évolution dernier s'est développé,à la fin du XVIIIe
sante qu'elle a résisté à 135 ans d'exa- siècle, et il a même prétenduqu'il pou-
mens et de tests. Elle stipule que les En effet, la sélection naturelle vait prévoir le futur de l'Univers s'il
organismes luttent pour améliorer leur n'explique pas tous les changements connaissait la position et la vitesse de
succès reproductif, ce qui favorise évolutifs. D'une part, diverses causes toutes les particules du cosmos, à un
l'adaptation despopulationsà l'environ- peuvent agir sur l'organisation biolo- moment donné. La découverte de la
nement changeant. Ici le mot « lutte », gique, qu'on la considère à une échelle complexité du monde physique a brisé
métaphorique, ne désigne pas un com- inférieure ou supérieureà celle qu'envi- ce rêve chimérique. L'histoire de la vie
bat, mais souligne que l'efficacité de la sage Darwin (lequel se limite essentiel- recèle trop de phénomèneschaotiques,
reproduction résulte d'activités paci- lement à la lutte pour le succèsrepro- extrêmement sensibles à d'infimes
fiques variées : par exemple, d'une ductif). À l'échelle de la molécule, des variationsdes conditions initiales et qui
maturité sexuelle précoce, d'accouple- substitutionsde pairesde bases,dans les conduisent à des évolutions totalement
ments fréquents et d'une meilleure doubles hélices d'ADN, sont souvent divergentes. L'histoire est aussi beau-
coopération qui permet aux parents de aléatoireset dépourvuesd'effets. À une coup trop contingente,c'est-à-dire déter-
mieux élever les jeunes. La sélection échelle supérieure, celle des espèces, minée par de longues chaînesde phéno-
naturelle est plus un principe d'adapta- voire des faunes,des groupes sont par- mènesimprévisibles ; l'avenir n'est pas
tion au milieu qu'un principe de progrès. fois sélectionnés lors des périodes prévisible par quelqueslois naturelles.
Toutefois, malgré sa puissance, la d'équilibre, en fonction de leur taux Homo sapiensn'est pas arrivé sur la
sélection naturelle n'est pas la seule d'apparition et d'extinction, tandis que, Terre-au cours de la dernière seconde,
causede l'évolution (dansde nombreux lors des périodes d'extinctions de à l'échelle des temps géologiques-en
cas, elle est même supplantée par masse, de nombreuses espèces dispa- raison d'un progrèsbiologique ou d'une
d'autres mécanismes).Ce point doit être raissent, alors qu'elles étaient bien augmentation de la complexité neuro-
souligné, car, selon une mauvaiseinter- adaptéesavant le cataclysme. nale prévuepar la théorie de l'évolution,
prétation de la théorie de la sélection D'autre part, et c'est le thèmede cet mais plutôt parce qu'il était l'aboutisse-
naturelle, toute caractéristique,souvent article, quelle que soit la validité de la ment contingent et fortuit de milliers
spéculative, résulte d'une adaptation théorie générale de l'évolution, nous d'événementsinterdépendants. Chacun
biologique au milieu d'origine ; or rien cherchons aussi à retracer et à com- d'eux aurait pu se produire différem-
ment et mettre l'évolution sur un autre voudrait que l'homme soit la plus de la nature lorsqu'il écrit : « Comme la
chemin où la conscience ne serait pas haute expression de la vie et qu'il soit sélection naturelle travaille uniquement
apparue. Examinons quatre voies pos- le maître de la planète. pour le bien de chaque être, chaque don,
sibles parmi une multitude auxquelles Les sciences s'appuient sur les faits qu'il soit du corps ou de l'esprit, est un
nous avons échappe. de la nature, mais elles sont toutes progrès vers la perfection. »
engoncées dans un contexte social et, Parmi les directions prises par l'évo-
Notre existence malgré leur volonté d'objectivité, les lution, beaucoup sont probablement des
le fruit du hasard scientifiques ne sont pas toujours à l'abri conséquences des lois de la nature, mais
est
des « convictions ». Darwin lui-même, cette définition est trop imprécise pour
Premièrement si notre lignée, dans la conclusion de L'origine des justifier rigoureusement les résultats spé-
inconsciente et fragile, n'avait pas fait espèces, exprime plus son goût pour cifiques de l'évolution : pourquoi a-t-on
partie des rares survivants de l'extinc- l'ordre social victorien que pour l'étude abouti aux roses, aux champignons, ou
tion massive des animaux pluricellu-
laires, au Cambrien, il y a quelque 530
millions d'années, il n'y aurait pas de
vertébrés sur la Terre aujourd'hui. Un
seul membre de notre lignée des chor-
dés, le genre Pikaia, a été retrouvé parmi
les plus anciens fossiles. Notre lien de
parenté avec cette petite et simple créa-
ture aquatique est attesté par sa noto-
chorde, une épine dorsale rigide ; c'est
l'un des fossiles les plus rares des
schistes de Burgess, le site le mieux pré-
servé de la faune cambrienne.
Deuxièmement, si un petit groupe
de poissons à nageoires, sans avenir,
n'avait pas acquis des arêtes ossifiées
et une solide arête centrale, capable de
supporter la masse de l'animal sur
terre, alors les vertébrés n'auraient
peut-être jamais quitté les eaux.
Troisièmement, si un volumineux
météorite n'avait pas percuté la Terre il
y a 65 millions d'années, les dino-
saures seraient toujours l'espèce domi-
nante et les mammifères seraient mino-
ritaires (une situation qui a duré
pendant 100 millions d'années).
Quatrièmement si, il y a deux ou
trois millions d'années, une petite lignée
de primates ne s'était pas redressée pour
marcher dans la savane africaine qui
s'asséchait, nos ancêtres auraient évolué
vers une espèce de singes qui auraient
ressemblé aux chimpanzés ou aux
gorilles actuels, seraient devenus minori-
taires et auraient probablement disparu
malgré leur comportement élaboré.
Ainsi pour comprendre les événe-
ments et tendances générales de l'his-
toire de la vie, nous devons dépasser
les principes de la théorie de l'évolu-
tion et examiner d'un point de vue
paléontologique les structures contin-
gentes de l'histoire de la vie, la seule
version réelle qui se soit développée 1. CES FOSSILESDE PTERIDINIUMont été retrouves en Namibie ; ils représententles tout
premiers organismes de la faune terrestre pluricellulaire, la faune d'Édiacara, qui apparut
sur notre planète, parmi des millions il y a environ 600 millions d'années. La faune d'Édiacara a disparu avant l'explosion
d'autres possibilités. Cette conception
de la vie moderne, qui eut lieu au Cambrien. Ces organismes qui semblent composés
de l'histoire de la vie est contraire aux de feuillets pourraient être les ancêtres de certaines formes modernes de vie. Toutefois,
modèles déterministes classiques de la ils pourraient aussi représenter une expérience évolutive originale, mais sans lendemain,
science occidentale, ainsi qu'aux tradi- de la vie pluricellulaire. L'histoire de la vie ressembleplus à une suite d'épisodes rapides
tions et à l'espoir de notre culture, qui et capricieuxqu'à une avancée graduelle et régulière.
aux êtres humains? Les organismes sont Trois observations paléontologiques roches connues ont seulement 3, 9 mil-
soumis aux lois de la physique et doivent battent en brèche notre conception clas- liards d'années, car, au début de son
s'y adapter. Ainsi, il n'est guère surpre- sique de l'histoire de la vie, selon histoire, la Terre était fondue : de nom-
nant, connaissant la loi de la gravitation, laquelle, au cours de l'évolution, la com- breux débris cosmiques la bombardè-
que les plus gros mammifères marins plexité des organismes a augmenté pro- rent durant la constitution du Système
(les baleines) soient plus gros que les gressivement et de façon prédictible. solaire et les isotopes radioactifs à
animaux terrestres les plus imposants Ces observations, autour desquelles courte durée de vie libérèrent beaucoup
(aujourd'hui les éléphants, naguère les cet article est structuré, sont : la com- de chaleur. Les roches de cette époque
dinosaures), lesquels sont à leur tour plexité moyenne est restée constante ont subi trop de réchauffements et de
plus gros que les plus grands vertébrés tout au long de l'histoire de la vie ; cer- compressions pour avoir conservé la
qui aient jamais volé (les ptérosaures tains événements importants se sont trace de fossiles (bien que certains géo-
du Mésozoïque). concentrés sur des périodes très courtes, logues pensent que les proportions par-
Les principes de la thermodyna- séparées par de longues accalmies rela- ticulières des isotopes du carbone, dans
mique gouvernent les lois écologiques tives ; les extinctions de masse et ces roches, témoignent d'une produc-
de l'organisation des communautés ani- d'autres phénomènes dus à des événe- tion de matière organique). Les roches
males (par exemple, la biomasse des ments extérieurs au vivant ont notable- les plus vieilles qui ont été suffisam-
proies est supérieure à celle des préda- ment perturbé l'organisation acquise au ment préservées des altérations posté-
teurs). Une fois qu'elles sont amorcées, cours des temps « normaux ». Ces trois rieures pour avoir conservé des fossiles
les tendances évolutives peuvent être observations, ainsi que la reconnais- cellulaires sont des sédiments austra-
prédites localement. (C'est « une course sance du chaos et de la contingence, liens et africains datant de 3,5 milliards
aux armements », où les proies et les imposent la découverte d'un nouveau d'années. Elles contiennent des cellules
prédateurs renforcent simultanément système théorique pour interpréter et procaryotes (des bactéries et des cyano-
leurs défenses et leurs moyens décrire l'histoire de la vie. Nous exami- phycées) et des stromatolites (des tapis
d'attaque ; c'est l'« escalade adaptative » nerons quelques propositions pour une de sédiments piégés et soudés par ces
qui se traduit par l'augmentation de la nouvelle vision de l'évolution. cellules dans les eaux marines peu pro-
puissance des pinces des crabes et de la fondes). Ainsi la vie est apparue très vite
résistance des coquilles de leurs proies Le succès adaptatif sur la Terre, aussi vite que possible : la
favorites, les gastéropodes.) Toutefois des bactéries vie était inéluctable ou, du moins, prévi-
les lois de la nature n'expliquent pas sible, à partir des constituants chi-
pourquoi les crabes et les escargots Les études paléontologiques des miques présents dans l'atmosphère et
existent, pourquoi les insectes domi- débuts du Globe révèlent que l'appari- dans l'océan originels.
nent le monde des êtres pluricellulaires, tion de la vie est devenue probable, A l'évidence, les créatures plus
ni pourquoi ce sont les vertébrés, et non mais n'expliquent pas son évolution complexes sont apparues successive-
des algues, qui représentent les formes après son apparition. La Terre a 4, 6 mil- ment à partir de ces cellules proca-
de vie les plus élaborées sur Terre. liards d'années, mais les plus vieilles ryotes. D'abord les premières cellules
eucaryotes semblent nées voici deux
milliards d'années, et les premiers ani-
maux pluricellulaires il y a 600 millions
d'années ; puis la complexité a aug-
menté, des invertébrés aux vertébrés
marins et, finalement (nous ne sommes
pas à l'abri de tout esprit de chapelle et
considérons que la complexification du
système nerveux reste un critère de
choix), des vertébrés marins aux reptiles,
aux mammifères et aux êtres humains.
Telle est la séquence familière des
anciennes classifications, l' « ère des
invertébrés » étant suivie de l'« ère des
poissons », de l' « ère des reptiles », de
l' « ère des mammifères » et, enfin, de
l' « èrede l'homme ».
Je ne nie pas les faits exposés précé-
demment, mais je souhaite souligner
combien notre désir classique de voir une
progression dans l'évolution et de placer
les hommes dans une position naturelle-
2. LE PROGRÈS NE GOUVERNE PAS L'ÉVOLUTION (il n'en est pas même un des principauxment dominante faussé
acteurs). En raison de contraintes à la fois chimiques et physiques, la vie est apparue près a nos interpréta-
tions : ce faisant, nous avons considéré
du « mur de gauche » sous sa forme la plus élémentaire. Il s'agissait des bactéries, la forme
de vie qui est restée la plus répandue. Quelques créatures comme essentiel un phénomène mineur
se sont deplacéesdroite,
vers la
deformant la courbe de la complexité. Quelques-unes se sont déplacées vers la gauche, qui n'a été qu'une conséquence secon-
mais l'espace était déjà occupé. Simultanément la complexité des bactéries n'a pas changé, daire d'un point de départ déterminé par
mais leur importance relative a augmenté. les lois physiques. La caractéristique la
plus évidente de la vie a été la stabilité rait penser que l'évolution d'un groupe Même si la complexité n'est qu'une
des bactéries, depuis l'apparition des pre- suffisamment éloigné de ce mur pourrait dérive vers la droite à partir du mur de
miers fossiles jusqu'à nos jours, et sans se faire dans les deux directions. Cette gauche, nous pourrions considérer
doute jusqu'à la fin de la Terre. L'ère des hypothèse commence tout juste à être que des évolutions vers la droite sont
bactéries a été, est et sera. testée (parce que les paléontologues plus prévisibles et plus caractéristiques
Pour des raisons liées à la chimie de commencent à s'intéresser à cette ques- de l'histoire de la vie si la complexité
l'origine de la vie et à la physique de tion), mais nous n'avons pas encore avait augmenté régulièrement au cours
I'auto-organisation, les premières assez d'exemples pour en déduire une loi du temps. Or les fossiles révèlent de
« choses » vivantes sont apparues à la générale. Les deux premières études, longues périodes de stabilité entrecou-
limite inférieure de la complexité, la celle de Daniel McShea, de l'Université pées de bouleversements épisodiques
complexité la plus élémentaire. Appelons du Michigan, sur les mammifères verté- qui contredisent cette hypothèse cou-
cette limite inférieure le « mur de gauche » brés, et celle de George Boyajian, de rante (et fausse) de l'augmentation régu-
de l'édifice de la complexité. Il y a si peu l'Université de Pennsylvanie, sur les lière de la complexité.
de distance entre ce mur de gauche et la lignes de suture des ammonites, sem-
complexité des premières bactéries fos- blent infirmer l'évolution vers une aug- Les tirages au sort
siles, que la seule évolution possible se mentation de la complexité. de l'évolution
situe vers la droite, vers une complexité De plus, l'évolution préférentielle
croissante. Ainsi, de temps en temps, une vers la complexité semble a priori La vie est restée unicellulaire pen-
créature évolue et augmente la diversité improbable, car, à chaque forme de vie dant les cinq premiers sixièmes de son
des formes de vie dans l'unique direction plus complexe correspond une forme histoire, c'est-à-dire depuis les pre-
possible. En termes plus techniques, la plus simple tout aussi adaptée (chez les miers fossiles, datant de 3, 5 milliards
courbe de la complexité s'élargit vers la parasites, par exemple). Notre convic- d'années, jusqu'aux premiers animaux
droite, lors de l'apparition occasionnelle tion que la vie évolue vers des formes de pluricellulaires, datant de 600 millions
de ces formes nouvelles. plus en plus complexes est un biais égo- d'années (quelques algues pluricellu-
Toutefois, les apparitions de formes centrique, une attention exagérée portée laires sont apparues il y a plus d'un
nouvelles sont rares et épisodiques. Elles aux créatures complexes et une mécon- milliard d'années, mais ces orga-
ne constituent même pas une série évolu- naissance des lignées qui s'adaptent en nismes appartiennent au monde végé-
tive, mais une suite hétéroclite de taxons tendant vers la simplification. Les para- tal et n'ont pas de lien généalogique
assez différents, généralement décrits sites dégénérés morphologiquement, avec les animaux).
comme les cellules eucaryotes, les bien à l'abri dans les entrailles de leurs Cette longue période de vie unicellu-
méduses,les trilobites, les nautiloïdes, les hôtes, ont autant d'avenir évolutif que laire inclut, bien sûr, la transition des
euryptéridés (des cousins des limules ou leurs superbes cousins, « aux prises avec cellules procaryotes simples, dépourvues
crabes des Moluques), les poissons, les les traits dont les meurtrit l'outrageuse d'organites, aux cellules eucaryotes qui
amphibiens comme l'Eryops, qui, le pre- fortune » (Hamlet, Shakespeare), dans le contiennent un noyau, des mitochon-
mier sortit des eaux, les dinosaures, les monde extérieur, sans pitié. dries et une architecture intracellulaire
mammifères, et les êtres humains.
Toutefois cette séquence ne peut être
considérée comme la principale tendance
de l'évolution ; on peut seulement obser-
ver que des créatures sont occasionnelle-
ment venues occuper les régions vides de
l'espace de la complexité. Depuis tou-
jours, les bactéries ont gagné du terrain,
sansque leur complexité augmente : elles
représentent le plus grand succèsde l'his-
toire de la vie ; elles occupent les bio-
topes les plus divers, et leur biochimie est
plus variée que celle des autres espèces.
Elles ont de remarquables capacités
d'adaptation, elles sont indestructibles et
incroyablement diversifiées. Nous n'ima-
ginons pas que l'intervention humaine
puisse les menacer, alors même que nous
nous préoccupons des risques que nous
faisons courir aux autres formes de vie.
Le nombre de bactéries Escherichia coli
vivant dans les intestins d'un être humain
3. UNE NOUVELLEREPRFSENTATION des arbres phylogénétiques montre que la diversité
est supérieur au nombre total des des formes anatomiques (et non du nombre des espèces) a été maximale tout au début de
hommes qui ont jamais vécu sur la Terre.
l'histoire de la vie pluricellulaire. Puis la plupart de ces expériences initiales se sont
En admettant que la complexification éteintes, et les lignées survivantes ont connu un succès évolutif considérable, c'est-à-dire
des formes de vie représente une pseudo- qu'eUesont proliféré, mais il n'y a pas eu apparition de nouvelles anatomies. Aujourd'hui
tendance, due à la contrainte imposée par le nombre des espèces est supérieur à celui des temps géologiques passés, bien que
la présence du mur de gauche, on pour- le nombre despatrons anatomiques différentsait diminué.
complexe, mais, pendant trois milliards une période de temps courte, qui a com-
d'années, on n'a aucune preuve de mencé il y a moins de 600 millions
l'apparition d'une organisation pluricel- d'années et qui s'est achevée il y a envi-
lulaire animale. Si la complexité était si ron 530 millions d'années. Ces étapes ont
favorable, et si la pluricellularité est bien également été discontinues, et, là encore,
sa première manifestation, force est de on ne décèle aucun signe d'accumulation
constater que la vie a pris son temps pour graduelle des caractères complexes. La
franchir ce pas décisif. première faune, la faune d'Édiacara (du
Un tel retard semble indiquer que le lieu-dit australien où elle fut découverte),
progrès n'est pas un thème favori de est présente sur tous les continents ; les
l'histoire de l'évolution de la vie, même organismes de cette faune sont constitués
si l'on trouve des arguments pour expli- de frondes aplaties, de sortes de feuillets
quer que la période a été si longue : par et de cercles hérissés de petits filaments.
exemple, l'atmosphère n'était pas assez La nature de la faune édiacarienne est
riche en oxygène pendant la majeure par- un sujet de discussions acharnées, car ses
tie du Précambrien où les micro-orga- membres ne semblent pas être de simples
nismes unicellulaires ont été incapables précurseurs des formes de vie posté-
d'acquérir les premiers éléments de struc- rieures. Elle pourrait être un groupe qui
ture nécessaires à la vie pluricellulaire. n'a pas survécu, ou encore le résultat
Curieusement, les principaux change- d'une organisation diploblastique (à deux
ments dans l'organisation des êtres pluri- couches de cellules germinales) dont les
cellulaires se sont ensuite produits durant cnidaires modernes, proches des coraux

4 LA FAUNE s'est rapidement diversifiée à l'aube de la vie pluricellulaire, au Cambrien,


il y a environ 530 millions d'années. Toutes les créatures représentées ici ont été retrouvées
au Canada, dans des schistes de Burgess, qui datent du Cambrien moyen. Certaines formes
sont familières, tels les brachiopodes ou les éponges, qui ont survécu jusqu'à aujourd'hui
Beaucoup d'autres créatures, tel le plus grand de tous les animaux du Cambrien,
Anomalocaris, en bas a droite, n'ont pas vécu longtemps, et leur anatomie est si différente
de celle de leurs survivants qu'on ne réussit à les rattacher à aucun des phylums connus.

1. Vauxia (gracile) 11. Micromitra 22. Emeraldella 34. Sidneyia


2. Branchiocaris 12. Echmatocrinus 23. Burgessia 35. Odaraia
3. Opabinia 13. Chancelloria 24. Leanchoilia 36. Eiflelia
4. Amiskwia 14. Pirania 25. Sanctacaris 37. Mackenzia
5. Vauxia (robuste) 15. Choia 26. Otloia 38. Odontogriphus
6. Malaria 16. Leptomitus 27. Louisella 39. Hallucigenia
7. Aysheaia 17. Dinomischus 28. Actaeus 40. Elrathia
8. Sarotrocercus 18. Wiwaxia 29. Yohoia 41. Anomalocaris
9. Nectocaris 19. Naraoia 30. Peronochaeta 42. Lingulella
10. Pikaia 20. Hyolithes 31. Selkirkia 43. Scenella
21. Habelia 32. Ancalagon 44. Canadaspis
33. Burgessochaeta 45. Marrella
46. Olenoides
et des méduses, seraient une descendance sion du Cambrien correspondrait à la lignées modernes que nous connaissons.
limitée et très modifiée. première colonisation complète de Les survivants ont-ils triomphé grâce à
Quoi qu'il en soit, la faune d'Édia- toutes les « niches écologiques » dispo- leur complexité anatomique supérieure,
cara a disparu bien avant que la faune du nibles pour les organismes pluricellu- à leur meilleure adaptation à l'environne-
Cambrien ne se développe. Tout au laires, et qui n'auraient cessé d'être ment ou à d'autres caractéristiques
début, cette dernière est caractérisée par occupées depuis ; les extinctions de contribuant à l'adaptation darwinienne ?
des assemblagesde pièces très difficiles à masse elles-mêmes ont épargné Il serait tentant de le croire, mais les
interpréter, que l'on nomme la faune à quelques espèces de chaque catégorie, vainqueurs n'ont aucun trait commun, et
petite coquille. Puis il y a environ 530 lesquelles, n'ayant pas quitté leur envi- l'on doit se convaincre que chaque forme
millions d'années, eut lieu l'« explosion ronnement, n'ont pas innové. primitive n'a reçu guère plus qu'un
du Cambrien », où tous les embranche- Cependant cette explication simple numéro dans la plus grande lote-
ments modernes de la vie animale, sauf « externe » (à la vie) semble devoir être rie jamais tirée sur notre planète et que
un, sont apparus. Les géologues pensaient complétée par une explication interne chaque lignée survivante, dont la nôtre,
que cette période avait duré 40 millions fondée sur la génétique et sur le déve- le phylum des vertébrés, doit la vie au
d'années, mais une étude, publiée en loppement : la flexibilité génétique et hasard du tirage plus qu'à des adapta-
1993, a ramené la durée de cette prolifé- embryonnaire des animaux pluricellu- tions particulières. L'histoire de la vie
ration à cinq millions d'années. Les bryo- laires les plus primitifs a disparu, et les pluricellulaire se résume plus à une
zoaires, un groupe d'animaux marins ses- organismes se sont « verrouillés » en réduction drastique des possibilités origi-
siles (directement attachés à leur structures stables et viables. nelles, suivie d'une stabilisation des sur-
support), ne semblent pas être apparus Dans tous les cas, cette période ini- vivants, qu'à une expansion écologique
avant le début de la période ordovicienne, tiale de flexibilité interne et externe a régulière, associée à une complexifica-
qui a suivi le Cambrien, mais cette appa- conduit à un nombre de formes inverté- tion de la morphologie.
rition tardive n'est peut-être qu'un arte- brées qui a dépassé (durant les quelques Ce type d'évolution, fondé sur de
fact : les fossiles de bryozoaires datant du millions d'années de leur production) le longues périodes calmes entrecoupées de
Cambrien nous ont peut-être échappé... nombre total de toutes les formes ani- changements rapides et brutaux d'où
males qui existent aujourd'hui sur la naissent de nouveaux équilibres, pourrait
L'explosion décisive Terre (plus de 500 millions d'années être identique à différentes échelles de
du Cambrien s'étant encore écoulées qui auraient pu temps et avec des amplitudes différentes :
aboutir à de nouvelles formes évolutives). l'évolution des espèces aurait une struc-
Bien que des événements prodigieux Les scientifiques sont partagés sur ce ture fractale, c'est-à-dire identique quelle
se soient produits depuis le Cambrien, point. Certains soutiennent que la variété que soit l'échelle à laquelle on observe le
comme la multiplication des dinosaures anatomique, après cette explosion initiale, phénomène. Les espèces évoluent par
ou l'apparition de la conscience était supérieure à celle d'aujourd'hui, suite de l'accumulation d'épisodes de dif-
humaine, je n'exagère pas beaucoup en parce que de nombreuses formes ont dis- férenciations instantanées à l'échelle des
observant que tous les développements paru et qu'aucun nouveau groupe n'est temps géologiques plutôt que par des
ultérieurs de la vie animale n'ont été que jamais réapparu. D'autres, de l'avis modifications progressives à l'intérieur
de petites variations sur les thèmes ana- contraire, admettent toutefois que la d'une population continue (elles évoluent
tomiques façonnés par les cinq millions diversité de l'explosion initiale a dépassé comme si elles montaient les marches
d'années de cette explosion de la vie. celle de la faune moderne, car de nom- d'un escalier plutôt que comme si elles
Trois milliards d'années de vie unicellu- breux phylums « expérimentaux »se sont roulaient sur un plan incliné).
laire, cinq millions d'années d'une créa- éteints depuis lors. Au contraire beaucoup Même si la théorie de l'évolution sti-
tivité intense, le tout couronné par plus estiment que la diversité du Cambrien pule que les formes de vie ont évolué
de 500 millions d'années de variations était voisine de celle d'aujourd'hui : selon dans une direction privilégiée (bien que
sur des thèmes anatomiques donnés, les plus prudents, 500 millions d'années les faits rapportés dans cet article jettent
peuvent difficilement être interprétés supplémentaires n'ont pas contribué à le doute sur une telle affirmation), des
comme une tendance prévisible, inexo- augmenter la diversité étonnante des changements brusques, voire catastro-
rable ou continue vers le progrès ou vers formes de vie du Cambrien, le plus phiques, de l'environnement ont certaine-
une augmentation de la complexité. remarquable des événements de l'histoire ment perturbé cette tendance. Ces boule-
Nous ignorons pourquoi l'explosion de l'évolution de la vie, qui n'aura duré versements ont été responsables
du Cambrien a façonné si rapidement que cinq millions d'années. d'extinctions massives d'une proportion
les principales formes anatomiques. Nous ignorons pourquoi la plupart notable d'espèces et ont peut-être dévié
Une explication fondée sur l'écologie du des expériences primitives ont échoué, l'évolution de son chemin, de sorte que
milieu semble attrayante : I'explo- alors qu'un petit nombre a abouti aux la vie semble plutôt être une suite d'acci-
dents capricieux qu'une évolution conti-
nue. Les extinctions massives sont
connues depuis le début de la paléontolo-
gie, et les principales divisions de
l'échelle des temps géologiques se fon-
dent sur ces limites naturelles.
5. LES RFSPRÉSENTATIONS CLASSIQUES de l'histoire de la vie sont Knight, publié en 1942, la première image montre des invertébrés
erronées,car elles admettent que l'évolution est synonyme de pro- des schistes de Burgess. Puis les poissons apparaissent (b),
grès et d'augmentation de la complexité. Dans ce dessin de Charles et les invertébrés semblent disparaître, ou cesser d'évoluer. Quand

Cependant, jusqu'à la fin des années ricellulaire a connu cinq extinctions d'autres planctons unicellulaires (notam-
1970,] la plupart des paléontologues notables (à la fin de l'Ordovicien, du ment les coccolithes et les radiolaires).
considéraient les extinctions de masse Dévonien, du Permien, du Trias et du Avant la limite Crétacé-Tertiaire, de
comme de simples amplifications d'évé- Crétacé) et de nombreuses extinctions de nombreuses diatomées étaient capables
nements ordinaires renforçant, tout au moindre envergure. d'entrer en dormance par enkystement,
plus, les tendances dominantes. Dans Nous n'avons pas de preuves incon- vraisemblablement pour résister aux
cette théorie gradualiste des extinctions testables que ces extinctions ont été conditions défavorables, aux mois d'obs-
de masse, ces événements se seraient déclenchées par des impacts catastro- curité polaire qui auraient été fatals à ces
déroulés sur quelques millions d'années phiques, mais l'analyse détaillée de toutes cellules dont le métabolisme est fondé sur
(l'illusion de la soudaineté résulterait de les données a montré que les extinctions la photosynthèse, ou encore à la disponi-
l'imperfection de la datation des fos- de masse ont été plus fréquentes, plus bilité sporadique de la silice nécessaire à
siles), et ils auraient seulement précipité rapides, de plus grande envergure et de la croissance de leur squelette.
les événements ordinaires (une compéti- conséquencesplus variées que les paléon- Les autres cellules planctoniques ne
tion darwinienne plus intense dans les tologues ne l'admettaient jusqu'à présent. présentaient pas ces mécanismes de dor-
temps difficiles a, par exemple, conduit Ces quatre propriétés des extinctions mance. Si l'impact de la fin du Crétacé a
à une sélection encore plus rigoureuse et de masse soulignent leur importance soulevé un nuage de poussière tel qu'il a
rapide des formes les mieux adaptées). lorsque l'on cherche à comprendre l'évo- bloqué la pénétration de la lumière solaire
lution de la vie comme un ballottement dans l'atmosphère pendant plusieurs mois
Les extinctions de masse au gré de contraintes extérieures et de (un des scénarios envisagés), les diato-
hasards plutôt que comme une évolution mées ont profité de leurs capacités de
En 1979, Luis et Walter Alvarez ont prévisible dans une direction particulière. dormance, acquises dans un contexte
présenté des résultats qui ont conféré aux Les extinctions de masse ne frappent totalement différent. Les diatomées ne
extinctions de masse une portée tout à fait pas le vivant n'importe comment : cer- sont pourtant pas supérieures aux radio-
nouvelle : ils ont montré que la collision taines espèces ont survécu, d'autres ont laires ou aux autres planctons qui ont péri
d'un objet extraterrestre (peut-être un pla- disparu selon qu'elles possédaient ou non en grand nombre ; elles ont simplement
nétoide de sept à dix kilomètres de dia- certains caractères évolués. Quand les eu la chance de disposer des caractéris-
mètre) a vraisemblablement été respon- catastrophes se sont déclenchées brusque- tiques favorables qui les ont protégées
sable de la dernière grande extinction, à ment, le verdict de vie ou de mort ne des conséquencesde l'impact.
la limite du Crétacé et du Tertiaire, il y a dépendait pas des atouts que possédaient Deuxièmement, nous savons que les
65 millions d'années. Quoique cette les espèces dans leur compétition darwi- dinosaures ont disparu à la fin du Crétacé
hypothèse ait d'abord été reçue avec nienne, lors des périodes normales. En et que les mammifères ont alors com-
scepticisme par les scientifiques (une raison de ce bouleversement des règles mencé à dominer le monde des vertébrés.
réaction classique aux explications nou- du jeu, les espèces sont incapables de On admet généralement que les mammi-
velles), quelques preuves ont été amas- s'adapter à des changements drastiques, fères l'emportèrent sur les dinosaures,
sées, notamment avec la découverte, dans ce qui donne un aspect chaotique à l'évo- dans ces temps difficiles, parce qu'ils
la péninsule du Yucatàn, au Mexique, lution de la vie. leurs étaient supérieurs. C'est très peu
d'un cratère qui pourrait avoir été laissé Examinons l'évolution de deux probable : les mammiferes ont cohabité
par l'impact météoritique. groupes, lors de l'extinction de la limite avec les dinosaures pendant 100 millions
Ce regain d'intérêt pour les extinc- Crétacé-Tertiaire, déclenchée par d'années, mais les plus gros sont restés de
tions massives a conduit les paléonto- l'impact d'un astéroïde sur la Terre, il y a la taille d'un rat, et aucun signe évolutif
logues à réexaminer les données avec 65 millions d'années. Premièrement, n'indique qu'ils auraient pu supplanter
plus de précision. Ainsi, pendant ses 530 d'après une étude publiée en 1986, les les dinosaures. Aucun argument convain-
millions d'années d'existence, la vie plu- diatomées ont bien mieux résisté que cant n'a pu être avancé qui justifierait la
apparaissent les vertébrés terrestres (c), les poissons ne sont plus se termine toujours par les mammifères (e) et, bien sur,
représentés, bien que le retour vers la mer de certaines lignées par les hommes (f), même si, poissons, invertébrés et reptiles ne
de vertebres terrestres soit envisagé (d). La séquence cessentde se multiplier.

supériorité des mammiferes, et le hasard fication, et que nous ne considérerons si plus de la moitié des espèces de verté-
semble avoir été le seul à intervenir. pas Homo sapiens comme un fétu de brés descendent des téléostéens).
La survie des mammifères aurait paille tardif dans le buisson touffu des Pourquoi les hommes devraient-ils appa-
résulté de leur petite taille (comme ils formes de la vie, comme une minuscule raître systématiquement à la fin de
étaient nombreux et qu'ils avaient moins ramification qui n'apparaîtrait certaine- toutes les séquences évolutives ? Notre
de contraintes écologiques, ils auraient ment pas une seconde fois si nous ordre des primates est ancien parmi les
mieux résisté aux extinctions). La petite replantions la graine du buisson et si mammifères, et de nombreuses lignées
taille n'était peut-être pas un signe nous le laissions repousser. viables sont apparues après la nôtre.
d'adaptation des mammifères, mais au Parce que, comme tous les primates, Nous ne renverserons notre piédestal
contraire la preuve de leur incapacité à nous sommes des animaux qui aiment et nous n'achèverons la révolution de
dominer les dinosaures. Ainsi une fai- les images, aussi nos dessins trahissent Darwin que le jour où nous aurons ima-
blesse manifestée au cours des époques nos convictions les plus profondes et giné une nouvelle description de l'his-
ordinaires aurait-elle été une condition de révèlent nos limitations conceptuelles. toire de la vie. J. Haldane déclarait la
la survie de ces espèces, une condition Les artistes ont souvent peint l'histoire nature « plus étrange que nous ne l'ima-
nécessaireet suffisante pour que je puisse de la vie fossile sous la forme d'une ginons », mais nos oeillères nous sont
écrire cet article et pour que vous puis- série où les invertébrés seraient devenus plus imposées par l'ordre social que par
siez le lire aujourd'hui. les poissons, puis les amphibiens ter- une incapacité de notre cerveau. Ces
restres et les reptiles, les mammifères et verrous sauteront. Pour sortir de ces
L'homme, un accident enfin les hommes. Toutes les séquences ornières conceptuelles, il nous faudra
de l'évolution évolutives peintes depuis les années considérer la vie comme des arbres ou
1850, suivent cette convention. plutôt comme des buissons luxuriants,
Selon Sigmund Freud, les grandes Toutefois, les a priori de cet ordre couverts de branches, plutôt que comme
découvertes scientifiques ont un point universel sont absurdes. Aucune scène des échelles et des suites régulières
commun amusant : à chaque fois, elles ne représente plus les invertébrés après d'événements évolutifs.
entament un peu plus la conviction que l'apparition des poissons, comme s'ils Nous devons rechercher toutes les
l'homme a de sa supériorité et le font pro- avaient tout simplement disparu ou variations possibles, pas seulement celles
gressivement descendre de son piédestal. cessé d'évoluer ! Après l'arrivée des rep- qui sont compatibles avec notre percep-
Ainsi Copemic nous éloigna du centre du tiles sur la terre ferme, les poissons sont tion étriquée des créatures complexes.
monde, Darwin nous ramena au rang des gommés des représentations ultérieures Nous devons admettre que cet arbre a eu
animaux, et enfin (dans l'une des étapes (certains tableaux d'animaux marins d'innombrables branches au début de la
les plus brillantes de l'histoire intellec- montrent seulement quelques reptiles, vie pluricellulaire et que l'histoire ulté-
tuelle), Freud lui-même découvrit comme l'ichthyosaure ou le plésiosaure, rieure fut essentiellement celle d'un éla-
l'inconscient et détruisit le mythe d'une qui retournent à la mer). gage, où n'ont été épargnées que quelques
pensée totalement rationnelle. Là encore, les poissons n'ont pas branches, plutôt qu'un développement
Dans ce sens, la révolution darwi- cessé d'évoluer quand une petite continu d'une multitude foisonnante.
nienne demeure incomplète : si l'esprit branche a commencé à coloniser la terre Nous devons comprendre que les
humain accepte la théorie de l'évolution, ferme. En fait, l'événement essentiel de petites brindilles sont fragiles et que le
nous n'abandonnons pas l'idée que l'évolution des poissons, l'origine et la buisson qui les porte ne s'en préoccupe
l'évolution repose sur le progrès, lequel domination des téléostéens, ou poissons guère. Souvenons-nous du plus important
aboutit inéluctablement à la conscience modernes à aretes, se produisit à de tous les commandements bibliques à
humaine. Le piédestal ne sera pas ren- l'époque des dinosaures et, par consé- propos de la sagesse: « C'est un arbre de
versé tant que nous n'aurons pas aban- quent, n'apparaît jamais dans les repré- vie pour ceux qui la possède ; et heu-
donné l'idée de progrès et de complexi- sentations des schémas évolutifs (meme reux celui qui la retient ».
rencontre des êtres vivants avec un envi-
AU HASARD
ronnement qui les façonne, à long
terme. Toutefois Lamarck n'a pas précisé
DES RENCONTRES par quels mécanismes un environnement
modifie les êtres qui y vivent. Pour lui,
ces mécanismes devaient être détermi-
nistes : même si la rencontre d'une
André Langaney espèce et d'un environnement relève
d'aleas, c'est une succession de causalités
son matérialisme. Toutefois, on a tort de qui engendre les formes de la vie.
Ce titre est malicieux : selon la défini-
tion d'Antoine-Augustin Cournot, lui attribuer la découverte du rôle du Avant la découverte de la génétique
mathématicien et économiste du siècle hasard dans t'histoire de la vie, comme on modeme, on pensait que chaque individu
paternité de la transmettait a ses descendants,non seule-
dernier, le hasard est « la rencontre de a tort de lui attribuer la
deux séries causales indépendantes ». théorie de l'évolution : neuf ans avant la ment le de son espèce, mais aussi
Aurions-nous donc, en guise de réflexion naissance de Darwin, Lamarck avait pro- son « type » propre. Darwin constate que
théorie généalogique de l'origine certains types individuels, qui survivent
sur le hasard en biologie, à examiner la posé ta
des espèces et de l'histoire du monde mal, se raréfient ou disparaissent: c'est la
rencontre des rencontres ? Cette appa-
vivant. En outre, les premières formula- mortalité différentielle ; de plus, les types
rente circularité décrit fort bien de nom-
tions par Darwin de la théorie de la sélec- qui se reproduisent le plus finissent par
breux mécanismes de la vie, produits
tion naturelle étaient profondément déter- dominer : c'est la fécondité différentielle.
d'enchaînement d'aléas ; elle explique
aussi, nous allons le voir, la diversité des ministes. Darwin cherchait une explication Ces deux processus,mortalité et fécondité
populations. sélectivecertaine à toute particularité d'une différentielles,qui modifient les proportions
espèce. Le finalisme rodait même lorsque, des types au cours du temps, expliquent la
La vie est faite de rencontres : ren-
transformation des populations et des
contres chimiques des molécules qui sous l'influence sociale ambiante, Darwin
interagissent dans les êtres vivants ; ren- imaginait comment la lutte systématique espèces: C'est la sélection naturelle.
Jusqu'aux dernières éditions de
contres du protiste ou de la plante avec pour la vie « optimisait » les caractères.
Nous distinguons ici l'aléatoire du l'Origine des espèces, Darwin croit que
les matières nutritives et/ou la lumière ;
« hasardhistorique ».Le naturaliste Buffon l'action de cette sélection déterministe sur
rencontre du prédateur et de la proie ;
historique la variation des populations est le principal
rencontre des cellules sexuelles, neces- a introduit la notion de hasard
lorsqu'il a appliqué le « principe des mécanisme de l'évolution. Toutefois, la
saire à ta perpétuation et à la diversifica-
tion des populations et des espèces. causes actuelles » au monde cosmique et dernière édition de son ouvrage comporte
vivant ; les refroidissements climatiques des parties nouvelles, où il décrit des varia-
Dans tous les cas, les mécanismes du
de la planète auraient, par exemple, fait tions individuelles ou des comportements
vivant se bornent à favoriser la ren-
migrer les éléphants du Spitzberg à surprenants. II avoue son impuissance à
contre, en synchronisant les partenaires
l'Afrique (en fait, c'était faux : il prenait expliquer certains paradoxes de la sélec-
dans le temps et l'espace. À l'échelle de
la molécule, enzymes, membranes et les mammouths du Spitzberg pour des tion sexuelle : dans le cas de la mante reli-
éléphants !). Lamarck étendit cette notion gieuse, le male sacrifie sa vie pour assurer
structures spatiales organisent, souvent
de hasard historique en envisageant la sa reproduction. N'est-ce pas là une
avec la précision maximale, l'orientation,
contradiction Faut-il désavan-
le contact et les modalités de
l'interaction d'une molécule tager l'individu pour avanta-
ger la continuité de son
avec un partenaire aléatoire. lignage ? Darwin décrit alors
des variations qu'il estime non
L'évolution sélectionnées.Dans une belle
la précision autocritique, il admet avoir
Devant
exagéré l'importance de la
extrême des mécanismes du
sélection naturelle et ne pas
vivant, I'homme a longtemps
comprendre les variations
cru (et les non-rationalistes
croient encore !) a l'interven- entre individus, au sein des
populations ; il effleurait la, au
tion d'une intelligence et
d'une volonté supérieures. moyen de l'observation, l'idée
d'une possible dérive neutre,
Même le très matérialiste
Lamarck balançaitentre Dieu, sinon défavorable, de certains
caractères.
auquel il croyait peu, et le
hasard, qui expliquait mal
une nature apparemment ani- La génétique
mée d'un projet. À ses
C'est le botaniste et physi-
débuts, Charles Darwin évo-
quait dans ses lettres un cien Johann Mendel, dit frère
Gregor, qui découvre, au
« grand sélectionneur »mais; il
siècle dernier, que des méca-
eut la prudence de ne pas le
nismes essentiels de la vie
mentionner dans ses oeuvres.
parmi étaient affaire de probabilités,
Plus tard, dans ses principaux 1. Rencontre de deux molécules complémentaires
écrits, il exprimait clairement une multitude. et non de certitudes. Il hybride
2. Le brassage des gènes. Les cellules d'un des parents (en manières : soit par recombinaison entre paires de chro-
haut) contiennent les chromosomes des grands-parents mosomes (la deuxième paire de chromosomes en partant
(en clair, ceux de la grand-mère, en foncé, ceux du grand- du bas), soit par recombinaison intro-paire, au cours d'un
père). Lors de la formation des cellules sexuelles, la processus d' « enjambement » (ou crossing-over) sur les
méiose mélange les chromosnmes. Ainsi deux gènes indé- chromosomes. Lors de la fécondation, une cellule sexuelle
pendants (tels que le rouge de la grand-mère et le bleu est tirée au sort chez chaque parent (ce que l'on a dessiné
ou le vert du grand-père) peuvent rester indépendants pour les spermatozoïdes du père vaut également pour les
(spermatozoïdes du bas) ou être associés de diverses ovules de la mère).

des lignées pures de petits pois, et rés par leurs interactions et par de nom- matique des plus aptes, ni même des plus
constate, a la deuxième génération, une breuses rétroactions. La rencontre aléa- féconds, comme t'écrivait Darwin ; elle
répartition statistique des caractèresdomi- toire de macromolécules d'acides résulte d'un tri aléatoire d'un échantillon
nants (75 pour cent) et récessifs(25 pour nucléiques et de mutagènes, chimiques arbitraire, apte et fécond, parmi une infi-
cent). Les lois de Mendel montrent que la ou physiques, crée, par mutation, une nité de possibles aptes et féconds. Chez
transmission sexuelle obéit aux lois d'une variation de base. Cette variation est mul- I'humain comme chez le végétal ou l'ani-
épreuve aléatoire ; des particules mate- tipliée par les mécanismes de la sexualité : mal, la génétique moléculaire des popula-
rielles, les gènes, déterminent les carac- lors de la formation des cellules sexuelles, tions montre que la majeure partie de la
tères des êtres vivants et sont réparties au la méiose répartit au hasard les gènes des variation observée relève de ces méca-
hasard lors de la reproduction. L'hérédité grands-parents, présents chez un parent ; nismes aléatoires, et non d'une sélection
biologique, qu'on avait toujours imaginée puis un nouveau tirage aléatoire distribue déterministe qui éliminerait systématique-
systématique et rigide, au nom de la fatale ces gènes entre les cellules sexuelles effi- ment le moins viable et le moins fécond.
transmission du « type » de l'espèce,deve- caces de chaque parent ; enfin la fécon- De même, les mécanismes aléatoires
nait une loterie. Les lots possibles prédéter- dation, en fusionnant les deux cellules jouent un rôle crucial dans l'histoire géné-
minés sortaient, chez le descendant, selon pour faire un oeuf, réunit la moitié des tique des espèceset de leurs populations,
une loi de probabilité et non selon une gènes de chacun des deux parents (voir notamment lorsqu'elles sont peu nom-
règle certaine de transmission. Ce méca- la figure 2) breuses, comme les populations
nisme, Mendel n'en avait certainement La sélection élimine sévèrement le d'humains ou, plus généralement, les
supputé ni la généralité ni les consé- non-viable ou le non-fécond. Toutefois, populations de vertébrés.
quences. Celles-ci, plus d'un siècle après dans un environnement limité et en des
cette découverte, échappent encore à de circonstances aléatoires, le petit nombre Les peuplements
nombreux biologistes réfractaires aux qui survit n'est qu'un échantillon biaisé de
mathématiques. l'ensemble des possibles. Les «meilleurs L'histoire des peuplements illustre
Aujourd'hui, on peut représenter le concevables » ont chances chances
ne pas d'une autre manière le rôle du hasard
monde vivant comme un ensemble de être conçus ou d'être éliminés au hasard. dans les mécanismes de la vie. Cette his-
mécanismes aléatoires imbriqués, structu- La sélection n'est donc pas la survie systé- toire commence par « l'effetdu fondateur ».
3. Effet du fondateur. Un groupe d'émi- 4. Variation au hasard de la fréquence des gènes dans un ensemble de popu-
garants emmène avec lui un échantillon lations, sous l'effet des migrations (les flèches) l'isolement par la dis-
et de
biaisé des gènes de la population mère. tance géographique.

Celui-ci résulte d'un échantillonnage forme son environnement physique et bio-


biaisé : les émigrants qui fondent une logique, mais les contraintes de celui-ci
nouvelle colonie ne sont représentatifs de restent indépendantes des caractères
leur population d'origine ni par les fré- intrinsèques de l'individu, de ce que
quences de leurs gènes ni même par la Buffon appelait son «moule intérieur » et
liste de ceux-ci. L'effet du fondateur, que nous appelons aujourd'hui son patri-
connu en histoire des populations moine génétique ou génome. Ainsi aucun
humaines, a sans doute contribué, de la être vivant n'est à l'origine de la gravité,
même manière, à la formation des nou- mais tous la subissent La rencontre de la
velles espèces ; en effet, I'apparition gravité par des animaux aquatiques, sou-
d'espèces met généralement en jeu des terrains, aériens ou vivant au sol crée des
populations aux effectifs très réduits. contraintes différentes sur leurs orga-
La dérive génétique, qui résulte des nismes. Ces contraintes et la sélection
tirages aléatoires successifsdes gènes, de naturelle provoquent des adaptations,ana-
génération en génération, est une sorte tomiques, physiologiques, comportemen-
d'effet du fondateur répété sur place. Par tales et sociales, qui diffèrent d'un orga-
dérive génétique, deux populations sépa- nisme à l'autre. De même, le hasard d'un
rées, identiques au départ, se différen- changement de milieu d'un lignage
cient au cours du temps, indépendam- conduit a une adaptation différente de
ment de tout phénomène sélectif. La celle vécue par un autre lignage dont
dérive génétique est la principale cause l'environnement est resté inchangé.
de variation des fréquences géniques et D'une certaine manière, le patrimoine
d'élimination des gènes dans l'histoire des génétique d'une espèce, ou d'un lignage
populations naturelles. Elle agit dans toute d'espèces, enregistre, au cours du temps,
population d'effectif limité (et toutes les une image de ses rencontres aléatoires
populations naturelles ont un effectif avec des environnements successifs et
limite, aussi grand soit-il) ; elle est variables. Ainsi les mammifères, au stade
d'autant plus forte que les effectifs sont embryonnaire, possèdent des gènes qui
faibles, et son action est cumulée au cours codent l'apparition de fentes branchiales
du temps, ce qui rend ses effets à long de poissons ; ces fentes sont réutilisées a
terme spectaculaires. d'autres fins a des stades ultérieurs de leur
En outre, pour la plupart des espèces, développement.
ta répartition des gènes dépend principale- L'action de la sélection naturelle sur
ment des échanges de migrants entre les l'individu est aléatoire, comme l'est l'his-
populations : les migrations transportent toire de la vie qu'elle détermine. Le hasard
un ensemble aléatoire de gènes. Depuis des rencontres de la vie nous amène donc
plusieurs décennies, des généticiens des a la rencontre de mécanismes aléatoires
populations, comme Gustave Malécot, implacables. Le monde vivant ne cessede
modélisent les variations de fréquences jouer aux dés, et, n'en déplaise à Einstein,
5. Dérive génétique. Parmi les gènes des gènes entre populations selon la géo- il ne laisseaucune place au moindre indice
d'une population, seuls ceux des repro- graphie et les possibilitésde migration. d'un dieu qui viendrait les piper !
ducteurs sont transmis. Ainsi, la fré- Enfin, la sélection elle-même dépend
quence des gènes varie plus ou moins de la biogéographie et de la composition André Langaney est chercheur
rapidement, de génération en généra- des écosystèmes où évoluent les popula- au laboratoire de génétique et biométrie
tion, et la population évolue sur place. tions d'une espèce. Chaque espèce trans- (Muséede l'homme et Université de Genève).
Le hasard matrimonial

Hervé Le Bras

Une enquête sociologique et des simulations probabiliste John Hajnal, court de Saint-
Pétersbourgà Trieste : à l'Ouest de cette
sur ordinateur soulignent le rôle du hasard ligne, depuis la Renaissanceau moins,
on se marie à un âge plus élevé et avec
dans le système matrimonial occidental. une fréquence moindre ; ailleurs, le
mariage est pubertaire (c'est-à-dire que
Cette place laissée au hasard constitue une particularité les jeunes filles sont mariées dès
qu'elles peuvent concevoir) et universel,
de notre société face au reste du monde. puisque 98 à 99 pour cent des femmes
d'une générationtrouventun époux.
Le choix libre du conjoint est un
caractèreessentielde la sociétéocciden-
es liens sociauxse forment-ils geaient le même goût pour le sport, tale : l'historien A. Burguière y voit
par hasard? Sont-ils détermi- puisqu'ils avaient pratiqué le tennis en l'une des causesde l'accumulation des
nés? Pourla plupart,les socio- pension et fréquentaient le même club. capitauxqui a précédéle développement
logues et les démographes Pour A. Girard, un tel mariage ne doit industriel ; l'école historique anglaisede
croient en une mécanique rien au hasard.Parfaitementhomogame, P. Laslett et J. Goody l'associeà l'appa-
sociale ; ils ne voient dans le hasard c'est-à-dire que les conjoints présentent rition des familles nucléaires, opposées
qu'une « illusion nécessaireque», lesindi- les mêmescaractéristiques,il est sociale- au patriarcat,dont résulterait l'idéologie
vidus invoquent pourjustifier leur destin. ment déterminé,et il perpétue les diffé- individualiste moderne. Sans aller si
Le sociologueAlain Girard a enquêtésur rencesde classes,delieu et d'âge. loin, souvenons-nous des pièces de
le choix du conjoint. Un des hommes A. Girard néglige toutefois un fait : Molière, qui opposent régulièrement le
interrogéslui a racontécomment il avait la jeune femme n'était ni mariée ni mariage choisi au mariage arrangé.
rencontré la femme de sa vie à la suite fiancée. Qu'aurait fait l'homme dans le Ainsi le hasard n'est pas seulement
d'une méprisesur l'horaire d'une partie cas contraire ? Aurait-il fréquenté l'illusion nécessaireque le sociologue
de tennis.Était-cebien le hasard? L'un et d'autres lieux pour trouver un conjoint A. Girard évoquait. Des modèlesrécents
l'autre étaientde la mêmeville, du même homogame? considèrent que le mariage tardif et le
milieu social, du même âge et ils parta- Dans une société ancienne, on célibat définitif procèdentdu hasard.
n'aurait pas toléré une telle recherche.
Les familles auraientarrangéde longue La pression individuelle
date l'union, reconduisant,de génération
en génération, un système d'échange ; Chaqueindividu a un nombre assez
comme l'a notamment montré Claude restreint de conjoints potentiels. Louis
Levi-Straussdansles Structuresélémen- Henry, le fondateur de la démographie
taires de la parenté, les sociétés tradi- historique, avait imaginé un modèlede
tionnelles perpétuent un échange de « cercles » inspiré de l'isolement des vil-
femmes, soit entre deux groupes fixes lages dans la France ancienne (anté-
(c'est l'échange simple), soit entre plu- rieure à la Révolution). Dans chaque
sieurs groupes,en suivant un ordre cir- village, les candidats au mariage for-
culaire (c'est l'échangegénéralisé). ment un petit groupe qu'on peut repré-
En revanche, même si les unions senterpar quelques éléments enfermés
modernesrespectentle plus souventles dans un cercle. La proportion des deux
similarités sociales, elles n'en passent sexes fluctue dans ces groupes res-
pas moins par une procédure aléatoire. treints, de même que le nombre de piles
Les effets de ce hasard provoqué sont ou de faces fluctue quand on jette
loin d'être négligeables, puisqu'ils se quelques pièces de monnaie. Selon ce
manifestent par une fréquence impor- modèle, des garçons restent célibataires
tante de mariages tardifs et de célibats quand ils sont trop nombreux par rap-
définitifs. Ces deux particularités, port aux filles, et inversement quandles
1. UNE RENCONTRE peut résulter d'un mariage tardif et célibat définitif, distin- filles sontles plus nombreuses.
malentendu sur l'horaire d'une partie de guent nettement les régions d'Europe L'idée de considérerdescercles était
tennis... Toutefois les deux individus occidentale du reste du monde. La ligne ingénieuse, mais elle ne rendait pas
appartiennent à la même classe sociale. de démarcation, comme l'a montré le compte de la réalité de la France
ancienne : la fréquence de célibat était
indépendante de la taille des villages. De
plus, la notion de cercle fermé ne reflé-
tait pas la succession ininterrompue des
âges. Au cours du temps, de nouveaux
jeunes arrivaient à maturité et entraient
dans le cercle, tandis que les vieux céli-
bataires partaient ou mourraient.
L'hypothèse d'un cercle permanent, à
l'intérieur duquel les célibataires reste-
raient jusqu'à un âge avancé, était irréa-
liste : elle conduisait à de trop grandes
différences d'âge entre conjoints poten-
tiels. Enfin on ne peut faire abstraction
des différences de conditions sociales et
d'aptitudes. Même s'ils appartenaient
tous au même sous-groupe du tiers-état,
les paysans n'étaient pas de même
condition. Certains étaient riches,
d'autres pauvres, certains susceptibles
de s'enrichir, d'autres non.
L'idée intéressante de ce modèle de
cercles est que chaque individu possède,
au départ, un nombre limité de conjoints
possibles. Mieux qu'un cercle fermé,
une représentation constructive de cette
idée serait celle d'un réseau, où chaque
individu est relié à n conjoints pos-
sibles, eux-mêmes reliés à m autres, et
ainsi de suite. Les liens entre individus
formalisent l'homogamie : ils joignent
les individus qui présentent de faibles
différences d'âge, de condition, de rési-
dence, voire de goûts comme chez les
deux joueurs de tennis d'A. Girard.
Combien de liens un tel réseau, pour
être réaliste, doit-il contenir ? L'enquête
de A. Girard sur le choix des conjoints
permet de le préciser. Une question por-
tait sur le nombre de conjoints potentiels.
En moyenne, les personnes interrogées
répondaient qu'elles auraient pu choisir 2. MODÈLE DE CHOIXDES MARIAGES SUR UN RÉSEAU NUPTIAL. Les liens entre homme
leur conjoint parmi trois ou quatre parte- et femme symbolisent des unions possibles (a).
On choisit au hasard un lien qui se trans-
naires, ce qui est peu. On peut simuler la forme en mariage. On exclut du réseau les jeunes mariés, et on choisit d'autres liens
distribution des mariages à l'aide d'un au hasard, jusqu'à ladisparition
desliens reste
: il neplus que des célibataires
(c).
réseau nuptial, où des points représentant
les hommes sont reliés à un nombre fini
de points désignant des femmes, et réci-
proquement (voir la figure 2).
Supposons que les unions aient lieu au
hasard : on tire au sort un premier lien,
ce qui détermine le premier mariage. Un
couple étant formé, on élimine les liens
qui aboutissent aux deux personnes
concernées. Puis on recommence le
tirage parmi les liens subsistants. Le
réseau devient squelettique et, finale-
ment, des individus, hommes ou
femmes, sont isolés : tous leurs conjoints
potentiels ont épousé un de leurs rivaux. 3. FRÉQUENCES DE REALISATION DES UNIONS, en pour cent, pour chaque lien (en noir)
Un bal donne une image accélérée de et fréquences de mariages des individus (chacune étant égale à la somme des fréquences
ce processus. Chaque garçon a repéré associées aux liens d'un individu ; en blanc). Les personnes situées aux extrémités
quelques cavalières. II se dirige vers l'une du réseause marient rarement, tandis que leurs voisins se marient sûrement.
du sien : chaque personne dispose de
milliers de conjoints potentiels. Dans ces
conditions, on s'attend à observer de très
faibles taux de célibat. Pourtant, les
résultats des simulations sont tout
autres : les groupes extrêmes exhibent
un fort taux de célibat, les individus des
groupes voisins d'une extrémité se
marient tous, et les groupes centraux
possèdent quelques célibataires. Comme
dans un réseau d'individus, le célibat
résulte de la concurrence : les groupes
extrêmes ne peuvent s'adresser qu'à un
seul groupe voisin, où ils entrent en
concurrence avec le voisin du voisin. Au
centre de la chaîne aussi, la concurrence
entre groupes engendre un célibat,
quoique à un taux bien inférieur.
Ce modèle simple reproduit bien la
répartition du célibat en France en fonc-
tion de la catégorie sociale. II simule en
effet l'« hypergamie » des femmes, c'est-
4. SUR UN RÉSEAU ÉGALITAIRE, où le nombre de conjoints possibles est le même pour à-dire leur tendance à rechercher des
tous, la fréquence de mariage tend vers une limite inférieure à cent pour cent : le taux de conjoints d'une classe supérieure à la
célibat semble ne jamais devoir s'annuler. leur (ou l'« hypogamie » des hommes,
qui choisissent leur épouse dans la
classe immédiatement inférieure). Notre
d'elles quand la musique commence, semble une limite inaccessible. Ces pro- culture entretient cette tendance : le
mais il peut être devancé par un autre qui babilités sont néanmoins supérieures à mariage, plus que le travail, favorise
a eu la même idée. Il reporte alors son celles observées sur un réseau où le l'ascension sociale des femmes.
choix vers une seconde candidate, mais la nombre de liens varie d'un point à un D'ailleurs les contes de fées ne s'y
probabilité qu'un autre le devance aug- autre. Ainsi les forts taux de célibat du trompent pas : les princes épousent les
mente, car il a maintenant pris du retard. premier exemple proviennent moins du bergères, mais il est bien rare qu'une
Àce jeu, il risque de se retrouver seul. De nombre moyen de conjoints potentiels, princesse épouse un berger.
même, quelques jeunes filles restent en que de l'inégalité de ce nombre d'un Ainsi les groupes de conjoints
attente, car leurs éventuels admirateurs site à l'autre. potentiels se succèdent de la manière
ont choisi une autre cavalière. Ainsi un suivante : en bas de l'échelle, se trou-
petit groupe de garçons et de filles font La pression sociale vent les hommes petits agriculteurs, sui-
« tapisserie », car tous leurs partenaires vis des femmes de la même condition ;
potentiels sont en piste. Ils ne se choisis- Nous avons vu que, lorsque le puis viennent les hommes ouvriers, sui-
sent plus, peut-être pour ne pas trahir un nombre de conjoints potentiels est iden- vis des femmes ouvrières ; puis les
pis-aller, et sans doute parce qu'ils ne se tique pour tous, le célibat diminue, hommes cadres moyens, et ainsi de
correspondent pas. quoique lentement, avec ce nombre. On suite jusqu'au haut de l'échelle,
Un tel modèle se prête aisément à la peut donc penser qu'à mesure que des qu'occupent les femmes cadres supé-
simulation sur ordinateur. En tirant au liens se ferment, les célibataires subsis- rieurs. On mesure effectivement les
sort les liens entre individus, on obtient tant en essaient de nouveaux jusqu'à ce taux de célibat masculin les plus élevés
des fréquences de mariages compatibles qu'ils trouvent un conjoint. II existe tou- chez les petits agriculteurs (plus de 30
avec les situations observées (voir la tefois des réseaux où, malgré un nombre pour cent) et les plus faibles chez les
figure 3). Les personnes qui n'ont élevé de conjoints potentiels, le célibat cadres supérieurs (8 pour cent). La
qu'un seul lien se marient rarement. reste important. Nous allons considérer situation est inverse chez les femmes,
Inversement leurs proches voisins se un tel réseau. avec de forts taux de célibat chez les
marient toujours, car ils peuvent se Imaginons une échelle sociale le cadres supérieurs (17 pour cent) et les
rabattre sur elles. On voit que la proba- long de laquelle alternent des groupes plus faibles chez les agricultrices et
bilité de mariage croît rapidement avec nombreux d'hommes et de femmes : tout ouvrières (7 pour cent).
le nombre de liens. Faut-il en conclure en bas de l'échelle, un premier groupe de La pression sociale est-elle détermi-
que les réseaux les plus denses, ceux où milliers d'hommes, juste au-dessus, un nante ? Pour connaître l'effet des situa-
tous les individus ont beaucoup de groupe de milliers de femmes, puis des tions sociales sur les cas individuels,
liens, entraînent un mariage quasi uni- hommes à nouveau, et ainsi de suite nous avons calculé les taux de célibat
versel ? Dans le cas où chaque individu jusqu'au sommet, où réside un second définitif en supposant, sur le même
a le même nombre de conjoints poten- groupe social qui n'a qu'un voisin. réseau, que les points figurent d'abord
tiels, les calculs montrent que les proba- Supposons que chaque personne des individus, puis des groupes impor-
bilités de mariage croissent lentement puisse se marier avec n'importe laquelle tants de personnes du même sexe et de
(voir la figure 4) : le mariage universel des personnes des deux groupes voisins la même catégorie sociale. L'exemple de
la figure 6 montre que les taux de célibat variance, etc.) de cette distribution de
diffèrent peu, qu'il s'agisse d'individus temps sont des lois gammas d'exposants
(18, 5 pour cent en moyenne) ou de s entiers. De même, le mariage est
groupes (15 pour cent en moyenne) ; ces l'aboutissement de plusieurs actes élé-
taux dépendent moins du nombre de mentaires du rituel de la cour, voire de
liens entre groupes ou individus que de plusieurs cours successives, et les délais
la situation globale du réseau. De sur- de mariage dans une génération sont dis-
croit, ils sont proches des valeurs obser- tribués selon une loi gamma.
vées en France depuis le XVIIe siècle
jusqu'à la Seconde guerre mondiale. Le rôle de la parenté
Ainsi ce n'est pas le faible nombre
de conjoints potentiels qui entraîne le Les exigences de la parenté (les
célibat, mais la position dans le réseau règles de filiation et d'héritage, les pra-
global. En outre, le nombre de conjoints tiques économiques, rituelles et poli-
potentiels ne dépend pas seulement de tiques, etc.) entravent le mariage uni-
paramètres objectifs de lieu, de fortune versel, pour une raison qui tient aussi
ou de capacité, mais aussi du temps au hasard. Le nombre d'hommes et de
qu'on passe à faire la cour. Dans sa femmes à marier est rarement équilibré.
magistrale étude sur l'illégitimité. Peter Pour parvenir à un mariage universel et
Laslett a montré comment une cour de pubertaire, les sociétés devraient acqué-
durée inadaptée se solde par un échec, rir une vision globale de la réalisation
et comment, a contrario, la norme de des unions, comme si elles disposaient
cour, qui suppose des gestes, des de marieurs informés de toutes les
réponses rituelles, mais aussi des durées combinaisons possibles. La résolution
précises, est l'une des plus égalitaires de ce problème, reposé par les hasards
qui soient. de la fécondité-donc du nombre et du
En conclusion, le hasard matrimo- sexe des enfants-et de la mortalité,
nial résulte moins de la liberté indivi- oblige ces sociétés à optimiser sans
duelle, que de la configuration des cesse leurs unions.
groupes sociaux. Cette configuration Certaines règles de parenté semblent
engendre un célibat définitif, à des taux fournir une solution à ce problème.
différents d'un groupe social à l'autre. Ainsi, comme l'a montré G. Pison en
Le hasard est aussi la raison des étudiant les populations traditionnelles
mariages tardifs, qui vont de pair avec du Sud du Sénégal, un grand écart d'âge
les taux élevés de célibat définitif. En au mariage des hommes et des femmes
effet, la concurrence des conjoints conduit à un effectif d'hommes mariés
potentiels multiplie les essais et les nettement plus faible que celui des
échecs de cour. Ceux qui ne sont pas femmes. La polygamie résout la ques-
arrivés à leur fin se lancent dans de nou- tion d'effectif en facilitant le mariage
velles cours qui peuvent encore universel pubertaire pour les femmes.
échouer. La recherche au hasard du Toutefois, puisque les polygames acca-
conjoint prend du temps et retarde la parent les femmes, ce système risque
date moyenne des unions. Il est d'engendrer un fort taux de célibat mas-
d'ailleurs remarquable que toutes les culin ; le mariage tardif des hommes
distributions européennes de l'âge des évite cet inconvénient.
hommes ou des femmes au mariage En cas de monogamie, la solution
aient l'allure de lois gammas (voir la adoptée, notamment en Asie du Sud-
figure 7), caractéristiques des processus Est, est la répudiation fréquente et pré-
de files d'attente. coce ; on peut assimiler cette pratique à
Les fonctions gammas servent à une polygamie successive, car en géné-
décrire la distribution de durées ral, les femmes ne se remarient pas, au
d'attente, lorsque celles-ci résultent du contraire des hommes.
cumul de plusieurs délais élémentaires ; Quand on exige à la fois la monoga- 5. ÉCHELLE SOCIALEDES MARIAGES :
elles sont égale au produit d'une puis- mie et la stabilité des unions, la solution les femmes ont tendance a épouser
adoptée en Europe occidentale semble des hommes appartenant à la classe sociale
sance de la durée par une exponentielle
négative de la durée (ts e-r t, où s et r la seule possible. Elle présente plusieurs immédiatement supérieure à la leur.
Les chiffres indiquent les taux de célibat
sont des paramètres de la fonction). On avantages : elle soulage l'ensemble de
(en pour cent) : on observe de forts taux
observe de telles distributions en phy- la société du calcul de la parenté et des
de célibat aux deux extrêmes, c'est-à-dire
sique ou en recherche opérationnelle. unions ; elle est très robuste à des varia-
chez les hommes agriculteurs et chez
Par exemple, les temps de désintégration tions de la proportion d'hommes et de les femmes cadres supérieurs. En effet, ces
d'un ensemble de particules radioactives femmes. On peut montrer à l'aide des catégories rencontrent moins de parte-
suivent une loi exponentielle négative ; modèles précédents, en supposant les naires potentiels gui leur conviennent
les moments successifs (la moyenne, la hommes plus nombreux que les femmes socialement.
(ou l'inverse), que les taux de célibat
varient peu. On constate en effet, en
réponse aux demandes des représentants
du sexe surnuméraire, une nette aug-
mentation de la fréquence de mariage
parmi les représentants du sexe en
minorité. Ce phénomène s'est produit
en France, après la Première guerre
mondiale. Les générations masculines,
qui avaient laissé près d'un tiers de leur
effectif sur les champs de bataille, ont
eu des taux de célibat très faibles, et les
générations féminines correspondantes,
à peine plus élevés : la disparition de
leurs conjoints potentiels s'était diluée
dans l'ensemble des unions possibles.
II est possible que les forts taux de
célibat constatés dans les deux classes
extrêmes résultent également d'une
règle de parenté. Ces deux classes
extrêmes se reproduisent peu, ce qui
favorise l'étirement de la génération sui-
vante vers le haut (une nouvelle fraction
de la population connaît une ascension
sociale) et vers le bas (une autre fraction
descend un échelon de l'échelle sociale).
Toutes ces explications sont hélas
6. TAUX DE CELIBAT DFFINITIF (enpour cent) sur un exemplede réseaude nuptialité. On a
insuffisantes. Elles ne font que repous-
calculé ces taux en supposant que les points (rouges pour les femmes, bleus pour les
d'un cran la réponse aux questions
hommes)représententdes individus, puis desgroupes sociaux de 1000 individus. Dans le pre- ser
mier cas, les liens représentent une possibilité de mariage entre un homme fondamentales : pourquoi la monogamie
et une femme ;
dans le second,ils représententun million depossibilités de mariage. Dans les deux cas, les et la stabilité des unions se sont-elles
frequences sont comparables: elles dépendent surtout de la position dans le réseau. imposées en Europe occidentale ?
Pourquoi, au Moyen Âge, à un stade
précoce de leur développement, les
sociétés occidentales ont-elles aban-
donné le modèle d'alliance fondé sur
l'échange, en vigueur dans tout le reste
du monde, au profit d'un mécanisme
fondé sur le hasard ?
Quelques théories proposent des
réponses. L'une d'elles, celle de
J. Goody, impute à la volonté de puis-
l'Église la prohibition des
sance de
mariages jusqu'à des degrés lointains de
parenté : elle aurait cherché à détruire
ainsi les lignages et les parentèles.
Toutefois, aucune de ces théories ne ral-
lie tous les suffrages. Et nous ne
sommes pas au bout de nos peines !
Actuellement, de nouvelles perspectives
s'ouvrent à nos yeux : vers les années
1970, l'Europe de l'Ouest est entrée
dans un nouveau modèle d'alliance, où
se généralisent les unions hors mariage
et les ruptures d'unions. Les conditions
qui favorisaient l'émergence de la
« structure européenne du mariage »,
pour reprendre les termes de J. Hajnal,
sont donc bouleversées. De nouvelles
règles devraient changer le rôle du
7. DISTRIBUTION DE L'ÂGE auquel les Françaises nées dans les années 1930 se sont hasard dans la « mise en couple », terme
mariées pour la première fois. Cette distribution est une fonction gamma, fonction qui désormais utilisé par la sociologie pour
décrit également les processus de fil d'attente. caractériser les unions modernes.
Le hasard trouve...

bien les choses

Jean Jacques

Certaines découvertes sont fortuites. fixé vers l'avenir, et ce jeune éphèbeaux


yeux bandes,en équilibresurune rouequi
Après une réaction de surprise, le scientifique doit faire le mènen'importe où. Pourtantil faut se
rendre à l'évidence : l'histoire des
preuve de perspicacité pour exploiter au mieux sciences,mêmesi elle hésiteà insistersur
ce point, nousenseigneque la plupart des
sa chance. En chimie pharmaceutique, la démarche découvertesscientifiquesimportantesont
été souventfaites « par hasard », là où on
actuelle consiste à forcer le hasard. ne les attendaitguère, par quelqu'un qui
ne lesprévoyait pas ou qui escomptaitun
tout autrerésultat.
L'aptitude à faire preuvede perspica-
Chaque foisque la science Reconstitution plausible, légende cité dans les occasions imprévues, la
avance d'un pas, vaticine invérifiable, ces deux exemples pré- faculté de trouver un intérêt et une expli-
prétentieusement un héros scientifiquesmontrent une évidence : le cation à des problèmes rencontrés par
d'Émile Zola, c'est qu'un « absolu » ne peut être hasardfont partie des qualitésqu'on doit
nouveau
imbécile la pousse, sansle qu'imprévu. Avant de constater l'exis- attendre d'un bon scientifique. Le mot
faire exprès.» On peut facilement illus- de
tence cet « objet »
de connaissance, on sérendipité,traductionfrançaisede seren-
trer ce jugement formulé par un imbé- ne pouvait pas savoir qu'il était possible. dipity, n'a pasencoreeu le droit d'entrer
cile sentencieux,mais les grands décou- Peut-on pour autant confondre les dansnos dictionnaireset c'est dommage:
vreurs ignorantset anonymesqui ont su représentations allégoriquesde la Science il existe des anglicismesplus inutiles. Il
apprivoiser le hasard à notre profit et celles du Hasard? L'opinion la plus désigneraitcette intervention du hasard
méritent plus notre admiration que ce répanduese refuseà admettrequ'il puisse apprivoisé à laquelle la science doit
dédainnarquois. exister quelque relation que ce soit- quelquesuns de sesplus brillants succès.
II n'a pas suffi qu'un de nos lointains sinon inavouable-entre cette personne L'étymologie de ce mot pourrait se
ancêtress'aperçoiveque le choc de deux sérieusereposantpensivementsajoue réduireà cette information : de Serendib,
silex provoqueune vaguelueur ; il a fallu sur son index, le clair ancien nom de Sri-Lanka ; selon la
qu'il constate que lorsque ce même regard légende, il était une fois trois jeunes
silex frappe un autre caillou, la nwr princes de Serendibqui étaientcapables
cassite(un sulfure de fer), la lueur de trouver la solution de problèmes
devient étincelle et peut lui don- posesau hasardde leursrencontres.
ner la maîtrisedu feu. L'inventaire commenté des
Dans son Histoire natu- découvertesqui peuvent être mises
relle, le romain Pline (23-79) sur son compte n'est plus à faire :
prétend que la découvertedu il a déjà été fait de nombreuses
verre est tout aussi fortuite. fois, dans plusieurs ouvrages.
Des marchands jetés par la Quelquesunes de ces décou-
tempête à l'embouchure du vertes, les plus exemplaires,
fleuve Bélus, en Syrie, ont été rassemblées dans
auraient cuit leurs aliments l'encadré page 50. J'exami-
sur le sable fin, en brûlant nerai ici deux questionsplus
une plante épineuse de la rarement abordées : Peut-on
famille des salsolacées; les se faire une idée quantitative
cendres de ces plantes four- de la part du hasarddans les
nissent de la soude. Les résultats de la recherche
ingrédients étaient réunis contemporaine ? Peut-on
pour fabriquer sous leur 1. LE HASARD ET LA SCIENCE PFRSONNIFIÉS. Leur rencontre n'est augmenter les chances de
foyer un silicate de sodium pasexceptionnelleun : bon scientifique doit savoir tirer parti d'obser- faire des découvertes par
capablede former un verre. hasard?
La fréquence des
découvertes imprévues

Joseph Priestley (1733-1804), qui


eut la chance (c'est du moins ce qu'il a
écrit) de découvrir l'azote, l'oxygène et
la gomme à effacer, ne faisait pas mys-
tère de ce qu'il devait davantage « à ce
que nous appelons le hasard, c'est à
dire, philosophiquement parlant, à
l'observation des effets dont les causes
sont inconnues, qu'à aucun dessein pré-
médité ou aucune théorie imaginée
d'avance pour diriger les travaux »
(Expériences et observations sur diffé-
rentes espèces d'air, traduit de l'anglais
par Gibelin, Paris, 1777).
Le style des communications des 2. FREQUENCE DES MOTS SIGNALANT DES RÉSULTATS IMPRÉVUS et paraissant dans les
chercheurs contemporains a bien titres des articles de la revue internationale Chemical Communications. Le groupe
changé depuis Priestley. L'exposé sans « divers » rassemble les termes moins fréquents comme surprenant, exceptionnel, unique,
fards des buts du travail entrepris et le sans précédent, fortuit, remarquable, etc.Le nombre desarticles publiés annuellement dans
récit exact des circonstances où tels cette revue, au cours des dernières années examinées, estde l'ordre du millier. La récente
multiplication des recherches par contrats pourrait avoir quelque peu démodé l'aveu des
résultats ont été acquis relèvent, pour
résultats non programmés.
les responsables des revues scienti-
fiques, de la confidence littéraire,
bavarde et déplacée. Serait-ce, quand d'examiner les titres des articles parus aveux, ses auteurs ne s'attendaient pas.
des résultats sont d'importance, dimi- dans une revue internationale de Et je ne parle pas de ceux qui se refu-
nuer les mérites de leurs auteurs que de renom, les Chemical Communications ; sent à des confidences qu'ils jugent
parler éventuellement de leur chance ce bimensuel se définit lui-même humiliantes...
-qui se mérite elle aussi-et d'en comme présentant « des rapports préli- Ces résultats imprévus sont-ils tous
décrire l'intervention ? On réserve à la minaires sur les nouveaux travaux plus importants, plus riches en consé-
rigueur ce genre de révélations au dis- importants en chimie ». J'y ai relevé la quences que ceux qui confirment une
cours de réception solennel d'un prix fréquence des « mots signaux » de théorie plus ou moins nouvelle ? Je me
Nobel. Il est de plus en plus difficile l'imprévu. Les résultats de mon garderai bien d'apporter à ces ques-
d'avoir une idée de la proportion des enquête sont rassemblés dans le gra- tions une réponse qui se voudrait géné-
découvertes où le hasard, sous toutes phique de la figure 2 qui appelle plu- rale. Je me contenterai de verser au
ses formes, a joué un rôle décisif, sieurs commentaires. dossier quelques découvertes
d'inventorier les découvertes « à res- La fréquence des mots signaux, rap- fortuites qui ont eu et ont encore un
ponsabilité limitée ». Cette donnée, portée au total des articles publiés dans avenir évident.
pourtant, ne pourrait manquer d'inté- la revue, est relativement modeste ;
resser autant les philosophes et histo- pour les années 1985 et 1992, les titres La nouveauté
riens des sciences que les organisateurs contenant ces mots ne représentent que est toujours imprévisible
de la recherche scientifique. trois pour cent environ de l'ensemble
J'ai essayé d'éclairer cette question des titres répertoriés. On peut toutefois À tout seigneur tout honneur
: com-
de la part du hasard dans les décou- -et on doit-compléter ces premières mençons par Louis Pasteur qui avertis-
vertes en recensant, dans le domaine indications d'un imprévu revendiqué. sait, en 1854, ses étudiants de Lille que
que je connais, la chimie, les travaux D'autres indices, souvent aussi clairs « dans les champs de l'observation, le
où le caractère inattendu des résultats que ces mots-signaux, peuvent appa- hasard ne favorise que les esprits pré-
est explicitement affirmé. À défaut de raître dans le corps des articles eux- parés ». Il aurait pu, quelques années
récit détaillé de l'intervention du mêmes : j'ai capitulé devant un recen- plus tard, illustrer son propos par l'his-
hasard, certains comptes rendus don- sement complet qui demanderait un toire de sa découverte du vaccin contre
nent en effet de nombreuses indica- travail démesuré. En une autre occa- le choléra des poules (voir l'encadré
tions d'un imprévu revendiqué. Les sion, j'ai relevé quelques uns de ces page 51).
titres des articles où figurent les mots signaux dans les courts résumés d'une Dans un tout autre domaine, celui
anormal, inhabituel, inattendu, surpre- autre revue internationale prestigieuse de la chimie, une autre fructueuse ren-
nant (ou plutôt leur équivalent anglais, (Angwandte Chemie, février-juillet contre non programmée date de 1967.
la langue scientifique dominante) 1988) où les manifestations de surprise L'américain C. J. Pedersen a raconté
constituent d'importants témoignages devant l'inattendu abondent. Je ne en détail comment il a préparé par
de ce que je cherche. (La coquetterie, risque donc guère d'être contredit si hasard le premier éther-couronne (voir
la provocation, le goût de la mode ou j'avance que, dans le domaine de la la figure 3) formé de façon inattendue
de la publicité ne sont pas toujours chimie contemporaine, environ une au cours d'une réaction visant à
absents de cette manifestation, mais publication sur dix rapporte une obser- l'obtention d'un tout autre produit.
c'est une autre histoire.) J'ai choisi vation à laquelle, de leurs propres « Celui-ci se trouvait parmi les produits
INVENTAIRE DE QUELQUES DÉCOUVERTES FAITES PAR HASARD

ADRÉNALINE : « hormone d'urgence » libérée dans diverses agressions.


ALIZARINE synthèse de cette matière colorante rouge.
AMERIOUE : Christophe Colomb cherchait les Indes.
ANTI OXYDANTS : produits qui inhibent une oxydation intempestive.
ANTIPYRINE : médicament qui combat la fièvre et la douleur.
ANTITUMORAUX (dérivés du platine)
ASPARTAME : substitut du sucre.
ASPIRINE (propriétés analgésiques de l')
BLEU DE PRUSSE : le ferro-cyanure ferrique des chimistes modernes.
BOSON : particule élémentaire (comme le photon).
BROME :corps simple, comme le chlore ou l'iode.
CHLOROPRÈNE :caoutchouc
« » de synthèse.
CHOLÉRA
DES POULES (vaccin contre)
CRLACANTHE : grand poisson osseux, fossile vivant.
COLLE SUPERGLUE
CYCLAMATE DE SODIUM : substitut du sucre.
DDT : insecticide
DIFFRACTION DES ÉLECTRONS : a confirmé la dualité onde-corpuscule.
ÉLECTRICITÉ GALVANIQUE : électricité
continue de basse tension.
ÉLECTROMAGNÉTISME : unifie l'électricité
et le magnétisme.
ÉTHÉRIFICATION : réaction chimique de formation des éthers-oxydes.
ÉTHERS-COURONNES : composés chimiques cycliques, pièges à ions.
FRANCIUM élément radioactif.
HYDRE D'EAU DOUCE : petit animal capable de se régénérer.
INVAR : alliage métallique peu sensible aux différences de température.
IODE : corps simple de la famille du chlore.
LITHIUM (en thérapeutique)utilisation des sels de ce métal contre les maladies mentales.
LSD : substance hallucinogène.
MALADIES INAPPARENTES : infections contagieuses sans symptômes visibles.
MÉSONS K ÉTRANGES particules élémentaires.
NAINES BLANCHES : étoiles très lourdes mais de faibleluminosité.
OPHTALMOSCOPE : appareil permettant 1'examen du fond de l'oeil.
PÉNICILLINEantibiotique sécrété par une moisissure.
PHOSPHORE : corps simple inflammable à l'air et émetteur de lumière.
PILULE ABORTIVE (RU 486)
PLATINE ADAMS :catalyseur d'hydrogénation.
POLARISATION DE LA LUMIÈRE : celle-cine vibre plus que dans un plan.
POLYMÈRES CONDUCTEURS (polyacétylène)
antiparticule de l'électron
POSITRON :
PULSARS : source « vibrante »
de rayonnement astronomique.
QUASARS : source radioastronomique d'ondes hertziennes.
QUASI-CRISTAUX : possèdent une symétrie réputée impossible.
RADIOACTIVITE : certains corps simples peuvent se transformer spontanément.
RADIUM élément radioactif.
RAYONS X : rayonnement électromagnétique de faiblelongueur d'onde.
SACCHARINE : substitut du sucre.
SUPRACONDUCTION :certains matériaux conduisent t'étectricitésans résistance.
THALIDOMIDE tranquillisant
: aux redoutables effets tératogènes.
TRANSISTOR : composant électronique redresseur ou amplificateur de courant.
URÉE : premier corps organique naturel synthétisé au laboratoire.
VULCANISATION : transformation du caoutchouc par addition de soufre.
YPÉRITE : gaz de combat.
nal du CNRS (juillet-août 1995). Dans façon tout aussi polémique : « II n'y a
le même élan d'enthousiasme, on nous jamais de fondamentalement nouveau
y révèle la suite de ce psychodrame. que ce qui ne saurait être prévu ; ce
« En jetant à bas l'interdiction de la qui se prévoit est implicitement connu,
symétrie d'ordre 5, la découverte des tels les corollaires d'un théorème, dans
quasi-cristaux n'a pas réservé sa seule ce qui est déjà du domaine de la
surprise. Intrigués par le nouvel ordre connaissance. »
de la matière mis à jour en 1984, des
centaines de chercheurs se sont précipi- La découverte organisée
tés sur les quasi-cristaux, Français en
des médicaments
tête : sur les 300 scientifiques tra-
vaillant actuellement sur le sujet dans Comment imaginer que les effets
le monde près de 130 portent la ban- bénéfiques de certains produits naturels
3. UN
COURONNE
molécule
ETHER est une nière du CNRS. » -tisanes, onguents et autres extraits-
fermée qui peut pieger en son centre un On aura compris que je ne suis pas aient pu êtres reconnus autrement que
ion. On a représenté en jaune les atomes le seul à partager le point de vue que par hasard ? Les remèdes de bonnes
d'hydrogène, en bleu les atomes de carbone Sir Oliver Lodge énonçait à propos de femmes ou ceux des médecines tradi-
et en rouge les atomes d'oxygène. la découverte de la radioactivité : « Une tionnelles ne sont pas tous, il est vrai, à
découverte qui présente une réelle et la hauteur de leur réputation ; nombreux
indiscutable nouveauté ne peut jamais sont ceux qui font un peu plus de mal
très minoritaires de la réaction découler d'une suite de prévisions. La que de bien. Toutefois, on ne peut que
(I'auteur nous parle ailleurs d'un ren- découverte qui résulte des indications trembler rétrospectivement à la pensée
dement de 0, 4 pour cent), sous forme d'une théorie est toujours importante et que nos ancêtres ont dû, pour établir
de fins cristaux fibreux, incolores, d'un profond intérêt, mais elle n'est leur pharmacopée, ingurgiter ou faire
insolubles dans le méthanol mais s'y généralement que la fin et le couronne- ingurgiter n'importe quoi-volontaire-
dissolvant facilement par addition de ment d'une longue et féconde période. ment ou non-sans se soucier d'essais
sels de sodium. Cette observation Au contraire la découverte qui se pré- préalables sur de vrais cobayes.
conduisit à la découverte du pouvoir sente comme un puzzle et une surprise Aujourd'hui les pharmacologues qui
complexant de ces composés et à la inaugure une nouvelle époque et ouvre testent des molécules nouvelles en espé-
synthèse d'autres polyéthers macrocy- un nouveau chapitre de la science. » rant découvrir des propriétés thérapeu-
cliques. » Cette découverte marque la En s'occupant de tout autre chose, tiques intéressantes vivent et font vivre
naissance de ce qui allait devenir la Charles Moureu a découvert, avec moins dangereusement.
chimie supramoléculaire. Jean-Marie Charles Dufraisse, les « antioxygènes » La prévision de l'action d'un pro-
Lehn, un de ses artisans, la définit (des produits qui empêchent les effets duit chimique sur le vivant, que ce soit
comme la chimie des assemblages néfastes de l'oxydation des graisses en bien ou en mal-médicament ou gaz
moléculaires et des liaisons intermolé- alimentaires ou des caoutchoucs, par de combat-reste néanmoins mal assu-
culaires non covalentes. À en juger par exemple). Il exprime la même idée de rée. Le temps est encore loin où l'on
le nombre de revues et d'articles qui
lui sont consacrés, la chimie supra-
moléculaire continue à se développer PASTEUR DÉCOUVRE LE VACCIN
explosivement sous nos yeux.
CONTRE LE CHOLÉRA DES POULES
Dernière anecdote édifiante :
« Washington, le 8 avril 1982, au labo- René Vallery-Radot, petit fils variables allant de quelques jours à un
ratoire du National Bureau of Louis Pasteur, raconte : mois, 3 deux mois, à trois mois, on
Standards (NBs), Dan Shechtman, spé- En 1880, « un hasard comme il y arrivait à des variations de mortalité
cialiste des alliages hypertrempés, déta- en a pour ceux qui ont le génie de qui faisait que l'on tuait huit poules
ché de l'Institut Technion de Haïfa, tra- l'observation devait bientôt marquer sur dix, puis cinq sur dix, puis une
vaille au perfectionnement d'alliages un immense progrès et préparer une sur dix et enfin, comme dans le pre-
métalliques à base d'aluminium. La grande découverte. Tant que l'on mier cas, où à la suite de longues
avait ensemencé, sans interruption de vacances, la culture avait eu le temps
routine. Pourtant ce matin, l'écran vert
24 heures en 24 heures, les ballons de vieillir, on arrivait à n'en plus tuer
du microscope électronique éclaire un
de culture du microbe du choiera des du tout, bien que le microbe put être
visage perplexe. Les cristaux d'alliage poules, la virulence était restée la encore cultivé, [...] Et pendant que
aluminium manganèse observés ne pré- même. Mais en prenant une vieille des poules neuves, c'est-à-dire celles
sentent pas l'arrangement attendu. Pis : culture oubliée, datant de quelque qui n'avaient jamais eu la maladie du
les figures de diffraction composent semaines, et en inoculant des poules, choléra des poules, exposées au virus
des dodécaèdres, volumes à faces pen- grande fut la surprise de voir qu'elles mortel, périssaient, celles qui avaient
tagonales. L'ennui est que le pentagone étaient malades et succombaient subi les inoculations atténuées et qui
pas.Qu'allait-il se passer si l'on inocu- recevaient plus que leur part de ce
et la symétrie d'ordre 5 qu'il traduit
lait à ces poules réfractaires la culture même virus mortel éprouvaient soit la
sont rigoureusement interdits par la
de la vieille, jeune, active, mortelle à maladie
sous une forme bénigne, soit
science des cristaux. Dan Shechtman
coup sûr ? Le même phénomène de un malaise plus ou moins passager,
voit l'impossible... » On trouve ce récit résistance se produisit. [...] En mesu- quelque fois même n'en éprouvaient
haletant dans un des derniers numéros
rant entre les cultures des intervalles aucun : elles avaient l'immunité... »
du très sérieux et très officiel Le jour-
pourra déduire l'efficacité d'une
drogue de l'examen de sa seule for-
mule. Entendons nous : il est aisé de
faire subir à certaines molécules chi-
miques, dont on connaît quelques pro-
priétés intéressantes, des modifications
qui leur ajouteront des qualités supplé-
mentaires (ou qui, plus prosaïquement,
contourneront des brevets et pour être
introduites dans un marché pharma-
ceutique juteux). Il est bien plus diffi-
cile de découvrir ces « têtes de série »
au profil original et aux propriétés
recherchées. La méthode actuelle,
nommée criblage, consiste à tester des
molécules choisies ou préparées à par-
tir d'hypothèses et de déductions
incertaines. Cette méthode relève,
avouons-le, de la théorie des jeux. Elle
continue toutefois à faire ses preuves,
en attendant mieux.
Comment augmenter ses chances
5. LE QUASI-CRISTAL a une symétrie d'ordre 5, qui etait réputée impossible en cristallo-
dans cette perspective irritante mais
graphie. Cette micrographie électronique montre un monocristal (150 micromètres) d'un
incontournable ? Évidemment en alliage aluminium-cuivre-fer.
essayant le plus grand nombre de
molécules les plus diverses. Depuis
quelques années les technologies de la dans ce catalogue des molécules de de molécules qui seront testées
recherche combinatoire tentent structures les plus diverses. C'est cette ensemble. Ce n'est que lorsqu'une col-
d'apporter leurs solutions à ce pro- collection réduite à des dimensions lection de quelques dizaines de molé-
blème de programmation de l'imprévu. moins titanesques qui sera soumise à cules s'avère globalement active que
Les grandes firmes pharmaceutiques des tests automatisés. l'on recherche celle (ou celles) d'entre
multinationales disposent de collec- Dans cette méthode, on teste un elles qui est responsable de l'effet
tions de dizaines de milliers de pro- ensemble de produits déjà disponibles. obtenu. Cette méthodologie originale
duits chimiques différents dont l'étude Une autre approche consiste à préparer de contournement et de domestication
pharmacologique complète n'a encore et à tester le plus grand nombre pos- du hasard est particulièrement utile à
jamais été faite, vu l'ampleur de la sible de molécules nouvelles. L'origi- l'étude des polypeptides, constitués par
tâche. On demande donc à des pro- nalité de cette approche repose sur la les innombrables combinaisons de la
grammes informatiques de sélectionner préparation simultanée de collections vingtaine d'acides aminés naturels.
Les hasards de la découverte sont
multiples. Lors de l'observation
féconde, l'imprévisible est multiforme
et le hasard n'y est pas soumis aux
seules lois des probabilités. L'obser-
vation d'une nouvelle étoile par un
astronome amateur qui voulait vérifier
le bon fonctionnement de son téles-
cope-c'est arrivé-ou la découverte
par un berger ou par un plongeur
d'une grotte préhistorique qui attend
leur visite depuis 30 000 ans, ne sont
pas à mettre sur le même compte que
la rencontre de Roentgen avec les
Rayons X ou de Fleming avec la péni-
cilline. Les circonstances, les condi-
tions et les moyens de l'observation
fortuite, la personnalité du décou-
vreur, son projet et sa culture font
toute la différence. Pour simplifier, il
est commode de distinguer ce qui se
4. LE COELACANTHE EST UN FOSSILE VIVANT. Il y a moins de 60 ans, les scientifiques pen- trouve quand on ne cherche rien et ce
saient que ce poisson s'était éteint avec les derniers Dinosaures, à la fin du Crétacé. Or, en qui se trouve quand on cherche autre
1938, on pêcha un spécimende cettefamille sur la côte Est de l'Afrique du Sud. Cepoisson chose. Bien sûr, il arrive aussi qu'on
non comestible vit
à plus de 70 mètres de profondeur, etpeut atteindre 1,5 mètre de long. trouve ce que l'on cherche...
LE HASARD ÉVALUÉ

Le but de la science est de prévoir,


aussi le savant se veut déterministe.
Lorsque la prévision cesse d'être certaine,
le scientifique met en oeuvre des
méthodes pour repousser l'incertitude :
il compte, recense, répète la même
expérience, trace des diagrammes, jusqu'à
ce que des régularités apparaissent.
Par les statistiques et les probabilités,
il extrait l'information de systèmes
aléatoires et complexes.
La loi normale,

des statistiques
reine

Aimé Fuchs

Le hasard se laisse apprivoiser par une loi ce dipôle et à sa résistance R) ; suppo-


sonsque la tension V soit non aléatoire
mathématique, nommee loi normale, aux multiples et connue, mais que la résistance R soit
aléatoire et suive une loi normale. À
propriétés de conservation. Elle apparaît première vue, cela paraît raisonnable.
Toutefois cette hypothèse aurait pour
dans des domaines variés et parfois inattendus. conséquenceque l'intensité du courant
I n'admet pas d'espérance mathéma-
tique (ou valeur moyenne), car
l'inverse IIR peut prendre des valeurs
Lehasard a deslois, et les évé- théorie des tests d'hypothèses, que la infinies avec une probabilité non négli-
nements aléatoiressont régis loi normale est la plus utilisée. Il suffit geable ; ceci est difficilement accep-
par des probabilités. Parmi d'ouvrir un traité pour s'apercevoir table pour l'ingénieur. Ainsi l'hypo-
les nombreuses lois de pro- que la plupart des lois habituelles thèse que R suit une loi normale
babilité qui constituent (Student, Fisher, Snédécor, Khi- est-elle irréaliste.
l'arsenal de la statistique, la loi nor- Deux,...) relèvent de près ou de loin Cependant, en dépit d'exemples de
male occupe une place de choix, tant de la loi normale. ce type qu'il serait loisible de multi-
dans la théorie que dans les applica- II existe toutefois des cas où la des- plier, la loi normale garde toute son
tions. C'est aussi la seule loi qui soit cription d'un phénomène par la loi importance, commenous allons le voir.
connue du grand public : qui ne normale est contre-indiquée. Un Les propriétés les plus profondes de la
connaît la célèbre « courbe en cloche » exemple suffira pour le montrer. loi normale sont de nature mathéma-
ou « courbede Gaussa? Considéronsla loi d'Ohm I = V/R (qui tique ; elles concernent la théorie de
La loi normale s'est imposéedepuis relie l'intensité I du courant traversant l'information, la statistique physique et
fort longtemps à l'attention des obser- un dipôle à la tension V aux bornes de la géométrie.
vateurs dans les disciplines les plus
diverses : physique, physiologie, géné-
tique, biologie... On y rencontre par-
tout des diagrammes de fréquence
ayant l'allure d'une courbe en cloche.
La quasi-universalité de ces observa-
tions, jointe à l'attrait exerce par la
forme harmonieuse de la courbe, n'a
pas manqué de frapper les esprits.
Ainsi Francis Galton (1822-1911), le
célèbre physiologiste anglais qui fut
l'un des premiers à introduire la
méthodologie statistique dans sa disci-
pline, a fait part de son enthousiasme
dans les termes suivants :
« Jene connais presquerien d'aussi
impressionnant que la merveilleuse
forme de l'ordre cosmiqueexpriméepar
la Loi de fréquence des erreurs... Elle 1. LA LOI DE FRÉQUENCE DES ERREURS. À la desuite
n observations, la mesure d'un
paramètre # donne n résultats y1, y2,...,
yn (à gauche).Carl Friedrich Gaussmontre que
règne sereinement et avec retenue au
l'estimation de # par les moindres carrés est egale à la moyenne ym de ces résultats. Il déf
milieu de la plus folle confusion.»
nit l'erreur d'une mesurecommela différence xi = yi-# entre le résultat decettemesureet
Le lecteur aura compris que par la valeur duparamètre.Par desconsidérations de symétrieet de vraisemblance,Gaussest
« Loi de fréquence des erreurs» il fal- amenéa supposerque ceserreurssontrépartiesselonune loi normale(à droite).Cette loi
lait entendre « loi normale ». C'est en estcaractérisée par la valeur moyenne de la distribution (nulle dans ce cas) et par une lar
statistique, et principalement dans la geur dedispersionautour dela valeurmoyenne,nomméeécarttype.
Historique 2. LA LOI BINOMIAIE donne la probabi-
de la loi normale lité d'amener x fois pile en lançant n fois
une pièce de monnaie. Lors d'un tirage, la
La loi normale est associée aux probabilité d'amener pile est égale à 1/2
(si la pièce n'est pas truquée). Après n
noms prestigieux de Carl Friedrich
Gauss et de Pierre Simon de Laplace ; tirages, on doit dénombrer les divers cas
possibles. Le nombre de casfavorables est
dans la littérature allemande et anglo-
égal au nombre de combinaisons C (n, x)
saxonne, elle est connue sous le nom de de x élémentsparmi n. Blaise Pascal a eu
Loi de Gauss ; certains mathématiciens l'idée de ranger les valeursde C(n, x) dans
français y ont fait référence sous le nom un tableau triangulaire, où le nombre n
de Loi de Laplace. Pour mettre tout le augmente de haut en bas, et le nombre x,
monde d'accord, Maurice Fréchet, qui de gauche a droite. II remplit la première
fut professeur de mathématiques à la colonne de 1, car il n'y a qu'une seule
Sorbonne entre les deux guerres, a pro- manière de choisir zéro élément parmi n ;
il remplit aussi la diagonale de 1, car le
posé de l'appeler Loi de Laplace-Gauss.
choix de n élémentsparmi n est, lui aussi,
C'est cet usage qui a prévalu en France.
unique. Puis chaque case vide reçoit la
Ces deux mathématiciens ont tous deux
somme du nombre situé juste au-dessuset
introduit cette loi, mais leurs approches de son voisin de gauche ; en effet, le
étaient fondamentalement différentes. (n+l)-ième tirage donne soit face soit pile.
La loi normale a été imaginée par Si l'on tire face, on a C(n, x) possibilités
Gauss dans un contexte totalement d'avoir x fois pile parmi les n tirages pré-
étranger au calcul des probabilités, celui cédents ; si l'on tire pile, on a C (n, x-1)
du mouvement des corps célestes. La possibilités d'avoir x fois pile en tout ; la
mesure d'un paramètre 9, à la suite de n somme de ces deux nombres donne les
C(n+1, x) possibilités d'avoir x fois pile
observations, donne un nombre n de
après (n+1) tirages.
résultats y1, y2,... yn. Gauss s'interroge :
comment estimer la valeur du paramètre
# à partir de ces seules mesures? de combinaisons de n objets pris x à x ;
Une première estimation de # est C (n, x) est aussi le coefficient de a'dans
fournie par la méthode des moindres le développement du binôme (1 + a) n ; il
carrés élaborée par Gauss ; cette estima- vaut n!/(x! (n-x)!), où n! désigne la fac-
tion est égale à la valeur qui minimise la torielle de n, c'est-à-dire le produit des n
somme des carrés des différences yi-#. premiers entiers : n ! = n (n-1)
On pourrait l'obtenir par exemple en (n-2)... 3x2x1.
calculant un certain nombre de ces semblance soit maximale pour la valeur La loi définie par les probabilités pn,
sommes de carrés pour différentes moyenne yM des observations sont des ou loi binomiale, est représentée par un
valeurs de # et en choisissant la valeur densités normales centrées, c'est-à-dire diagramme à bâtons (voir la figure 3).
de # qui fournit la plus petite somme. des fonctions du type exp (-x2). En Lorsque le nombre de tirages augmente,
Gauss montre que cette estimation de # d'autres termes, si l'on prend pour loi le diagramme des probabilités
équivaut à la moyenne yM des valeurs des erreurs la loi normale, l'estimation s'approche de la courbe en cloche repré-
mesurées, dont le calcul est aisé. d'un paramètre par la méthode des sentative de la loi normale. Cette évolu-
Parallèlement, Gauss propose une moindres carrés coïncide avec son esti- tion avait été démontrée par A. de
autre méthode : il suppose que les mation par le maximum de vraisem- Moivre en 1733. Au siècle dernier,
mesures sont indépendantes (aucune n'a blance. De surcroît, la loi normale est la F. Galton a inventé un dispositif fort
d'influence sur les autres) et il introduit seule loi assurant cette propriété. ingénieux pour simuler la tendance de
la probabilité f(xi) de commettre l'erreur la loi binomiale vers la loi normale (voir
Xi = Yi-0 lors de l'observation de yi. Il La loi binomiale la figure 4).
introduit également la fonction de vrai- Laplace reprit le problème de A. de
semblance L (#), égale, par définition, au L'approche de Laplace, toute diffé- Moivre, mais traita le cas général où la
produit des probabilités f(xi)). Les obser- rente, prolonge les recherches du mathé- pièce de monnaie est imparfaite, c'est-à-
vations étant indépendantes, L est (#) la maticien anglais Abraham de Moivre sur dire, où la probabilité d'amener pile en
probabilité pour que les erreurs affé- les résultats de tirages aléatoires. Pour en un lancer, comprise entre 0 et 1, diffère
rentes à ces observations aient toutes été donner une idée, procédons à une suite de de 1/2. II démontre que dans ce cas éga-
commises lors d'une série de mesures. lancers d'une pièce pouvant donner soit lement, la répartition des résultats des
Gauss formule en outre deux hypo- « pile » soit « face ». Jouons
avec une pièce lancers tend vers une loi de type nor-
thèses : f est paire (on commet aussi de monnaie parfaite : la probabilité mal. Cette étude de l'approximation de
souvent une erreur positive qu'une d'amener pile à chaque lancer est 1/2, de la loi binomiale par la loi normale n'a
erreur négative) et f décroît quand la même que la probabilité d'amener face. été, pour Laplace, qu'un prélude à des
valeur absolue de l'erreur xi augmente Le nombre x d'apparitions de pile sur n développements plus profonds mettant
(on commet moins souvent de grandes tirages est imprévisible a priori : x est la loi normale en rapport avec la théorie
erreurs que des petites). II démontre que une variable aléatoire. On calcule néan- des erreurs d'observation ; cette
les seules fonctionsf vérifiant ces hypo- moins sa loi de probabilité pn ; celle-ci approche s'est révélée la plus féconde.
thèses et telles que la fonction de vrai- vaut C(n, n)/2n, où C (n, x) est le nombre Nous en donnons un aperçu.
Le théorème central limite

Procédons à une suite d'observations


et désignons par Xn l'erreur afférente à la
n-ième observation. On interprète les Xn
comme des variables aléatoires indépen-
dantes centrées (c'est-à-dire d'espérance
mathématique nulle) et du second ordre
(c'est-à-dire d'écart-type fini). Laplace
introduit la somme Sn = X1 +... + X
des n premières erreurs, et il s'intéresse
au comportement de cette somme pour
de grandes valeurs de n.
Laplace s'interroge : à quelles condi-
tions la loi de répartition de la somme Sn
est-elle approchée par la loi normale
3. LA LOI BINOMIALE, qui décrit la probabilité d'amener x fois pile après n tirages, est
pour de grandes valeurs de n ? Son ana-
représentéepar des diagrammes à bâtons. Lorsque le nombre n de tirages augmente, cette lyse lui montre qu'une condition
essen-
loi tend versune loi normale. tielle pour qu'il en soit ainsi est que le
plus grand des écarts-types individuels
soit négligeable devant l'écart-type de la
somme. Cette condition est réalisée si
toutes les erreurs Xn sont indépendantes
et ont même loi. La marche au hasard sur
la droite illustre cette condition.
Considérons un homme saoul et titubant ;
il avance ou recule, avec la même proba-
bilité, d'un pas que l'on pose de lon-
gueur 1. Après n pas, l'ivrogne s'est
déplacé d'une distance Sn égale à la
somme des n pas : en moyenne, cette
somme est nulle, mais on montre que,
pour de grandes valeurs de n, elle se
répartit autour de la valeur moyenne
selon une loi normale, d'écart type #n.
Lorsque n est très grand, la longueur
d'un pas, soit 1, est négligeable devant
l'écart type de la somme, soit #n.
L'approche de Laplace contenait en
germe ce qu'est devenu par la suite le
problème « central limite ». Il s'agit
d'établir des conditions (suffisantes)
pour qu'une loi de probabilité converge
vers la loi normale (comme le fait la loi
de déplacement de l'ivrogne). Tout théo-
rème qui fournit des conditions de ce
type est appelé « théorème central
limite ». (C'est le mathématicien hon-
grois G. Polyà qui, en 1920, a désigné
un tel théorème par le nom de Zentraler
Grenzwertsatz.) Parmi les hypothèses de
tout théorème central limite figure la
condition déduite par Laplace pour la
suite Sn ; cette condition assure
qu'aucune variable aléatoire figurant
dans la somme Snn'est disproportionnée
par rapport aux autres, car sinon elle
ferait prévaloir sa loi. Les marchés
4. LAPLANCHE DE GALTON illustre la tendance de la loi binomiale vers la loi normale.
Chaque boule bâchéeen haut de ce dispositif rencontre des plots qui la dévient soit vers la financiers fournissent un exemple où
droite soit vers la gauche, avec la mêmeprobabilité. La trajectoire moyennede la boule est cette condition n'est pas respectée (voir
verticale : les boules tombent plus souvent dans les godets du milieu. Quelques boules Les marchés aléatoires, par Jean-
s'écartent du trajet moyen et tombent dans desgodetsplus éloignés. Après un grand nombre Philippe Bouchaud et Christian Walter,
d'expériences, la distribution du nombre de boules dans les godets suit une loi normale. dans ce dossier) : la performance d'une
VARIABLES ALÉATOIRES ET LOI NORMALE
Si l'on prélève au hasard un élève dans une dasse donnée On décrit toute variable aléatoire X par une caractéristique
et que l'on mesure sa taille, on obtient un nombre qui dépend de position (par exemple, la moyenne ou espérancemathéma-
de l'issue de ce choix ; on dit que c'est une variable aléatoire tique) et une caractéristique de dispersion autour de la
et on a l'habitude de la désigner par une lettre capitale X, Y,... moyenne (par exemple, la variance, l'écart-type). Pour calculer
On note une réalisation particulière d'une telle variable pour l'espérance mathématique E (X) d'une variable aléatoire, on
une issue donnée par une lettre minuscule : x, y,... commence par multiplier chaque valeur possiblex de X par la
Le cas où la variable aléatoire X prend des valeurs dis- probabilité P (x) que X prenne cette valeur. On additionne
crètes, comme les numéros d'une loterie, est le plus simple : ensuite tous les termes xP (x). Quand la variable aléatoire X est
la probabilité P(x) pour que la variable continue, munie d'une densité f, on cal-
prenne une valeur donnée x est égale cule des sommes continues, ou inté-
au nombre d'événements favorables grales. Ainsi l'espérancemathématique
divisé par le nombre total d'événe- E(X) est l'aire totale située sous le
ments possibles. graphe de la fonction xf (x).
Cette définition de la probabilité Pour mesurer la dispersion des
ne s'applique pas au cas où la variable valeurs possibles autour de la valeur
aléatoire X prend des valeurs conti- moyenne, il semble naturel de calcu-
nues (comme la taille des élèves) : le ler, pour chaque valeur de X, l'écart a
nombre total d'événements est alors la moyenne X-E (X) ; ces écarts peu-
infini, et le rapport défini ci-dessus est vent être positifs ou négatifs, si bien
toujours nul. On exprime la loi de dis- qu'ils se compensent et donnent peu
tribution de probabilité d'une d'information. Pour éviter que les
variable aléatoire continue à l'aide d'une densité de proba- écarts ne se compensent, on élève leurs valeurs au carre ; a
bilité f ; pour tout intervalle [a, b], la probabilité P b pour variance, notée V(X) est l'espérance mathématique de cette
que X prenne une valeur dans cet intervalle lors du prélève- quantité ; l'écart-type est la racine carrée de la variance.
#abf(x)dx, c'est-à-dire à l'aire
ment au hasard est égale a Si l'espérance mathématique est nulle, la variable X est
délimitée par le graphe de f, la verticale d'abscisse a, la dite centrée ; si la variance est égale a 1, elle est dite réduite.
verticale d'abscisse b et l'axe des x (en bleu sur la figure). Pour des raisons de commodité, il est souvent utile de rem-
La loi de densité de probabilité la plus couramment utilisée placer une variable aléatoire donnée par la variable
est la loi normale. qui
(X-E (X))#V(X), est a ! ors centréeet réduite.

valeur en bourse est égale à la somme La loi normale et nulles ; (2) elle est maximale dans le cas
des fluctuations quotidiennes en bourse ; la théorie de l'information de l'équipartition, c'est-à-dire lorsque
or ces fluctuations peuvent être catastro- toutes les probabilités Pi sont égales (on
phiques, et il arrive qu'une seule fluctua- La théorie de l'information, qui a ne sait rien sur le système). On lui
tion soit comparable à la somme de pour vocation la mesure du degré de impose également une propriété d'addi-
nombreuses autres. Ainsi, la loi de fluc- complexité d'un système, s'est dévelop- tivité : (3) l'entropie d'un couple de
tuations des valeurs en bourse ne tend pée dans les années 1940, à partir des variables aléatoires indépendantes est
pas vers une loi normale. travaux d'avant-garde de C. Shannon et égale à la somme des entropies des
La condition de non-prévalence d'une de N. Wiener. La loi normale n'a pas variables individuelles (rappelons que
variable aléatoire n'est pas tout à fait suf- manqué, une fois de plus, de se tailler lorsqu'un événement est composé de
fisante pour établir un théorème central une place de choix dans cette nouvelle deux événements indépendants, sa pro-
limite. Les continuateurs de Laplace, dont théorie. En effet, comme nous allons le babilité est égale au produit des deux
le J. Lindeberg, lui ont adjoint des condi- voir, la notion d'entropie qui en est un probabilités individuelles).
tions supplémentaires, et ont énoncé des des outils principaux, permet de distin- Ces conditions étant posées, Shannon
théorèmes plus précis, dans des cas de guer la loi normale parmi d'autres lois a défini l'entropie par la somme (discrète)
suites plus générales que celles de au moyen d'une propriété d'extremum. des termes pi log (1/pi), où log désigne la
Laplace. L'exploitation la plus fructueuse Rappelons d'abord ce qu'est l'entropie. fonction logarithme népérien. On vérifie
de l'idée sous-jacente à la condition de Supposons que l'on étudie un sys- que cette fonction convient : le loga-
non-prévalence a été faite par Gnedenko tème caractérisé par une variable aléa- rithme de 1 est nul (condition 1) ; la
et Kolmogorov, deux mathématiciens qui toire X, admettant un nombre n de somme est maximale (égale à log n)
ont contribué à la théorie de l'informa- valeurs discrètes avec les probabilités lorsque tous les pi = l/n (condition 2); le
tion. Ils ont montré qu'une variable aléa- P1, P2,..., pn. L'entropie statistique logarithme d'un produit est égal à la
toire normale est la somme d'un grand mesure le degré d'indétermination du somme des logarithmes (condition 3).
nombre de variables aléatoires, indépen- système, ou la quantité d'information à Dans le cas continu, avec une densité de
dantes et petites, dont aucune n'est pré- laquelle on ne peut accéder. Pour rem- probabilité f d'une variable aléatoire X,
pondérante. Ainsi toute erreur normale plir ce rôle, l'entropie doit posséder 1'entropie de Shannon est égale à la
sur une grandeur mesurée est la somme quelques propriétés particulières, dont somme, sur toutes les valeurs de X, de la
d'erreurs infinitésimales indépendantes. les suivantes : (1) elle est nulle quand quantité f log (1/f). Le calcul de cette
Cette propriété rend bien compte de la l'un des événements est certain (on sait somme continue est plus difficile, mais la
quasi-universalité de la loi normale dans tout sur le système), c'est-à-dire quand signification de l'entropie est analogue au
les disciplines les plus diverses. pi = 1, les autres probabilités étant cas discret.
Nous avons dit que la loi de densité d'une fonction statistique, telle que La conservation
normale se distingue des autres par une l'espérance mathématique, à englober et la cohérence
propriété d'extremum de l'entropie. En toute l'information d'un système. La
effet, parmi toutes les densités de proba- quantité d'information de Fisher dis- La loi normale possède une autre pro-
bilité centrées et réduites (où l'écart- tingue, elle aussi, la loi normale parmi priété remarquable : la conservation par
type vaut 1), il en existe une et une seule d'autres lois au moyen d'une propriété l'addition. Autrement dit, la somme de
qui maximise l'entropie : c'est la densité d'extremum. On montre en effet que la deux variables aléatoires normales et
de la loi normale. Ainsi la loi normale quantité d'information de Fisher est tou- indépendantes est encore une variable
est adaptée à la description d'un sys- jours supérieure à 1, est qu'elle est aléatoire normale. Illustrons cette pro-
tème sur lequel on possède peu d'infor- égale à I si et seulement si f est une priété par l'exemple industriel siuvant :
mation : de sa variable aléatoire, on ne densité de loi normale. une pièce usinée, de longueur X, est obte-
connaît que la moyenne et l'écart-type. Les deux théorèmes que nous nue en mettant bout à bout deux pièces
Une autre notion d'information, venons d'énoncer et qui présentent la provenant d'usines différentes, de lon-
moins connue que celle de Shannon, loi normale comme un objet mathéma- gueurs X1 et X2. Parmi les nombreuses
mais utile en théorie de l'estimation, est tique extrémal ont été mis à profit par le piècesproduites, on peut supposerque les
la quantité d'information de Fisher : elle probabiliste Y. Linnik. Il a fourni une longueurs X1 et X2 sont normales ; elles
est définie comme la somme, sur toutes démonstration du théorème central sont en outre indépendantes. De même, la
les valeurs de la variable aléatoire X, de limite, entièrement fondée sur la théorie variable X = X1 + X2 désignant la lon-
la quantité f(f'/f)2, où f' est la dérivée de l'information. II a en outre établi un gueur de la pièce finale, est normale.
de f. Cette quantité permet d'introduire lien étroit entre la convergence d'une L'hypothèse de l'indépendance des
de façon élégante les principales notions suite de lois de probabilité vers la loi variables aléatoires que l'on additionne
de cette théorie, en particulier celle normale et la croissance de l'entropie est essentielle ; si elle n'est pas vérifiée, il
d'exhaustivité, c'est-à-dire la capacité des termes de cette suite. peut arriver que la somme de deux
variables normales ne soit pas normale.
Illustrons ce fait à l'aide de l'exemple
mathématiques suivant : soient X et Z
deux variables aléatoires indépendantes,
X étant normale centrée réduite et Z pre-
nant chacune des deux valeurs + 1,-1
avec la probabilité 1/2. Il est clair que la
variable Y = XZ est aussi normale centrée
réduite. On voit alors que X + Y, qui est la
somme de deux variables normales cen-
trées réduites, n'est pas normale,
puisqu'elle vaut 0 avec probabilités 1/2 et
2X avec probabilité 1/2.
La propriété de conservation est
facile à démontrer, mais elle n'est pas
caractéristique de la loi normale. La loi
de Cauchy par exemple, de la forme
1/(1+x2), la possède également. En
revanche, la propriété de cohérence, bien
plus profonde que la propriété de conser-
vation, est propre à la loi normale. Selon
cette propriété, si une variable aléatoire
normale peut être décomposée en la
somme de deux variables aléatoires indé-
pendantes, alors chacun des termes de la
somme suit une loi normale. C'est le cas
des longueurs des pièces usinées partielle
dont la somme est la lonueur de la pièce
usinée totale. La propriété de cohérence
est appelée théorème de Cramer-Lévy, du
nom de Paul Lévy qui l'a conjecturé en
1935 et de Gabriel Cramer qui l'a
démontré en 1936.
5. RÉPARTITION DES VITESSES DES PARTICULES DANS UN GAZ PARFAIT, OU distribution
de Maxwell. Dans un gaz, les vitesses des particules ont des directions et des modules aléa- La loi normale
toires (en haut à gauche). La densité de probabilité du vecteur vitesse d'une particule (le
dans l'espace
nuage bleu) est maximale au centre (en moyennela vitesseest nulle) et diminue à mesure
que l'extrémité du vecteur s'éloigne de son point d'attache. Chaque composante Vi du vec-
teur vitessed'une particule estrépartie selon une loi normale (en bas à gauche).Le module La loi normale s'est aussi imposée
de la vitessesuit la loi de Maxwell (en bas au milieu). Enfin le module de la projection sur dans notre espace à trois dimensions,
un plan suit la loi de Rayleigh (en bas à droite). principalement à la suite des travaux de
6. APPARITION SURPRENANTE DE LA LOI NORMALE EN GÉOMÉTRIE. distribution de densité gn de la masse de la boule projetée sur l'axe
Soit une boulede rayon R et de volume n dans un espacea n dimen- Ox. Divisons gn par le volume Vn : on obtient une densité de probabi-
sions. Projetons sur un axe Ox, pour toute abscisse x, le contenu lité fn. Lorsque la dimension n de l'espacetend vers l'infini et pour un
d'une tranche d'épaisseurtrès faible est d'abscisse x. On obtient une rayon R = n, on constate que

James Clerk Maxwell sur la répartition propriété est caractéristique des vecteurs lité sur la droite que nous notons fn(x, R)
des vitesses des particules dans un gaz aléatoires à composantes normales, cen- = gn (x, R)/Vn(R). Cette densité est
parfait. Au milieu du siècle dernier, au trées, indépendantes et identiquement encore nulle quand x est en dehors de
cours de ses tentatives pour modéliser le distribuées. Elle est en outre vraie quelle l'intervalle [-R, +R] ; quand x est à l'inté-
mouvement désordonné observé dans un que soit la dimension n de l'espace étu- rieur de cet intervalle, sa valeur pour n =
tel gaz, Maxwell a été amené à représen- dié, c'est-à-dire quel que soit le nombre 1, 2 et 3 est donnée sur la figure 6.
ter la vitesse d'une particule par un vec- n de composantes du vecteur. Finalement, dans fn(x, R), nous pre-
égal à #n et nous obte-
teur aléatoire, dont les trois composantes Dans le cas n = 2, signalons une nons le rayon R
V1, V2, V3 sont des variables aléatoires autre propriété curieuse de la loi nor- nons une suite de densités de probabilité
indépendantes admettant toutes la même male, elle aussi liée à une rotation sur la droite, de terme général fn(x, #n).
loi normale centrée. La loi du vecteur autour de l'origine. Elle affirme que si Le comportement asymptotique de cette
représentatif d'une particule est encore Xl, X2 sont deux variables aléatoires suite est très surprenant : lorsque n tend
appelée loi normale (à trois dimensions). indépendantes de même loi et si X1-X2 vers l'infini, elle converge vers la densité
La longueur V de ce vecteur, c'est-à- et Xl + X2 sont également indépen- de la loi normale. Autrement dit, la fonc-
dire le module de la vitesse d'une parti- dantes, alors la loi commune de X1, X2 tion fn(x, #n) tend (-x2/2)/#2#,
vers exp
cule, est une variable aléatoire suivant la est normale. Cette propriété, associée lorsque n tend vers l'infini.
loi de Maxwell ; elle admet pour densité aux noms de Bemstein et Darmois, a été Ce phénomène, que le calcul
fM,(v) = #(2/#) V2 exp (-v2/2). considérablement généralisée. constate, n'a encore reçu, à notre connais-
La longueur V0 de la projection du Avant de clore ce paragraphe, men- sance, aucune explication qui satisfasse
vecteur vitesse sur un plan est un vecteur tionnons un lien remarquable entre la loi l'esprit. On peut s'étonner de l'apparition
à deux composantes, dont la longueur normale et le volume d'une boule. de la loi normale dans un domaine qui, à
est une variable aléatoire à valeurs posi- Désignons par Vn(R) le volume de la première vue, lui est étranger.
tives ; cette variable aléatoire suit la loi boule dans un espace de dimension n, de Les remarquables propriétés de la
de Rayleigh, qui a pour densité fR(v0)= rayon R et centrée à l'origine. Pour n = 1, loi normale la rendent indispensable
(-v02/2). Évidemment 2 et 3, Vn(R) vaut respectivement 2 R,
v0 exp les deux aux calculs statistiques. Dans la théo-
lois que nous venons d'évoquer et qui #R2 et 4#R3/3. rie des tests d'hypothèse pour de petits
sont dans la filiation de la loi normale Projetons la masse constituant ce échantillons, il convient de supposer
jouent un rôle essentiel dans la théorie volume sur l'un des axes, disons Ox. On que chaque variable dont est constitué
statistique des gaz parfaits. obtient ainsi une distribution de masses l'échantillon suit une loi normale, car
Revenons à la loi normale du vecteur sur la droite qui suit la loi notée gn (x, R). alors la moyenne et la variance expéri-
aléatoire représentant la vitesse d'une Lorsque x est en dehors de l'intervalle mentale sont des variables aléatoires
particule. Son principal intérêt aux yeux [-R, +R], cette distribution est évidem- indépendantes. Cette dernière pro-
des physiciens est qu'elle est isotrope, ment nulle et pour x à l'intérieur de cet priété s'est révélée caractéristique de
c'est-à-dire identique dans toutes les intervalle, un calcul aisé en fournit la la loi normale, comme l'a montré le
directions. Autrement dit, la densité de valeur (voir la figure 6). On norme cette statisticien anglais Geary. Cela fournit
probabilité du vecteur vitesse ne dépend distribution en la divisant par Vn(R) et une raison supplémentaire pour préfé-
que de la longueur de ce vecteur. Cette l'on obtient ainsi une densité de probabi- rer la loi normale.
Le mouvement brownien

la théorie du potentiel
et

Reuben Hersh et Richard Griego

Une nouvelle branche des mathématiques, la théorie pliste selon laquelle les déplacements
saccadésdes particules seraient dus à
probabiliste du potentiel, résulte du mariage l'impact de molécules isolées, était à
rejeter : même la plus petite particule
de deux disciplines apparemment distinctes : !'étude observable au microscope était de loin
trop pesante pour être déplacée de
du mouvement brownien et la théorie du potentiel. façon visible par l'impact d'une seule
molécule à la fois.
Albert Einstein, en 1905 (I'année
où il publia son premier article sur la
uel est le point commun était propre aux cellules sexuelles théorie de la relativité), améliora
entre le mouvement mâles de la plante, puis élimina cette considérablementla compréhensiondu
désordonné d'une petite hypothèse en remarquant que des par- mouvement brownien par une étude
particule ballottée dans ticules d'autres substancesorganiques, théorique de mécanique statistique.
une mer turbulente de de verre ou de granit, se mouvaient Sur la base de la théorie cinétique de
molécules et la réparti- pareillement. la chaleur, Einstein montra qu'une
tion de la chaleur dans Vers 1860, le problème du mouve- particule de taille observable, soumise
un corps solide en équilibre ther- ment brownien commença véritable- au bombardement moléculaire du
mique ? C'est l'action d'un grand ment à intriguer les physiciens. Les milieu, devait être animée d'un mou-
nombre d'éléments. premièresexplications qu'ils en donnè- vement aléatoire dû à la différence
La théorie probabiliste des proces- rent étaient fondées sur des courants entre les nombres des impacts agissant
sus aléatoires, qui traite notamment du fluides dans le milieu baignant les par- sur des parties opposéesde sa surface
mouvement brownien, et la théorie du ticules : ces explications furent vite à un instant donné.
potentiel, qui a pour objet les états écartéesquand on observa qu'il n'exis- Dans cette hypothèseplus la parti-
d'équilibre d'un milieu homogène,sont tait aucune corrélation entre les mou- cule est petite, plus l'amplitude du mou-
deux branches maîtresses de la phy- vements de deux particules voisines. vement est importante. Sous l'effet de
sique théorique. Elles semblent indé- De plus, il semblait que la probabilité chaquepoussée,la particule se déplace
pendantes l'une de l'autre, mais leur associée au déplacement d'une parti- d'autant plus vite et d'autant plus loin
équivalence mathématique implique cule à partir d'une position donnée que le fluide est moins visqueux. La
que les progrès réalisés dans une des était isotrope, c'est-à-dire indépen- viscosité du fluide, en freinant la parti-
deux disciplines peuvent être transférés dante de la direction, et que le mouve- cule, diminue l'amplitude des déplace-
dans l'autre. En utilisant cette pro- ment passé d'une particule n'avait ments. Chaquemouvement est indépen-
priété, on a obtenu de nombreux résul- aucune influence sur le mouvement dant du mouvement précédent, et ne
tats intéressants dans chacune de ces présent. Enfin et surtout, le mouve- dépend que de la variation aléatoire de
deux branches. ment était incessant. la pression moléculaire sur différentes
La relation entre la températuredu surfaces opposées de la particule, par
Le mouvement brownien milieu et la vitesse de la particule sug- exemple les surfaces gauche et droite,
gérait que le mouvement brownien haute et basse, avant et arrière. Ces
Le phénomèneappelé «mouvement était d'origine moléculaire ; en effet, mouvementssuccessifséloignent la par-
browniens a été observé pour la pre- en théorie cinétique, la température ticule de sa position initiale ; bien que
mière fois en 1827 par le botaniste d'un corps est proportionnelle à la sa position exacte, à chaqueinstant, soit
écossaisRobert Brown au cours d'une moyenne du carré de la vitesse des évidemment inconnue, on peut mesurer
étudeportant sur le processusde fertili- molécules qui le composent : lorsque la probabilité pour que la particule soit
sation d'une nouvelle espèce de fleur. la température augmente, la vitesse dans une position donnée.
Brown observa au microscope que les moléculaire augmente également ; or En répétantla même expérience,où
grains de pollen de cette fleur, en sus- les expériences avaient déjà montré l'on note la position de la particule en
pension dans l'eau, étaient animés d'un que plus la température était élevée, fonction du temps, on obtient les
mouvement désordonnérapide. Brown plus le mouvement brownien était courbes en cloche représentées sur la
crut, tout d'abord, que cette agitation rapide. Toutefois, l'hypothèse sim- figure 3. On a représentésur l'axe hori-
1. MOUVEMENT BROWNIEN de particules placées dans un fluide, vement desparticules est calculé par la méthode de Monte-Carlo : une
reconstitué sur ordinateur ; cette vue illustre l'aspect irrégulier des tra- particule choisie au hasard est déplacée d'une valeur aléatoire, choisie
jets des particules ballottées par une « mer turbulente » de molécules. également au hasard parmi une série de nombres aléatoires engendrés
Chaque particule est représentée par un point rouge sur l'écran de par l'ordinateur. On peut simuler certaines conditions aux limites en
l'ordinateur, et laisse une traînée rouge dernière son passage. Le mou- declarant « impossibles » certains mouvements.
zontal la distance parcourue par une La marche au hasard tiques) fut de montrer en quoi consistait
particule, en supposant qu'au temps un choix « au hasard » parmi les élé-
t = 0, la particule était au point x = 0. Après les prédictions théoriques ments de cet ensemble.
On a représenté sur l'axe vertical de d'Einstein, le mouvement brownien Nous n'essaierons pas ici de rendre
chaque courbe, la probabilité pour était quasiment résolu à la satisfaction compte de l'ensemble des travaux de
qu'une particule soit en un point donné des physiciens. Il en était tout autrement Wiener ; nous en esquisserons certains
d'abscisse x aux temps t = 1, 10 et 100 des mathématiciens pour qui l'histoire résultats. Considérons, à titre d'illustra-
secondes. Ces courbes montrent évi- du mouvement brownien ne commence tion, le chemin parcouru par une parti-
demment que la position la plus pro- qu'en 1920 avec le premier article de cule pendant un laps de temps fini (par
bable est toujours la position initiale ; la Norbert Wiener sur ce sujet. En effet exemple une heure) ; la particule se
probabilité attachée à un point est pour les mathématiciens, le mouvement déplace sur une droite avec une vitesse
d'autant plus petite que ce point est plus brownien était un sujet attirant et extra- constante en valeur absolue ; l'orienta-
éloigné de la position initiale. ordinairement difficile. La difficulté tion de la vitesse est, à intervalles régu-
De plus, les courbes sont symé- principale était la définition mathéma- liers, choisie au hasard, avec une proba-
triques : la particule se déplace avec la tique précise du mouvement «aléatoire » bilité 1/2, dans un sens ou dans l'autre
même probabilité vers la gauche ou vers d'une particule. (la vitesse est de valeur constante, seule
la droite. Comme on peut s'y attendre, Tout le monde sait ce que signifie sa direction change).
ces trois courbes montrent que la proba- choisir « au hasard »entre pile et face : Le nombre total de chemins pos-
bilité pour que la particule reste au voi- c'est assigner à chacune de ces alterna- sibles est égal à 23 600. La particule
sinage du point origine diminue avec le tives une probabilité 1/2 ; autrement dit, choisit, au hasard, un chemin ; chacun
temps. Ces courbes en cloche corres- on ne peut déterminer, a priori, laquelle de ces chemins a une probabilité
pondent à des distributions de probabi- de ces deux alternatives résultera d'un 1/23 600. Un tel chemin, fait de dépla-
lité appelées «normales » ou « gaus- lancer donné. Lors de son mouvement cements finis, est appelé « marche au
siennes » ; de telles distributions « brownien », une particule suit un che- hasard » ou « marche en ivrogne ». La
apparaissent lorsque les quantités mesu- min choisi « au hasard » parmi tous les difficulté consiste à prendre la forme
rées résultent de la somme d'un grand chemins possibles. limite d'un tel chemin pour des inter-
nombre de variables aléatoires, indépen- L'ensemble de tous les chemins valles de temps infiniment petits.
dantes et strictement identiques, comme possibles comprend un nombre énorme Wiener montra comment réaliser ce
dans ce cas, les nombreuses petites d'éléments qui compliquent grandement passage à la limite de façon mathémati-
poussées successives qui entraînent le son étude. La majeure contribution de quement correcte, et fit entrer le mouve-
déplacement total. Wiener (dans le domaine des mathéma- ment brownien dans le langage des
mathématiques. Dans le modèle de
Wiener du mouvement brownien, les
distances totales parcourues par une
particule sont distribuées selon une
courbe gaussienne, tout comme dans le
modèle physique d'Einstein. Wiener
démontra que le trajet est une courbe
presque certainement continue, mais
irrégulière en tout point (en aucun de
ses points, la courbe représentant le tra-
jet n'a de tangente).
Ces propriétés coïncident avec
l'intuition physique qu'on peut avoir du
phénomène : une particule ne peut pas
sauter instantanément d'une position à
une autre, ce qui fait que son trajet doit
être continu. Toutefois, des change-
ments aléatoires de direction ont lieu en
permanence, ce qui fait que la courbe
du trajet est entièrement constituée
« d'angles vifs ».
L'oeuvre de Wiener a suscité de
nombreuses recherches sur le sujet. La
plupart des recherches modernes sur
les processus aléatoires sont un pro-
longement direct des travaux de
2. L'ORIGINE MOLÉCULAIRE DU MOUVEMENT BROWNIEN a été suggérée par l'accroisse-
Wiener, et la théorie probabiliste du
ment de la vitesse des particules avec la température : selon la théorie cinétique des
gaz, une
température plus élevée correspond à des mouvements moléculaires plus rapides. Toutefois,potentiel en est le plus beau fruit. Il
même la plus petite particule observableau microscopeétait de loin trop pesantepour être faut, pour expliquer les circonstances
déplacée de façon visible par l'impact d'une molécule à la fois (à gauche). Au contraire,on qui ont amené cette fusion, considérer
a démontré que le mouvement brownien aléatoire d'une particule, était dû à des variations un moment la théorie classique (ou
aléatoires de la pression moléculaire sur différentes parties de la particule (à droite). non probabiliste) du potentiel.
La théorie du potentiel

La théorie du potentiel concerne


l'étude des positions d'équilibre. Elle a
pour objet les fonctions harmoniques
qui régissent l'équilibre des milieux
homogènes. Considérons, par exemple,
une membrane élastique tendue sur un
support en fil de fer (voir la figure 5) ;
la configuration de la surface d'une telle
membrane est définie par l'élévation h
de chaque point P de la surface. La
position du point P est définie par sa
projection Po sur le plan xOy. Ainsi, si
3. CES TROIS COURBES EN CLOCHE représentent, a des temps différents, 1, 10
les coordonnées x et y de Po sont don-
et 100 secondes, les probabilités des positions d'une particule animée d'un mouvement
nées, la quantité h, correspondant à
brownien. La distance parcourue est représentéeen abscisseen supposant la particule au
l'élévation du point P de la membrane, point x = 0 au temps t = 0. De telles courbessymétriquesillustrent une répartition de proba-
est déterminée ; h est ainsi une fonction bilité gaussienne de formule g(x), oùD est le coefficient de diffusion du milieu ambiant.
de x et de y, ou de façon symbolique
h = h (x, y).
Il est intuitivement évident, et
mathématiquement démontrable, que la
fonction h est une fonction continue. La
fonction h a, de plus, la propriété sui-
vante : si Po est un point du plan xOy et
F un petit cercle centré en Po, la valeur
de h en P, c'est-à-dire l'élévation de la
membrane au-dessus du point P0, est
égale à la moyenne des valeurs de h
prises en tous les points du cercle r.
Toute fonction continue h qui vérifie
cette propriété de moyenne est une
4. UNE NOTION INTUITIVE de ce qu'est le modèle de Wiener du mouvement brownien est
fonction « harmonique ».
obtenue à partir de cette illustration. La ligne en zigzag représente le trajet à une dimension
Dans le cas de la membrane, la posi-
d'une particule qui change de direction toutes les secondes. Si le mouvement, au lieu de
tion de P (point de la membrane au-des-
durer 11 secondes,durait une heure, il n'y aurait tout de même qu'un nombre fini (23600) de
sus de PO) est fonction de la somme des chemins possibles. La particule choisit au hasard un trajet parmi tous ces chemins dont la
forces de tension exercées sur P par les probabilité de chacun est 1/23600. Un tel processus est unemarche « hasard
au » ou « en
parties avoisinantes de la membrane. Si ivrogne ». Wiener définit de façon mathématiquement rigoureuse le passage à la limite pour
la membrane est en équilibre, les forces des incréments infiniment petits.
doivent s'annuler de sorte que, par
exemple, s'il existe des points plus
hauts que P, ils doivent être compensés Le problème de Dirichlet
un point quelconque est égale à la
par des points d'altitudes inférieures à moyenne des températures prises sur la
celle de P, ce qui fait que la moyenne surface d'une petite sphère avoisinant Un pont peut être jeté entre la théo-
totale des élévations doit être juste égale ce point. En d'autres termes, la tempé- rie du mouvement brownien et la théorie
à l'élévation de P, c'est-à-dire h(Po). rature T est une fonction harmonique du potentiel au moyen du problème de
Le problème de l'équilibre ther- des coordonnées x, y et z du point P Dirichlet (cette dénomination est un
mique est un autre problème physique (voir lafigure 6). hommage au mathématicien allemand
qui a pour solutions des fonctions har- Dès 1928, des physiciens pressenti- Gustave Lejeune Dirichlet). Ce pro-
moniques. En théorie de la conduction rent que les aspects principaux de la blème traite du phénomène suivant :
de la chaleur (bien antérieure à la théo- théorie classique du potentiel avaient considérons un corps en équilibre ther-
rie cinétique de la chaleur), la tempéra- des correspondants mathématiques en mique dont la température est mesurée
ture d'un point P d'un solide homogène théorie du mouvement brownien. Tout en tous les points de sa surface ; certains
diminue si la valeur moyenne des tem- résultat obtenu dans une des deux théo- points sont chauds, d'autres sont froids ;
pératures avoisinantes est inférieure à la ries peut être transposé en un théorème quand ce corps est maintenu avec cette
température au point P ; de même, la dans l'autre. Cette propriété est avanta- répartition superficielle de température
température du point P augmente si la geuse, car certains phénomènes diffi- pendant un certain temps, un certain
moyenne des températures prises autour ciles à appréhender et obscurs dans une équilibre thermique s'établit à l'intérieur
du point P est supérieure à celle du théorie, sont parfaitement transparents du volume. La température peut être
point P. Lorsque le corps est en équi- dans l'autre. Les exemples qui suivent alors différente en chaque point du
libre thermique (ce qui signifie que sa démontrent comment de tels échanges volume du corps compris à l'intérieur de
température en tout point ne varie pas éclairent la compréhension de chacune la surface, mais ne change plus avec le
en fonction du temps), la température en de ces deux disciplines. temps. À partir de ces données, peut-on
calculer la température à l'intérieur
dudit corps ?
En terme plus mathématique, ce
problème revient à chercher une fonc-
tion harmonique définie à l'intérieur
du corps, et prenant certaines valeurs
données à la surface (ou frontière)
dudit corps. Le même problème
mathématique a l'interprétation phy-
sique suivante dans le cas de la mem-
brane : étant donné la position dans
l'espace de la frontière de cette mem-
brane, quelle est la position de chacun
de ses points internes ?
Au XIXe siècle, un grand nombre
d'excellents analystes étudièrent le pro-
blème de Dirichlet. Wiener fit faire des
progrès remarquables à cette discipline,
mais ne vit pas comment sa propre théo-
rie du mouvement brownien pouvait
5. UNE MEMBRANE ÉLASTTQUE est tendue sur un support en fil de fer ; la configuration de être utile pour résoudre le problème de
la surface d'une telle membrane est définie par l'élévation h de chaque point P de la sur- Dirichlet ; cette découverte est due au
face par rapport à sa projection P0 sur le plan xOy. Lorsque les coordonnées x et yde P0, Japonais Kakutani.
sont données, la quantité h correspondant à l'élévation du point P de la membrane est
determinee; h estainsi une fonction de x et de y, ou defa, eon symbolique h= h(x, y). Il est
intuitivement évident, et mathématiquement démontrable, que la fonction h est une fonction Mouvement brownien
continue. La fonction h a, deplus, la propriété suivante : si P0 est un point du plan xOy et # et température
un petit cercle centré en P0, la valeur de h en P0, c'est-à-dire l'élévation de la membrane
au-dessusdu point P0 est égale à la moyenne des valeurs de h prises en tous points du cercle Pour expliquer la méthode de
r. Toute fonction continue h qui vérifie cette propriété de moyenne, est une fonction « har- Kakutani, on utilisera le vocabulaire
monique ». Dans le cas de la membrane,position
la de P est fonction de la somme des forces habituel des joueurs à Monte-Carlo ou à
de tension exercéessur P par les parties avoisinantesde la membrane. Quand la membrane Las Vegas. On considère le corps solide
est en équilibre, les forces s'annulent de sorte que, par exemple, s'il existe des points plus de l'exemple précédent
hauts que P, ils sont compenséspar despoints d'altitudes inférieures à P, ce qui fait que la ; en son inté-
rieur, on prend un point P dont on veut
moyennetotale des élévationsest juste égale à l'élévationde P, c'est-à-dire h (P0). connaître la température d'équilibre.
Pour cela, le point P étant choisi, on
joue au jeu inhabituel suivant : on place
une particule en P, et on observe le
mouvement aléatoire, brownien, de
cette particule ; de façon presque cer-
taine (avec une probabilité presque
égale à 1) elle atteint à un certain
moment la frontière au point Q. Selon la
règle de ce jeu, le gain du joueur est
égal à la température du point Q ; étant
donné les conditions aux limites préci-
sées précédemment, cette température
est connue. Bien entendu, l'endroit où
la particule frappe la frontière est aléa-
toire : P est un point choisi à l'intérieur
du corps et Q est un point aléatoire de
sa surface. Il est évident que le gain du
joueur est, au plus, égal à la température
maximale sur la surface, et au moins
égal à la valeur minimale de la tempéra-
ture sur cette même surface.
De plus, tout comme dans n'importe
quel jeu de hasard, le joueur peut
6. LA RÉPARTITION DES TEMPÉRATURES dans un corps solide homogène en équilibre ther-
s'attendre à gagner en moyenne une
mique fait également intervenir des fonctions harmoniques. En effet, comme la température
certaine somme d'argent. On calcule
en un point P ne varie pas au cours du temps, celle-ci doit être égale à la moyenne des tem-
pératures despoints d'une petite sphère r centréeen P. La température T est une fonction cette moyenne en jouant un grand
harmonique des coordonnées x, y, nombre de parties. Cette moyenne est
z de P. Le problème peut être résolu par la théorie proba-
biliste du mouvementbrownien, en plaçant une particule (virtuelle) en P qui atteint la sur- appelée «espérance mathématique asso-
face en un point aléatoire Q. ciée au point P », et désignée par E (P).
L'espérance mathématique associée au
point P est égale à la mise qu'un joueur
(qui jouerait de façon rationnelle), vou-
drait bien parier pour avoir le droit de
jouer. Cette quantité, c'est-à-dire l'espé-
rance mathématique de gain de
quelqu'un qui jouerait à partir de P, est
la solution donnée par Kakutani au pro-
blème de Dirichlet.
Cette identification est d'une telle
simplicité qu'en ignorant un certain
nombre de détails d'ordre mathéma-
tique, on peut, sinon démontrer parfaite-
ment le théorème, tout au moins se per-
suader de sa véracité. L'espérance
mathématique E (P) est un nombre ; de
la manière dont nous l'avons définie,
c'est un certain nombre de francs, mais
7. LE PROBLÈME DE LA « RUINE DU JOUEUR » : début d'un jeu de pile ou face, un joueur
on peut également l'interpréter comme
(Jacques)a N francs, et son adversaire (Lionel) M francs. Jacques veut jouer jusqu'à ce qu'il
une température, c'est-à-dire un certain
ruine Lionel et gagne M francs, ou qu'il soit ruiné en perdant N francs. En interprétation
nombre de degrés. Cette espérance
brownienne,la particule représentant les gains de Jacques part de l'origine (x = 0) et la pro-
mathématique dépend bien évidemment habilité de ruine de Jacques est égale à la probabilité pour que la particule atteigne la fron-
du point de départ de la particule. Si tière de gauche (x = -N) avant la frontière de droite (x= + M). Pour résoudrece problème en
l'on part d'un point proche de la partie théorie du potentiel probabiliste, on utilise un élastiquetendu entre deux points. Comme la
chaude de la frontière, on s'attend à position d'équilibre de l'élastique entre ces deux points est une droite, la probabilité pour que
gagner plus que si l'on part d'un point Jacquessoit ruiné l'élastique
est l'élévation
d'abscisse
du pointx de = 0, soit M/(M + N).
voisin d'une partie froide de la même
frontière. Ainsi chaque point P est asso-
cié à un nombre E (P). Pour prouver que Il nous faut maintenant démontrer particule rencontre pour la première fois
E (P) est la température d'équilibre, que l'espérance mathématique E (P) est la sphère F en S. Comme dans le mou-
c'est-à-dire la solution du problème de une fonction harmonique de P. La conti- vement brownien, il n'y a pas de direc-
Dirichlet, il faut satisfaire deux exi- nuité de cette fonction est encore une tion préférentielle, chaque point S de r
gences : tout d'abord, cette espérance notion intuitive : si la position du point peut être rencontré en premier avec une
mathématique en chaque point de la de départ P change légèrement, les égale probabilité ; d'après le principe
surface doit être égale à la température gains auxquels on peut s'attendre ne que la moyenne de sous-moyennes est
de ce même point, et ensuite cette fonc- changent également que très peu ; le égale à la moyenne générale, E(P) est
tion de la position du point P doit être gain moyen dépend, évidemment, de la égal à la moyenne, prise en tout point S
harmonique, c'est-à-dire être continue distance entre le point de départ et les de F, de E(P/S).
et satisfaire au théorème de la moyenne parties chaudes et froides de la fron- Cette preuve est complète s'il est
en tout point à l'intérieur de la surface. tière, et un faible déplacement de la possible de démontrer que E (P/S) a la
Il est facile de se convaincre que la position de départ n'entraîne qu'un même valeur que E (S) ; E (S) est l'espé-
première exigence est immédiatement faible changement dans ces distances ; rance mathématique de gain pour une
satisfaite : en effet, si l'on part d'un point cela démontre de façon intuitive la particule partant de S alors que E(P/S)
P sur la frontière, le jeu s'arrête en même continuité de la fonction E (P). est l'espérance de gain pour une parti-
temps qu'il commence, et le gain E (P), cule partant de P et rencontrant r en S
est tout juste égal à la température du L'espérance mathématique À chaque instant,
pour la première fois.
point de départ ; en d'autres termes, P = est harmonique le mouvement de la particule soumise au
Q avec une probabilité égale à 1. De mouvement brownien ne dépend pas des
plus, il semble intuitivement plausible, et Qu'en est-il du théorème de la positions précédentes, mais uniquement
cela a été prouvé de façon rigoureuse, moyenne ? Seule la démonstration mon- de la position instantanée (on dit que
que si l'on part d'un point à l'intérieur du trant que la fonction E (P) vérifie la pro- c'est un processus de Markov) ; les
corps suffisamment proche d'un point priété de la moyenne nécessite l'emploi comportements d'une particule partant
frontière Q0, il est presque certain que d'une astuce mathématique. Traçons de S, ou passant par S en sachant qu'elle
l'on atteint la frontière en un point très une sphère # de petit rayon autour du est passée d'abord par P, ne différent
proche de Qo ; par conséquent, le gain point P. Pour montrer que la fonction pas, et ainsi, E (S) est égale à E (P/S).
probable, c'est-à-dire la température E(P) est harmonique, il faut prouver que En termes plus physiques, nous
d'équilibre du point P, est très proche de E(P) est égale à la moyenne des valeurs avons prouvé qu'on peut résoudre le
la température connue du point Q0. de E(S), où S est un point quelconque problème de l'équilibre thermique d'un
Ainsi, la solution de Kakutani a « bonne de la surface de la sphère #. E(P) est corps ou de l'équilibre d'une membrane
allure » au voisinage de la frontière, à l'espérance mathématique pour une par- en observant le mouvement brownien. Il
condition, toutefois, que la frontière soit ticule partant du point P. Choisissons un est réciproquement possible de
suffisamment régulière, et que la tempé- point S sur r et désignons par E (P/S) les connaître le résultat d'une expérience
rature sur cette frontière soit continue. gains des parties au cours desquelles la faisant intervenir le mouvement brow-
nien en trouvant la configuration vous, ami lecteur, observiez le jeu de
d'équilibre d'une membrane ou d'un pile ou face de Jacques et Lionel. Vous
solide conducteur de chaleur. pariez I franc que Jacques sera ruine. Si
Il convient de noter une particularité Jacques est ruine, vous gagnez I franc ;
importante de la méthode probabiliste dans le cas contraire, vous ne gagnez
de résolution du problème de Dirichlet : rien. Quelle est votre espérance de gain ?
la frontière peut être aussi irrégulière Elle est évidemment égale à la probabi-
qu'on le désire, au contraire des procé- lite que Jacques soit ruine. De plus, si
dés de résolution classiques qui impo- l'on désigne par x(t) le gain x de
sent certaines conditions de régularité Jacques au temps t, x change d'un ins-
de la frontière. La surface d'un bull-dog tant à l'autre, tout comme change la
est assez régulière pour être traitée par position d'une particule animée d'un
les méthodes habituelles, mais pas celle mouvement brownien sur une droite. La
d'un saint-bemard ou d'un caniche ! Si particule se déplace vers la gauche ou
la frontière a un comportement « patho- vers la droite avec la même probabilité ;
logique », les valeurs prescrites à la la fortune de Jacques augmente ou
frontière seront fixées « en moyenne » et diminue avec la même probabilité. Le
pas nécessairement en chaque point de jeu se termine quand le gain x de
celle-ci, et la méthode probabiliste, mise Jacques est soit + M francs, soit-N
au point dans ce cas par N. Wiener et francs. Cela correspond à une particule
A. Bouligand, s'appliquera toujours. en mouvement brownien sur l'axe des x
entre les points x = + M et x =-N.
La ruine du joueur La probabilité de ruine est la proba-
bilité qu'une particule atteigne la fron-
On a montré comment la théorie du tière de gauche (x =-N) avant la fron-
mouvement brownien peut être utilisée tière de droite (x = M). Cela signifie que
pour clarifier, en profondeur, certains ce second jeu rapporte un gain de I
problèmes classiques de la théorie du franc si la particule frappe d'abord la
potentiel, à l'aide d'arguments proba- frontière de gauche, et un gain de 0 si la
bilistes. On donne de façon réciproque particule rencontre d'abord la frontière
deux exemples qui traitent de pro- de droite. Cette situation correspond
blèmes de probabilité importants, équi- précisément à un problème de Dirichlet
valents à un simple problème de la pour un domaine unidimensionnel :
théorie du potentiel. l'intervalle entre x = -N et x = + M
Le premier exemple concerne le avec des valeurs limites égales à 1 au
problème dit de la « ruine du joueur ». point x =-N et à 0 en x = M.
Supposons qu'un joueur nomme On pourrait obtenir la solution en
Jacques joue à pile ou face avec un appliquant la théorie du potentiel à
adversaire nommé Lionel. La fortune l'équilibre d'un tel corps ; il est plus
initiale de Lionel est N francs, alors que simple d'associer à un tel problème de
celle de Lionel est M francs. Jacques est mouvement brownien la configuration
décidé à jouer jusqu'à ce qu'il ruine 8. DE TRÈSIMPORTANTSRÉSULTATS en d'équilibre d'une bande élastique (mem-
Lionel en gagnant M francs ou jusqu'à théorie des probabilités ont été obtenus en brane unidimensionnelle). Tout le
ce qu'il soit ruiné, en perdant N francs. resolvant le problème suivant : on choisit monde sait que la configuration d'équi-
Quelle est la probabilité pour que un point origine 0, et on considère le libre d'un élastique, tendu entre deux
Jacques soit ruiné ? Intuitivement, la domaine D constitué par les points P dont points, est un segment de droite. Comme
réponse dépend des valeurs relatives de N La distance de O est supérieure à # et infé- la particule qui représente les gains de
rieure à K (e est un nombre positif petit et
et M. Si N est bien inférieur à M, la ruine Jacques part du point x = 0, il importe de
K très grand). À trois dimensions, le
de Jacques est probable, et si N est supé- calculer l'élévation de la bande élastique
domaine D est le volume compris entre
rieur à M, Jacques est presque sûr de faire deux sphèresconcentriques de rayons res- en ce point (voir la figure 7). Cette élé-
« sauterla banque ».Moins évidente est la pectifs # et K. A deux dimensions, le vation vaut M/ (N + M) : c'est la proba-
possibilité d'obtenir une réponse d'ordre domaine D est la surface annulaire com- bilité pour que Jacques soit ruine.
mathématique à ce problème. Le raison- prise entre deux cercles. À une dimension, La méthode ainsi employée est aussi
nement se fera en deux temps : dans un le domaine D est une paire de segments simple que puissante. Nous avons
premier temps, on assimilera le problème disjoints situés symétriquement de part et construit tout spécialement un problème
de la ruine de Jacques à un problème de d'autre de l'origine. Dans chaque cas, il de Dirichlet, en choisissant convenable-
mouvement brownien, puis, dans un faut trouver unefonction u harmonique en
ment le domaine et les valeurs limites
tous points de D, égale à 1 sur la surface
second temps, on résoudra ce second pro- de façon à ce que l'interprétation proba-
interne et égale à 0 sur la surface externe.
blème grâce à la théorie du potentiel. biliste de ce problème soit intéressante.
Les solutions de ce problème permettent
Pour obtenir la réponse, définissons notamment de montrer de manière simple La solution étant alors évidente, puisque
un second jeu très proche du premier, le
que mouvement brownien à une et deux la configuration d'équilibre associée au
mais plus facilement transposable en dimensions est récurrent, alors qu'il ne problème de la théorie des probabilités,
théorie du potentiel. Supposons que l'est pas à trois dimensions. était d'une simplicité enfantine.
Les processus de Markov au même point : on dit que le mouve- La fonction u (R) = e/R que nous
ment est récurrent, et nous avons avons étudiée, peut être généralisée en
L'exemple suivant, s'il demande démontré que le mouvement brownien, donnant la valeur 1 à cette fonction pour
une réflexion plus profonde, illustre un à une dimension, est un mouvement les valeurs de R inférieures à #. Cette
résultat plus important concernant la récurrent. fonction généralisée est appelée te
théorie des probabilités. Prenons un Pour résoudre le même problème à potentiel capacitif de la sphère ## de
point fixe comme origine et définissons deux ou trois dimensions, il faut rayon # centrée à l'origine. Le potentiel
le domaine D, qui comprend tous les connaître les solutions du problème de capacitif d'un ensemble B est un
points P dont la distance au point d'ori- Dirichlet correspondant à deux ou trois concept important de la théorie clas-
gine est supérieure à # et inférieure à K ; dimensions, avec les valeurs limites I sique du potentiel ; c'est une fonction
# est un nombre strictement positif arbi- sur la surface interne et 0 sur la surface harmonique en dehors de B, égale à 1 à
trairement petit et K un nombre positif externe. Des considérations relative- l'intérieur de B et nulle à l'infini, c'est-
arbitrairement grand. À trois dimen- ment simples d'algèbre élémentaire, à-dire très loin de B.
sions, le domaine D est le volume com- hors du cadre de cet article, permettent Tout comme dans le cas précédent
pris entre deux sphères concentriques, de démontrer que, à deux dimensions, la de la sphère ##, le potentiel capacitif de
une sphère de rayon #, et une sphère de solution du problème de Dirichlet est B est la probabilité pour qu'une
rayon K. À deux dimensions, les mêmes donnée par la formule : particule animée d'un mouvement
conditions définissent une couronne u(r) =K-log
(log r)/(log K-log #) brownien et partant d'un point déter-
annulaire comprise entre deux cercles où log désigne logarithme. A trois mine, atteigne B. Les mêmes dévelop-
concentriques. À une dimension, D est dimensions, la solution est : pements que ceux appliqués à une
composé d'une paire de deux segments u(R) = (1/K-1/R)/(1/K-1/#). sphère montrent que cette probabilité
égaux situés de part et d'autre de l'ori- Par r on désigne la distance séparant est égale à 1 pour un point à l'intérieur
gine (voir lafigure 8). l'origine d'un point quelconque du plan de B, est une fonction harmonique
Dans chacun des cas, on pose le pro- et par R, la distance à l'origine dans un pour un point en dehors de B, et est
blème de Dirichlet suivant : quelle est la espace à trois dimensions. Dans chacun petite à grande distance de B.
fonction u harmonique sur D, égale à 1 des deux cas, r et R sont des nombres Les recherches dans ce domaine
sur la surface interne et 0 sur la surface compris entre e et K. ont permis de découvrir de très impor-
externe ? À une dimension, tout comme Ces fonctions u (r) et u (R) ont les tantes généralisations, à la fois de la
dans l'exemple précédent avec l'élas- mêmes significations probabilistes que théorie du mouvement brownien et de
tique, la seule fonction harmonique de la fonction u(x) obtenue à une dimen- la théorie du potentiel. C'est parce que
valeurs limites données est celle dont le sion ; ces fonctions donnent la probabi- le mouvement brownien est un proces-
graphe est constitue par deux segments lite pour qu'une particule, partant à une sus de Markov, que le passage de la
de droite. Une construction équivalente distance radiale de l'origine égale à r ou théorie classique du potentiel à la
montre qu'a une dimension, la solution R, frappe la surface interne avant la sur- théorie du mouvement brownien, est
u(x) du problème est : face externe. facile. Par processus de Markov, on
u(x) = (K-x)/ (K-#) pour xsupé- La question fondamentale est la sui- entend un processus dont l'état présent
rieur à # ; vante : qu'arrive-t-il lorsque K devient n'est pas influence par les états anté-
u(x) = (K + X)/(K-#)pour X infé- très grand ? Puisque log K tend vers rieurs. De récentes recherches ont
rieur à - #. l'infini avec K, le mouvement brownien montre qu'en fait, tout processus de
Tout comme dans le problème pré- est également un mouvement récurrent Markov « honnête » a pour correspon-
cédent de la ruine du joueur, u (x) est la à deux dimensions : il est presque cer- dant une théorie du potentiel généra-
probabilité pour qu'une particule partant tain que la particule revient infiniment lisé. Par exemple, la théorie classique
de la position x atteigne ta frontière souvent dans le voisinage immédiat de des potentiels de Riesz correspond à
interne (où le gain est égal à 1), avant la chaque point. ce que l'on appelle les processus
frontière externe (où le gain est égal à A trois dimensions,
en revanche, stables de la théorie des probabilités.
0). Les équations précédentes montrent lorsque K tend vers l'infini, on a u(R) = De plus, les chaînes de Markov, c'est-
que si K est très grand, u est très voisin (-1/R)/ (- 1/#) = #/R. Cette quantité est à-dire les processus de Markov dis-
de 1. On peut prendre la limite de u(x) la probabilité qu'une particule partant crets (tels ceux que nous obtenons
lorsque K tend vers l'infini : u = I pour d'un point à une distance R > # revienne quand on simule le mouvement brow-
tout x et toutes valeurs de e. Comme la dans un voisinage e de l'origine. nien sur un ordinateur), ont leur propre
frontière externe a été repoussée jusqu'à Comme u est plus petit que 1, il existe théorie du potentiel.
l'infini, D est l'ensemble de points hors une probabilité strictement positive Le point de vue probabiliste a
de l'intervalle [-#, + #] et u (x), la pro- pour que la particule s'échappe et ne éclairé et unifié les principes fonda-
babilité qu'une particule partant de x revienne jamais au voisinage de son mentaux de la théorie du potentiel ;
rencontre cet intervalle. Comme u =1, la point de départ. On peut justement en réciproquement, les concepts de la
particule touche cet intervalle de façon conclure qu'il y a plus de « place »dans théorie du potentiel, appliqués à la
quasi certaine. Comme l'origine et la l'espace à trois dimensions théorie des probabilités ont montre la
position de départ je sont arbitraires, la pour que la particule s'échappe. Ainsi structure analytique profonde des pro-
particule atteint tous les points de la le mouvement brownien à trois dimen- cessus de Markov. Ainsi l'isolation
ligne, et la même démonstration sions n'est pas un mouvement récur- dont souffrait dans le passe la théorie
s'applique aux mouvements futurs de rent. Ce résultat, très important en des probabilités a été rompue par
cette même particule ; on a prouve que théorie des probabilités, a été obtenu I'association de ces deux disciplines
la particule revient infiniment souvent sans grands efforts. mathématiques.
Les suites aléatoires

Gregory Chaitin

On sait définir ce qu'est une suite aléatoire Définition algorithmique

et mesurer son caractère aleatoire, mais il est impossible La nouvelle définition d'une suite
aléatoire est issue de la théorie de
de démontrer qu'une suite donnée est aléatoire. l'information, science qui traite de la
transmission des messageset qui s'est
Ce paradoxe illustre les limites des mathématiques. développéedepuis la Deuxième Guerre
mondiale. Supposezqu'un de vos amis
visite une planètedans une autregalaxie
et que cela coûte très cher de lui
Noussavons tous intuitive- Si l'origine d'un événement était le seul envoyer un télégramme ; votre ami a
ment ce qu'est une suite critère du caractèrealéatoiredu résultat, oublié d'emporter ses tables de trigono-
(ou un nombre) aléatoire. les deux suites ci-dessus devraient être métrie et vous demande de lui en faire
Considérons, par exem- considéréescomme aléatoires,ainsi que parvenir le contenu. Vous pourriez évi-
ple, les deux suites sui- n'importe quelle suite parmi les 220 demment transposer les nombres selon
de
vantes composées 0 et de 1. obtenues par tirage. Cette analyse ne un code donné (par exemple les mettre
nous aide alors en rien pour distinguer sous forme binaire) et les transmettre
01010101010101010101
une suite aléatoire d'une suite ordonnée. directement ; hélas les tables les plus
01101100110111100010 Une définition plus raisonnable simples contiennent quelques milliers
La première est construite suivant d'une suite aléatoire,ne doit pas êtreen de chiffres et les frais d'envoi seront
une règle simple : elle est composéedu contradiction avec le concept intuitif de exorbitants. Vous auriez tout avantageà
nombre 01 répété dix fois. Si nous vou- suite (ou de nombre) « dépourvue de transmettrela mêmeinformation sousla
lions continuer la suite, nous suppose- structureinterne ».Une telle définition a forme d'une formule trigonométrique
rions évidemment que les deux chiffres été élaborée; elle ne prend pas du tout fondamentale telle que l'équation
suivants sont 0 et 1. En revanche, la en compte l'origine de la suite et ne d'Euler eix = cos x + i sin x. Ce dernier
structure de la deuxième suite de dépend que des caractéristiques de la messageest bref et contient tous les ren-
chiffres n'est pas aussi évidente. Les suite de ses chiffres. Grâce à cette nou- seignementsdestables.
chiffres qui la composent ne s'ordon- velle définition, nous pouvons préciser Supposezmaintenant que votre ami
nent pas selon une règle précise et cela ce qu'est une suite aléatoire et établir s'intéresse non plus à la trigonométrie
nous empêche de prédire rationnelle- une hiérarchie : ainsi le caractèrealéa- mais au football. II désire connaître les
ment quels pourraient être les chiffres toire d'une suite peut être quantifié. résultats de tous les matchs de cham-
suivants. Cette suite semble n'obéir Enfin, ce qui est peut-être encore plus pionnat depuis son départ de la Terre, il
qu'au hasard,c'est-à-dire résulter d'une intéressantque les possibilités ouvertes y a quelquesmilliers d'années. Dans ce
combinaisonaléatoirede 0 et de 1. par cette définition, ce sont ses limites cas il est très improbable que vous puis-
En fait, la secondesuite de 0 et de 1 logiques intrinsèques ; la définition ne siez trouver une formule permettant de
a été engendréepar vingt tirages à pile nous permet pas, sauf dans des cas très condenser toute l'information dans un
ou face, en notant 1 quandle résultatest particuliers, de déterminer si une suite court message ; dans une suite de ce
face et 0 quand le résultat est pile. Un de chiffres donnée, telle que le second genre,chaquechiffre représenteun évé-
tel tirage à pile ou face est une méthode exemplecité, est réellementaléatoireou nement particulier qu'il est impossible
classique pour obtenir un nombre aléa- ne l'est qu'en apparence.Cette limita- de déduire des chiffres précédentsou à
toire ; notre première inclination serait tion n'affecte en rien l'intérêt de la défi- l'aide d'une quelconqueformule. B n'y
de croire que la manièredont cette suite nition, elle ne résulte que d'une subtile a donc pas d'autre possibilité que de
a été engendrée garantit le caractère et fondamentaledifficulté logique inhé- transmettrela liste complètedesrésultats.
aléatoire du résultat obtenu. En jouant rente à l'architecture des mathéma- Ces deux exemples opposés nous
20 fois à pile ou face, on obtient l'une tiques. Cette difficulté est étroitement font entrevoir la nouvelle définition
des 220suites de 0 et de 1 (soit un peu liée à un célèbre théorème, énoncé et d'une suite aléatoire. L'idée fondamen-
plus d'un million de suites différentes) démontré en 1931 par Kurt Godel et tale est que l'information contenue
toutes équiprobables. On ne doit donc nommée théorème d'incomplétude de dans une telle suite ne peut être com-
pas plus s'étonner d'obtenir une suite Gödel. Ce théorème et les récentes primée ou mise sous une forme plus
apparemment aléatoire que d'obtenir découvertesconcernantla « qualité aléa- réduite. Pour formuler précisément
une suite dont la régularité semble évi- toires d'une suite permettentde préciser cette définition, supposezque la com-
dente : chacune d'elles représente un les limitations intrinsèquesde certaines munication soit établie non pas avec un
événement de probabilité égale à 2-20. méthodesmathématiques. lointain correspondant, mais avec un
ordinateur. Votre correspondant peut
raisonner par récurrence et continuer
une suite à partir d'informations par-
tielles ; l'ordinateur au contraire en est
totalement incapable et pour le pro-
blème qui nous préoccupe cette inca-
pacité est un avantage. Les instruc-
tions données à l'ordinateur doivent
être exhaustives et explicites ; elles
doivent lui permettre de procéder
étape par étape sans qu'il ait besoin de
comprendre le résultat des opérations
qu'il effectue. On appelle un tel pro-
gramme d'instructions un algorithme.
Cet algorithme compte un nombre fini KURT GÖDEL (1944) : « En fait,
d'instructions qui ne demandent, pour la solution de certains problèmes
leur réalisation, ni intelligence, ni arithmétiquesnécessitedes hypothèses
compréhension de leur finalité. qui dépassent le cadre de l'arithmé-
Évidement les mathémati-
tique. [...]
Pour définir une suite aléatoire il
ciensperdent ainsi beaucoupde leur
faut aussi que nous puissions mesurer
DAVID HILBERT (1900) : certitude absolue,mais sous l'effet
l'information contenue dans un message
« Tout problème mathématique défini doit pouvoir des critiquesmodernes de leurs fonde-
d'une manière plus précise qu'en déter- ments, n'en est-il pas déjà ainsi ? [...] »
être résolu, soit qu'onen trouve une solutionexacte,
minant le coût d'envoi d'un tel message
soit que l'onprouve qu'il est impossible
par télégramme. L'unité d'information de le résoudre, etdonc que toute tentative 1. HILBERT croyait qu'un ensemble
fondamentale est le «bit » ; un bit est la dansce senssoit vouée à l'échec [...] fini d'axiomes et de règles de déduc-
plus petite information qui permette de Même si lesproblèmes nous semblent intraitables tion suffirait pour démontrer ou infir-
distinguer deux objets d'égale vraisem- et si nous nous sentons désemparés, nous n'en avons mer tout énoncé mathémathique.
blance. En notation binaire, le bit est pas moinsla ferme conviction que leur solution doit Gödel a montré l'existence deproposi-
équivalent à un chiffre, soit 0, soit 1. résulter d'un nombre fini de processus logiques. [...] » tions indémontrables.
Nous pouvons maintenant préciser
la différence entre les deux suites de
chiffres indiquées au début de notre lité. Nous dirons donc qu'une suite de La théorie classique des probabilités
article, à savoir : chiffres est aléatoire quand le plus petit établie au XVIIe siècle est encore
algorithme nécessaire pour l'introduire aujourd'hui d'une très grande impor-
01010101010101010101
dans un ordinateur contient à peu près tance pratique. Elle sert à la statistique et
01101100110111100010 le même nombre de bits que la suite. s'applique à toute une gamme de pro-
La première suite peut être communi- Vers 1965, le mathématicien russe blèmes théoriques et pratiques. La nou-
quée à l'ordinateur par un algorithme très A. Kolmogoroff et moi-même, alors étu- velle théorie algorithmique a également
simple : « Afficher 10 fois 01 ».Au cas où diant à l'université de New York, avons d'importantes conséquences, mais la
la suite serait continuée, il suffirait indépendamment proposé cette défini- plupart sont de nature théorique. L'une
d'allonger légèrement l'algorithme qui tion. Aucun de nous n'avait eu connais- des plus intéressantes est la connexion
deviendrait par exemple : « Afficher un sance d'une idée analogue émise par Ray avec le théorème d'incomplétude de
million de fois 01 ». Le nombre de bits Solomonoff, qui cherchait à établir une Godel qu'elle permet d'amplifier. Une
dans un tel algorithme est très inférieur mesure de la simplicité d'une théorie autre application intéressante est la
au nombre de bits de la suite qu'il déter- scientifique. Depuis, de nombreux cher- méthode d'induction scientifique de
mine ; de ce fait, la longueur du pro- cheurs ont continué les recherches visant Solomonoff ; cette méthode a été décou-
gramme augmente bien moins vite que le à définir ce qu'est un nombre aléatoire ; verte avant que la théorie algorithmique
nombre de chiffres de la suite. En les premières définitions ont été amélio- ne soit précisément formulée, mais elle
revanche il est impossible de condenser rées et la valeur heuristique de telles apparaît aujourd'hui, comme une de ses
la seconde suite ; la façon la plus écono- recherches est aujourd'hui reconnue. ramifications logiques.
mique de la transmettre est de la trans- Dans la méthode de Solomonoff un
crire intégralement ; le plus court algo- La méthode inductive chercheur commence par représenter ses
rithme permettant d'introduire la suite résultats selon une suite de 0 et de 1 ; il
dans l'ordinateur est donc : La définition algorithmique d'une essaie ensuite de rendre compte de ces
« afficher 01101100110111100010 ». suite aléatoire fournit un fondement nou- observations à l'aide d'une théorie, qu'on
Dans ce cas, le nombre de pas de veau à la théorie des probabilités. Elle peut, en l'occurrence, considérer comme
l'algorithme augmente dans les mêmes ne remplace nullement la théorie clas- un algorithme engendrant la suite des
proportions que le nombre de chiffres sique des probabilités, qui attribue une chiffres obtenus et permettant de la conti-
de la suite. L'« incompressibilité » ainsi probabilité donnée à un ensemble de nuer, c'est-à-dire de prédire les observa-
définie est une propriété commune à possibilités, mais elle la complète : elle tions suivantes. À chaque suite corres-
toutes les suites aléatoires ; on peut permet de mieux définir des concepts pondent toujours plusieurs théories
même prendre pour critère de définition séduisants sur le plan intuitif mais qui possibles parmi lesquelles le chercheur
d'une suite aléatoire son incompressibi- échappaient à un traitement rigoureux. doit choisir. Dans la méthode
Solomonoff, on choisit parmi les diffé- tions aléatoires, il ne peut mieux faire ter au début du programme un cours
rents algorithmes le plus petit, c'est-à- que les publier intégralement. d'anglais complet rédigé en français. De
dire celui qui contient le moins de bits. Définir le caractère aléatoire ou la cette manière, le programme ne s'accroît
Une telle règle n'est pas nouvelle ; ce simplicité d'une théorie en fonction des que d'un nombre fixé de bits, nombre
n'est qu'une autre formulation de la capacités d'un ordinateur semble avoir dont l'importance relative diminue avec
célèbre règle du rasoir d'Occam, laquelle l'inconvénient de faire intervenir dans la longueur de la suite programmée.
prescrit de choisir, parmi différentes théo- des notions abstraites un élément arbi- D'ailleurs, un organe spécial, le compila-
ries qui semblent se valoir, la plus simple. traire, à savoir les caractéristiques de teur, permet le plus souvent de ne pas se
Ainsi, dans la méthode de l'ordinateur utilisé. Comme différents préoccuper de ces différences de langage.
Solomonoff, toute théorie permettant de ordinateurs utilisent des langages diffé- Étant donné que la nature de la
comprendre une suite d'observations est rents, le nombre de bits nécessaires pour machine n'a pas d'importance, on peut
considérée comme un petit programme transmettre une série d'instructions varie choisir d'utiliser un ordinateur idéal de
d'ordinateur qui rend compte des expé- selon le langage utilisé. En réalité, la mémoire illimitée et disposant de tout le
riences passées et prédit les observa- nature de l'ordinateur n'a que peu temps nécessairepour effectuer les opéra-
tions futures. Plus le programme est d'influence et d'ailleurs, s'il le fallait, on tions. Les données à l'entrée et les résul-
court, plus le champ d'application de la pourrait s'imposer d'utiliser toujours le tats à la sortie de cet ordinateur sont
théorie est vaste, et mieux on la com- même ordinateur pour déterminer le exprimés en nombres binaires. La
prend. Des observations aléatoires ne caractère aléatoire des suites considérées. machine se met en route dès l'introduc-
peuvent être représentées par un pro- De plus, même si l'on utilise diverses tion du programme et ne s'arrête qu'après
gramme court ni par conséquent expli- machines, on peut pallier les idiosyncra- avoir donné le résultat sous forme d'une
quées par une théorie. De plus, le com- sies de leur langage respectif. Supposons, suite de 0 et de 1. Sauf erreur de pro-
portement d'un système aléatoire ne par exemple, qu'on utilise un programme grammation, la machine donne un résul-
peut être prédit. Quand un chercheur en anglais sur un ordinateur ne compre- tat et un seul par programme.
veut transmettre, de façon aussi concise nant que le français. Au lieu de traduire
que possible, les résultats d'observa- l'algorithme lui-même, il suffira de rajou- Programmes
minimaux et complexité

Toute suite de nombres peut être


engendrée par une infinité d'algorithmes.
Considérons la suite de trois chiffres 123
dans le système de numération décimale.
Elle peut être construite par des algo-
rithmes du type « enlever 1 de 124 et affi-
cher le résultats, ou « enlever2 de 125 et
2. LA DÉFINITION ALGORITHMIQUE d'une suite aléatoire de chiffres est fondée sur les
afficher le résultat », ou une infinité de
capacités et les limites de l'ordinateur. Pour afficher un résultat donné, par exemple une
suite de 0 et de 1, il faut introduire dans l'ordinateur des instructions explicites que celui-ci programmes similaires. Les meilleurs
pourra suivre sans avoir à « réfléchir ». Un tel programme d'instructions est appelé algo- programmes sont les plus courts : on les
rithme. Si le résultat escompté est fortement ordonné (a), il suffit d'utiliser un algorithme appelle programmes minimaux ; à une
relativement court ; une suite formée de vingt chiffres 1par exemplepeut être affichée par suite donnée, peuvent correspondre un
un ordinateur après passage du programme 10100, écriture du nombre décimal 20 en ou plusieurs programmes minimaux.
numération binaire. Les programmes les plus courts engendrant une suite donnée sont Tout programme minimal est aléa-
appelésles programmes minimaux de la suite; la longueur de ces programmes, mesurée en toire,
que la suite engendrée le soit ou
bits, ou nombres binaires, est egale à la complexité de la suite. On dira qu'une suite de Cette conclusion découle directe-
non.
chiffres estaléatoire si sa complexité est peu différente dunombre de bits qui la composent.
ment de notre définition d'une suite aléa-
toire de chiffres. Considérons le pro-
gramme P, programme minimal de la
suite S. Si l'on suppose que la suite
d'instructions composant le programme
P n'est pas aléatoire, il existe nécessaire-
ment, d'après la définition des suites
aléatoires, un programme P', sensible-
ment plus court que P et engendrant P.
3. LES SYSTÈMES FORMELS inventés par David Hilbert contiennent un algorithme qui On obtient S par l'algorithme suivant :
vérifie mécaniquement la validité de toutes les démonstrations que l'on peut construire à « Déduire P de P'puis S de P ». Ce pro-
partir d'un système. Un système formel est composé : d'un alphabet de symboles à l'aide gramme ne contient qu'un peu plus de
desquelson écrit toutes lespropositions ; d'une grammaire donnant les règles de combinai- bits que P' ; il est donc plus court que P.
son de ces symboles; d'un ensembled'axiomes ou principes admis sans preuveet de règles Par conséquent P n'est pas minimal.
de deduction permettant d'obtenir des théorèmes à partir des axiomes. On obtient les théo- La notion de programme minimal
rèmes en écrivant toutes les propositions grammaticalement correctes dans le système et en
est liée à un autre concept fondamental
les examinant pour déterminer celles qui sont enaccord avec les règles de déduction et qui
de la théorie algorithmique : la com-
sont, par conséquent,des démonstrations valides. Cette opération étant réalisable à l'aide
d'un algorithme, un ordinateur peut la faire. Kurt Gödel a démontré en 1931, que presque plexité. La complexité d'une suite de
tous les systèmes formels sont incomplets; ils contiennent tous au moins une proposition chiffres est le nombre de bits qu'il faut
vraie mais indémontrable dans ledit système. introduire dans un ordinateur pour la
suite considérée. La complexité est donc n chiffres, sa complexité est approximati- programmes de dimension maximale
égale au nombre de bits des programmes vement égale au logarithme de n en base ayant la complexité correspondante ;
minimaux engendrant la suite. À l'aide 2. (La valeur exacte dépend du langage ceux-ci sont au nombre de 2n-11. Le
de ce concept, nous pouvons préciser la utilisé). On obtient la suite par un algo- nombre total de programmes possibles
définition d'une suite aléatoire : une rithme du type « afficher n fois O » où est donc (21 + 22 + 23 +... + 2n-11),
suite de chiffres est aléatoire si sa com- toute l'information utile est contenue progression dont la somme vaut 2n-10-2.
plexité est approximativement égale au dans la représentation binaire de n. Ce Il y a donc moins de 2n-10 programmes
nombre de bits qui la composent. nombre est environ égal à log2n bits. de dimension inférieure à n-10 ; étant
La notion de complexité permet non Même pour des suites assez courtes, le donné que chacun de ces programmes
seulement de définir une suite aléatoire logarithme de n est nettement inférieur à ne peut engendrer plus d'une suite de
mais aussi de mesurer de son caractère n et ces suites sont de faible complexité ; chiffres, il y a moins de 2n-10 suites
aléatoire. Soient plusieurs suites com- la relation entre complexité et structure parmi les 2n considérées dont la com-
portant chacune n chiffres ; il est théo- apparente de la suite est ainsi confirmée. plexité est inférieure à n-10. Comme
riquement possible de déterminer les Voici un autre cas auquel ce type 2n-1°/2n est égal à 1/1024, parmi toutes
suites de complexité n-1, n-10, d'analyse s'applique utilement : celui les suites binaires à n chiffres, moins
n-100, etc., et donc de classer les d'une suite de 0 et de 1 où la fréquence de 1/1000 ont une complexité infé-
suites par « aléatoirité » décroissante. La d'apparition des 0 est 3/4 et celle des 1, rieure à n-10 : moins d'une suite sur
complexité limite au-dessous de est 1/4. On démontre que la complexité 1000 peut être exprimée par un pro-
laquelle on dira qu'une suite n'est pas d'une telle suite de n bits est au plus égale gramme d'ordinateur comportant dix
aléatoire est évidemment arbitraire. à 4n/5, c'est-à-dire que l'on peut bâtir un chiffres de moins qu'elle.
Cette valeur doit être assez faible pour programme engendrant une telle suite En corollaire de ce résultat, on peut
que des suites manifestement aléatoires avec 4n/5 bits. Cette valeur maximale ne dire que sur 1000 suites binaires à n
ne soient pas exclues, mais pas trop dépend pas de la structure de chaque suite chiffres, plus de 999 ont une com-
pour que des suites dont la construction et par conséquent une suite ayant une plexité supérieure ou égale à n-10. Si
est évidente soient exclues. Mais fixer telle répartition n'est pas très aléatoire. l'on accepte que cette valeur est une
une valeur numérique précise revient à En effet, dans toute suite aléatoire com- bonne limite du degré d'« aléatoirité »
décider du degré à partir duquel une portant un grand nombre de chiffres (des d'une suite, pratiquement toutes les
suite est véritablement aléatoire. 0 et des 1), la répartition des 0 et des 1 est suites de n chiffres sont aléatoires. En
L'incertitude liée à ce choix explique très proche de 1/2. (En numération déci- jouant n fois à pile ou face, la probabi-
que nous ayons pris la précaution male la fréquence de chaque chiffre est lité pour que le nombre obtenu soit
d'affirmer que la complexité d'une évidemment proche de 1/10). aléatoire selon ce critère est supérieure
série aléatoire est approximativement Les nombres dont la répartition des à 0, 999. On pourrait donc croire qu'il
égale à sa longueur. chiffres n'est pas aléatoire sont excep- est facile de trouver des suites aléa-
tionnels. Parmi tous les nombres binaires toires composées de beaucoup de
Propriétés à n chiffres, un seul est composé exclusi- chiffres ; en réalité, cela est impossible !
des suites aléatoires vement de 0 et un seul ne comporte que
des 1. Les autres sont moins sages, et, Les systèmes formels
La théorie algorithmique des probabi- pour la plupart, doivent être considérés
lités met en lumière de nombreuses pro- comme aléatoires dans n'importe quelle On montre qu'une suite de chiffres
priétés des suites (ou des nombres), tant acception raisonnable du terme. Pour donnée n'est pas aléatoire ; il suffit de
aléatoires que déterminables. C'est ainsi fixer une limite arbitraire, évaluons la trouver un programme de dimension
que l'on peut montrer que la fréquence de proportion de nombres binaires à n nettement inférieure engendrant ladite
distribution des chiffres dans une suite chiffres dont la complexité est inférieure suite. II n'est pas nécessaire que ce pro-
donnée influe fortement sur son caractère à n - 10. Il y a 21 programmes de I gramme soit minimal ; il suffit qu'il soit
aléatoire. Par exemple, il semble à pre- chiffre éventuellement capables d'engen- court. Inversement, pour montrer
mière vue évident qu'une suite composée drer une suite de n chiffres ; de telles qu'une suite de chiffres donnée est aléa-
uniquement de 0 ou uniquement de 1 est suites peuvent être construites à partir de toire, on doit prouver qu'il n'existe pas
loin d'être aléatoire, ce que confirme la 22 programmes de deux chiffres, 2 3pro- de programme de dimension inférieure
théorie algorithmique. Si une telle suite a grammes de trois chiffres, etc., jusqu'aux permettant de l'obtenir.

4. LE RAISONNEMENT PAR RÉCURRENCE, tel qu'il est couramment de mots ou dephrases mais de chiffres binaires et leur dimension est
utilisé en science,a été analyséd'un point de vue mathémahique par mesuréeen bits et non en signes). On se trouve icidevantdeux théo-
Ray Solomonoff. Celui-ci identifie les observations d'un chercheur à ries possibles pour expliquer la série d'observations ; selon le prin-
une suite de 0 et de 1 ; il s'agit d'expliquer ces observations et de cipe du rasoir d'Occam, il faut trancher en faveur de la théorie la
prévoir les suivantes à l'aide de théories qui seront des algorithmes plus simple (ou la plus courte). Le chercheur devra donc trouver des
contenant les instructions nécessaires à l'ordinateur pour repro- programmes minimaux. Dans le cas de données aléatoires, les pro-
duire les observations(les programmes ne sont alors pas composés grammes minimaux sont la transcription intégrale des observations.
C'est dans le domaine des démons- sensée, une liste finie d'axiomes ou plétude est fondée sur le paradoxe d'Épi-
trations mathématiques que le théorème d'hypothèses de base et une liste finie ménide le Crétois ; Épiménide aurait
d'incomplétude de Gödel prend sa de règles de déduction permettant affirmé « tous les Crétois sont menteurs ».
signification la plus profonde. C'est d'obtenir des théorèmes à partir Ce paradoxe s'exprime plus générale-
ainsi que, dans la version que j'en d'axiomes ou de théorèmes existants. ment sous la forme de l'assertion « la pré-
donne, il implique qu'une démontra- Un tel langage, régi par de telles règles, sente assertion est fausse », laquelle est
tion du caractère aléatoire d'une suite est appelé un système formel. Un sys- vraie si et seulement si elle est fausse, et
donnée est impossible. Ce résultat tème formel est défini de manière si qui n'est par conséquent ni vraie, ni
éclaire autant le théorème de Gödel lui- précise qu'il existe un procédé récursif, fausse. Godel a substitué au concept de
même que la nature des nombres aléa- ne faisant intervenir que des manipula- vérité celui de démontrabilité, ce qui l'a
toires. Le théorème de Godel a clos la tions logiques et arithmétiques élémen- conduit à la phrase « la présenteproposi-
polémique qui faisait rage au début du taires, qui permet de décider de la vali- tion est indémontrable », assertion qui,
siècle parmi les mathématiciens. La dité d'une démonstration. En d'autres dans un système formel donné, est
question posée était la suivante : termes, dans le système considéré, il démontrable si et seulement si elle est
« Qu'est-ce qu'une démonstration existe un algorithme permettant de juger fausse. Il en résulte que soit une proposi-
mathématique exacte et comment peut- la validité des démonstrations. tion fausse est démontrable, ce qui est
on reconnaître qu'une telle démontra- Aujourd'hui, on pourrait faire passer exclu, soit une proposition vraie est
tion est bonne ?» Le grand mathémati- l'algorithme sur un ordinateur à qui l'on indémontrable ce qui prouve que le sys-
cien allemand, David Hilbert avait tenté demanderait de juger la démonstration. tème formel est incomplet. Godel a
d'y répondre en confectionnant un lan- Puisqu'un système formel doit, pour ensuite appliqué la technique suivante :
gage artificiel où la validité d'une répondre aux exigences de David numéroter toutes les propositions et
preuve pouvait être démontrée mécani- Hilbert posséder un algorithme de véri- démonstrations du système formel et
quement sans aucun recours à l'intuition fication des démonstrations, il est théo- remplacer la phrase « la présente propo-
ou au jugement humain. Godel a montré riquement possible de dresser la liste de sition est indémontrable » par une asser-
qu'un tel langage idéal n'existait pas. tous les théorèmes démontrables dans tion sur les propriétés des nombres
David Hilbert avait créé un alphabet un système donné. II suffit pour cela de entiers positifs. Cette substitution étant
constitué d'un nombre fini de symboles, classer d'abord par ordre alphabétique, possible, le théorème d'incomplétude
une grammaire précise spécifiant les les suites de symboles composées d'un s'applique à tous les systèmes formels
règles de construction d'une proposition seul caractère, de leur appliquer l'algo- traitant des entiers positifs.
rithme de décision pour trouver les Le rapport entre la démonstration de
théorèmes (s'il en existe) dont la Godel et la théorie des suites aléatoires
démonstration ne s'écrit qu'à l'aide apparaît à la lueur d'un autre paradoxe,
d'un seul caractère. Puis on doit faire de très d'Epiménide. C'est une variante du
même avec les suites de symboles à paradoxe de Berry, publié pour la pre-
deux caractères, trois caractères, etc. mière fois en 1908 par Bertrand Russell.
Cette méthode permet de vérifier toutes Sa formulation est : « Trouver le plus
les démonstrations possibles et de petit entier positif qui, pour être spéci-
découvrir tous les théorèmes, rangés fié, nécessite plus de signes que n'en
selon la longueur croissante de leurs contient la présente phrase ». La phrase
démonstrations. (Ceci n'est évidemment est composée de 123 caractères (espaces
que théorique, la procédure étant beau- entre les mots inclus) et spécifie le
coup trop longue pour être réalisable !) nombre qui, par définition, devrait
n'être spécifié que par une définition
Propositions comportant plus de 123 caractères !
indémontrables Comme dans le cas précédent, il faut
considérer le paradoxe non plus dans le
Godel a prouvé en 1931 que le projet cadre de la vérité mais dans celui de la
de David Hilbert n'était pas réalisable. Il démontrabilité. On remplacera donc les
a pour ce faire construit, dans le langage mots « pour être spécifié » par « dont on
du système formel, une affirmation sur peut démontrer que pour être spécifié »,
les nombres entiers positifs, qui est à la étant bien entendu que les propositions
fois vraie et indémontrable dans ce sys- seront exprimées dans un système for-
tème. Quelles que soient sa taille et la mel donné. De plus, au lieu de la notion
manière dont il a été construit, un sys- vague et typographique de nombre de
tème formel ne peut inclure tous les théo- signes nécessaires, on utilisera le
rèmes vrais ; il est donc incomplet. La concept clairement défini de com-
S. LA PLUPART DES SUITES de chiffres méthode de Godel s'applique pratique- plexité, qui se mesure en bits.
binaires sont aléatoires. La plupart des 2n
ment à tous les systèmes formels ; il en Après toutes ces modifications, on
suites a n chiffres sont de complexité voi- résulte la conclusion surprenante, et fort obtient le programme d'ordinateur sui-
sine de n. À mesure que la complexité
diminue, le nombre de suites décroît à peu
inquiétante, que l'on ne peut apporter de vant : « Trouver une suite de 0 et de I
près exponentiellement. Rares sont les réponse définitive à la question : « Qu'est- dont on peut démontrer que la com-
suites régulières ; il n'y en a qu'une, par ce qu'une démonstration juste ?» plexité est supérieure au nombre de bits
exemple,qui soit composée de n chiffres 1. La démonstration du théorème d'incom- composant le présent programme ».
L'ordinateur examine l'une après PARADOXEDERUSSEL
l'autre, et par ordre de taille, toutes les Considérons l'ensemble de tous les ensembles non inclus dans eux-mêmes.
démonstrations appartenant au système Cet ensemble est-il inclusdans lui-même?
formel jusqu'à ce qu'il trouve la pre-
mière démonstration qu'une suite donnée PARADOXE D'ÉPIMÉNIDE
de 0 et de 1 est de complexité supérieure Considérons la proposition suivante : « La présenteproposition est fausse ».
Cette proposition est-elle vraie?
au nombre de bits du programme. Puis il
imprime ladite suite et s'arrête. Il est
bien évident que le paradoxe initial de la PARADOXE DE BERRY
proposition (qu'on a transformée pour en Considérons la phrase suivante : « Trouver leplus petit entier positif qui s'écrit
faire un programme) n'a pas disparu. Le avec plus de signes que n'en contient la présente phrase ».
La phrase ci-dessus spécifie-t-elle un entier positif?
programme aurait pour but de calculer
un nombre que la dimension de ce même 6. CES TROIS PARADOXES illustrent les limites de la démontrabilité. Le premier, énoncé par
programme ne lui permet pas de calculer. Bertrand Russell, déclare qu'un raisonnement mathématique informel peut aboutir à une
Pour être précis, le programme trouve le contradiction ; c'est pour éliminer de telles contradic
premier nombre dont on peut prouver mels. Le second, généralement attribué à Épiménide, a été adapté par Gö
qu'il est incapable de le trouver. que dans un systèmeformel des propositions vraiespeuvent être indémontrables. Le troi-
Cette conclusion absurde montre siemeparadoxe montre qu'il est impossible de démontrer qu'un nombre donné est aléatoire.
simplement que le programme ne pourra
jamais déterminer le nombre pour la
définition duquel il a été conçu ! À l'inté-
rieur d'un système formel, il est impos-
sible de démontrer que la complexité
d'une suite donnée de chiffres est supé-
rieure au nombre de bits composant le
programme qui engendre cette suite.
On peut encore généraliser ce para-
doxe. La limitation ne provient pas du
7. PARMI LES PROPOSITIONS INDÉMONTRABLES, on peut démontrer la fausseté de celles
nombre de bits du programme mais du
qui sont fausses, mais pas la vérité des autres. Démontrer la proposition (a), « la présente
nombre de bits de l'ensemble du sys- proposition n'est pas démontrable » fait surgir une contradiction interne du système formel.
tème formel. Le programme contient Pour évaluer la complexité d'une suite donnee (b), ilfaut démontrer qu'il n'existe pas
implicitement les axiomes et règles de d'algorithme plus petit engendrant cette suite ; cela ne serait possible que si la complexité
déduction qui déterminent le comporte- du système formel était supérieure au nombre de bits formant la suite. Les propositions for-
ment du système et l'algorithme de mulées en (C) et (d) sont sujettes aux mêmes limitations du fait que pour déterminer si une
décision. L'information contenue dans suite est aléatoire ou si un programme est minimal, il faut déterminer sa complexité.
ces axiomes et principes peut se mesu-
rer ; on dira que c'est la complexité du
système formel. La dimension totale du suite donnée, on doit se placer dans un que l'on peut considérer une suite de
programme est donc supérieure à la système de complexité supérieure. chiffres de taille arbitraire : il existe donc
complexité du système formel, d'un Si la complexité d'un système formel toujours des suites dont il n'est pas pos-
nombre fini de bits c (la valeur de c a une grande influence sur la démontra- sible de prouver qu'elles sont aléatoires !
dépend du langage machine utilisé). Le tion du caractère aléatoire, c'est que cette Cet effort pour définir une suite
théorème démontré par le paradoxe peut complexité mesure la quantité d'infor- aléatoire et en mesurer le caractère aléa-
donc s'énoncer comme suit : dans un mation contenue dans le système et donc toire a permis de mieux comprendre la
système formel de complexité n, il est la quantité maximale d'information que signification et les implications du théo-
impossible de démontrer que la com- l'on peut en tirer. Le système formel est rème de Gödel. Celui-ci n'apparaît plus
plexité d'une suite donnée de 0 et de 1 est fonde sur des axiomes : ces axiomes sont comme un paradoxe isolé mais comme
supérieure à n + c, c étant une constante des propositions fondamentales irréduc- l'une des conséquences naturelles des
indépendante du système considéré. tibles, c'est-à-dire qu'il est impossible de contraintes imposées par la théorie de
« concentrer », tout comme on ne peut l'information. En 1946, Hermann Weyl
Limites réduire un programme minimal ; si on déclara : « Les incertitudes soulevées
des systèmes formels pouvait énoncer un axiome plus briève- par une découverte telle que le théo-
ment, on obtiendrait un nouvel axiome et rème de Godel ont considérablement
Ayant défini la complexité comme le premier ne serait plus qu'un théorème freiné l'enthousiasme et la détermina-
une mesure du caractère aléatoire, il qui en découle. L'information contenue tion avec lesquels je poursuivais mes
découle du théorème que, dans un sys- dans les axiomes est ainsi par essence recherches ». Il nous semble en
tème formel, il est impossible de prou- aléatoire ; on peut donc l'utiliser pour revanche qu'en théorie de l'informa-
ver qu'un nombre est aléatoire sauf si juger du caractère aléatoire d'autres don- tion, le théorème de Godel n'ait rien de
sa complexité est inférieure à celle du nées. Il n'est par conséquent possible de décourageant. Ne semble-t-il pas sug-
système. De plus, tout programme prouver qu'une suite est aléatoire que si gérer que, tout comme les autres
minimal étant aléatoire, le théorème cette suite est plus petite que le système sciences, les mathématiques ne pro-
établit également que pour démontrer formel. En outre, le système formel est gresseront que par la découverte de
qu'un programme est minimal pour une nécessairement de dimension finie alors nouveaux axiomes ?
L'espérance mathématique

Jean-Paul Delahaye

Les critères de décision sont fondés sur la notion peut-être pas très cher si cela vous
amuse !). Les deux lois de base du
d'espérance mathématique. Toutefois ces raisonnements joueur éclaire semblent irréfutables et
devraient donc dicter nos décisions en
aboutissent parfois à des choix surprenants. toutes circonstances.Nous allons voir
que, dans certains cas, les règles fon-
déessur le calcul de l'espérancemathé-
matique ne correspondentpas aux choix
Unde vos amis vous pro- Si votre ami vous proposait 80 francs que nousjugeons bon de faire, ou même
pose le jeu suivant : tu en plus de votre mise au lieu de 20 conduisentà desabsurdités.
mises 10 francs, ensuite tu francs pour une sortie du 6, votre espé-
lancesun dé. Si tu sors le rance mathématique serait (80-50)/6, En cas d'inflation
6, je te donne 30 francs soit 5 francs par partie, et vous auriez
(tes 10 francs de mise plus 20 francs de intérêt à jouer. S'il vous proposait 50 Le premier exemple m'a été donné
ma poche) ; sinon, je ne te donnerien et francs au lieu de 20 francs, votre espé- par JacquesPitrat, qui est chercheuren
j'empoche tes 10 francs. rance mathématique à chaque partie intelligence artificielle à l'Université
Votre intérêt est-il dejouer ? serait nulle. Dans ce cas, on dit que le des Sciences de Paris : il nous fait
Non, bien sûr, car, en moyenne, jeu est équitable. soupçonner une difficulté. Lorsque
sur six parties, vous aurez gagné 30 l'inflation annuelle est supérieure à
francs et dépensé60 francs, ce qui fait Les deux lois de base 1/37, soit 2, 7 pour cent, et qu'il
5 francs de perdu en moyenne par par- du joueur éclairé n'existe aucun moyen sûr d'obtenir
tie. En théorie des probabilités, on dit une espérancemoyenne de gain proté-
que votre espérance mathématique à La notion d'espérance mathéma- geant votre argent de l'inflation
chaque partie est de-5 francs. Cette tique, que l'on pourrait aussi appeler (c'était le cas en France il y a une
espérancemathématique est égale à la gain moyen espéré, est parfaitement quinzaine d'années, et c'est le cas
somme des gains (et des pertes), cha- claire, et il semble naturel et rationnel dans tous les pays dont l'économie est
cun multiplié par la probabilité du gain d'énoncer les deux lois de base du en crise grave), les casinos constituent
(ou de la perte) : dans notre jeu, cette joueur éclairé : la moins mauvaise méthode pour pro-
espérance mathématique est égale à Loi 1 : Lorsqu'on te proposeun jeu, téger vos économies.
(20) x 1/6 + (-10) x 5/6 =-5. si l'espérance est positive, accepted'y En effet, chaqueannée,il vaut mieux
Lorsqu'elle est négative, vous ne jouer ; si elle est négative, refuse d'y aller miser l'argent qu'on a mis de côté
devez pas jouer : en moyenne, vous jouer ; sielle est nulle, fais ce qui te plaît. durant les douzemois précédentsque de
perdrez la valeur de cette « espérance ». Loi 2 : Entre deux jeux, si tu es le confier à une banque,car, enjouant au
contraint de jouer, choisis celui dont casino, vous ne perdrez, en moyenne,
l'espérance mathématique est la que 1/37 de votre argent,quelle que soit
plus élevée. la durée de la période pendant laquelle
Le calcul de l'espérance mathéma- vous économisez,alors qu'en le confiant
tique d'un jeu est rarementaussi simple à la banque, plus vous le laissez long-
que dans notreexemple, mais soyezcer- temps(ce qui est inévitablepour arriver à
tain que lorsqu'un casino vous propose une sommeintéressante),plus vous per-
un jeu, c'est que votre espérancemathé- dez de l'argent. Donnons un exemple
matique est négative. L'exemple de la numérique.
roulette est clair : en misant 100 francs Imaginons que l'inflation annuelle
sur un numéro, vous gagnez 3 600 soit de dix pour cent et que votre
francs (votre mise plus 35 fois votre banque vous donne cinq pour cent
mise payée par le banquier), I fois sur d'intérêts sur l'argent que vous lui
37, car les numéros vont de 0 à 36. En confiez (ce qui ne compensepas l'infla-
moyenne, vous dépensez 3 700 francs tion) ; dix annéesde suite, le 1"janvier,
pour en gagner 3 600, et votre espé- vous déposez 100 000 francs à la
rance est donc de-100/37, soit-2, 70 banque dans le but d'acheter une mai-
francs. En moyenne,à chaque fois que son. Alors, le 31 décembre de la
1. LE SUCCÈS AUX JEUX DE HASARD vousjouez 100 francs à la roulette, vous dixième année, vous retirez de la
dépenddel'espérancemathématique. perdez donc 2,70 francs (ce qui n'est banque 100 000 francs multipliés par
(1, 05 + 1, 052 + 1, 05' +... + 1, 05'°), Les problèmes de choix en écono-
soit 1 320 678 francs, dont le pouvoir mie sont complexes et quasi para-
d'achat (ramené à l'année de départ) doxaux. En voici encore deux exemples.
est égal à 1 320 678/(1, 10)10, On constate qu'un consommateur hésite
soit 509 178 francs. beaucoup moins à acheter un autoradio
Au bout de dix ans, en ayant joué de prix élevé le jour où il se décide pour
tous les ans vos 100 000 francs à la rou- l'achat d'une voiture, qu'un jour ordi-
lette et en ayant protégé vos gains de naire. La jouissance qu'il va en tirer est
l'inflation dès que vous avez gagné (ce pourtant la même !
qui est possible, car, quand vous gagnez, Le philosophe américain D. Dennett,
vous pouvez acheter la maison de vos dans son excellent livre La stratégie de
rêves), votre espérance mathématique de l'interprète (éditions Gallimard, 1990),
pouvoir d'achat (toujours recalculée pour rapporte l'étonnante expérience de psy-
l'année de départ) est égale à la somme chologie réalisée par D. Kahneman et
de 3 600 000 x 1/37 x (1 + 1/1, 1 + A. Tversky en 1983. On raconte à des
1/(1,1)2+... + ll (1, 1) 9), soit 657 634 sujets l'histoire suivante :
francs, ce qui est bien meilleur ! (A) Vous avez acheté un billet de
2. JOUER À LA ROULETTE est parfois plus
Ce résultat n'a rien d'étonnant, car, théâtre à 100 francs depuis une
sage que confier son argent au banquier.
en quelque sorte, jouer vos 100 000 semaine. En arrivant au théâtre, vous
francs chaque année revient à confier vous apercevez que vous avez perdu
votre argent au casino qui, pour 1/37 de comme moi, vous répondrez non. La votre billet. II reste des places dispo-
sa valeur, prend à sa charge le problème probabilité de gagner semble trop nibles à 100 francs. Est-ce que vous
de l'inflation jusqu'à ce qu'il vous faible, même si le gain, quand on tire vous achetez un nouveau billet ? Plus
rende votre argent. le bon billet, est énorme et même si de la moitié des personnes répondent
Malgré cet imparable calcul, je ne l'espérance est nettement supérieure à qu'elles ne rachètent pas de billet.
connais personne qui ait utilisé la la mise ! Si vous êtes assez riche pour Présentons autrement la même
méthode du casino pour protéger son pouvoir jouer un grand nombre de fois histoire :
argent de l'inflation. Pourquoi ? Sans à ce jeu (ou si vous rencontrez (B) Vous arrivez au théâtre sans
doute parce que l'incertitude sur la quelqu'un disposé à vous prêter avoir acheté de billet. Au moment de
date d'aboutissement est si déplaisante quelques centaines de millions de prendre la queue au guichet, vous vous
qu'on préfère perdre plus, mais ne pas francs), vous ne devez pas hésiter, apercevez que vous avez perdu un des
être soumis aux aléas des lancers du mais celui qui ne peut jouer qu'une ou billets de 100 francs qui étaient dans
croupier. L'espérance mathématique deux parties, qui lui coûtent très cher, votre portefeuille, ce matin. Il vous
ici ne détermine donc pas le comporte- ne souhaitera pas prendre le risque. reste de quoi acheter un billet. Est-ce
ment le plus rationnel. Dans les situations où l'enjeu corres- que vous achetez un billet ?
pond aux limites de vos possibilités, L'histoire (B) est « financièrement
Très fort refus même en cas d'espérance mathématique équivalente » à l'histoire (A) ; pourtant,
d'un gain très favorable, il apparaît raisonnable de dans ce cas, 12 pour cent seulement des
moyen
refuser de jouer. Les règles énoncées plus personnes testées indiquent qu'elles
II existe un exemple encore plus haut concernant l'espérance ne corres- renoncent à acheter le billet de théâtre.
frappant de l'inadéquation, dans les cas pondent pas à la réalité psychologique ; Le mathématicien Daniel
extrêmes, de la notion d'espérance l'espérance mathématique ne fournit pas Bernoulli, qui avait déjà découvert, au
mathématique pour déterminer les préfé- toujours un critère de décision rationnel, XVIIIe siècle, des situations analogues,
rences d'un sujet. Imaginez qu'on vous et les deux lois de base du joueur éclairé proposait de remplacer le critère
propose le jeu suivant : tu me donnes un doivent être revues. objectif donné par l'espérance mathé-
million de francs ; ensuite, tu tires un Doit-on déduire de l'exemple du matique (mesurée en francs dans nos
billet dans cette urne qui contient 1 billet billet rouge qu'en cas de très petits exemples) par un critère d'espérance
rouge et 99 billets bleus. Si tu tires le enjeux, même si l'espérance mathéma- d'utilité subjective mesurant le plaisir
rouge, je te donne un milliard de francs ; tique est négative-situation opposée ou la peine engendrés par un résultat.
sinon, je ne te donne rien. à celle envisagée à l'instant-, il est L'utilité subjective n'étant pas une
En acceptant de jouer à ce jeu, rationnel de jouer ? Si tel est le cas, fonction linéaire du résultat en francs,
vous gagnerez un milliard de francs alors nous comprenons le succès des un gain de dix millions de francs n'est
une fois sur 100, donc, en moyenne, jeux proposés par les organismes pas dix fois préférable à un gain d'un
vous gagnerez 1 000 millions de publics tels que La Française des million de francs et ne donne pas, en
francs pour 100 millions engagés, ou Jeux, qui redistribuent souvent moins plaisir, l'équivalent de la peine que
10 millions pour 1 million engagé de la moitié des sommes engagées par vous ressentez en perdant un million
L'espérance mathématique du jeu est les parieurs (les jeux proposés ont tou- de francs économisés au long de nom-
donc de 9 millions par partie jouée. jours une espérance mathématique breuses années de travail. Des études à
Cela semble extrêmement intéressant. négative). Pendant longtemps, j'ai partir d'expériences analogues à celle
Posez-vous maintenant honnêtement pensé qu'il était absurde de jouer à de des billets de théâtre permettent
la question (en imaginant que vous dispo- tels jeux ; aujourd'hui, à cause de d'avoir une idée précise des liens entre
sez d'un million de francs d'économies) : l'exemple des billets rouges et bleus, la valeur objective et l'utilité subjec-
est-ce que je jouerai ? Je suis certain que, je n'en suis plus certain. tive, et donnent ainsi des moyens de
comprendre les choix faits par les pour que le jeu suivant soit équitable. pour jouer, l'espérance mathématique
sujets économiques (voir la figure 3). On jette une pièce de monnaie jusqu'à vous est encore infiniment favorable.
Toutefois le mathématicien n'a que ce qu'on obtienne pile. Si pile arrive Je suis pourtant certain que vous
faire de la psychologie, et ces dès le premier coup, la banque donne n'accepteriez même pas d'engager
exemples ne le troublent pas vraiment ; 2 francs au parieur, et le jeu s'arrête. Si 100 francs pour jouer une telle partie.
aussi venons-en à des problèmes plus pile arrive au deuxième coup, la Qu'est-ce qui ne va pas ?
délicats encore, où la notion d'espé- banque lui donne 4 francs, et le jeu On pourrait, comme précédemment,
rance mathématique est, plus grave- s'arrête. Si pile arrive au troisième évoquer la notion d'utilité et dire qu'il
ment encore, mise en difficulté. coup, la banque lui donne 23, soit s'agit d'un problème de psychologie.
8 francs, et le jeu s'arrête, etc. Je crois qu'on peut faire mieux, car,
Le paradoxe Le calcul de l'espérance mathéma- ce qui ne va pas, c'est que le banquier,
de Saint-Pétersbourg tique est aisé : celui qui sort pile au pre- en proposant ce jeu-disons pour
mier lancer reçoit 2 francs, avec une 100 francs-, triche. Il ne dispose en effet
Le classique paradoxe de Saint- probabilité 1/2 ; celui qui sort pile au que d'une somme finie d'argent, et il
Pétersbourg doit son nom à l'étude que deuxième coup reçoit 4 francs, avec une omet donc de prendre en compte les cas,
lui consacra Daniel Bernoulli dans les probabilité 1/4 ; celui qui sort pile au rares mais essentiels, où il ne sera pas en
commentaires de l'Académie des troisième coup, 8 francs, avec une pro- mesure d'assurer son engagement d'orga-
sciences de Saint-Pétersbourg en 1738, babilité 1/8, etc.-et donc l'espérance nisateur du jeu. Si l'on mène les calculs
mais, en fait, c'est Nicolas Bernoulli de gain (si la partie est gratuite) est de : avec l'hypothèse que le banquier ne dis-
-l'oncle de Daniel-qui l'inventa et 2 x (1/2) + 4 x (1/4) + 8 x (1/8) pose que d'un million de francs (et que
l'exposa à son ami Pierre Rémond de +16 x (1/16) +... =1+1+1+1+1+... c'est donc le maximum qu'il est suscep-
Montmort (ce dernier le mentionne La valeur de cette somme est infi- tible de perdre), alors l'espérance de gain
dans son Essai d'analyse des jeux de nie. Cela signifie que vous devriez est : 2 x (1/2) + 4 x (1/4) + 8 x (1/8) +...
hasard de 1701). miser une somme infinie pour que le + 219 x (1/219) + 1 000 000 x (1/219)
La question est de savoir quelle mise jeu soit équitable : même si la banque = 20, 91 francs (le dernier terme corres-
la banque doit demander à un parieur vous demande un million de francs pond à tous les cas où il y a 19 faces
consécutives ou plus avant pile, et où
le banquier donne donc un million de
francs au joueur alors qu'il devrait
donner plus). Cette mise de 20, 91
francs pour rendre le jeu équitable est
maintenant tout à fait raisonnable.
Avec un banquier ne disposant que
d'un million, la partie vaut 20, 91
francs, pas un centime de plus !

Le paradoxe
du changement inutile

Le paradoxe suivant m'a été pré-


senté par Claudio Bernardi, de
l'Université de Rome. On me montre
deux enveloppes fermées A et B conte-
nant l'une X francs l'autre 2X francs,
sans que je sache laquelle contient le
plus. Je gagne le contenu de celle que
je choisis. N'ayant pas de raison parti-
culière de préférer l'une à l'autre, je
choisis d'abord l'enveloppe A, puis, au
moment de l'ouvrir, je raisonne ainsi :
si l'enveloppe A contient Y francs (je ne
sais pas si Y est égal à X ou à 2X), il y a
une chance sur deux pour que
B contienne 2Y francs et une chance sur
deux pour que B contienne 172 francs.
Donc l'espérance de contenu de l'enve-
loppe B est 2Y x 1/2 + Y/2 x 1/2
= 1, 25Y franc. C'est mieux que le
contenu de l'enveloppe A, qui est Y
3. ENTRE UN UN HYPOTHÉTIQUE,
GAIN CERTAIN ETnous choisissons la certitude,
GAIN
même si elle est de valeur inférieure. La courbe, résultant des travaux de Kahneman et francs. Mon intérêt est donc de changer
Tversky, indique a combien est estimé subjectivement un gain certain qu'on propose et de choisir d'ouvrir B. Mais ce raison-
d'échanger contre un gain de 100 francs avec une probabilité de Y pour cent. Ainsi un gain nement est certainement faux, car si
certain de 80 francs correspond à un gain de 100 francs associé d'une probabilité de
0, 9. j'avais d'abord choisi l'enveloppe B,
j'aurais pu faire le même raisonnement rance de B est la même que celle de A, Le paradoxe de la cravate
et conclure que A était préférable. et donc vous n'obtiendrez jamais de
Qu'est-ce qui ne va pas? paradoxe dans un cas réel. L'explication vaut aussi pour le
L'explication de ce paradoxe res- Une explication compatible avec paradoxe de la cravate, proposé par
semble à celle du paradoxe de Saint- ces hypothèses, mais plus profonde, Maurice Kraitchik en 1930 : Monsieur
Pétersbourg, en ce sens que, pour rai- mérite d'être indiquée. Dans le raison- A propose à Monsieur B que celui qui
sonner juste et éviter le paradoxe, il nement faux qui conduit au paradoxe, a la plus longue cravate la donne à
suffit de préciser les hypothèses en évi- on n'a pas l'impression de se tromper, l'autre. Monsieur B raisonne ainsi :
tant toute hypothèse implicite qui pour- car il semble raisonnable d'imaginer « Ma cravate a pour longueur L. Si ma
rait être déraisonnable. un cas idéal où toutes les valeurs pos- cravate est la plus longue, ce qui a une
11 faut donc encore refuser de sibles du contenu de A ont la même chance sur deux de se produire, je la
considérer que toutes les valeurs de X probabilité (ce qui, nous l'avons vu, perds, donc je perds une cravate de
sont possibles, car le banquier qui me n'est pas vrai dans le cas détaillé), et longueur L. Sinon, je gagne la cravate
propose le jeu n'utilisera pas plus tel que, pour chacune des valeurs pos- de l'autre, qui est plus longue que L.
d'une certaine somme pour remplir les sibles du contenu Y de l'enveloppe A, Donc, une fois sur deux, je perds L et,
enveloppes. Imaginons que c'est 20 le contenu de l'enveloppe B est une une fois sur deux, je gagne plus que L.
francs. Il faut aussi préciser la straté- fois sur deux 2Y, une fois sur deux Mon espérance est positive, donc
gie que le banquier adopte pour rem- Y/2. Mais ce cas idéal qu'on présup- j'accepte de jouer. » Le jeu étant symé-
plir les deux enveloppes. Imaginons pose (sans se demander s'il existe) est trique, le joueur A peut conclure que le
qu'il choisit de remplir les enveloppes en fait impossible, car il impose une jeu lui est aussi favorable, ce qui est
avec 1 franc et 2 francs, ou 2 francs et attribution uniforme de probabilités à paradoxal.
4 francs, ou 3 francs et 6 francs, etc., tous les nombres entiers (les valeurs Comme dans l'explication pro-
jusqu'à 10 francs et 20 francs au possibles du contenu de A), attribution fonde du paradoxe des enveloppes,
hasard, en ne favorisant aucun cas (il impossible, on s'en aperçoit immédia- l'erreur provient du fait qu'en raison-
choisit, par exemple, équitablement un tement : si l'on attribue une probabilité nant sans spécifier une répartition pré-
nombre entre I et 10), puis qu'il positive égale à chaque entier, la cise des longueurs des cravates portées
mélange les deux enveloppes remplies somme des probabilités sera plus par les hommes cravatés, on se place
pour ne plus savoir laquelle contient le grande que 1 ; si l'on attribue une pro- implicitement dans un cas idéal qui
plus. Les cas possibles sont alors faciles babilité nulle, la somme des probabili- n'existe pas : celui où toutes les lon-
à énumérer (1, 2)- (2, 1), (2, 4)- (4, 2), tés sera nulle. gueurs possibles de cravates ont la
(3, 6)- (6, 3), (4, 8)- (8, 4), (5, 0)- (0, 5), Les mathématiciens savent bien même probabilité et où, pour chaque
(6, 12)- (12, 6), (7, 14)- (14, 7), (8, 16)- qu'il n'existe pas de probabilité uni- longueur possible L, la moitié des cra-
(16, 8), (9, 18) (18, 9), (10, 20)- (20, 10). forme sur les entiers, c'est-à-dire qu'il vates est de longueur plus grande et la
Ils ont la même probabilité : 1/20. Le est impossible de dire : « soit un moitié des cravates de longueur plus
calcul de l'espérance de B donne la nombre entier choisi au hasard en don- petite (ce qui, si vous réfléchissez une
même valeur que celui de l'espérance nant la même probabilité à chaque seconde, n'est évidemment pas pos-
de A (on trouve 8, 25), et non pas nombre entier ». C'est la clef profonde sible). Si vous prenez la peine de pré-
1,25 fois plus. II n'y a aucun paradoxe ! du paradoxe des enveloppes : il faut se ciser la situation (une probabilité pour
Où est l'erreur dans le raisonne- garder de mener des raisonnements qui chaque longueur de cravate envisa-
ment formulé plus haut ? Deux choses : présupposent l'existence de choses qui geable), le paradoxe disparaît, comme
(1) on y considère implicitement que n'existent pas ! dans le cas des deux enveloppes.
toutes les valeurs de X possibles ont la
même probabilité, ce qui est faux ; Neuf chances sur dix
5, par exemple, n'apparaît qu'une fois de de perdre
gagner et
comme valeur possible du contenu de
A, alors que 8 apparaît deux fois ; La conclusion du dernier paradoxe
(2) on considère aussi que, pour que je vous propose est vraiment sur-
chaque enveloppe A possible, il y a prenante. Ce paradoxe m'a été inspiré
une chance sur deux que l'autre par un exemple analogue inventé par
contienne deux fois plus, et une le philosophe J. Leslie.
chance sur deux que l'autre contienne I1 y a un banquier et des joueurs.
deux fois moins, ce qui est faux : si Chaque joueur engage 100 francs. S'il
l'enveloppe A contient 3 francs, par gagne, il récupère ses 100 francs, plus
exemple, la seule valeur possible pour 100 francs que lui donne le banquier.
B est 6 francs. S'il perd, le banquier garde les 100
En faisant les calculs précisément à francs engagés par le joueur. Le ban-
partir d'hypothèses fixées le plus rai- quier utilise un dé non truqué à dix
sonnablement possible, aucun paradoxe faces (la face 1, la face 2,..., la face
ne subsiste. Tout système d'hypothèses 10). Le banquier constitue des groupes
raisonnables (somme d'argent finie, 4. LE PARADOXEDE LA CRAVATE.Celui de joueurs de la façon suivante. Le
procédure bien déterminée de mise en qui a la plus longue cravate la donne à groupe 1 est composé de dix joueurs
place des enveloppes) que vous choisi- l'autre. L'espérance mathématique semble numérotés de I à 10. Le joueur I
rez vous conduira à trouver que l'espé- positive pour les deux joueurs. gagne toujours. Le groupe 2 comporte
5. LE PARADOXE DES NEUF CHANCES SUR DIX. Puisqu'une face sur dix fait perdre, un joueur a neuf chances sur dix de gagner. Mais, puisq
quand une partie s'arrête, neuf joueurs sur dix ont perdu, un joueur a aussi neuf chances sur dix de perdre. Qu'est-ce qui ?ne va pas

90 joueurs numérotés de 11 à 100. Le 90 joueurs du groupe 2 ont gagné, et il Raisonnement 1. Je vais risquer
groupe 3 comporte 900 joueurs jette le dé une troisième fois. S'il 100 francs, on va jeter le dé. La proba-
numérotés de 101 à 1 000, etc. 11n'est obtient un 10, les 900 joueurs du bilité pour que je perde est de 1/10,
pas nécessaire que les groupes soient groupe 3 ont perdu, et la partie est ter- puisque seul le 10 me fait perdre (au
constitués à l'avance. minée. Dans un tel cas, 900 joueurs en premier coup, c'est même un peu
Le banquier jette le dé à dix faces. tout ont perdu et 100 = 10 + 90 joueurs moins, puisque le joueur numéro 1 est
S'il obtient un 10, les joueurs 2, 3,..., ont gagné, etc. certain de gagner). Ayant donc plus de
10 du premier groupe ont perdu, et la Remarquons que, quel que soit le neuf chances sur dix de gagner,
partie est terminée. Donc, dans un tel moment de l'arrêt, quand la partie se j'accepte.
cas, neuf joueurs ont perdu et un termine, neuf joueurs sur dix exacte-
joueur (le numéro 1) a gagné. Sinon ment ont perdu, et un sur dix a gagné. Raisonnement 2. Parmi tous les
(s'il a obtenu I ou 2 ou... 9 au premier Chaque partie du jeu « 9 sur 10 » est gens à qui le banquier propose le jeu et
lancer), les dix joueurs du groupe 1 ont finie (car la probabilité pour qu'on ne quelle que soit la durée de la partie, il y
gagné, et le banquier jette le dé une tombe jamais sur un 10 est nulle). a exactement neuf joueurs sur dix qui
deuxième fois. S'il obtient un 10, les La partie a commencé, le banquier perdent. Si j'accepte de jouer, je serai
90 joueurs du groupe 2 ont perdu, et la est en train de constituer le prochain un joueur quelconque, en rien différent
partie est terminée. Donc, dans un tel groupe. Il vous demande si vous accep- des autres à qui le banquier a proposé
cas, en tout 90 joueurs ont perdu et 10 tez de jouer (sans vous indiquer le le jeu. Comme il y a neuf joueurs sur
joueurs ont gagné. Sinon (s'il a obtenu numéro que vous aurez). Voici deux dix qui perdent, j'ai neuf chances sur
I ou 2 ou... 9 au second lancer), les raisonnements possibles. dix de perdre. Donc, je refuse.
LES Alors le jeu contre le casino est équitable (si
TURPITUDES
l'on tient compte du zéro, le casino prélève
un impôt de 1,35 pour cent sur les chances
DU JOUEUR simples). Vous jouez une série de coups a
la roulette en jouant une couleur et vous
partez quand vous avez gagné 100 francs,
ou quand vous avez perdu votre mise de
1 000 francs. Vous avez 90 chances sur
Les mathématiciens probabilistes ont accident de la route. Or nous prenons 100 de gagner 100 francs, et 10 chances
depuis longtemps démontré qu'il était notre automobile et, dans ce cas, nous sur 100 environ de perdre votre mise de
impossible de gagner au jeu. Pourtant, rai- estimons qu'une probabilité, pourtant 1 000 francs. Cet enjeu vous paraît-il rai-
sonnons-nous,des millions de gens jouent, 2 000 fois plus grande, est négligeable... sonnable ? Alors, vous devez jouer 100
et certains gagnent, parfois beaucoup. Cela étant, pouvons-nous jouer sur la francs au premier coup. Vous avez une
Aussi jouons-nous.II y a, dans le jeu, le plai- base de connaissances mathématiques, chance sur deux de gagner et de partir
sir de jouer qui dépassele goût du gain. plus intelligemment que d'autres? avec votre gain de 100 francs. Si vous per-
Nous savons tous que le hasard ne dez au premier coup, jouez alors 200
garde aucun souvenir du passe,et que si Quelques règles simples francs et abandonnez si vous gagnez, et
rouge est sorti vingt fois à la roulette, la et de bon sens ainsi de suite : c'est en pariant ainsi que
probabilité que noir sorte au coup suivant vous optimisez votre chance de ne pas être
n'en est pas augmentée. « Laroulette n'a ni Jouez a un jeu où votre espérance ruiné avant d'avoir atteint votre objectif.
conscienceni mémoire. C'est lui faire trop mathématique, la probabilité de gain mul- Au Loto, vous pouvez choisir votre
d'honneur que de croire qu'elle garde le tipliée par la valeur du gain possible, est grille. Comme tout le monde croit que la
souvenir de ses égarements et qu'elle égale à votre enjeu : la bataille est un bon suite ordonnée 1, 2, 3, 4, 5, 6 est moins
s'impose ledevoir de les réparer », écrivait le exemple ! Au casino, choisissez le jeu le probable que les autres, elle sera moins
mathématicien Joseph Bertrand. Pourtant, moins désavantageux, par exemple les jouée. Aussi, quand elle sort, serez-vous
raisonnons-nous,les probabilités de rouge chances simples à la roulette. Jouez avec l'unique gagnant... Une tricherie assez
et de noir sont égales et une longue suite un partenaire moins riche que vous : il subtile optimiserait vos chancesde gain : si
de rouge devra être équilibrée. Aussi sera presque certainement ruiné, car il un moyen informatique permettait de repé-
avons-nous tendance à jouer noir après des aura, avant vous, épuisé la somme qu'il rer toutes les grilles jouées, vous pourriez
sorties de rouge. Nous ne raisonnons pas voudra consacrer au jeu. Jouez à pile ou choisir celle qui ne t'est pas et vous seriez
sur des suites infinies, mais sur des suites face avec un pauvre ou avec quelqu'un seul à gagner le gros lotsi cette suite sort
finies, la est notre erreur : nous croyons qui n'aime pas miser beaucoup, si vous
que le réequilibrageest imminent. arrivez a le convaincre. Le hasard est la meilleure stratégie
Remarquons un phénomène psycho- Si vous désirez jouer au casino, fixez-
logique : nous surestimons toujours la pro- vous un gain souhaite, utilisez une martin- Le hasard est utilisable dans les jeux de
babilité d'un événement favorable et sous- gale qui limite votre temps de résidence type duel. Examinons un exemple simple
estimons la probabilité d'un accident devant le tapis et partez quand vous avez mais illustratif, l'angoissedu gardien de but
défavorable. Nous considérons qu'une réalisévotre gain. au moment du penalty. Le gardien peut
probabilité de un sur dix millions de Donnons un exemple : vous désirez plonger à droite ou à gauche, et le tireur
gagner le gros lot au Loto n'est pas négli- gagner 100 francs. Vous êtes prêt à miser peut tirer à droite ou à gauche. La prédic-
geable... car nous jouons avec l'espoir de 1 000 francs.À la roulette, supposons que tion du tir est impossible : on ne peut
gagner. Nous avons pourtant une probabi- le jeu soit équitable et que le zéro, où ni le déduire la direction du tir à partir de statis-
lité beaucoup plus forte d'avoir un grave noir ni le rouge ne gagnent, soit éliminé. tiques passéesou de 1'6valuation
de l'intel-
ligence de l'adversaire. Ce type d'estima-
tion est inefficace, contrairement à ce que
pensait Dupin, le héros d'Edgar Poe, dans
La lettre volée. Ce que sait le gardien de
but, cest qu'il peut minimiser ses échecs
contre n'importe quel adversaireen tirant à
pile ou face sa direction de plongeon.
La théorie des jeux de Von Neumann,
perfectionné par Nash, s'applique à ce type
de jeu où deux adversairesjouent à un jeu
équitable. Pour un jeu du type caillou,
feuille et puits, vous choisissez les enjeux
des gains et des défaites, et un ordinateur
programmé par l'algorithme de Nash vous
battra à la longue. Vous pouvez alors pro-
grammer votre ordinateur pour jouer à
votre place. C'est un des rares résultats
mathématiques qui ait une application en
dehors de la physique et des mathéma-
tiques elles-mêmes,mais elle nous entraine
James Bond surveille les desseins ludiques de sa partenaire, au craps. en dehors des lois du hasard.
Les probabilités

géométriques

Roger Cuculière

Lorsqu'on jette une pièce de monnaie, La probabilité discrète


on peut

se demander si elle retombera sur le côté pite ou face : Quelle est la difficulté de ce genre de
problème? Pour répondre à cette ques-
t'événement est discret. On peut aussi se demander tion, nous devons rappeler la définition
de la probabilité, due à Laplace : la pro-
quel sera son point de chute sur un pavage : t'événement babilité d'un événementest « le rapport
du nombre de cas favorables à celui de
est continu et la probabilité associée est géométrique. tous les cas possibles ».Ainsi la probabi-
lité d'obtenir 2 quandvous lancezun dé
est 1/6, car il y a six résultats, six cas
possiblessur lesquelsun seul est « favo-
ans notre pays, les pro- après sa chute, se trouvera à franc- rable »: un seul fournit bien le chiffre 2.
grammes d'enseigne- carreau, c'est-à-dire sur un seul carreau La probabilité ainsi définie recouvre
ment mathématique qui ; le second parie que cet ecu se trou- une réalité empirique : si vous lancezun
comportent du calcul des vera sur deux carreaux, c'est-à-dire dé un grand nombre de fois, le chiffre 2
probabilités laissent peu qu'il couvrira un des joints qui les apparaîtra,en moyenne,une fois sur six ;
de place à la géométrie, et vice versa. séparent; un troisième joueur parie que en divisant le nombre de lancers ayant
Trop souvent d'ailleurs, la mode for- l'écu se trouvera sur deux joints ; un amené le 2 par le nombre total de lan-
maliste de ces dernières annéestrans- quatrième parie que l'écu se trouvera cers, vous devez donc trouver 16 ou 17
forme ces deux disciplines en un gali- sur trois, quatre ou six joints : on pour cent. Ce rapport, nommé la fré-
matias algébrique où elles perdent leur demande les sorts de chacun de ces quence de l'événement considéré, doit
charme propre. Et jamais on ne les joueurs.» Autrement dit, on demandela être raisonnablementvoisin de la proba-
laisse dialoguer. probabilité de gain de chacun. bilité. Bien sûr, ce phénomènetendanciel
Nous verrons que la rencontrede la et approximatif n'exclut pas de longues
géométrie et des probabilités, l'une des séquencesde 2 ou de longuesséquences
plus anciennesbranchesdes mathéma- sans2 ; tous lesjoueursle saventbien.
tiques et l'une des plus récentes,conduit La première difficulté apparaît très
à des énoncés attachants, auxquels le vite. Si, au lieu d'un dé, vous en prenez
traitement informatique apporte un deux, vous avez 11 totaux possibles : 2,
regain d'intérêt. Pour trouver l'origine 3, 4, 5, 6, 7, 8, 9, 10, 11, 12. La probabi-
de ces questions,il faut se tourner vers lité d'obtenir un total de 6, par exemple,
un... naturaliste, le plus célèbre peut- devrait donc être 1/11 si l'on appliquait
être de tous les naturalistes français, brutalementla définition précédente.Or,
Buffon (1707-1788). Il vivait à une en réalisant l'expérience un grand
époque où les hommesde savoir s'illus- nombre de fois, on trouve une fréquence
traient dans plusieurs disciplines scien- plutôt proche de 14 pour cent que des 9
tifiques ou intellectuelles. pour centcorrespondantà 1/11.La raison
Bien avant que sa réputation se fût est que les « cas possibles » et les « cas
affirmée dans le domaine des sciences favorables » dénombrés doivent être, dit
naturelles, le premier mémoire qu'il Laplace, « également possibles », c'est-à-
publia en 1733 était consacréau Jeu de dire doivent avoir la même probabilité.
franc-carreau, sur lequel il revint en Cette définition contient une sorte de
1777 dans son Essai d'arithmétique cercle vicieux, puisque l'on définit la
1. BUFFONETLEJEU DE FRANC-CARRBAU.
morale. Voici sa description de ce jeu : On jette un écu au-dessus d'un pavage, etprobabilité par la probabilité. Dans la
« Dans une chambre parquetée ou les joueurs parient sur son point de chute pratique, on sort de ce cercle par des
:
pavée de carreaux égaux, d'une figure tombera-t-il sur un seul carreau (à franc- considérationsde symétrie : dans notre
quelconque, on jette en l'air un écu ; carreau), sur un joint, ou encore sur deux, exemple, si nos deux dés sont parfaite-
l'un des joueurs parie que cet écu, trois ou quatrejoints? ment équilibrés, chaqueface a autantde
chances d'apparaître. Donc deux dés
fournissent 36 cas : un avec le premier dé
et un avec le deuxième, un avec le pre-
mier dé et deux avec le deuxième et ainsi
de suite jusqu'à six et six. Sur ces 36 cas,
cinq cas donnent une somme de 6 (1 + 5,
2 + 4, 3 + 3, 4 + 2, 5 + 1), d'où la proba-
bilité du total de 6 : 5/36, soit environ
0, 1388...
2. POSITIONSFAVORABLES (en orange) du
Cette difficulté étant levée, les cal-
centre 0 de l'écu pour que celui-ci tombe à
culs de probabilités concernant les jeux franc-carreau ; d est le diamètre de l'écu, c
usuels de cartes, de dés, les jeux de est le cote du carreau.
casino, les loteries, etc. se ramènent à
3. LE JEUDE FRANC-CARREAU EST ÉQUITABLE lorsque la probabilité que la pièce tombe à
des dénombrements de cas dont le rap-
franc-carreau est égale a la probabilité du contraire. L'exigence d'équitabilité détermine le
port détermine la probabilité cherchée. rapport d/c du diamètre de la pièce à la longueur d'un côté. Nous avons calculéce rapport
Et ce, pour la raison que cas favorables dans le cas réguliers.
et cas possibles sont en nombre fini.

La probabilité continue

11 en va autrement avec le jeu de


franc-carreau. Les cas possibles sont ici
constitués par toutes les positions de
l'écu qu'on laisse tomber, positions que
l'on repère par l'emplacement du centre,
puisque ladite pièce est circulaire. Les 4. LE JEUDE FRANC-CARREAU peut se jouer sur divers pavages réguliers.
cas favorables à la réalisation du franc-
carreau sont les positions du centre de
l'écu pour lesquelles cet écu ne rencontre aires soit égal à 1/2, ce qui conduit à L'aiguille sur le parquet
d/c = 1-1/#2#0,
pas les bords des carreaux. On inscrit 2929, d'où cld = 2 +
dans chaque carreau la figure formée des #2# 3,4142. Comme dit Buffon, le côté Dans le même écrit, Buffon poursuit
points éloignés des bords du carreau du carreau doit être « à peu près trois ainsi : « Mais, si au lieu de jeter en l'air
d'une distance égale au rayon de l'écu. fois et demie plus grand que le diamètre une pièce ronde, comme un écu, on
Pour fixer les idées, commençons par de la pièce avec laquelle on joue ». jetoit une pièce d'une autre figure,
un carreau carré de côté c et un écu de Lorsqu'on a compris cette évalua- comme une pistole d'Espagne carrée, ou
diamètre d. La zone favorable est le bord tion, on peut suivre Buffon dans son une aiguille, une baguette, etc., le pro-
du carré, d'épaisseur dl2. Cas possibles étude des diverses formes de carreaux : blème demanderoit un peu plus de géo-
et cas favorables sont constitués par tous triangle équilatéral, losange (d'angle 60 métrie, quoiqu'en général il fût toujours
les points de deux carrés : ils sont en degrés), hexagone régulier (voir la possible d'en donner la solution par des
nombre infini. Pis encore, cette infinité figure 4). Vous pouvez vérifier les comparaisons d'espaces, comme nous
n'est pas une infinité discrète comme résultats consignés dans le tableau de la allons le démontrer. » Buffon traite alors
celle d'une suite de points, où l'on dis- figure 3, où l'on a calculé le rapport d/c le problème de l'aiguille : dans une
tingue un premier, un second, etc. ; c'est (diamètre de la pièce divisé par lon- chambre, le parquet est simplement
une infinité continue, non dénombrable. gueur d'un côté) pour que le jeu soit divisé par des joints parallèles équidis-
La définition de la probabilité que nous « égal », dans chaque cas. Vous pouvez tants, de distance c. On jette en l'air une
avons rappelée ne s'applique pas, car on aussi, avec Buffon et à l'aide de la aiguille de longueur d inférieure à c, de
ne peut dénombrer ces divers cas. même méthode, chercher la probabilité sorte qu'elle tombe sur ce parquet, et on
Au fond, l'idée de dénombrement que la pièce rencontre plus d'un joint. cherche la probabilité pour que
n'est pas une fin en soi, elle n'est qu'un l'aiguille rencontre une des rainures, un
avatar de l'idée de mesure. Ce que nous des joints du parquet.
voulons évaluer, c'est une proportion La position de l'aiguille AB est déter-
entre les cas possibles et les cas favo- minée par la distance x de son centre C au
rables. Si nous ne pouvons les compter, joint du parquet qui est le plus proche
mesurons-les. Comme dans le cas pré- (voir la figure 5) et par l'angle # qu'elle
sent, ils constituent des ensembles plans, fait avec ce joint. Comme c'est fréquent
leur mesure sera leur aire et la probabilité en mathématiques, nous recourons à un
cherchée sera le rapport de l'aire coloriée codage : nous représentons la position de
à l'aire totale du carreau, soit (c-d)2/c2. l'aiguille par le point M, de coordonnées
Le jeu est équitable si, les joueurs H et x ; # peut varier entre 0 et 7t/2 radians
pariant des sommes égales, le joueur 5. LE PROBLEMEDE L'AIGUILLE. On jette et x entre 0 et c/2. Sur la figure 5, on voit
qui parie sur franc-carreau a autant de que l'aiguille coupe le joint si la longueur
une aiguille de longueur d sur un parquet à
chances que celui qui parie le contraire ; lattes de largeur c, et on cherche la proba- CK est supérieure à la longueur CH, soit
pour cela, il faut que le rapport des deux bilité que l'aiguille rencontre une rainure. lorsque d sin #/2 > x : nous traçons la
sinusoïde d'équation x = d/2 sin #, et Expérimenter le hasard
sur un parquet dont les joints étaient
notre point M doit se situer au-dessous de écartés de c = 3, 5 pouces. Sur les deux
cette courbe (voir la figure 6). La proba- Ce problème a connu un prodigieux lancers, l'aiguille a rencontré une seule
bilité cherchée est égale à cette aire située retentissement, sans doute dû à la simpli- fois un joint. D'où # #2 x 2 x 2, 75/3,5 =
sous la courbe, divisée par l'aire totale du cité de son énoncé et à l'irruption quasi 3, 1429, c'est-à-dire une valeur meilleure
rectangle où le point M peut se trouver. magique du merveilleux nombre # dans que toutes celles de notre liste, exceptée
L'aire de ce rectangle est #/2 x c/2 = sa solution. Le caractère rudimentaire et celle de Lazzerini. Le subterfuge est
#c/4, et un calcul élémentaire montre que familier du matériel qu'il nécessite a dans les valeurs de c et d choisies pour
l'aire située sous la sinusoïde vaut d/2, incité des générations de curieux à procé- que c/d = 0, 7857, soit à peu près #/4.
d'où la probabilité que l'aiguille coupe un der à des vérifications expérimentales. Cela ne disqualifie pas les expéri-
joint : 2d/#c. Si l'aiguille a une longueur Les résultats obtenus sont illustrés sur la mentations, mais montre que les plus
égale à la distance de deux joints consé- figure 7. Les demi-intersections qui inter- honnêtes sont celles de Wolf et de De
cutifs, soit d = c, on trouve 2/7r,soit envi- viennent dans les résultats de Smith et de Morgan, qui prennent une aiguille dans
ron 0, 6366. De Morgan correspondent au cas où une un rapport simple avec la distance des
Dans le cas où la longueur d de extrémité de l'aiguille touche une rainure, joints du parquet et s'arrêtent au bout
l'aiguille est supérieure à l'écartement c et où l'on ne peut se prononcer avec certi- d'un nombre rond d'expérimentations,
de deux joints consécutifs du parquet, tude sur la réalité de l'intersection. nombre fixé à l'avance. II ne faut pas en
l'aire de la zone correspondant aux cas Toutefois, en 1960, N. Gridgeman a attendre une grande précision dans le
favorables est un peu plus délicate à sévèrement critiqué ces expériences : si calcul de n, mais un ordre de grandeur
déterminer (voir la partie droite de la l'on appelle R le rapport d/c, L le nombre est tout de même un fait intéressant à
figure 6). On obtient encore la probabi- de lancers et I le nombre d'intersections, l'appui de la théorie.
lité d'intersection en divisant cette aire alors l'étude précédente montre que # est D'autres expériences du même type,
par l'aire totale du rectangle de côtés environ égal à 2LR/I. On peut choisir le mais plus sérieuses, ont eu lieu avec un
#/2 et c/2. On trouve : rapport R pour que le résultat soit une appareillage plus compliqué. Il y a
1-2/#(# d2/c2-1 + sin-1 c/d-d/c) fraction proche du nombre #, comme quelque temps, on pouvait voir au Palais
où l'on désigne par sin-1(c/d) l'angle en 22/7 ou 355/113. On peut ensuite arrêter de la découverte une machine électrique
radians compris entre 0 et #/2, dont le l'expérience lorsque la valeur approchée qui réalisait l'expérience de Buffon en
sinus est cld (comme sur les calcula- de n obtenue est assez bonne. Ces mani- faisant défiler des lames de plastique,
trices de poche). Si l'aiguille est assez gances ne prouvent rien. N. Gridgeman comme les chenilles d'un char d'assaut :
longue, on peut aussi calculer la proba- illustre ce propos avec humour en racon- les visiteurs déclenchaient le lancer de
bilité qu'il y ait plusieurs intersections tant que son propre fils a lancé deux fois l'aiguille en appuyant sur un bouton, et
avec les joints du parquet. une aiguille de longueur d = 2, 75 pouces les intersections avec les joints étaient
comptabilisées automatiquement.
Toutefois, même en utilisant toutes les
ressources du progrès technique, on ne
peut espérer d'amélioration notable de la
précision, car la multiplication des expé-
riences augmente aussi les causes phy-
siques d'erreurs.
L'avènement des ordinateurs permet
un autre type d'expérimentation : la
simulation. Un programme informatique
peut simuler des lancers aléatoires de
segments de longueur d donnée sur des
bandes parallèles d'écartement donné c et
comptabiliser les intersections. Plus sim-
6. LES SOLUTIONSDU JEU DE L'AIGUILLE. L'aiguille rencontre une rainure du parquet plement, vous pouvez tirer des couples
lorsque le point M représentant la position de l'aiguille se trouve dans la zone bleue. de nombres aléatoires ou pseudo-
aléatoires 6 et x, respectivement entre 0
et #/2 et entre 0 et c/2, et tester chaque
couple pour savoir si l'on a d/2 sin 6 >x.
C'est un moyen d'évaluer les aires bleues
de la figure 6. Ce type de calcul fondé sur
des nombres aléatoires s'est développé
dans les années 1950 sous le nom de
méthode de Monte-Carlo.
Le problème de l'aiguille a aussi
donné lieu à d'importants développe-
ments mathématiques. L'illustre Laplace,
dans sa monumentale Théorie analytique
7. DÉTERMINATION EXPÉRIMENTALE DE DE BUFFON
# EN LANÇANT: le L'AIGUILLE des probabilités (1812), traite de cette
rapport du nombre d'intersections par le nombre de lancers est proche de la probabiliti question : « Enfin, on pourrait faire usage
géométriqueque l'aiguille coupeune rainure, laquelle dépend du rapport d/cet de #. du calcul des probabilités pour rectifier
les courbes ou carrer leurs surfaces. Sans
doute, les géomètres n'emploieront pas
ce moyen, mais comme il me donne lieu
de parler d'un genre particulier de com-
binaisons du hasard, je vais l'exposer en
peu de mots. »
« Rectifier les courbes » et « carrer
leurs surfaces »,cela signifie déterminer,
fût-ce de manière approchée, la lon-
gueur de ces courbes ou la surface
qu'elles comprennent. En fait, c'est la
méthode de Monte-Carlo que Laplace
propose ici. À son époque, il a bien rai-
son de dire que « les géomètres 8. L'AIGUILLE DE BUFFON SUR UN PAVAGE RECTANGULAIRE. Lors du calcul de probabilités
n'emploieront pas ce moyen », mais il quel'aiguille coupeun joint, on considère les deux systèmes de joints, horizontal et vertical.
en va tout autrement aujourd'hui.

Les probabilités
composées

Laplace reprend ensuite le problème


de Buffon et calcule la probabilité p 9. LE PROBLÈME DE IA TIGE BRISÉE. Une tige se brise en trois morceaux. Quelle est la
qu'une aiguille de longueur d coupe au probabilité pour que, avecces trois morceaux, on puisse former un triangle ?
moins un joint d'un pavage rectangu-
laire de côtés a et b (voir la figure 8) si
la longueur de l'aiguille est plus petite parler sont ou non indépendants. Une déduit que la probabilité cherchée p est
que les côtés du rectangle. Cet événe- règle élémentaire du calcul des probabi- proportionnelle au périmètre l du poly-
ment se décompose ainsi : lités dit que la probabilité que deux évé- gone : p = kl. Pour calculer la constante
-ou bien l'aiguille coupe seulement nements A et B se produisent ensemble k, il considère toute courbe plane
un joint du premier système de paral- est égale à la probabilité de A par la pro- convexe fermée comme la limite d'un
lèles, de largeur a, et ne coupe pas de babilité que B se produise sachant que polygone convexe ayant un grand
joint de l'autre système ; soit pl la pro- A s'est produit, ce que l'on note : p (A nombre de côtés très petits ; par consé-
babilité de ce cas ; et B) = p (A) x p(B/A). Dans le cas pré- quent, le résultat ci-dessus peut s'étendre
-ou bien l'aiguille coupe seulement sent, l'événement « A et B » signifie que à tous les jetons de forme convexe quel-
un joint de l'autre système, de largeur b ; l'aiguille coupe un joint de chacun des conque. Barbier désigne toujours par c la
soit P2 la probabilité de ce cas ; deux systèmes : probabilité p3 d2/#ab. distance de deux joints voisins dans le
=
-ou bien l'aiguille coupe un joint On a donc p(B/A) = p (A et B)/p(A) = parquet ; si notre jeton circulaire est de
de chacun des deux systèmes ; soit p3 la d/2b : c'est la probabilité que l'aiguille diamètre c, alors ce jeton coupera tou-
probabilité correspondante. coupe un joint du second système si elle jours un joint, et notre probabilité vaudra
La probabilité p cherchée vaut : coupe un joint du premier. p = 1. Dans ce cas, on a l = #c, ce qui
p = p1 + P2 + P3. Si les événementsA et B étaient indé- conduit à 1 = k#c, soit k = l/sc et, enfin,
Considérons par ailleurs l'événe- pendants, la réalisation ou non de l'évé- la formule générale de la probabilité,
ment (A) : « l'aiguille coupe un joint du nement A n'influencerait en rien la pro- p = l/#c, applicable à tout jeton convexe
premier système » (qu'elle coupe ou non babilité de B, et l'on trouverait p (B/A) = de périmètre l non susceptible de couper
un joint du second). Cet événement est p (B), ce qui n'est pas le cas. Ces événe- deux joints du parquet. Notre aiguille de
formé du premier et du troisième cas ments ne sont donc pas indépendants, et longueur d est une ellipse limite infini-
distingués ci-dessus, et donc sa probabi- c'est assez naturel, car ils sont tous tribu- ment aplatie, de périmètre l = 2d, de
lité est pl + p. Mais cette probabilité taires de la position de l'aiguille : savoir sorte que l'on retrouve bien la probabi-
nous la connaissons, et c'est 2d/#a. De que cette aiguille coupe un joint du pre- lité donnée : p = 2d/#c.
même, l'événement (B) : « I'aiguille mier système nous renseigne sur cette
coupe un joint du second système » a position et modifie donc la probabilité La tige brisée
pour probabilité P2 + P3 = 2d/#b. qu'elle coupe un joint de l'autre système.
Donc : p = 2d/#a + 2d/#b-p3. Lamé traite cette question en 1860 En 1873 paraît le premier Bulletin
Reste à déterminer p3. On procède dans son cours à la Faculté des sciences, de la Société mathématique de France,
comme précédemment, avec trois et la généralise au cas d'un jeton ellip- et cette année est faste pour les probabi-
variables au lieu de deux : l'angle 0, tique. La même année, Barbier, un élève lités géométriques. Lemoine pose un
mais aussi les distances x et y du centre de l'École normale supérieure, donne problème que l'on reprendra souvent
de l'aiguille aux joints des deux sys- une élégante démonstration : si l'on par la suite : « Une tige se brise en trois
tèmes. On trouve p3 = d2/#ab, d'où) la considère un jeton de forme polygonale morceaux ; quelle est la probabilité pour
probabilité cherchée : convexe dont tous les côtés sont égaux et que, avec ces trois morceaux, on puisse
p = 2d/#a + 2d/#b-d2/#ab. qui ne puisse rencontrer plus d'un joint former un triangle ?»
Notre étude peut nous dire si les du parquet, alors tous ses côtés ont les Au fond, la difficulté de ce pro-
événements A et B dont nous venons de mêmes chances de couper ce joint. I1 en blème est celle de toutes les probabilités
géométriques. Elle réside dans l'infinité Prenons n pair et posons n = 2m. (2m + 1) + (2m)/(2m-1) +... + 2 + 1.
continue des cas possibles. Pour simpli- Supposons que les trois morceaux aléa- C'est la somme de tous les nom-
fier, Lemoine utilise une méthode que toires de notre tige comprennent a, b et c bres entiers de 1 à 2m + 1, soit
l'on peut appeler « discrétisations ». Ilfait parties élémentaires, de sorte que la (2m + 1)(2m + 2)/2. Parmi tous ces cas
comme si la tige était constituée d'un somme a + b + c = 2m. Les divers cas possibles, sont réputés favorables les cas
nombre fini, disons n, de petites parties possibles sont constitués des diverses où nos trois morceaux a, b et c forment
égales. Cette méthode prolonge une valeurs que peuvent prendre a et b, car si un triangle. Ce qui caractérise un tri-
ancienne conception pythagoricienne de a et b sont déterminés, alors c l'est aussi. angle, c'est qu'aucun de ses côtés ne
ponctuation de l'espace, en même Si a = 0, les valeurs possibles pour b peut dépasser la somme des deux autres,
temps qu'elle reflète ce qui se passe sont : 2m, 2m-1,..., 2, 1, 0, soit en soit : a # b + c, b # c + a, c # a + b.
dans la simulation sur ordinateur, tout 2m + I valeurs. Associées à la somme a + b + c = 2m,
puisque ces machines, essentiellement Si a = 1, les valeurs possibles pour b ces trois inégalités conduisent à a # m,
finies, comme toute chose ici-bas, ne sont : 2m-1, 2m-2,..., 2, 1, 0, soit en b#m m, a + b # m, c'est-à-dire que, dans
connaissent point l'infini continu, tout 2m valeurs. un triangle, chaque côté est inférieur au
qu'elles représentent par du fini discret. Et ainsi de suite : chaque augmenta- demi-périmètre, mais la somme de deux
Lemoine suppose de plus que cha- tion de a d'une unité conduit à une côtés est supérieure à ce demi-périmètre.
cun des trois morceaux de la tige com- valeur en moins pour b. À la fin, si Ces inégalités s'écrivent encore :
prend un nombre entier de parties élé- a = 2m-1, on trouve comme seuls pos- 0 # a # m, m-x # b # m. Énumérons les
mentaires, c'est-à-dire que les cassures sibles b = 1 et b = 0 : deux valeurs. Et si cas favorables : la valeur a = 0 permet
se font aux bords des n petites parties. a = 2m, alors b = 0 : une seule valeur. pour b la valeur m : une valeur. La valeur
En faisant tendre n vers l'infini, nous Le nombre de cas possibles est a = 1 permet pour b les valeurs m-1 et
aurons le résultat voulu. la somme de tous ces nombres : m : deux valeurs. Et ainsi de suite,
comme ci-dessus, avec cette fois une
valeur de plus à chaque fois. La valeur
a = m-I permet pour b les valeurs 1, 2,
m : m valeurs. Et enfin, la valeur
...,
a = m permet pour b les valeurs 0, 1, 2,
1 valeurs en tout. Le nombre
..., m : m +
total de cas favorables est ainsi 1 + 2 + 3
+... + m + (m + 1), soit (m + 1) (m + 2)/2.
La probabilité cherchée est le quotient :
(m + 1)(m + 2)/(2m + 1)(2m + 2),
soit (m + 2)/(4/m + 2). Quand
m devient très grand, cette probabilité
devient presque égale à m/4m, soit 1/4.
Comme pour l'aiguille de Buffon,
on peut coder géométriquement ce pro-
10. DEUX SOLUTIONS CÉOMÉTRIQUES DU PROBLÈME DE LA TICE BRISÉE. En a, les lon- blème. Si l'on considère que notre tige a
gueurs x, y et z des trois morceaux de la tige brisée définissent les coordonnées d'un M. point
Les points M possibles appartiennent à la portion de plan triangulaire ABC. Les trois mor- une longueur égale à 1 et si l'on note x,
ceaux de la tige forment un triangle si chacun d'eux est de longueur inférieure à la demi- y, z les longueurs des trois morceaux, on
longueur de la tige ; les points correspondants sont situés dans le triangle IJK. En b, le point peut associer à ce partage le point M de
M représentantles morceaux de la tige est à l'intérieur d'un triangle équilatéral de hauteur coordonnées x, y, z, positives, de
1 : ainsi les distancesx, y et z de M aux côtés(MH, MP, et MQ) sont telles que x + y + z =1. somme 1. Les points possibles forment
Les trois morceauxx, y, z forment un triangle si M est situé dans le triangle IJK. le triangle ABC (voir la figure 10). Les
trois morceaux formeront un triangle si
chacun d'eux est plus petit que le demi-
périmètre : x # 1/2, y # 1/2, z <1/2. Les
points M correspondants forment le tri-
angle IJK de la figure 11. La probabilité
cherchée est le quotient des aires de ces
deux triangles, soit 1/4.

Triangles et paradoxes

Par la suite, Lemoine a imaginé un


autre codage géométrique, utilisant le
fait que si M est un point quelconque
intérieur à un triangle équilatéral (voir
la figure 10b), alors la somme des dis-
11. SOLUTION DU PROBLÈME DU TRIANGLE ACUTANGLE, c'est-à-dire un triangle qui n'atances de M aux trois côtés de ce tri-
angle est constante, égale à la hauteur
que des angles aigus. Le pointM représentant les trois morceaux de la tige doit appartenir à
la zone rouge IJK (à droite), délimitée par des arcs d'hyperbole définis par la section de du triangle. On utilise d'ailleurs cette
cônes d'équations x2 = y2
+ z2, y2 x2
= + etz2 z2=x2 + y2. propriété pour réaliser des diagrammes
statistiques. Dans le cas présent, si l'on
partage une tige de longueur 1 en trois
morceaux de longueurs x, y, z, on asso-
cie à ce partage un point M intérieur à
un triangle équilatéral de hauteur 1, tel
que MH = x, MP = y et MQ = z.
L'ensemble des cas possibles est consti-
tué des points intérieurs au triangle
ABC. On peut montrer que les trois lon-
gueurs x, y, z forment un triangle si M
est intérieur au triangle IJK, d'où la pro-
babilité cherchée qui est le rapport des 12. LE PROBLÈMEDE BERTRAND: on trace au hasard une corde dans un cercle ; quelle
aires de ces deux triangles, 1/4. est la probabilité pour qu'elle soit plus grande que le côté du triangle équilatéral inscrit ?
Cette solution n'est guère différente La réponse change selon la manière donton aborde le problème : la probabilité est égale à
1/3 si l'on suppose une des extrémités connue(a) ; elle est égale a 1/2 si l'on supposela
de la précédente solution géométrique,
direction de la corde donnée (b) ; elle estégale à 1/4 quand on recherche les positions favo-
et les deux triangles équilatéraux de la rables de son centre (c). Ces multiples solutions montrent que l'énoncé est imprécis.
figure 10 se ressemblent. On montre
que, pour tout point M pris dans le tri- réponses différentes pour un seul pro- « On peut dire encore : choisir une
angle ABC, les distances de M aux trois blème, c'est un peu trop. corde au hasard, c'est en choisir au
côtés de ce triangle sont proportion- Ce n'est pas tout. En 1907, dans son hasard le point milieu. Pour que la
nelles aux coordonnées de M, de sorte Calcul des probabilités, Joseph corde soit plus grande que le côté du tri-
que ces deux solutions n'en font qu'une. Bertrand a présenté un paradoxe ana- angle équilatéral, il faut et il suffit que
Ce problème a une suite : calculer la logue qui, jusqu'à nos jours, a symbo- le point milieu soit à une distance du
probabilité qu'un triangle pris au hasard lisé la difficulté des probabilités géomé- centre plus petite que la moitié du
soit « acutangle », c'est-à-dire qu'il n'ait triques : « On trace au hasard une corde rayon, c'est-à-dire à l'intérieur d'un
que des angles aigus. Posons ce triangle dans un cercle. Quelle est la probabilité cercle quatre fois plus petit en surface.
de périmètre 1 : l'ensemble de ces tri- pour qu'elle soit plus grande que le côté Le nombre des points situés dans l'inté-
angles est encore codé par les points du du triangle équilatéral inscrit ?» Voici la, rieur d'une surface quatre fois moindre
triangle SJK de la figure 10b. Un triangle ou plutôt les réponses de l'auteur : est quatre fois moindre. La probabilité
de côtés x, y, z est rectangle si l'on a « Onpeut dire : si l'une des extrémités pour que la corde dont le milieu est
x2 = y2 + z2 ou y2 = z2 + y2 : c'est le théo- de la corde est connue, ce renseignement choisi au hasard soit plus grande que le
rème de Pythagore. Les points dont les ne change pas la probabilité ; la symétrie côté du triangle équilatéral semble, par
coordonnées vérifient ces relations for- du cercle ne permet d'y attacher aucune définition, égale à 1/4.
ment les trois cônes de la figure 11a. Le influence, favorable ou défavorable à « Entre ces trois réponses, quelle est
triangle sera acutangle si l'on a simulta- l'arrivée de l'événement demandé. la valable ? Aucune des trois n'est
nément x2 <y2 + z2, y2 <z2 + y2, « L'une des extrémités de la corde fausse, aucune n'est exacte, la question
z2 <x2 + y2, c'est-à-dire si le point M étant connue, la direction doit être est mal posée. » Cela signifie que
appartient à la zone découpée sur le plan réglée par le hasard. Si l'on trace les l'énoncé est imprécis, car il ne stipule
IJK par lesdits trois cônes. Les trois deux côtés du triangle équilatéral ayant pas comment se fait le tirage au hasard.
arcs qui délimitent cette zone ne sont pour sommet le point donné, ils for- D'ailleurs, la simulation sur ordinateur,
pas des arcs de cercle, car le plan IJK ment, entre eux et avec la tangente, trois qui nous contraint à préciser les condi-
n'est pas perpendiculaire aux axes de angles de 60 degrés. La corde, pour être tions de ce tirage, nous conduit à formu-
ces cônes de révolution : ce sont des arcs plus grande que le côté du triangle équi- ler correctement l'énoncé et à analyser
d'hyperboles. L'aire de cette zone vaut latéral, doit se trouver dans celui des les diverses solutions.
3/2 (3 log 2-2). Divisée par l'aire trois angles qui est compris entre les Mathématiquement parlant, les pro-
totale du triangle IJK, soit 3/8, elle deux autres. La probabilité pour que le babilités géométriques ont servi très tôt
donne la probabilité qu'un triangle pris hasard entre trois angles égaux qui peu- à mettre en lumière la parenté du calcul
au hasard ait ses trois angles aigus, et vent le recevoir le dirige dans celui-là des probabilités avec les problèmes de
c'est 12 log 2-8, soit environ 0, 3178. semble, par définition, égale à 1/3. mesure et l'intégration. Dès 1868,
Un autre raisonnement possible « On peut dire aussi : si l'on connaît la l'anglais Crofton a publié des
porte sur les angles : prendre un tri- direction de la corde, ce renseignement mémoires qui ont orienté les recherches
angle au hasard revient à choisir au ne change pas la probabilité. La symétrie dans cette voie. Élie Cartan, Henri
hasard ses trois angles de telle manière du cercle ne permet d'y attacher aucune Poincaré et Henri Lebesgue ont pour-
que leur somme soit égale à 180 degrés influence, favorable ou défavorable à suivi dans la même direction, qui reve-
(ou # radians). Le triangle sera acu- l'arrivée de l'événement demandé. nait à chercher, dans des ensembles
tangle si chaque angle est plus petit « La direction de la corde étant don- géométriques, des mesures qui soient
que la moitié de cette somme, 90 née, la corde doit, pour être plus grande invariantes par certaines transforma-
degrés. Cela ne vous rappelle rien ? Si, que le côté du triangle équilatéral, couper tions géométriques, le hasard et la
bien sûr : c'est le problème initial de l'un ou l'autre des rayons qui composent notion de probabilité finissant par dis-
Lemoine, de la tige cassée au hasard, le diamètre perpendiculaire, dans la moi- paraître. En 1935, I'Allemand Wilhelm
où l'on désire que chaque morceau soit dé la plus voisine du centre. La probabi- Blashke a réuni tout cela en une nou-
inférieur à la demi-somme. On trouve, lité pour qu'il en soit ainsi semble, par velle discipline mathématique nommée
rappelons-le, 0, 25. Diable ! Deux définition, égale à 1/2. géométrie intégrale.
LE SIMULE ternes complexes. Nous illustrerons cette
HASARD
notion par trois programmes de simula-
tion. Nous allons utiliser les nombres aléa-
toires pour prévoir les résultatsd'une élec-
Alexander Dewdney tion, simuler l'arrivée de clients 5 un
guichet et, enfin, montrer comment on
pourComment peut-on utiliser un canon Donald Knuth, de l'Université Stanford, peut faire patienter des millions de per-
mesurer la surface d'un étang avait imagine un algorithme si tortueuse- sonnes dans une même file d'attente.
situé au milieu d'un champ? En bombar-ment aléatoire et si aléatoirement tortueux, Dans toute la suite, je supposerai que
dant le champ de telle sorte que la réparti-qu'il l'avait qualifié de générateur de l'ordinateur fournit des nombres aléatoires
tion des points d'impact des projectiles soit nombres super-aléatoires. L'algorithme de (ou pseudo-aléatoires) grâce à la fonction
aléatoire : il suffit ensuite de compter le D. Knuth comporte 12 étapes. On part random, généralement notée RND. Ces
nombre d'obus qui tombent dans l'eau d'un nombre X et on commence par choi- nombres sont des décimaux compris entre
pour estimer la surface de l'étang ; celle-ci sir deux chiffres de ce nombre. Ces deux 0 et 1, et comportent donc une suite de
est égale à la surface connue du champ, chiffres déterminent, d'une part, le nombre chiffres après la virgule.
multipliee par le nombre de projectiles cou-d'itérations de l'algorithme et, d'autre part,
les, et divisée par le nombre total de projec- l'opération à effectuer a chaque itération, Les surprises de la démocratie
tiles utilisés.Ce problème simple, inspiré du parmi dix opérationspossibles.
problème de l'aiguille, inventé par Buffon, Chacune de ces dix opérations définit Le premier thème facile simule les
illustre bien le rôle des nombres aléatoires une relation différente entre un nombre élections politiques. Dans une grille rectan-
dans la simulation d'un processus, et les aléatoire et le suivant. Avant d'avoir effecti- gulaire, certaines cases sont initialement
ordinateurs se prêtent efficacementa ce jeu vement testé son algorithme, D. Knuth pré- bleues et les autres rouges ; les couleurs
: dans un ordinateur, ce n'est pas un canon voyait qu'il fournirait « une quantité illimitée sont réparties entièrement au hasard.
qui matérialise l'influence du hasard, mais de nombres incroyablement aléatoires ». À Chaque couleur représente l'opinion poli-
un générateur de nombres aléatoires. sa grande surprise, la première fois que tique de l'électeur qui habite dans cette
Comment un ordinateur, une machine l'algorithme fut exécuté par un ordinateur, case ; par exemple, I'une des couleurs
totalement déterministe, peut-il engendrer il convergea presque aussitôt vers le symbolise un électeur de droite et l'autre
des nombres aléatoires,non déterministes? nombre a dix chiffres 6 065 038 420 qui, un électeur de gauche.
La réponse est justement que l'ordinateur par une extraordinaire coïncidence, se À chaque signal d'une horloge, on
ne peut pas le faire, mais qu'il peut, en reproduit lui-même par l'algorithme. choisit une case au hasard dans le tableau
revanche, foumir des nombres qui ont l'air D'après D. Knuth, la morale de cette et on réévalue l'intention de vote de l'élec-
aléatoires. Prenez un nombre quelconque, histoire est simple, sinon évidente : « Pour teur correspondant de la façon suivante :
multipliez-le par m, ajoutez k et prenez le obtenir des nombres au hasard, il vaut on choisit au hasard l'un des huit voisins de
reste de la division par p. Répétez l'opération mieux ne pas choisir une méthode au cet électeur et on suppose que l'électeur se
à partir de ce demier résultat Un tel algo- hasard. II faut s'appuyer sur une « théorie ». rallie à l'opinion de ce voisin, quelles que
rithme débite des nombres pseudo-aléa- Si les méthodes purement numériques soient sesconvictions politiques.
toires, mais tôt ou tard, la séquence finit par pour engendrer des nombres aléatoires La grille est refermée sur elle-même en
se répéter,car, dans la division par p, il n'y a échouent, on pourra toujours s'inspirer une structure semblable à celle du tore : le
que p restes possibles.En outre, à moins de d'une suggestion faite autrefois par Alan bord du haut de la grille se raccorde avec
choisir avec beaucoup de soin les nombres Turing, qui avait pensé à utiliser l'émission celui du bas, et celui de gauche avec celui
m, k et p, il arrive que les nombres pseudo-d'une source radioactive. Mais rien n'est de droite, de sorte que tout électeur habi-
aléatoires fournis par cet algorithme exhi- plus efficace (et pratique !) que le bon tant sur un bord a trois voisins qui habitent
bent des périodicités,ce qui est incompatible vieux dé de casino. sur le bord opposé (excepté ceux qui habi-
avec le caractère aléatoire d'une suite. D'un point de vue philosophique, il tent dans les coins, qui ont deux voisins
En raison de ces inconvénients, les est paradoxal que les nombres aléatoires, sur chacun des deux bords opposés cor-
théoriciens de l'informatique se sont effor-la plus pure expression de notre igno- respondants et un voisin au coin diagona-
cés de faire mieux. 11y a des années, rance, nous aident à comprendre des sys- lement opposé). Après chaque change-

1. Mesure de l'aire d'un étang par un tir de canon aléatoire. 2. Une étape du jeu des élections.
3. Franchissement de la porte par les zombies. Distribution des intervalles entre deux traversées, ou distribution de Poisson.

ment des intentions de vote, si l'on veut L'ensemble des opérations décrites ci-des- I'utilise pour obtenir les heures d'arrivee
suivre pas a pas !'état du corps électoral, sus est inclus dans une boucle. On a intérêt des dients. La méthode de la porte a zom-
on peut procéder à une élection, mais ce à définir le nombre maximal de répétitions bies est beaucoup plus facile à expliquer et
n'est pas indispensable. de la boucle comme un paramètre donne egalement des resultats réalistes.
Quand on fait évoluer ce modèle sim- variable, à la disposition de l'expérimenta- La porte à zombies est une fente de
pliste du corps électoral, il se passe des teur ; on peut l'appeler, par exemple, N et largeur I dans un mur impénétrable. Des
choses curieuses. Tout d'abord, on voit introduire la valeur de N à l'aide du clavier, milliers de zombies marchent continuelle-
apparaitre dans la grille de grands « fiefs » lorsqu'on lance l'exécution du programme. ment vers ce mur et on suppose qu'à
politiques, où tout le monde vote dans le Le jeu s'arrête alors automatiquement au chaque seconde, I'un d'eux atteint le mur
même sens. Ces blocs se déplacent à bout de N évaluations d'opinion. La même en un point aléatoire. Les zombies chan-
l'intérieur de la grille et pendant quelque remarque s'applique aux autres pro- ceux se trouvent alors en face de la porte
temps les deux tendances s'affrontent. grammes décrits dans cet article. et la franchissent, les autres se heurtent au
Enfin, le système bipartite s'effondre : tout On visualise facilement la carte électro- mur (voir la figure 2). Supposons que la
le monde vote de la même façon. Notre rale en incorporant les instructions corres- fente représente la porte d'entrée d'une
grille, totalement démocratique a l'origine, pondantes dans la boucle. II suffit d'utiliser banque : la distribution des instants d'arri-
est devenue totalitaire. Doit-on en conclure deux couleurs, par exemple le rouge et le vée des zombies qui réussissent à la fran-
que la démocratie contient le germe de sa bleu ; l'effet est très frappant. Si vous n avez chir, que nous appellerons des traversées,
propre destruction ? Voila une belle ques- pas été dégoûtés par révolution totalitaire ressemble beaucoup a la distribution des
tion philosophique. inhérente a ce jeu, je vous conseille de instants d'arrivée de clients reels dans la
On programme simplement les princi- mettre en oeuvre une version appelée le banque. Pour régler la fréquence
pales caractéristiques de ce modèle. Dans jeu de l'anti-vote. Dans cette nouvelle ver- moyenne des traversées à la valeur voulue,
un tel programme, la circonscription élec- sion, l'électeur tiré au sort adopte systémati- il suffit de faire varier la largeur de la fente.
torale est représentée par un tableau à quement l'opinion contraire de celle du voi- Dans mon programme de simulation
deux dimensions. Une brève séquence de sin sélectionné. La démocratie survit-elle des temps d'arrivée a ! a banque-simulés
calcul tire au sort trois entiers aléatoires, dans ces nouvelles conditions ? par les traversées des zombies-, la lon-
dont les deux premiers désignent la ligne gueur totale du mur est égale a une unité.
et la colonne de l'électeur choisi, et le troi- Zombies et distribution Pour simuler l'intervalle de temps écoulé
sième le voisin choisi parmi les huit. Cette de Poisson entre deux arrivées successives d'un zom-
séquence se répète à chaque unité de bie sur le mur, j'utilise une boucle qui
temps de l'horloge. Pour construire ces Le deuxième thème exploite un pro- commence par l'instruction WHILE,en fran-
trois nombres aratoires, il faut d'abord cédé appelé « la porte a zombies ». çais « tant que » (chaque exécution des ins-
multiplier par une constante le nombre Imaginez que vous surveilliez les gens qui tructions de la boucle représente une unité
décimal fourni par la fonction RND, puis franchissent la porte d'une banque. de temps, par exemple une seconde, dans
prendre la partie entière du resultat (fonc- Chaque client a sûrement de bonnes rai- le monde des zombies).
tion INT ou équivalent). Lorsque, par sons personnelles d'arriver a un instant À chaque passage dans la boude, l'ordi-
exemple, la grille possède 50 lignes, on précis et, si l'on connaissait ces raisons, on nateur fait appel à la fonction RND,qui déter-
calcule le numéro de ligne, i, à l'aide de saurait simuler exactement l'instant de son mine alors le point d'arrivée d'un zombie.
l'instruction : i F INT (50 * RND). arrivée. Cependant, cette information n'est Lorsque ce zombie n'arrive pas devant la
La même méthode permet d'obtenir le évidemment pas accessible et pour simu- fente, l'ordinateur augmente d'une unité la
numéro de colonne, j. Pour désigner au ler, malgré tout, l'arrivée des clients, beau- valeur d'un compteur et reprend l'exécution
hasard un voisin, on tire un entier aléatoire coup de programmes emploient une fonc- au début de la boucle. Ainsi, tant qu'aucun
entre 0 et 7 indus (n'oubliez pas de numé- tion mathématique particulière, appelée zombie n'arrive devant la fente, le « chrono-
roter les voisins). Enfin, on remplace la distribution exponentielle décroissante (ou mètre » -le compteur-tourne. Vous avez
valeur contenue dans la case (i, j) du distribution de Poisson). II me faudrait au intérêt, pour des raisons de commodité, a
tableau qui représente la grille par la valeur moins une page pour expliquer à la fois ce supposer que la fente se trouve entre le
lue dans la case voisine sélectionnée. qu'est cette distribution et comment on point 0 (à l'extrême gauche de la ligne) et le
point de coordonnée L En revanche, lorsque une boucle principale, et on insère le
la valeur du nombre aléatoire, c'est-à-dire la nombre de répétitions de cette boucle à
position du zombie, est comprise entre ces l'aide du clavier. La boucle commence par
deux valeurs, l'exécution du programme un branchement conditionnel qui compare
reprend a l'extérieur de la boude : le chro- les valeurs de ta et ts, c'est-à-dire déter-
nomètre s'arrête et l'ordinateur enregistre le mine la nature du prochain événement ou
temps écoulé entre deux traversées. événement critique : lorsque ta est infé-
Le délai moyen entre deux traversées rieur à ts, il s'agit d'une arrivée et sinon, il
successives est égal à 1/1 secondes. Par s'agit d'un départ.
exemple, pour/= 1/10, ce délai vaut Dans le premier cas, I'heure de c aug-
1/ (1/10) ; autrement dit, en moyenne, un mente de ta et ts est diminué de la même
zombie franchit la porte toutes les dix quantité. En outre, q augmente d'une
secondes. Cependant, comme le pro- unité, puisque la file comporte à présent
gramme donne une meilleure simulation un nouveau dient. Enfin, le programme fait
quand I est très petit les intervalles entre tra- appel au programme des zombies pour
versées successives risquent de devenir trop déterminer) la nouvelle valeur de ta, c'est-à-
longs. C'est pour cette raison qu'il peut être dire l'instant d'arrivée du prochain client.
utile, dans certains cas, de choisir une autre Si l'on avait trouvé, a l'entrée de la
unité de temps et de supposer, par boucle, que ta n'est pas inférieur à ts
exemple, que les zombies atteignent le mur (c'est-à-dire si le prochain événement avait
tous les dixièmes de seconde. été le départ d'un client), on aurait effectué
'Pour déterminer la valeur de l qui 4. Organigramme de simulation de les mêmes opérations, mais en permutant
simule bien le phénomène que vous voulez files d'attente. le rôle de ta et ts. Dans ce cas, le branche-
recréer, il vous suffit d'ecrire que le délai ment a l'issue du test provoque l'exécution
moyen souhaité entre deux traversées est des instructions correspondantes. La lon-
égal a 1/ (10l), puis en déduire la valeur de 1. théorie mathématique des files d'attente, la gueur de la file d'attente diminue (q
Je vous ai dit précédemment que vous pou- longueur moyenne d'une telle queue n'a devient q-1) et le programme des zom-
viez placer la fente entre les points 0 et l, pas de limite finie. Je l'ai d'ailleurs constaté, bies fournit la prochaine valeur de ts.
mais certains générateurs de nombres aléa- parfois, en faisant la queue dans une À la fin de la boucle, les deux branches
toires donnent parfois de mauvais résultats grande surface le samedi après-midi. de programme se rejoignent à un test sur
pour les très petites valeurs. Si c'est te cas, On peut écrire un programme de la valeur de q. Si q est nul, il faut attendre
vous pouvez recaler la fente, par exemple, simulation d'une file d'attente simple, où l'arrivée du client suivant pendant un
entre les points 0, 5 et 0, 5 +/. l'on simule l'arrivée des gens au moyen du temps égal a ta ; l'exécution repart donc
La distribution des délais entre traver- programme des zombies. Au début de la dans le segment correspondant au premier
sées consécutives fournie par ce pro- queue se trouve un employé chargé de branchement du test initial. Dans le cas
gramme est intéressante. Pour représenter servir les clients ou du moins d'essayer de contraire, t'exécution reprend au test initial
cette distribution, il suffit d'insérer la boucle le faire. Dans les programmes de simula- (qui compare ta et ts).
WHILE à l'intérieur d'une autre boude, qui tion, on adopte souvent l'hypothèse que Ce programme est plus long que les
compte combien de fois le délai est égal à les temps nécessaires au service des clients précédents, mais il est encore assez court
une des valeurs possibles (les valeurs pos- sont distribués de la même façon que les pour être qualifié de « facile ». Vous avez
sibles sont les multiples de l'unité de temps intervalles qui séparent l'arrivée de deux intérêt a vous laisser le loisir de spécifier,
choisie). Ce comptage vous permet de clients successifs. au début, le temps moyen écouté entre les
construire l'histogramme de la distribution. Cette hypothèse est raisonnable : il arrivées de deux clients successifs, ainsi
Sur la figure 2, on a représenté un histo- vous faut très peu de temps pour déposer que la durée moyenne de passage au gui-
gramme caractéristique ; on a également de l'argent au guichet d'une banque, mais chet ; cela vous facilitera la vérification des
dessiné la courbe représentative de l'expo- pour obtenir de l'employé des explications résultats essentiels de la théorie des files
nentielle décroissante caractéristique de la au sujet d'une somme d'argent qui a dis- d'attente.
Notamment, lorsque le temps
distribution de Poisson, pour faciliter la paru de votre compte, il vous en faut par- moyen entre deux arrivées est supérieur
comparaison. On peut imaginer beaucoup fois beaucoup plus. J'utilise donc aussi le au temps moyen de service, la longueur
d'applications de la méthode de la porte à programme des zombies pour déterminer moyenne de la queue est finie. Dans le cas
zombies. Je n'en citerai qu'une seule, a les temps de service des clients. contraire, la longueur moyenne de la
Le programme gère l'écoulement du infinie la voit effectivement
propos du troisième thème facile. queue est : on
temps par la méthode dite des événe- s'allonger sans cesse. Dans le cas où les
ments critiques. Une variable c joue le rôle deux moyennes sont strictement égales, la
Les files d'attente
d'horloge : sa valeur représente toujours longueur moyenne de la queue n'est ni
Ce dernier thème vous fournira l'heure du prochain événement, que ce finie ni infinie ! Comment est-ce possible ?
matière à réflexion lorsque vous serez obli- soit l'arrivée ou le départ d'un client. On a On peut trouver ta réponse en observant
gés d'attendre dans une queue. Si le également besoin de trois autres variables : la queue pendant quelques heures ou,
départ des premières personnes de la file ts, la durée du service en cours, to, le mieux, en réfléchissant quelques minutes.
s'effectuait, en moyenne, au même rythme temps d'attente avant l'arrivée du prochain
que l'arrivée des dernières, ta longueur de client et q, la longueur de la queue. Alexander Dewdney travaille au Département
la file ne serait-elle pas plus ou moins Au début du programme, ts et ta sont d'informatique de l'Université
constante ? Apparemment non. D'apres la nuls, et q vaut 1. Le programme comporte de l'Ontario occidental, au Canada.
LE HASARD MAITRISE

Comment les lois


du hasard
sont-elles utilisées
dans notre quotidien ?
Les pratiques financières,
techniques
d'aide à la décision,
les assurances
et l'épidémiologie
profitent des progrès
de l'analyse du hasard.
Les marchés aléatoires

Jean-Philippe Bouchaud et Christian Walter

La théorie financière moderne reconnaît au hasard ristes, appelés « fondamentalistes »,y


croient aussi ; ils analysentla situation
un rôle important dans l'évolution des marchés, économique desentrepriseset tententde
prédire les évolutions à moyen terme de
et elle en précise la forme : la loi normale ne convient pas leurs bénéfices.
Les analystes,qu'ils soient financiers
à la description des fluctuations catastrophiques ; ou techniques, poursuivent le même
objectif : la prévision. Les secondsten-
elle pourrait être remplacée par une distribution de Lévy. tent de la déduired'un matériauunique :
la successiondescours passés.Comment
déduire de la seule trajectoire du cours,
ou de retraitementsstatistiques de cette
ue le hasard soit considéré suite de résultats-aussi longue soit- trajectoire, des figures répétitives, des
d'un point de vue subjec- elle-ne permet pas de déceler la indications sur les cours à venir ? Une
tif, comme un aveu de moindre régularité conduisant à deviner abondante littérature détaille les mul-
notre ignorance, ou d'un le résultat suivant, ni même à en réduire tiples recettes de cette chiromancie des
point de vue objectif, l'incertitude. Autrement dit, aucune cours. Malheureusement la plupart
comme un élément de la stratégiegagnantene peut être élaborée. d'entre elles ne résistentpasà une étude
nature, il est associé à Dans certains cas toutefois, le systématiqueque motive la questioncru-
notre impossibilité de prédire l'avenir hasard,moins radical ou plus régulier, ciale : si l'on suit ces recettesà la lettre,
avec précision. Pour les mathématiciens se laisse apprivoiser. En météorologie gagne-t-on vraiment de 1'argent ?
du siècle dernier, Antoine-Augustin par exemple, des prévisions à court Certainesversions plus élaborées,inté-
Cournot, puis Henri Poincaré, le hasard terme sont possibles (en plus d'évi- grant des idées qui proviennent, entre
résulte de la complexité : quand les dentes récurrences saisonnières). Le autres, de la « théoriedu chaos »,sem-
causes sont multiples, d'imperceptibles cours de la Bourse est-il de cette nature? blent néanmoinsfonctionner, au moins à
perturbations engendrent de grands Les marchés financiers admettent-ils moyen terme, comme en témoignent les
effets. La moindre imprécision prend une prévisibilité, même limitée ? Cette profits réguliers de quelques gestion-
rapidement des proportions énormes et question, aussi ancienne que la théorie nairesqui les utilisent avecrigueur.
rend illusoire une relation stricte de financière elle-même (un siècle), ravive La seconde école de pensée de la
causeà effet. le rêve alchimiste : en effet, la décou- finance postule l'imprévisibilité des
Ainsi, depuis un siècle, on a aban- verte de subtiles régularités dans les fluctuations boursières-autrement dit,
donné le rêve déterministe de Laplace. variations boursièrespermettrait à ceux un profit durablement supérieur à la
On a entrepris d'aborder l'aléatoire à qui en auraient connaissancede trans- moyenne du marché lui-même serait
bras le corps, d'en faire l'observation et former le plomb en or. impossible. Ce sont principalement des
la taxinomie, d'inventer des méthodes universitaires qui ont voulu montrer
adaptéesà sa description. Finalement, La prévisibilité expérimentalement(par une analysesta-
un constat inattendu s'est imposé : le tistique des cours passés)la propriété de
et la finance moderne
hasard est multiforme, l'incertitude est non-prévisibilité du comportement des
graduelle ; de surcroît, une nouvelle L'existence d'éventuelles tendances marchés ; ils la nomment efficience des
forme de prévisibilité est apparue, qui desmarchésfinanciers-et donc de gain marchés. Ce concept d'efficience des
n'est plus de nature déterministe mais systématique en résultant-divise les marchésest la clé de voûte de la théorie
statistique. Les marchés financiers acteursdes marchés en deux groupes : financière moderne et des méthodesde
illustrent à merveille ces notions ; ceux qui croient en la prévisibilité des gestion automatique des fonds, dont
inversement, on ne s'étonne plus de cours et ceux qui n'y croient pas. On l'objet est de reproduire le mouvement
l'influence toujours croissante des trouve dans la première catégorie les d'un indice représentatifdu marché.
méthodes statistiques dans la gestion analystes « techniques » ou « chartists », Entre les analystestechniqueset les
desoutils financiers modernes. appelésainsi car ils fondent leur analyse partisans de l'efficience forte des mar-
Le prototype du phénomène aléa- sur la forme du graphique des cours chés,c'est-à-direde leur non-prévisibilité
toire, dont l'intuition est immédiate, est passés (chart en anglais). Pour eux, absolue,le dialogueest parfois difficile.
le jet de dés, la roulette ou le Loto. Le l'existence de régularités dans le hasard Comme nous allons le voir, cette diffi-
résultat est un nombre entier : 1, 2, 3, 4, ne fait aucun doute ; il suffit de les culté résulte, entre autres, d'une mau-
5 et 6 pour le dé. Si aucune imperfec- détecter... Les analystesfinanciers clas- vaisespécificationde la forme de hasard
tion ne vicie le jeu, l'observation d'une siques et les économistes conjonctu- choisiepar lespartisansdel'efficience.
L'importance c'est que les grands mouvements de sible de constituer un portefeuille « opti-
de la forme du hasard hausse ou de baisse sont plus rares que mal » en exprimant le risque à l'aide de
les petits ; mais combien plus rares ? l'écart-type des fluctuations ; on dit alors
Le concept d'efficience étant défini, Cette question est fondamentale, car ces que le portefeuille est « efficient en
comment peut-on l'exploiter ? En modé- événements rares sont précisément les moyenne-variance » (la variance étant le
lisant le hasard financier. Pour illustrer plus redoutés. Toute étude de risques carré de l'écart-type). Sa proposition lui
l'intérêt d'une approche mathématique relève de la même interrogation : quelle a valu le prix Nobel d'économie en
de la finance, nous allons évoquer trois sera l'amplitude de la crue ou du trem- 1990. Malheureusement, comme nous le
préoccupations majeures : la première blement de terre centenaire, ou encore du verrons, il existe des formes du hasard
vise à prévoir et à contrôler les risques prochain krach financier ? La réponse pour lesquelles l'écart-type ne constitue
catastrophiques, la deuxième concerne dépend précisément de la forme caracté- pas une mesure adéquate du risque.
les risques quotidiens, la troisième ristique du hasard régissant les variations Depuis 20 ans, l'apparition de nou-
considère les assurances des risques à boursières, c'est-à-dire, en pratique, de la veaux instruments financiers, bien plus
moyen terme, les « options ». forme de la distribution des variations élaborés que les actions, renforce la
La différence cruciale entre les mar- successives des cours (voir la figure 2). nécessité d'une approche mathématique
chés financiers et le jeu de dé vient de ce La connaissance détaillée de la adaptée. Un exemple d'importance, vu
que l'incertitude sur l'événement finan- forme des fluctuations boursières a une les sommes considérables que cet instru-
cier est infinie : alors que seules six pos- importance plus quotidienne. Imaginons ment engage, est celui des options. Une
sibilités sont envisageables lorsque le qu'un gestionnaire de fonds souhaite option peut s'analyser comme une assu-
petit cube entame sa course chaotique, la réaliser un compromis entre performance rance contre les fluctuations boursières.
progression ou la chute d'une valeur et régularité et cherche à se constituer un C'est un contrat qui donne le droit (mais
financière est illimitée. Le hasard finan- portefeuille optimisé sous les critères de non l'obligation) d'acheter ou de vendre
cier est continu : la description de la pro- risque et de rentabilité. Comment pro- de façon anticipée un actif quelconque
babilité des événements possibles est cède-t-il ? Dans les années 1950, (matières premières, devises, actions,
donc plus subtile. Tout ce qu'on sait, Harry Markowitz a montré qu'il est pos- etc.) à un prix fixé à l'avance.

1. LES FLUCTUATIONS D'UNE VALEUR EN BOURSE sont extrême- (en lançant une pièce de monnaie) ; la loi de probabilité d'un tel
ment irrégulières. On compare ici l'évolution réelle de la valeur tirage au sort tend vers une loi de Laplace-Gauss. Cette loi ne
de la Livre Sterling en 1992 (en rouge) à l'évolution d'un tirage au décrit pas l'évolution du marché financier, où les fluctuations
sort (en bleu) : on a obtenu cette courbe en choisissant au hasard, d'une cote àsuivante
la peuvent être beaucoup plus grandes
a chaque pas, l'augmentation ou la baisse de la valeur d'une unité qu'une unité.
le contexte des options que le mathéma-
ticien Louis Bachelier a, le premier, for-
mulé ce qui allait devenir la théorie du
mouvement Brownien, en 1900, cinq
ans avant Einstein ! Il a cependant fallu
attendre 1973 pour que Fisher Black
(qui vient de disparaître) et Myron
Scholes expriment la solution complète
du problème, et donnent à des milliers
d'opérateurs une base rationnelle de
choix de stratégie.
Leur calcul est pourtant fonde sur une
hypothèse irréaliste, mais commode d'un
point de vue mathématique : ils suppo-
sent que les fluctuations des cours sont
« gaussiennes ». Nous avons dit que la
variation d'un actif peut prendre des
2. DEUX FORMESDU HASARD : la distribution de Laplace-Gauss (en bleu) et celle de Lévy. valeurs arbitraires continues dont il faut
Les fluctuations du marché gaussien sont « moyennes », et on les earaetérisepar un écart- estimer la probabilité. La loi de Laplace-
type. En revanche, un marché de Lévy est « calme », sauf quand il bouge beaucoup : Gauss, en forme de cloche, est la plus
les fluctuations importantes ont une probabilité non négligeable.
connue des lois de probabilité pour des
variables continues. Véritable « reine des
statistiques »,cette loi est universellement
Considérons une option d'achat sur le dollars à 4, 98 francs, elle peut en utilisée, en finance comme ailleurs !
dollar à cinq francs. Une entreprise qui reverser à l'acheteur de l'option sans Une caractéristique remarquable de
importe des biens facturés en dollars a perte. La couverture des options cette loi est la rapidité de sa décrois-
intérêt à ce que le cours du dollar reste nécessite une approche financière spé- sance quand on s'écarte de son centre,
bas. Elle peut acquérir une option cifique, et requiert une modélisation ce qui signifie que les grandes dévia-
d'achat qui l'assure contre la hausse du de la forme du hasard. tions sont rares-tellement rares que si
dollar au-dessus du prix d'exercice de les cours étaient réellement gaussiens, le
l'option (cinq francs dans l'exemple, Le hasard gaussien krach de 1987 (et beaucoup d'autres
voir la figure 3). Si le dollar reste sage- plus petits dont la mémoire collective
est bénin
ment au-dessous de cette limite, l'assu- n'a pas retenu l'occurrence) n'aurait pas
rance contractée ne sert pas. En Le problème de l'appréciation et de dû exister, même si la première place
revanche, si le prix du dollar augmente la couverture des options est remar- boursière avait été ouverte par Lucy.
brutalement, la société importatrice quable : il est à la fois bien posé et non Dès 1962, Benoît Mandelbrot signalait
ayant acheté les options n'en supporte trivial, même si l'évolution du cours est que la loi de Laplace-Gauss sous-estime
qu'une partie des conséquences : la imprévisible... C'est précisément dans considérablement les risques extrêmes ;
hausse limitée à cinq francs. selon son expression, le hasard gaussien
L'extraordinaire explosion du mar- est « bénin »(voir Hasard bénin, hasard
ché des options tient au fait que bon sauvage, par Benoît Mandelbrot, dans ce
nombre de ces options sont devenues dossier). Il a alors proposé une descrip-
« négociables », c'est-à-dire reven- tion d'un hasard « malin », que nous
dables à tout moment à un tiers. Si exposerons plus loin.
l'entreprise décide de ne plus se proté- Malgré cet avertissement maintes
ger contre la hausse du dollar (elle fois répété, la loi de Laplace-Gauss a la
estime par exemple que le dollar va peau dure. Elle présente l'avantage de
baisser), elle peut revendre l'option et procurer un formalisme extrêmement
encaisser la prime correspondante. puissant-celui du calcul différentiel
Sur l'option proprement dite, la stochastique, qui généralise à des pro-
question qui se pose est double : sur cessus aléatoires le calcul différentiel
quel prix doivent s'entendre les parties ordinaire. Grâce à ce formalisme,
contractantes ; quelle stratégie doit l'obtention de la formule de Black et
suivre l'émetteur de l'option (« I'assu- Scholes pour le prix des options est
reur ») en fonction du mouvement du assez aisée. En outre, la loi gaussienne a
cours ? À la différence des compagnies 3. L'OPTION D'ACHAT est ici une assu- une vertu particulière, la stabilité : à un
d'assurances, qui ne peuvent rance contre les hausses trop fortes d'une changement d'échelle près, les fluctua-
qu'attendre la catastrophe en prodi- valeur. Par exempleune option sur le dollar tions horaires, quotidiennes, hebdoma-
à cinq francs permet de s'affranchir du sur-
guant des conseils de prudence, l'éta- coût conséquent à une hausse du prix du
daires, mensuelles, etc. sont toutes
blissement bancaire émetteur de décrites par la même loi. Cette stabilité,
dollar au-dessus de cinq francs (courbe
l'option a intérêt à réagir avant que le rouge). Lorsque le prix du dollar reste sous directement liée au théorème « central
cours n'ait dépassé sa valeur fatidique. la barre des cinq francs, l'assurance limite », est l'argument souvent avancé
Si la banque parvient à acheter des contractéene sert pas (courbe verte). pour justifier l'utilisation de statistiques
gaussiennes (voir La loi normale, reine
des statistiques, par Aimé Fuchs, dans
ce dossier). Plus que la normalité des
distributions des rentabilités boursières,
leur stabilité est une propriété indispen-
sable à la théorie financière moderne.
Ainsi c'est surtout parce qu'elle appar-
tient à la famille des lois stables que la
loi de Gauss présente un grand attrait
pour la théorie financière.
Le résultat de Black et Scholes est à
la fois remarquable et troublant : dans un
monde gaussien, l'émetteur de l'option
peut suivre une stratégie « idéale », oùle
risque est strictement nul. Les mouve-
ments de la valeur sur laquelle porte
l'option ont beau être imprévisibles, on 4. EXEMPLE DE DISTRIBUTION HIÉRARCHISÉE. En dix ans, la valeur de l'indice S&P500 a
peut gérer un portefeuille contenant à la augmenté de 16, 2 pour cent par an en moyenne.Cette hausse résulte d'un mouvement aléa-
fois cette valeur et l'option correspon- toire : certains jours ouvrables se terminent en hausse, d'autres en baisse,
avecune amplitude
dante de façon à annuler l'incertitude sur variable. On s'aperçoit que très peu de jours contribuent à la performance totale de l'indice
;
le résultat global ! ainsi, 80 pour cent de la performance totalede l'indice résulte des 40 meilleurs jours (pour
lesquelsla haussede l'indice a été la plus importante), soit a peine 1,6 pour cent des 2 526
jours ouvrables. Or ces 40 jours de forte variation du marché ne sont pas pris en compte par
Le hasard financier
une descriptiongaussiennedu hasard ; ils correspondent aux queues épaisses de Pareto.
est bien plus malin !

Hélas, cette belle construction se Curieusement, la même réticence a Dans tous ces cas, le cumul des
lézarde dès qu'on cherche à décrire de longtemps entravé l'utilisation des lois contributions des éléments classés par
façon plus réaliste les fluctuations de de Lévy en physique. Finalement, celles- importance suit une loi de puissance.
grande amplitude, qui correspondent ci se sont imposées par l'expérience. De Les premiers éléments contribuent
aux « queues » de distributions. Nous nombreux travaux théoriques ont en beaucoup plus que les suivants : les
avons vu que ces « chocs »ont une pro- outre éclairé la nature et la signification grandes valeurs de la distribution repré-
babilité négligeable dans le cas d'une de cet écart-type infini. La proposition sentent l'essentiel de la valeur totale.
distribution de Laplace-Gauss. Pourtant de B. Mandelbrot (certes quelque peu À cette statique parétienne correspond
ils existent, et leur présence empêche la amendée) a été confirmée ces dernières une dynamique parétienne : les varia-
construction d'une stratégie à risque années. Ainsi le hasard peut devenir tions d'un marché, semblent aussi hié-
nul. On doit alors définir une stratégie à « malin », ou « sauvage »les; fluctuations, rarchisés selon une loi de puissance de
risque résiduel minimal-stratégie opti- tempérées dans le cas gaussien, sont par- type Pareto (au moins dans une certaine
male caractéristique de la distribution fois extrêmes et catastrophiques. gamme de variations). L'omniprésence
statistique des fluctuations. À quelle réalité la forme du hasard des lois de puissance en économie pose
Quelle distribution de probabilité financier correspond-elle ? Les queues d'ailleurs une question intéressante :
décrit-elle fidèlement les risques de distribution des lois stables non gaus- que signifie l'émergence spontanée de
extrêmes dans les marchés financiers ? siennes appartiennent à la famille des telles structures hiérarchisées dans les
B. Mandelbrot a proposé d'utiliser des lois de puissance de type Pareto (du activités humaines ?
lois stables non gaussiennes, que Paul nom de l'économiste italien Vilfredo Les lois stables non gaussiennes de
Lévy a découvertes dans les années 1930. Pareto, mort en 1923). B. Mandelbrot Paul Lévy présentent des queues de dis-
Ces lois décroissent lentement et rendent avait d'ailleurs nommé « parétien » le tribution parétiennes. Elles décrivent
compte des « queues épaisses » observées hasard sauvage, par opposition au par conséquent, de manière réaliste, le
sur les marchés. En fait, elles décroissent hasard gaussien. Or les lois de Pareto comportement des marchés. Cependant,
si lentement que l'écart-type, qui mesure expriment l'observation connue selon avec ces lois, l'écart-type n'est plus la
généralement l'amplitude des fluctua- laquelle « trèspeu possèdent beaucoup et bonne mesure du risque. On le remplace
tions, est... infini ! Cette divergence a beaucoup possèdent très peu ». Dans un par la probabilité d'une perte d'ampli-
perturbé bon nombre d'économistes, univers parétien, les contributions des tude donnée, ou probabilité de risques
pour qui l'écart-type était une notion fon- individus à la collectivité sont extrême- extrêmes. Ainsi, on ne pourra maîtriser
damentale. Elle a également effrayé les ment hiérarchisées. Cette loi est souvent ces risques extrêmes qu'après une révi-
financiers, qui fondaient toutes leurs observée en économie : ainsi quelques sion des théories classiques de la
techniques de couverture de risques sur la jours de bourse contribuent à l'essentiel finance. L'enjeu est de taille : mieux
mesure de la volatilité (égale à l'écart- de la performance de l'indice S&P500que toute régulation dirigiste, une
type). Une volatilité infinie représentait de la bourse New-Yorkaise (voir la meilleure appréciation des risques
alors un obstacle intellectuel majeur, un figure 4) ; un petit nombre d'entreprises financiers et donc des coûts qui leur
monstre dans la galerie des instruments contribue à la plus grosse part du cumul sont associés pourrait augmenter la sta-
financiers à risque (faussement !) des chiffres d'affaires ; ou encore, la bilité des places financières, encore
contrôlé. Du coup, la proposition de plupart des disques d'or vendus sont sous le coup des quelques débâcles
B. Mandelbrot a eu du mal à s'imposer. produits par quelques artistes. retentissantes de ces dernières années.
UNE STRATÉGIE ALEATOIRE votre choix. La probabilité qu'Andromède
soit dans la caveme du milieu est un tiers,
n'est-ce pas?
SURPRENANTE -C'est ce que vous m'avez dit.
-Bien. De sorte que la probabilité
d'être dans l'erreur est le double de celle
d'être dans le vrai. La probabilité que vous
lan Stewart
ayez raison est 1/3 et celle que vous ayez
tort est 2/3. D'accord?
Pie-gasemégalovolante, l'énorme pie
voleuse, vous révéler sansrisque. -Bien sûr!
se posa en douceur sur le -Si vous insistez. Je choisis... que... -Nous savons que vous avez deux
bras de Persée,fils de Zeus et de Danaé.Le Andromède est dans la caverne du milieu. fois plus de chancesd'avoir tort que d'avoir
malheureux roi de Tirynthe recherchait la -Excellent, dit la pie. Je puis, à présent, raison. Si vous changez pour l'autre
belle Andromède. vous dire qu'il y a une gorgone dans la caveme,vous aurez deux fois plus souvent
- « Bizarre, dit-il à Pie-gase, je
pensais la caveme de gauche. » Persée jeta son glaive raison que tort. En d'autres termes, votre
trouver enchaînée àun rocher. sur le sol pour trépigner plus aisément. probabilité de localiser Andromède est de
-Je gage qu'elle l'est, dans une de ces — « Enquoi cela m'aide-t-il ? 2/3 si vous changez et seulement de 1/3 si
trois cavemes,dit Pie-gase. -Je pense que cette information pour- vous ne changez pas. » Persée s'affaissasur
-Horreur, s'exclama Persée, les rait vous inciter a changer d'avis. le sol, la têtedans sesmains.
obstruées par des rochers! -Pourquoi donc? II y a nécessairement ¿)
entréessont - « pie perfide, vous savez combien
-Attachez le ceinturon magique une gorgone dans au moins une des les héros ont peu de goût pour les mathé-
d'Hippolyte a ma queue, d'un côté, et à un cavemesque je n'ai pas choisie.En quoi me matiques! Comment puis-je savoir si votre
rocher, de l'autre, et Sésamecherra,affirma serait-il utile de choisir la caveme de droite raisonnement est correct?
Pie-gase. si vous me dites seulement qu'il y a une -Vous pourriez essayerde prendre un
-D'accord, dit le héros. Commençons gorgone dans la caverne de gauche? Ce avis autorisé, suggéra la pie.
par la première caverne. que j'ai besoin de savoir, c'est dans quelle -Non ! Les chances doivent être
-Attention : vous oubliez quelque caveme se trouve Andromède ! égales. Vous avez éliminé une caverne ; il
chose,grommela la pie ! -Ainsi vous maintenez votre choix? m'en reste donc deux, parmi lesquelles je
-Quoi encore, ô pie rogue ? -Et pourquoi pas? Tout ce que vous dois choisir. Chacune est également pro-
-Andromde est dans une caverne, avez fait est de restreindreles possibilités.Je bable!
mais dans chacune des deux autres il y a sais a présent qu'Andromede est, soit dans -Ce n'est pas dans cet ordre que nous
une gorgone : dans rune Méduse, et dans la caverne du milieu, soit dans celle de avons opéré »,murmura la pie. Puis, elle
l'autre Sthéno, sa soeur jumelle, qui ont droite. La chance pour qu'elle soit dans celle ajouta a haute voix :- « Tant pie, vous avez
toutes deux le pouvoir de vous changer en que j'ai choisie ou dans celle de gauche, raison. Faitescomme bon vous semble!
pierre d'un simple regard. c'est 50-50. 11n y a donc aucun avantage a -C'est bien mon intention, affirma
-J'ai mon fidèle bouclier d'or, pour changer. Persée.II attacha la pie au rocher du milieu
renvoyer tout regard pétrifiant gorgonien à -Faites comme vous voulez, dit Pie- avec la ceinture magique d'Hippolyte. Le roc
sa propriétaire,répliqua Persée. gase, seulement... roula, libérant l'ouverture, et...
-Trop rouillé pour être efficace; heu- -Seulement quoi, cria Perséeexaspéré
reusement, nous les pies géantes, nous et qui se dirigeait vers la cavemecentrale? Faites
Je parie àvos jeux, Mesdames et Messieurs!
avons des pouvoirs cachés que nous a -Seulement vous auriez deux fois plus 3 contre 2 que Persée a tort.
conférés la déesse Déméter. Je sais dans de chancesd'être dans le vrai en changeant S'il est vrai que les chances de succèssont
quelle cavemeest Andromède. égales pour l'une ou l'autre
-Merveilleux ! Alors caverne, alorsvous gagnerez en
dites-le moi ! moyenne, mais bien sur, si la
-Par malheur, nous avons pie a raison, et si les chances
juré le secret et, si nous révé- d'échecsont de 2 contre 1, alors
lons notre savoir caché, la vous perdrez en moyenne. Et je
déesse Déméter nous entéri- serai heureux d'effectuer autant
nera (c'estson mot pour mettre d'essais que vous voudrez.
en terrine dans une amphore, à Rappelez-vousla regle :
20 mètres sous terre, et pour -Andromède est dans
l'éternité).Pie-gaseréfléchit l'une des cavernes. La probabi-
- « Malgré tout, je peux lité qu'ellesoit dans une caveme
vous aider. donnée est 1/3, quelle que soit
-Comment ? la caveme.
-D'abord, je peux vous - Persée choisit une
dire que la probabilité caveme.
qu'Andromède soit dans une -La pie désigne une des
quelconque des cavemesest un deux autres cavernes et lui dit
tiers. À présent, vous pouvez (sans mentir) qu'elle abrite une
choisir une caveme et nous ver- gorgone.
rons alors ce que je pourrai 1. Persée, qui cherche Andromède, est conseillé par Pie-gase. -Alors Persée peut choisir
I'autre caveme. S'il conserve son choix ini- dansRécemment ce problème fit grand bruit «11y a assez de gens qui ignorent les
tial, je parie a 3 contre 2 qu'il a tort : ainsi, si les journaux américains. Une mathématiques de par le monde ; aussi
Andromede est dans la caveme choisie par dame nommée Marilyn vos Savant, qui n'est-il pas nécessaire que le Ql le plus
Persée, je vous donne 3 francs, mais si c'est apparait dans le livre Guinness des Records élevé contribue a ta propagation de l'igno-
une gorgone, vous me donnez 2 francs. du Monde comme ayant le plus grand Ql rance. Honte sur vous ! »
Acceptez-vous l'arnaque ? Inscrivez jamais enregistré, tient une chronique « Votre réponse est incorrecte, mais si
votre décision sur un morceau de papier. régulière appelée Demandez à Marilyn, qui cela peut vous consoler, beaucoup de
Les chances de Persée sont-elles 1/2, qu'il parait simultanément dans plusieurs cen- mes collègues universitaires ont donné,
change ou non son choix (c'est ce qu'il taines de journaux américains. Marilyn comme vous, une réponse idiote ! »
pense) ou sont-elles de 2/3 s'il change et de posait la même question, mais, au lieu de Ce a quoi Marilyn répliqua que sa
1/3 sinon (comme la pie l'affirme) ? Si Persee cherchant Andromède, elle décrivait réponse était correcte. On a représenté
Persée a raison, vous gagnez ; si la pie a rai- un candidat d'un jeu télévisé qui devait sur la figure 3 une des diverses justifica-
son, je gagne. choisir une porte parmi trois. Derrière l'une tions qu'elle proposa. Supposons (pour
11est facile d'écrire un programme d'elles est le premier prix-une voiture et, simplifier le raisonnement) que vous choi-
d'ordinateur qui simule le problème et de derrière les deux autres, sont des caram- sissiez la caverne 1. II y a alors trois possi-
l'exécuter un grand nombre de fois en bars. Quand le candidat a choisi, le présen- bilités, chacune également probable
comptant combien de fois Persée gagne et tateur désigne une des deux portes res- puisque, comme la pie nous l'a dit, la pro-
combien de fois il perd. Peut-être aimeriez- tantes et dit : « Il y a un carambar derrière babilité qu'Andromède soit dans
vous tenter la simulation avant de pour- celle-ci. » Le candidat doit-il alors changer n'importe quelle caverne est la même
suivre ? Je vais vous décrire un programme pour la troisième porte ? Marilyn expli- quelle que soit la caveme. Les caractères
analogue où, au lieu d'utiliser un ordinateur, quait, tout comme Pie-gase que les en rouge désignent quelle caverne (ou
on utilise une table standard de nombres chances de gagner la voiture étaient multi- quelles cavernes) la pie peut désigner. Les
aléatoires (par exemple, la suite des déci- pliés par deux s'il changeait son choix. résultats sont indubitables : la stratégie de
males de # ou les Cambridge Elementary Citons quelques lettres de lecteurs, tous Persée gagne une fois sur trois, la ou celle
Statistical Tables). Voici la méthode. Seuls universitaires ou appartenant à des instituts de la pie gagne deux fois sur trois.
les chiffres 1, 2 et 3 seront utilisés, un de recherche : II y eut de nouvelles lettres :
chiffre correspondant à une caveme. Ces « Vous vous êtes fourvoyée ! En tant « Votre réponse est, à l'évidence,
chiffres 1, 2, 3 sont les seuls « acceptables ». que mathématicien professionnel, je suis contraire à la vérité. »
Je parcours la table des nombres aléatoires, très concerné par l'absence générale de « Pourrais-je vous suggérer de vous
notant les chiffres acceptables dans l'ordre sens mathématique du public. De grâce procurer un manuel standard sur les pro-
où ils apparaissent. confessez votre erreur et, à l'avenir, soyez babilités avant d'essayer de répondre a
1.Le premier chiffre acceptable A déter- plus perspicace ! » une question de ce type ? »
mine dans quelle caverne se trouve
Andromède.
2. Le second chiffre acceptable B déter-
mine le choix de Persée.
3. Le chiffre acceptable suivant C, diffé-
rent de A et de S, détermine ce que la pie
dit a Persée. II doit indiquer une caveme
abritant une gorgone (donc C n'est pas )
parmi celles que Persée n'a pas choisies
(donc C n'est pas B). Remarquez que A et
B peuvent être égaux, auquel cas la pie
choisira à son gré une des deux cavernes
abritant les gorgones.
4. En supposant que Persée maintient
son choix, notez s'il a raison ou tort
5. Pour comparer, supposez qu'il a
tenu compte de t'avis de la pie et opté
pour l'unique caverne autre que B et C ;
notez, d'autre part, si le choix corrigé
est correct.
6. Allez au chiffre acceptable qui suit
et répétez toute la procédure.
Nous avons fait le test (voir la figure 2) :
si la stratégie de Persée est de ne pas chan-
ger, il a raison 6 fois et tort 14 fois. S'il se
range à l'avis de la pie et modifie son
choix, il a raison 14 fois et tort 6 fois. La
pie doit être dans le vrai : il est préférable
de changer ! Le résultat est si contraire à
l'intuition que nombre de personnes
l'acceptent difficilement. 2. Résultats des tactiques de Persée obtenus avec une table de nom
Supposons que Persée s'en tienne à une
stratégie « choix maintenu ». Dès lors, il ne
peut modifier cette probabilité puisqu'il ne
fait rien. Donc l'idée que ses chances sont
50-50 est définitivement incorrecte. Et avec
un million de cavernes, la stratégie « choix
maintenu* ne lui donne qu'une chance sur
un million d'avoir raison.
Admettez-vous que, si Persée a tort, et si
la pie réduit ! es probabilités restantes a une
seule autre caveme, alors Persée aura raison
de changer son choix ? Une fois encore, je
l'espère. Andromède est bien quelque part.
Elle n'est pas dans une caveme désignée par
la pie et, si Persée a tort, elle n'est pas non
plus dans celle qu'il a choisie. Dans ce cas,
chaque fois que la stratégie « choix main-
tenu » mène à une mauvaise caveme, la stra-
tégie « choix modifié » doit conduire à la
bonne. De sorte que la probabilité que la
3. La stratégie où Persée modifie toujours son choix est meilleure. stratégie « choix modifié » soit gagnante est
1-1/3 = 2/3. Avec un million de cavemes,
« Combien vous faut-il de mathémati- Que jugez-vous plus vraisemblable : la probabilité que la stratégie de la pie soit
ciens courroucés pour vous faire changer Persée a choisi la bonne caverne (une gagnante est de 0, 999999.
d'avis ? » chance sur un million) ou ce n'est pas la Dire les choses avec d'autres mots est
Au total, 92 pour cent des lettres de bonne, et le comportement de la pie nous parfois intéressant. La pie donne a Persée
non-spécialistes donnaient tort à la pie et donne une indication autrement plus fiable ? une information utile : elle indique une
il en était de même de 65 pour cent des Si vous ne croyez ni les démonstrations, ni caverne où Andromède n'est pas. Persée
lettres provenant des universitaires. Qui les expériences, ni les analogies, ni les doit utiliser cette information pour amélio-
donc avait raison ? Marilyn vos Savant et contre-exemples, que vous faut-il donc ? rer ses chances : c est a quoi sert l'informa-
la pie, ou Persée et plusieurs milliers de tion ; mais il n'utilise pas cette information
personnes ? Revenons a nos expériences Ceproblème
La difficulté vient est amusant, n'est-ce pas ? s'il maintient son choix, puisque ce choix a
statistiques. Vous pourriez estimer que de ce que nous trai- été fait avant que l'information soit acces-
20 essais ne suffisent pas a prouver le tons de probabilité conditionnelle : la proba- sible. Cela ne prouve pas qu'il doive chan-
résultat. Aussi tentons un essai plus sub- bilité qu'un événement se produise sachant ger son choix, mais implique que la straté-
stantiel. Je vais vous communiquer mes qu'un autre événement s'est déjà produit. gie « choix toujours maintenu » ne saurait
résultats ; doutez de leur véracité si vous L'intuition est mauvaise conseillère pour les être la meilleure.
voulez, mais si vous écrivez votre propre probabilités conditionnées : le point impor- Et si vous ne me croyez toujours pas,
simulation, suivez bien l'ordre prescrit tant est que le choix d'une caveme par la trouvez un ami et essayez avec un mor-
des événements. Si vous introduisiez des pie dépend du choix de Persée. Si Pesée a ceau de sucre dans le rôle d'Andromède,
raccourcis, vous pourriez bien être à côté raison, alors la pie peut choisir entre les et des tasses dans les rôles des cavernes.
de la question. deux autres cavemes, mais si Persée a tort Jouez une stratégie sur 100 coups, puis
Je traitai le problème sur un ordinateur (ce qui est deux fois plus probable), alors la adoptez l'autre. Pour comparer, demandez
en 100 000 épreuves. La stratégie de pie n'a qu'un seul « choix ». a votre ami de vous révéler une tasse vide
Persée fut gagnante 33 498 fois et per- L'argument selon lequel, avec deux avant que vous ne choisissiez : cette fois,
dante 66 502 fois. Les probabilités corres- cavernes restantes, Andromède a autant de vos chances seront 50-50.
pondantes de 0, 33498 et 0, 66502 sont chances d'etre dans l'une que dans l'autre « Lorsque la réalité heurte si violem-
suffisamment proches des valeurs 1/3 et serait correct si la pie choisissait en premier ; ment l'intuition, continue Marilyn, les gens
2/3 prévues par la pie pour lui donner rai- il est faux si son choix dépend de ce que sont choqués. » Le plus terrible est que le
son : les vérités mathématiques ne résul- Persée a déjà choisi : dans cet exemple, problème n'est pas nouveau : un pro-
tent pas d'un vote démocratique. l'ordre des choix importe, phénomène fré- blème équivalent se trouve dans le Calcul
Toujours sceptique ? Marilyn proposa quent avec les probabilités conditionnelles. des probabilités de J. Bertrand, publié en
un argument final qui pourrait vous En fait, bien examiné, le problème 1889. Il est connu comme Paradoxe de la
convaincre. Supposez qu'il y ait un million est très simple. Non seulement la pie a la Boîte de Bertrand.
de cavernes, dont une occupée par bonne stratégie, mais encore elle a le Un point me vient à i'esprit Si la for-
Andromède. Persée choisit celle numéro 1. bon raisonnement. Revoyons-le encore mation des mathématiciens professionnels
La pie en indique alors 999 998 des une fois, très lentement. Admettez-vous comportait un cours de mathématiques
autres qui contiennent chacune une gor- que, lorsque Persée fait le choix initial dites amusantes, cela pourrait éviter que
gone. Rappelez-vous que la pie sait où est d'une caverne, la probabilité qu'il ait rai- certains d'entre eux soient si redoutable-
Andromede, et qu'elle ne peut donc dési- son est de 1/3 ? Je l'espère, puisque c'est ment solennels tout en pensant si mal.
gner cette caverne. Vous observez sur plu- une des hypothèse du problème (ta pie
sieurs essais que la pie évite soigneuse- nous a informés que les cavernes étaient Ian Stewart enseigne
ment la caverne numéro 777 777. équiprobables). les mathématiques à l'Université de Warwich.
Le paradoxe de Stein

Bradley Efron et Carl Morris

On identifie souvent la meilleure estimation La première étape, quand on


emploie la méthode de Stein, consiste à
de la probabilité d'un événement à la moyenne déterminer la moyenne globale des
moyennes individuelles. Bien évidem-
arithmétique des résultats antérieurs. ment, cette moyenne globale, désignée
par Y est égalementcomprise entre 0 et
Le paradoxe de Stein définit les circonstances où il existe 1. La phaseessentiellede la méthodede
Stein est le rapprochementde toutes les
de meilleurs estimateurs que cette moyenne. moyennes individuelles y vers cette
moyenne globale Y. Si la moyenne des
coups marqués par un joueur est
meilleure que la moyenne globale, on
Unrésultat mathématique ment 35! Selon la théorie statistiquetra- doit alors la réduire ; si, au contraire, le
est quelquefois en contra- ditionnelle, l'estimation fondée sur la joueur marque moins, sa moyenne doit
diction frappanteavec une moyennedes réussitesdesessaispassés alors être augmentée. Soit z la valeur
croyance répandue,même est, dansl'ensemble, la meilleure. ainsi corrigée de la moyenne de chaque
si on connait une excel- Le résultat de Stein est paradoxal en joueur. Cette valeur est l'estimation de
lente preuve de cette croyance. En ce qu'il dément parfois cette loi élé- James-Stein de la capacité à la batte
1955, Charles Stein, de l'Université de mentaire de la théorie statistique. Si d'un joueur donné. Les deux mathéma-
Stanford, a découvert un tel paradoxe nous avons trois joueurs de baseball (ou ticiens, James et Stein, ont proposé en
en statistiques. Cette découverte a plus) et si nous voulons prévoir les 1961 une version particulièrement
remis en question un siècle et demi de moyennes à la batte de chacun d'entre simple de cette méthode. Le paradoxe
travail sur la théorie de l'estimation, eux, il existe une estimation meilleure de Stein réside dans le fait que les
remontant à Karl Friedrich Gauss et que l'extrapolation obtenue à partir des valeurs z-estimateurs de James-Stein-
Adrien Marie Legendre. Après une trois moyennes prises séparément. constituentde meilleures estimations de
longue période de résistance aux idées « Meilleure » est employé ici au sens la capacité réelle à la batte que les
de Stein, ponctuée de controversesfré- fort : en utilisant la méthode de Stein, moyennesindividuelles.
quentes et parfois orageuses, le côté un statisticien peut prévoir les L'estimateur de James-Stein, pour
paradoxal de la découverte de Stein moyennes futures avec davantage de chaque joueur est défini par l'équation
commence à s'estomper et ses idées précision, quelles que soient les capaci- suivante : z = Y + c(y-Y), où (y-Y)
commencentà être intégréesaux statis- tés réelles des joueurs. est la différenceentre la moyenney à la
tiques théoriqueset appliquées. batte du joueur considéré et de la
Le paradoxede Stein concernel'uti- Une saison de baseball moyenne globale Y. L'équation montre
lisation de moyennes observées pour ainsi que l'estimateur z de James-Stein
estimer des quantités inobservables Le baseball est un sport très popu- diffère de la moyenne globale par cette
(prendrela moyenneest un réflexe chez laire aux États-Unis et les statistiquesle même quantité (y-Y) multipliée par
les statisticiens,une fois qu'ils ont noté concernant foisonnent : c'est pourquoi une constante c. La constante c'est le
les résultats des événements). Un nous l'avons choisi pour illustrer la « facteur de rapprochement ».S'il était
exemple de quantité inobservable est la méthodede Stein. Comme donnéespré- égal à 1, l'équation impliquerait que
capacité d'un joueur de baseball ; dans liminaires, nous considérerons les l'estimateur de James-Stein, pour un
ce jeu, compliqué pour les anglophobes, moyennes à la batte de 18 joueurs de joueur donné, est identique à la
un joueur armé d'une batte essaie de première division, telles qu'elles furent moyenne individuelle à la batte de ce
renvoyer une balle lancée par un adver- enregistrées après 45 premiers essais joueur ; autrement dit, z égale y. Le
saire.Un joueur de baseball,qui marque pendant la saison 1970. Ces joueurs théorème de Stein établit que le facteur
sept coups sur vingt renvois de balle à sont ceux qui ont essayéde renvoyer la de rapprochement c est toujours infé-
la batte, a une moyenne à la batte de balle à la batte exactement quarante- rieur à 1. Sa vraie valeur est déterminée
0,350. En faisant cette moyenne, nous cinq fois le jour de la prise des données. par l'ensemble de toutes les moyennes
estimonsla véritable capacitédu joueur On définit naturellement la moyenne à observées.Pour les donnéesconcernant
à la batte en nous fondant sur la fré- la batte comme le quotient du nombre le baseball, la moyenne globale Y vaut
quencede ses succèsobservés. Si l'on de coups marqués par le nombre 0,265 et le facteur de rapprochementc
nous demandait combien de coups le d'essais.C'est un nombretoujours com- est égal à 0, 212. En substituant ces
mêmejoueur réussira lors de cent pro- pris entre 0 et 1. Nous désigneronscette valeurs dans l'équation définissant z,
chains essais,nous prédirions probable- moyennepar la lettre y. nous trouvons que, pour chaquejoueur,
1. UNE ESTIMATION DES CAPACITÉS à la battede 18 joueurs de baseball est obtenue de façon plus précise par la
méthode de James-Stein qu'en prenant les moyennes individuelles. Les moyennes employées comme estimateurs
ont été calculées après que chaque joueur a réalisé 45 essais pendant la saison 1970. La capacité réelle d'un joueur
à la batte est une quantité inobservable, mais elle est approchée de près par la moyenne de ses performances sur
une longue période. Ici la capacité réelle est représentée par la moyenne a la batte obtenue pendant le reste de la
saison de 1970. Pour l'estimation de la capacité à la batte de 16 joueurs sur 18, la moyenne arithmétique indivi-
duelle constitue une estimation moins bonne que l'estimation de James-Stein : l'ensemble des
James-Stein a une erreur quadratique totale associée (le carré de la différence à la capacité réelle) inférieure.
vaut, pour les moyennes observées
0, 077, et pour les estimateurs de James-
Stein 0, 022 seulement. Il résulte de
cette comparaison que la méthode de
Stein est grosso modo 3, 5 fois plus pré-
cise. On peut montrer que pour les don-
nées précédentes, 3, 5 est voisin de la
valeur probable du quotient des carrés
des erreurs totales des deux méthodes.
Le résultat obtenu est bien celui auquel
on pouvait s'attendre et nous n'avons
pas été que chanceux (voir lafgure 2).

Des voitures et des battes

Imaginons qu'un statisticien prenne,


au hasard, un échantillon de voitures de
Paris et trouve que, sur les 45 premières
voitures répertoriées, 9 sont étrangères et
2. LES ESTIMATEURS DE JAMES-STEIN pour les 18 joueurs de baseball ont été calculés en
les 36 autres de fabrication française.
« rapprochant » les moyennes individuelles à la batte d'une « moyenne des moyennes indivi-
duelles »(moyenne globale). Dans ce cas, la moyenne globale vaut 0,265 et chacune des Nous voulons estimer la proportion
moyennes voit diminuer d'environ 80 pour cent sa distance à cette valeur. Ainsi, le théorème réelle de voitures importées de Paris,
sur lequel est basé la méthode de Stein affirme que les capacités réelles à la batte sont plusquantité que nous représenterons par un
étroitementregroupéesque les moyennes préliminaires n'auraient d'abord semblé le suggérer. autre inobservable #. La moyenne obser-
vée de 9/45 = 0,200 est une estimation.
On peut en obtenir une autre en ratta-
z= 0, 265 + 0, 212 (y-0, 265). Comme c traction, représentant la probabilité pour chant ce problème à celui des 18 joueurs
vaut environ 0, 2, l'écart entre chaque qu'un joueur réussisse son prochain de baseball. En injectant la valeur de
moyenne individuelle la
et moyenne glo- essai à la batte. Bien que # soit inobser- 0, 200 dans l'équation utilisée pour le
bale est réduit de 80 pour cent et la dis- vable, nous en avons une bonne approxi- problème des joueurs de baseball, on
persion totale des moyennes par rapport mation grâce aux performances ulté- trouve que l'estimateur z de James-Stein
à Y sera réduite d'environ 80 pour cent. rieures des joueurs à la batte. Il suffit de concernant la proportion de voitures
Considérons par exemple Roberto considérer la suite de la saison 1970, qui importées, vaut 0, 251. (En fait, l'addi-
Clemente qui avait la meilleure comprend environ neuf fois plus de don- tion d'une 19"valeur modifie la
moyenne à la batte lorsque nos statis- nées que celles utilisées pour l'élabora- moyenne globale Y et altère aussi légère-
tiques ont été réunies. Pour Clemente, y tion des moyennes préliminaires. ment le facteur de rapprochement c. Les
est égal à 0,400 et on peut déterminer z Nous tiendrons pour négligeable la changements sont cependant faibles ; la
en calculant l'expression z= 0, 265 + petite erreur statistique associée à un tel valeur ainsi rectifiée de z est 0, 249).
0, 212 (0, 400-0, 265). Le résultat est : échantillon ; nous ferons comme si la Dans ce cas, l'intuition nous incite à
z = 0,294. Autrement dit, selon le théo- moyenne de la saison toute entière était penser que c'est la moyenne y observée
rème de Stein, la meilleure estimation « la capacité réelle à la battes 8 d'un et non l'estimateur z de James-Stein qui
de la capacité à la batte de Clemente est joueur. C'est la précision des statistiques doit être la meilleure anticipation. II est
non pas 0, 400 mais plus proche de de baseball qui nous a fait choisir cet vrai qu'il semble complètement stupide
0, 294. Thurman Munson, autre joueur, a exemple ; dans la plupart des problèmes, de mélanger ainsi des quantités qui
traversé une mauvaise période à la batte la valeur réelle de # ne peut pas être n'ont manifestement aucun rapport
au début de la saison de 1970 : sa déterminée. Une méthode pour évaluer entre elles, telles les moyennes à la
moyenne était 0, 178. En substituant les deux estimations fondées respective- batte et la proportion de voitures impor-
cette valeur dans l'équation de Stein, ment sur y et z est de compter le nombre tées ! Nous avons mis le doigt sur le
nous trouvons que sa capacité à la batte de fois où l'une d'elle est meilleure (voir coeur du problème de la validité du
est plus élevée : pour Munson, I'estima- la figure 1). Pour 16 des 18 joueurs théorème de Stein. Le théorème semble
teur de James-Stein vaut 0, 247. considérés, l'estimateur z de James-Stein pouvoir s'appliquer aussi bien aux 19
est plus proche de la moyenne vraie 6 problèmes qu'aux 18 du début ! Rien,
Le meilleur estimateur (observée sur l'ensemble de la saison) dans l'énoncé du théorème, ne stipule
que la moyenne observée y. que les composants doivent avoir un
Quel est l'ensemble des valeurs, y ou Une comparaison plus quantitative rapport quelconque.
z, qui indique le mieux la capacité à la des deux techniques consiste à utiliser On peut illustrer autrement le
batte des 18 joueurs de notre exemple ? l'erreur quadratique d'estimation. Celle- même défi au bon sens. Quel est le rap-
Pour pouvoir répondre précisément à ci est mesurée en commençant par port entre la moyenne y observée et
cette question, il nous faudrait connaître déterminer, pour chacun des joueurs, égale à 0, 400 de Clemente et celle de
la « capacité réelle » de chaque joueur, l'erreur de chaque prévision, soit (#-y) Max Alvis, le moins bon à la batte
que nous désignerons par la lettre et (0-z). On élève au carré chacune de parmi les 18 joueurs ? Si Alvis avait eu
grecque 0. En fait cette quantité est ces quantités, puis on ajoute les valeurs un bon début de saison et que sa
impossible à connaître ; c'est une abs- obtenues. L'erreur quadratique totale moyenne ait atteint 0, 444 par exemple
au lieu de 0, 156, l'estimateur z de se trouvent dans les extrémités aplaties avait été fournie dans les années 1920
James-Stein pour la moyenne de de la courbe et qu'aucune n'est voisine par R. A. Fisher, qui démontra que toutes
Clemente serait passé de 0, 294 à du centre. Gauss a montré que, parmi les informations sur H qu'on pouvait
0, 325. On voit mal pourquoi la réussite tous les choix possibles de la moyenne, trouver dans les données étaient conte-
ou l'insuccès d'Alvis devraient la moyenne arithmétique X des données nues dans la moyenne arithmétique X.
influencer notre estimation de la capa- observées (qui vaut ici 9,6) maximise la
cité de Clemente (ils n'appartenaient probabilité d'obtenir les données obser- La fonction de risque
même pas à la même division !). Les vées. La moyenne arithmétique ainsi
critiques de la méthode de Stein avan- considérée est l'estimateur du « maxi- Dans les années 1930, Jerzy
cèrent des questions pertinentes de ce mum de vraisemblance » ; en fait, Gauss Neyman, Egon S. Pearson et Abraham
genre ! Pour y répondre, il nous faut a construit la distribution normale uni- Wald étudièrent de façon plus rigou-
décrire plus soigneusement la méthode. quement pour avoir cette propriété. reuse le problème de la déduction statis-
La moyenne arithmétique est l'esti- tique ; les idées qu'ils développèrent
La distribution normale mateur optimum de la moyenne inobser- font maintenant partie de ce qu'il est
vable H pour une autre raison, également convenu d'appeler en statistiques la
Faire une moyenne est une opération découverte par Gauss : la moyenne arith- « théorie de la décisions. Ils rejetèrent la
simple et familière, qu'il ne semble pas métique des données est un estimateur contrainte imposée par l'absence de
falloir justifier. II n'est pas facile non biaisé de la moyenne, en ce sens biais et examinèrent toutes les fonctions
d'expliquer pourquoi la moyenne est si qu'elle ne privilégie aucune valeur parti- des données qui pouvaient servir d'esti-
souvent utile pour déterminer le centre culière de #. Pour être plus précis, la mateurs de la moyenne inconnue #. Ils
de gravité d'un procédé aléatoire ! C'est moyenne arithmétique est non biaisée comparèrent ces estimateurs au moyen
dans la distribution des valeurs prises par parce que la valeur probable de X égale d'une fonction de risque, définie par la
la variable aléatoire qu'on peut en trou- la valeur vraie #, quel que soit #. 11existe valeur probable du carré de l'erreur
ver la raison. une multitude d'estimateurs non biaises pour chaque valeur possible de #.
La distribution la plus fréquente est de #, aucun n'étant parfait. Gauss a mon- Considérons simultanément trois
la distribution « normale », représentée tré que le carré de l'erreur d'estimation estimateurs : la moyenne arithmétique
par une courbe en cloche (voir la figure probable est minimal pour la moyenne X des données X, la moitié de cette
3), que Laplace et Gauss étudièrent à (comparée à n'importe quelle fonction moyenne X/2 et la médiane des données.
fond. Dans cette distribution, la variable linéaire non biaisée des observations). La fonction de risque est une constante,
aléatoire peut prendre n'importe quelle Dans les années 1940, on démontra à la fois pour la moyenne arithmétique et
valeur sur un axe donné. La probabilité qu'aucune autre fonction non biaisée des pour la médiane ; cela revient à dire que
pour que cette variable se trouve à données, linéaire ou non, ne pouvait esti- le carré de l'erreur probable, en pré-
l'intérieur d'un intervalle donné sur mer 9 plus précisément (en ce qui voyant la moyenne #, est indépendant de
l'axe est égale à l'aire de la surface concerne le carré de l'erreur probable) la valeur réelle de #. Des deux fonctions
située sous le même intervalle de la que la moyenne arithmétique. Une de risque constantes, celle de la
courbe en cloche. Cette courbe est entiè- contribution essentielle de cette preuve moyenne X est régulièrement inférieure,
rement déterminée par deux paramètres :
la moyenne, #, correspondant au som-
met de la courbe, et l'écart-type, qui
mesure l'écartement des valeurs de la
variable autour de la moyenne. Il est
d'usage de désigner par # l'écart-type.
Plus l'écart-type est grand, plus les don-
nées sont largement dispersées. En théo-
rie des probabilités, on utilise à la fois la
moyenne et l'écart-type (présumés
connus) pour prédire le comportement
futur. Un problème de statistiques pro-
cède en sens inverse : à partir de don-
nées observées, le statisticien doit
déduire la moyenne H et l'écart-type #.
Imaginez, par exemple, que les
mesures d'une variable aléatoire je quel-
conque prennent successivement les
valeurs 10, 0 ; 9, 4 ; 10, 3 ; 8, 6 et 9, 7.
Supposez de plus que ces valeurs obéis-
3. LA DISTRIBUTION NORMALE (de Laplace-Gauss) d'une variable aléatoire autour d'une
sent à une distribution normale, avec un
valeur moyennejustifie le choix arithmétique pour le meilleur estimateur. La distribution
écart-type égal à 1 (voir la figure 4).
normale est définie par deux paramètres, la moyenne 0 qui localise le sommetde la distri-
Quelle est la valeur de la moyenne vraie bution, et l'écart-type # qui mesure la dispersion des données autour de la moyenne. On
H? En théorie, elle est indéterminée, mais
suppose, en définissant cette distribution que la variable x peut prendre n'importe quelle
certaines valeurs sont plus probables que valeur sur l'axe des x. La probabilite que x soit à l'intérieur d'un intervalle [a, b] sur l'axe
d'autres. Une moyenne de 6, 5, par des x est égale à l'aire de la surface situee sous le même intervalle de la courbe en cloche
exemple, implique que les cinq valeurs entre ces deux points(en vert).
par un coefficient d'environ 2/3 ; il est inconnues. Il n'est pas nécessaire de toutes les valeurs de k supérieures à 2 ;
clair qu'on doit de préférence choisir supposer une relation entre ces en outre, cette généralisation était
comme estimateur la moyenne arithmé- moyennes ; elles peuvent être aussi constructive. Stein et James montrèrent
tique. Dans le langage de la théorie de la bien des capacités à la batte que des non seulement qu'il devait exister des
décision, on dira que la médiane est un pourcentages de voitures importées. estimateurs en tous points supérieurs
estimateur de H inacceptable, à partir du D'autre part, on admet que les aux moyennes arithmétiques indivi-
moment où, quel que soit H (carré de moyennes sont indépendantes les unes duelles, mais ils ont aussi été capables
l'erreur probable), un autre estimateur des autres. Quand on évalue des esti- d'en fournir un exemple.
est de risque inférieur. Il faut cependant mateurs pour ces moyennes, il est L'estimateur de James-Stein a déjà
préciser que, si la distribution des don- encore une fois commode d'utiliser été défini au cours de notre étude des
nées est autre que la distribution nor- une fonction de risque, définie comme moyennes à la batte. II est donné par
male, l'ordre de préférence peut être la somme des carrés des valeurs pro- l'équation : z = Y + c (y-Y), où y est la
inversé. Pour l'estimateur X/2, qui est bables des erreurs d'estimation pour moyenne d'un ensemble unique de don-
biaisé vers la valeur nulle de #, la fonc- toutes les moyennes individuelles. nées, Y la moyenne des moyennes (ou
tion de risque n'est pas constante ; cet moyenne globale) et c un « facteur de
estimateur est précis si H est voisin de Le facteur rapprochement ». Il y a plusieurs autres
zéro, mais le carré de l'erreur probable de rapprochement expressions de l'estimateur de James-
augmente rapidement à mesure que la Stein, mais elles ne différent que par le
moyenne vraie s'écarte de zéro. La Le premier choix évident d'un esti- détail. Toutes ont en commun le facteur
courbe représentative de la fonction de mateur pour chacune des moyennes est de rapprochement c ; c'est la caractéris-
risque est une parabole, présentant un la moyenne arithmétique des données tique de l'estimateur de James-Stein.
minimum pour # = 0 ; dans le cas où la qui se rapportent à cette moyenne. Le Dans l'exemple concernant le base-
moyenne est effectivement nulle, la développement historique complet de la ball, c a été considéré comme une
fonction de risque associée à Xt2 est théorie de la statistique, en partant de constante ; en fait, c est déterminé à par-
alors quatre fois inférieure à celle asso- Gauss et en passant par la théorie de la tir des moyennes observées et, par
ciée à la moyenne arithmétique. Pour de décision affirme que la moyenne arith- conséquent, n'est pas une constante. La
grandes valeurs de la moyenne, cepen- métique est un estimateur valable aussi valeur du facteur de rapprochement est :
dant, la moyenne arithmétique X reprend longtemps qu'il n'y a qu'une moyenne
c = 1 - (k-3)#2
sa supériorité. Avec d'autres estimateurs, H à estimer. Stein montra en 1955
# (y-Y)2
nous pouvons faire en sorte que la fonc- qu'elle est aussi valable lorsqu'il y a
tion de risque associée soit inférieure à la deux moyennes à estimer. Le paradoxe Ici encore, k désigne le nombre de
fonction de risque de la moyenne arith- de Stein est simplement l'affirmation moyennes inconnues, #2 est le carré de
métique en certains points, mais elle suivante : quand le nombre de l'écart-type et E (y-y)2 la somme des
redevient supérieure en d'autres endroits. moyennes dépasse deux, il est inaccep- carrés des écarts des moyennes indivi-
Reste la possibilité que quelque table d'estimer chacune d'elles par sa duelles y par rapport à la moyenne glo-
autre estimateur ait un risque uniformé- propre moyenne arithmétique. Quelles bale Y. Recherchons brièvement la signi-
ment inférieur à celui de la moyenne que soient les valeurs des moyennes fication de cette équation plutôt
arithmétique. En 1950, on a démontré vraies, il existe des règles d'estimation rebutante. Pour k et o2 fixés, nous
qu'un tel estimateur n'existe pas. En présentant un risque total moindre. En voyons que le facteur de rapprochement
d'autres termes, il est correct d'assimi- 1955, Stein ne put démontrer cette pro- diminue (et les moyennes prévues en
ler la moyenne arithmétique X, associée position que dans les seuls cas où le sont d'autant plus affectées) quand
à un ensemble d'observations, à la nombre de moyennes, quantité que nous l'expression L (y-y) 2 diminue. D'un
moyenne inconnue. noterons k, est très grand. Un article de autre côté, c augmente, se rapprochant de
Le théorème de Stein concerne Stein, de 1961, écrit en collaboration 1, et le rapprochement est moins brutal,
l'estimateur de plusieurs moyennes avec James, généralisa ce résultat à quand l'expression # (y-Y)2 augmente.

4. UN PROBLÈMEEN STATISTIQUES est de déduire la moyenne schéma ci-dessusne peuvent correspondre a une distribution nor-
vraie et l'écart-type de la distribution associée à un ensemble de male ayant une moyenne de 6,5 alors que les cinq points sont de
données. Même si l'on sait que la distribution est de type « nor- plus de deux écarts-typesau-dessus de la moyenne. On peut mon-
male » et que l'écart-type vaut 1, la moyenne peut-en principe- trer que les donnéescorrespondent plus vraisemblablement à une
prendre n'importe quelle valeur. Certaines valeurs sont cependant distribution dont la moyenne est égale a la moyenne des données
plus probables. Par exemple, les cinq points x indiqués sur le observées,soit 9,6.
Que peut-on tirer de ces équations,
en ce qui concerne le comportement de
l'estimateur ? Le procédé de James-
Stein présuppose que toutes les
moyennes inobservables sont voisines
de la moyenne globale Y. Si les données
confirment cette supposition, c'est-à-
dire si les moyennes observées ne sont
pas trop éloignées de Y, on rapproche
les estimations individuelles de la
moyenne globale. Si la supposition est
infirmée, alors on ne fait plus guère de
« rapprochement ».
Le facteur de rapprochement c est
ajusté, en fonction de la distribution des
moyennes autour de la moyenne globale
Y, par l'équation précédente. Le nombre
de moyennes estimées influe aussi sur
le facteur de rapprochement, par l'inter-
médiaire du terme (k-3) qui apparaît
dans la même équation. S'il y a beau- 5. DIVERS ESTIMATEURS d'une seulemoyenne vraie #, peuvent être évalués au moyen
coup de moyennes, t'équation rend le d'une fonction de risque. Le risque est défini comme la valeur probable du carré de l'erreur
rapprochement plus fort puisqu'il est d'estimation, considéré comme fonction de la moyenne #. La moyenne arithmétique X des
alors peu vraisemblable que les varia- donnéesx est un estimateurdont la fonction risque est constante : quelle que soit la valeur
de la moyenne vraie, la valeur probable du carré de l'erreur est la même. La médiane de
tions observées représentent de simples
l'ensemble des données a aussi un risque supérieur
constant, mais(par
il estun fa
par
fluctuations dues au hasard.
teur de 1,
57) au risque associé de la moyenne arithmétique. La moitié de la moyenne arith-
La valeur de c étant calculée ainsi, metique (X/2) est un estimateur dont le risque dépend de la vraie valeur de la moyenne ; le
la fonction de risque, pour l'estimateur z risque estminimum quand la moyenneest voisine de zéro et augmenterapidement a mesure
de James-Stein est inférieure à celles que la moyennes'éloigne de zéro. Pour l'estimation d'une seule moyenne, aucun estimateur
des moyennes y associées à chaque n'a unefonction de risque en tout point inférieure à celle de la moyenne arithmétique X.
échantillon, quelles que soient les
valeurs réelles des moyennes #. Le
risque peut être considérablement
moindre, en particulier quand le nombre
de moyennes dépasse 5 ou 6. Pour ces
estimateurs de Stein z, la fonction de
risque n'est pas constante pour toutes
les valeurs de la moyenne vraie 0, alors
qu'elle est constante pour les moyennes
individuelles y observées. Le risque de
l'estimateur de James-Stein est mini-
mum quand toutes les moyennes sont
égale. Lorsque les moyennes vraies
s'écartent les unes des autre, le risque
de l'estimateur augmente, se rappro-
chant de celui des moyennes observées,
mais ne l'atteignant jamais tout à fait.
Comparé aux moyennes arithmétiques,
l'estimateur de James-Stein n'est vérita-
blement meilleur que si les moyennes
vraies sont voisines ; l'hypothèse ini-
tiale se trouve ainsi confirmée. Ce qui
est surprenant, c'est que l'estimateur
fasse toujours un peu mieux, quelles
que soient les moyennes vraies !
L'expression de l'estimateur de
James-Stein que nous avons utilisée rat-
6. LA FONCTION DE RISQUE TOTAL, pour les estimateurs de James-Stein, est en tout point
tache toutes les moyennes observées de
inférieure à celle des moyennes individuelles observées, à condition que le nombre de
la moyenne globale Y. Ce procédé n'est
moyennesestimées soit supérieur à deux. Dans le cas représenté sur cette figure, il y a dix
pas le seul possible. D'autres expressions moyennesinconnues. Le risque est minimum quand toutes les moyennes sont regroupées
de l'estimateur écartent complètement Y.
en un même point. Lorsque les valeurs des différentes moyennes s'écartent les unes des
Mais on ne peut éviter l'hypothèse ini- autres, le risque associé aux estimateurs de James-Stein augmente. Ce risque associe se
tiale, plus ou moins arbitraire, qui est à rapproche de celui des moyennesobservées,sans toutefois jamais l'atteindre tout à fait.
l'origine de l'estimateur. On notera que sies dans des groupes d'importance type implique une incertitude impor-
les moyennes observées ne dépendent variable, dans 36 villes, ont subi les tante quant au résultat de la mesure. Si
pas d'un choix d'origine. Avant que tests de dépistage de la toxoplasmose. la fréquence relative mesurée est inhabi-
Stein ne découvre sa méthode, on sentait Par commodité, on exprime la fré- tuellement grande, il est plus raison-
que de tels estimateurs « invariants » quence observée dans chaque ville par nable d'attribuer ce fait aux variations
devaient être préférables à tous ceux rapport à la fréquence nationale (c'est- aléatoires liées à la distribution normale
dont les prévisions varient en fonction du à-dire la moyenne globale Y). Par qu'à une valeur réellement grande de la
choix de l'origine. La théorie de l'inva- exemple, une fréquence relative de 0, 05 moyenne vraie 0. Il convient alors de
riance, à laquelle Stein a pourtant large- indique une ville où la fréquence de la réduire cette valeur de la fréquence rela-
ment contribué, fut fortement ébranlée maladie surpasse de cinq pour cent la tive, en lui appliquant un facteur de rap-
par le contre-exemple de James-Stein. moyenne nationale. Les fréquences prochement faible.
Du point de vue mathématique, c'est mesurées ont une distribution à peu près On peut renforcer cet argument en
l'aspect le plus gênant du théorème de normale. On connaît les écarts-types, reprenant l'exemple du baseball. Frank
Stein. Le paradoxe n'a sans doute pas été mais ils varient de ville en ville en rai- O'Connor jouait pour Philadelphie pen-
découvert plus tôt à cause d'un préjugé : son inverse de l'importance de l'échan- dant la saison de 1893. Pendant sa car-
on croyait que le problème de l'estima- tillon de population testé. C'est au sta- rière en première division, il fit deux
tion, qui ne faisait référence à aucune tisticien d'estimer la moyenne vraie de essais à la batte, tous deux réussis. Sa
origine particulière, devait être résolu de la distribution pour chaque ville, en moyenne observée est égale à 1. La
la même manière. fonction de la fréquence relative mesu- règle de James-Stein, obtenue avec les
rée y (et rapportée à la moyenne Y). 18 joueurs considérés plus haut, estime
Les statistiques L'expression appropriée de l'esti- sa capacité réelle à la batte à :
de la toxoplasmose mateur de James-Stein est dans ce cas 0, 265 + 0, 212 (1-0, 265) = 0, 421
z = cy. Notre choix de l'expression de la (sans tenir compte de l'impact de la
Dans les applications de la méthode fréquence relative y par rapport à la nouvelle donnée sur la moyenne globale
de Stein, on étudie des ensembles com- moyenne nationale Y permet cette sim- et sur le facteur de rapprochement).
prenant un grand nombre de données, plification : la moyenne globale Y est Cette estimation est ridicule, mais don-
avec beaucoup de paramètres inconnus, nulle, et par conséquent, les termes ner une valeur I aux possibilités à la
certaines difficultés, ainsi que le potentiel contenant Y disparaissent de l'équation. batte de O'Connor l'est aussi ! Une
pratique de la méthode, sont illustrés par En revanche, la méthode d'estimation moyenne parfaite, après deux coups à la
l'exemple suivant : l'analyse de la répar- est maintenant compliquée par le fait batte n'est pas du tout incompatible
tition de la toxoplasmose au Salvador que le facteur de rapprochement c varie avec une valeur réelle de la moyenne
(Amérique centrale). La toxoplasmose selon les villes en fonction inverse de comprise entre 0, 242 et 0, 294 (obtenue
est une maladie du sang, endémique dans l'écart-type (sur y) associé à chacune pour les autres joueurs). Le facteur de
une grande partie de l'Amérique centrale d'elles. Cette dépendance du facteur de rapprochement-la constante c-appli-
et dans d'autres régions tropicales. Au rapprochement de l'écart-type peut être qué à la moyenne d'O'Connor, devrait
Salvador, 5 000 personnes environ, choi- analysée intuitivement. Un grand écart- être plus sévère, afin de compenser le
petit nombre des données.
Dans le cas du Salvador, la plupart
des facteurs de rapprochement sont de
valeur modérée-entre 0, 6 et 0, 9-mais
quelques-uns se situent entre 0, 1 et 0, 3.
Quel ensemble de nombres faut-il préfé-
rer : les estimateurs de James-Stein ou
les fréquences relatives mesurées ? La
réponse dépend en grande partie de ce
qu'on veut faire de ces nombres !

Les meilleurs estimateurs

Si le ministre de la santé du
Salvador a l'intention de construire des
hôpitaux régionaux pour les personnes
atteintes de toxoplasmose, les estima-
teurs de James-Stein sont probablement
de meilleurs guides. Ceci parce que le
7. LA FRÉQUENCE DE LA TOXOPLASMOSE ; une maladie du sang, ressort lors d'une enquête carré de l'erreur totale probable, avec
réalisée dans 36 villes du Salvador. La fréquence mesurée dans chaque ville peut être considé- les estimateurs de James-Stein, est infé-
ree comme un estimateurde la fréquence vraie, qui est inobservable. Les fréquences mesurées
rieur d'un facteur 3 environ. Le point
ont une distribution normale, dont l'écart-type dépend du nombre de personnes examinées
important de ce calcul est qu'on fait le
dans chaque ville. Les chiffres indiqués sur la figure sont des fréquences relatives, c'est-à-dire
des écarts par rapport à la fréquence moyennenationale (la moyennedes fréquences obser- total des erreurs probables pour toutes
véesdans toutes les villes). La fréquence relative nationale est arbitrairement choisie égale à les villes. Un hôpital donné pourrait être
zéro, et une ville dont relative
la fréquence
mesurée est de-0,04 a une fréquence relative de taille disproportionnée ou mal situé,
observéede quatre pourcent inférieure a celle de l'ensemble du pays. mais la somme de toutes les erreurs de
8. LE RAPPROCHEMENT DES FRÉQUENCES relatives observées de pourquoi cette mesure est plus rapprochée que les autres. Dans les
toxoplasmose pour obtenir un ensemble d'estimateurs de James- données du Salvador les observations les plus extrêmes tendent à
Stein, altère la répartition apparente de la maladie. Le facteur de etre corréléesaux plus grands écarts-types, suggérant eneore le peu
rapprochement n'est pas le même pour toutes les villes, mais de confiance que l'on peut accorder à de telles mesures.Par com-
dépend de l'écart-type associé au taux mesuré dans cette ville. Un paraison avec les moyennes observées, on peut prouver que les esti-
grand écart-type implique que la mesure a été basée sur un petit mateurs de James-Stein ont une erreur totale d'estimation plus
échantillon et est soumise à de grandes variations aléatoires ; c'est faible. Ils déterminent aussiun classement des villes plus exact.

ce genre serait inférieure, avec les esti- meilleures estimations pour une majorité importées. Il s'avère que le risque, pour
mateurs de James-Stein, à la somme de villes et réduit l'erreur totale d'esti- les joueurs de baseball et pour les auto-
obtenue avec les fréquences observées. mation pour l'ensemble des villes. On mobiles, n'est réduit que si justement le
De même, les estimateurs de James- ne peut cependant pas démontrer que, pourcentage de voitures importées est du
Stein sont certainement préférables dans le cas d'une ville particulière, la même ordre que les moyennes estimées à
quand il s'agit de classer les moyennes méthode de Stein soit supérieure ; en la batte ; sinon, le risque d'erreur est aug-
vraies. k cet égard, il est remarquable de fait, la prévision associée peut être nette- menté pour les deux sortes de problèmes.
constater que la ville dont la fréquence ment moins bonne. Savoir si une moyenne particulière
relative apparente est la plus élevée Quand on estime par la méthode de est exceptionnelle ou non est une ques-
(d'après les taux mesurés y) est, selon Stein, la moyenne vraie d'une ville par- tion subtile dont les conséquences ne
les estimateurs de Stein, classée dou- ticulière, on fait une erreur importante sont pas encore tout à fait élucidées.
zième. La valeur de cette estimation est quand cette moyenne a une valeur Revenons au problème de la toxoplas-
considérablement réduite parce que exceptionnelle. Le fondement de la mose au Salvador et considérons la ville
l'échantillon de cette ville était très petit. méthode consiste à réduire le risque d'Alégria, dont la fréquence relative
Ce renseignement pourrait être utile si global en admettant que les moyennes mesurée, égale à-0, 294 est au cin-
on ne disposait de crédits que pour un vraies sont plus proches les unes des quième rang, en comptant à partir des
hôpital. Imaginez qu'un spécialiste des autres que les données observées. Cette taux les plus faibles. C'est l'une des
épidémies veuille rechercher la corréla- supposition peut dévaluer l'estimation quatre villes situées à l'Est du fleuve
tion existant entre la fréquence réelle d'une moyenne qui est de nature diffé- Lempa. Les taux d'incidence mesurée y
dans chaque ville et des facteurs tels que rente des autres. Nous comprenons de ces quatre villes sont remarquable-
les chutes de pluie, la température, I'alti- maintenant pourquoi on ne doit pas ment bas. On peut supposer que ce n'est
tude ou la population ? Une fois encore, inclure les voitures importées dans les pas une coïncidence et que le taux de
les estimateurs de James-Stein sont à mêmes calculs que les 18 joueurs de toxoplasmose à l'Est du Lempa est réel-
préférer ; un calcul rapide montre qu'ils baseball : il est fort probable que les lement plus faible. Un estimateur de
donneraient une meilleure approxima- automobiles sont de nature essentielle- James-Stein, qui corrobore les rensei-
tion dans 70 pour cent des cas. Dans cer- ment différentes. gnements donnés pour le pays tout
tains cas, la fréquence mesurée peut être Imaginez que nous ignorions ce fait entier, peut, par conséquent ne pas être
bien supérieure à l'estimateur de James- et que nous regroupions ces 19 pro- -et de loin-le meilleur pour ces villes.
Stein pour une ville particulière considé- blèmes ; nous pouvons alors calculer Nous avons développé des tech-
rée isolément. Comme nous l'avons vu, l'erreur totale probable comme une fonc- niques pour tirer profit des renseigne-
la méthode de James-Stein donne de tion du vrai pourcentage de voitures ments supplémentaires de ce genre,
ment égale de la moyenne m, lorsque
tous les joueurs sont inclus dans le cal-
cul. La méthode de James-Stein a
cependant un avantage important sur
celle de Bayes : on peut utiliser l'esti-
mateur de James-Stein sans rien
connaître de la distribution a priori ; en
vérité, on n'a même pas besoin de sup-
poser que les moyennes à estimer
ont une distribution normale.
Malheureusement, l'ignorance a son
prix qu'il faut payer par une réduction
de la précision de l'estimation.
Nous avons énoncé que la méthode
de James-Stein augmente la fonction
de risque d'une quantité proportion-
nelle de 3/k, k désignant encore le
nombre de moyennes estimées : le
risque supplémentaire est négligeable
quand k est supérieur de 15 ou 20 ; il
est encore acceptable jusqu'à k = 9.
Dans ce contexte historique, on peut
considérer l'estimateur de James-Stein
comme une « règle de Bayes empi-
rique » (terme introduit par Herbert E.
9. DES PROBLÈMES INDÉPENDANTS peuvent être regroupés pour être analysés par la Robbins de l'Université de Columbia).
méthodede Stein, mais au risque d'augmenter l'erreur. Aux 18 moyennes à la batte calcu- Dans des travaux commencés en 1951
léesplus haut, on pourrait ajouter un nombre représentant la proportion de voitures impor- environ, Robbins démontra qu'on pou-
téesobservéede Paris. Les nouveaux estimateurs de James-Stein pourraient alors être cal- vait parvenir
au même risque minimum
culéspour les joueurs de base-ball et les automobiles en se fondant sur la moyenne globale qu'avec la règle de Bayes sans
des 19 nombres. Rien, dans le théorèmede Stein, n'interdit un tel procédé, mais le manque
connaître la distribution a priori, à
de logique évident de celui-cia été critiqué à juste titre. En fait, si l'on inclut des données
condition que le nombre de moyennes
sansaucun rapport entre elles, elles ne peuvent réduire la fonction risque que si la propor-
tion de voitures importées est justement voisine de la moyenne à la batte de 0,265. qu'on estime soit très grand. La théorie
Autrement, l'erreur probable d'estimation est augmentée tout à la fois pour les voitures et de Robbins a été immédiatement
pour lesjoueurs de baseball. reconnue comme un progrès fonda-
mental ; le résultat obtenu par Stein,
qui en est très proche, n'a été accepté
mais la théorie sur lesquelles elles rapprochement C est différent ; il qu'avec plus de réticence.
reposent reste rudimentaire. Un fer- dépend de l'écart-type (égal à 0, 015) L'estimateur de James-Stein n'est
vent de baseball pourrait savoir que, de la distribution a priori. pas le seul estimateur qui se soit révélé
tout comme la capacité à la batte de meilleur que les moyennes arithmé-
chaque joueur peut être représentée L'équation de Bayes tiques d'un échantillon. En vérité,
par une loi normale, les capacités l'estimateur de James-Stein est lui-
réelles à la batte de tous les joueurs de Ce procédé n'est pas un raffine- même inacceptable ! Son défaut vient
première division sont également ment de la méthode de Stein ; au de ce que le facteur de contraction c
réparties selon une distribution de peu contraire, il lui est antérieur de deux peut prendre des valeurs négatives, et il
près normale. Cette dernière distribu- cents ans. C'est l'expression mathéma- éloigne alors les moyennes de la
tion a pour moyenne 0, 270 et pour tique d'un théorème du Révérend moyenne globale, au lieu de les en rap-
écart-type 0, 015. Avec cette intéres- Thomas Bayes, publié en 1763 de procher. Quand cela se produit, si on
sante information supplémentaire, que façon posthume. II montrait que cet remplace simplement c par zéro, on
les statisticiens appellent « distribution estimateur minimise l'erreur quadra- obtient un meilleur estimateur. Celui-ci
a priori », il est possible de construire tique probable due au hasard, à la fois est à son tour inacceptable mais on n'a
une meilleure estimation de la capacité pour les moyennes observées (y) et encore trouvé aucun estimateur qui soit
réelle à la batte de chaque joueur. Ce pour les moyennes vraies (#). meilleur en tout point.
nouvel estimateur, que nous noterons La formule de l'estimateur de La recherche de nouveaux estima-
Z est défini par l'équation : James-Stein ressemble de façon frap- teurs continue. Pour des problèmes où
Z = m + C (y-m), pante à l'équation de Bayes. Quand le interviennent des distributions autres
où y désigne encore ici la moyenne nombre de moyennes, dont on fait la que la distribution normale. Plusieurs
observée de chaque joueur à la batte, moyenne arithmétique, est très grand, voies de recherches comprenant celles
mais où la moyenne globale Y a été les deux équations sont équivalentes ; de Stein et Robbins et les méthodes
remplacée par m, moyenne de la distri- les deux facteurs de rapprochement c et plus classiques de Bayes, semblent
bution a priori, dont on connaît la C convergent vers la même valeur et la converger vers une théorie, générale et
valeur : 0, 270. De plus, le facteur de moyenne globale Y devient précisé- puissante, de l'estimation.
Florence Nightingale,

infirmière et statisticienne

Bernard Cohen

Elle sauva la vie de milliers de soldats pendant 1854, les troupes françaises et britan-
niques envahirentla Crimée, sur la côte
la guerre de Crimée et fut l'une des créatrices Nord de la mer Noire, afin de soutenir
la Turquie dans le conflit qui l'opposait
de l'assistance médicale moderne. Elle contribua à la Russie.Les forces alliées remportè-
rent une victoire rapide à la bataille de
également au développement des statistiques l'Alma, le 20 septembre,puis entrepri-
rent le siège de Sébastopol, la base
et de leur représentation graphique. navale russe. Ces événements provo-
quèrent en Grande-Bretagne une allé-
gresse générale qui fit place à la
consternation lorsque le Times signala
FlorenceNightingale s'était L'ange soigneur que des soldats britanniques mouraient
assigné une vaste mission : de maladies et de blessures, faute de
servir l'humanité par la pré- Très tôt, Florence nourrit l'ambition recevoir les moindres soins médicaux :
vention des décès et des de devenirinfirmière. S'il était déjàorigi- on manquait de chirurgiens et même de
maladies évitables.Pendantla nal pour une femme de sa classesociale tissu pour les bandages,et il n'y avait
plus grandepartie de sa longue vie (née d'exercer une profession quelconque, pas une seule infirmière qualifiée. Au
en 1820, elle mourut en 1910), elle celle d'infirmière n'était pas envisa- contraire, les Français avaient envoyé
accomplit cette mission avec acharne- geable.Ces femmes travaillant dans les 50 Soeursde la Charité en Crimée.
ment, notamment lors de la guerre de hôpitaux étaient considérées comme C'était l'occasion rêvée pour
Crimée (1854-1856). Après elle, les ignoranteset ivrognes, voire immorales. l'ambitieuse Florence Nightingale, qui
infirmières bénéficièrent d'une forma- Sesparentslui ayant interdit cette profes- proposa ses services au Ministre de la
tion convenable et de règles de sion, Florencecherchaun réconfort dans Guerre : celui-ci l'envoya à Scutari.
conduite bien définies. Ces acquis, qui la religion et y trouva, toute savie durant, Elle s'embarqua pour la Turquie le 21
paraissent aujourd'hui naturels, n'en une raison d'être et d'agir. Elle lut de octobre 1854en compagniede 38-infir-
résultent pas moins des luttes difficiles nombreuxouvragesconcernantla méde- mières, avec l'appui officiel du gou-
menées par F. Nightingale au XIXe cine et la santé,consacradu temps à visi- vernement (mais sans celui de l'armée)
siècle. Pour prouver le bien-fondé de ter les hôpitauxde Londres et travailla à et surtout un soutien financier privé :
ses idées, elle fit usage de méthodes titre personnel avec les enfants des bas les fonds spéciaux réunis par le Times.
statistiquesd'avant-garde. quartiers, qu'elle appelait ses « petits À son arrivée à Scutari, elle décou-
L'oeuvrede FlorenceNightingale est voleursde Westminster ». vrit une situation épouvantable. Le
plus impressionnante quand on la Finalement,en 1851,elle parvint à se baraquementqui servait d'hôpital était
replace dans le contexte social de libérer de son entouragefamilial et passa infecté de puces et de rats, et construit
l'Angleterre victorienne, très contrai- trois mois en Allemagne, près de sur des égouts d'où remontaient les
gnant à l'égard des femmes.Elle était la Düsseldorf dans un hôpital orphelinat, miasmes. La lessive se faisait à l'eau
fille d'un riche propriétaire terrien, et puis dansun autrehôpitalfrançais,situéà froide et les draps restaient infectés de
sa famille évoluait dans les plus hautes Saint-Germain-en-Laye,dirigé cette fois vermine aprèslavage. Ce sont les épi-
sphèresde la société anglaise.Or, sous par les Soeursde la Charité. De retour à démies du choléra et de typhus qui ont
le règne de la reine Victoria, une Londres en 1853,elle obtint un premier causé le plus grand nombre de morts,
femme de cette classe sociale n'allait « poste »(non rémunéré) de directrice et non les blessures elles-mêmes : en
pas à l'université et n'exerçait aucun d'un « établissement réservé aux dames février 1855, le taux de mortalité de
métier : sa seule finalité était de se de bonnefamille à la santé déficiente », l'hôpital était de 42,7 pour cent. Les
marier et d'élever des enfants. Par où elle devait superviser le travail des autorités militaires refusaient tout
chance, son père considérait que les infirmières,vérifier le matériel médicalet changementpouvant apparaître comme
femmes devaient être instruites et il lui la qualité desmédicaments. l'aveu de leurs erreurs et de leur
enseignalui-même l'italien, le latin, le Elle n'occupa ce premier poste que incompétence.
grec, la philosophie, l'histoire et même pendant un an, car des taches plus En dépit de ces obstacles, et grâce
les mathématiques. importantesl'attendaient. En septembre aux dons privés, elle installa une blan-
chisserie, avec des chaudières servant à résoudre ce problème, l'astronome et sta- Ainsi Charles Dickens détestait cette
faire bouillir l'eau, et elle fournit l'hôpi- tisticien belge Adolphe Quetelet organisa approche statistique, car il la trouvait
tal « en chaussettes, chemises, couteaux, en 1841 le service central de statistiques déshumanisante et il vilipende, par le
fourchettes, cuillères de bois, baignoires de Belgique, qui servit de modèle pour terme péjoratif d'« horloge statistique
métalliques, tableaux et formulaires, d'autres pays. Il introduisit le concept funèbres, les régularités trouvées par
choux et carottes, tables d'opérations, d'« homme moyen » qui lui permit de les statisticiens dans les taux de mala-
serviettes, savons, peignes fins, lotion contourner l'obstacle de l'individu. dies mentales, de crimes, de suicides
pour les poux, ciseaux, bassins et Son travail le plus original et le plus et de prostitution.
oreillers ». Ces taches administratives ne saisissant est son analyse de l'influence Florence Nightingale, en revanche
l'empêchaient pas de s'occuper des de facteurs tels que le sexe, l'âge, l'édu- était une fervente admiratrice des tra-
malades : tard dans la nuit, elle effectuait cation, le climat et les saisons sur le vaux de Quetelet et elle avait manifesté
seule des rondes interminables qui don- taux de criminalité en France. Les très tôt un grand intérêt pour la collecte
nèrent naissance à la légende de « l'Ange chiffres révélaient, selon lui, non pas et l'analyse des données. Ainsi, lors de
soigneurs de Crimée et à l'image de la qui commettrait tel crime particulier, son séjour en Crimée, parallèlement aux
« dame à la lampe », immortalisée par le mais « le nombre d'individus qui réformes qu'elle avait apportées, elle
poète Longfellow. Au printemps de souilleraient leurs mains du sang de avait systématisé les méthodes d'archi-
1855, soit six mois après son arrivée à leurs semblables, le nombre de faus- vage jusqu'alors anarchiques : même le
l'hôpital, la mortalité était tombée de saires ou le nombre d'empoisonneurs ». nombre de morts n'était pas connu avec
42, 7 pour cent à 2, 2 pour cent. La découverte de régularités conduisit certitude. Lorsqu'elle revint en
À
son retour en Angleterre, en juillet Quetelet à conclure : « c'est la société Angleterre, en 1856, elle fit la connais-
1856, Florence jouit d'une renommée et qui prépare tous ces crimes, dont les cri- sance du médecin et statisticien William
d'un respect universels. Elle refuse tou- minels ne sont que les exécutants ». Farr ; à son contact, elle comprit la
tefois les honneurs publics et déclare La « physique sociale » de Quetelet valeur potentielle des données statis-
que la meilleure façon de récompenser était un véritable anathème pour qui se tiques qu'elle rapportait de son expédi-
ses efforts est de mettre sur pied une réclamait de la doctrine du libre arbitre tion pour l'amélioration des soins médi-
commission d'enquête sur la qualité des et de la responsabilité individuelle. caux dans les hôpitaux.
soins médicaux dans l'armée britan-
nique : en Crimée, écrivait-elle, quelque
9 000 soldats sont morts de causes qui
auraient pu être évitées. Les morts
inutiles se perpétuaient tragiquement
dans toutes les casernes et tous les hôpi-
taux, même en temps de paix.
Comment faire admettre la nécessité
des réformes ? Florence comprit que les
meilleurs arguments seraient statistiques.
S'il est naturel aujourd'hui de recourir
aux statistiques (I'analyse des conditions
de vie et de l'efficacité des politiques
sociales), il n'en allait pas de même à
cette époque où les statistiques sociales
n'étaient qu'une science naissante.
Florence Nightingale se révéla également
un pionnier dans ce domaine.

Les statistiques sociales

Certaines préoccupations scienti-


fiques du XIXe siècle étaient propices à
l'apparition des statistiques modernes :
on disposait d'une théorie mathématique
des probabilités ; les états modernes se
munissaient de services spécialisés dans
la collecte d'informations sur les
citoyens ; les économistes politiques
s'ouvraient à la recherche des causes du
comportement humain. Ces derniers se
heurtaient à un dilemme : la science
modèle de cette époque était la physique
1. FLORENCE NIGHTINGALE est, à l'époque où fut prise cette photographie, une vieille dame
classique, qui expliquait les phénomènes combléed'honneur. Devenue infirme peu après son retour de Crimée en 1856, elle ne quitta
naturels par des lois déterministes, tandis pratiquement plus sa chambre jusqu'à sa mort, en 1910, à l'âge de
90 ans. Samaladie n'était
que le comportement humain semblait peut-êtrepas entièrementd'origine somatique, mais elle ne l'empêchait pas d'agir par l'inter-
purement individuel et imprévisible. Pour mediaire desnombreusesvisitesqu'elle recevait et d'une importante correspondance.
Les diagrammes sanitaires. Ainsi le taux annuel de morta- de paix, pratiquement le double de celle
de Florence lité à l'hôpital de Scutari tomba brusque- des civils. En étayant ses affirmations au
ment quand furent appliquées les pre- moyen de ces statistiques, elle réussit à
Des débuts de l'histoire militaire mières réformes sanitaires. À la fin de la attirer l'attention de la reine Victoria et
jusqu'au XXe siècle, ce sont les maladies guerre, la mortalité parmi les soldats bri- du prince Albert. Sa demande d'une
et non les blessures reçues au combat tanniques malades en Turquie n'était, enquête officielle sur l'assistance médi-
qui furent la principale cause de morta- selon Florence, « guère supérieures à cale militaire aboutit, en mai 1857, à la
lité. Les chiffres de Florence sont élo- celle des soldats en bonne santé restés en création d'une commission royale
quents : au cours des premiers mois de Angleterre ; mieux, la mortalité parmi d'enquête sur la santé dans l'armée.
la campagne de Crimée, « la mortalité les troupes britanniques de Crimée À cette époque, il était impossible
parmi les troupes due aux seules mala- n'était que les deux tiers de celle des pour une femme de faire partie d'une
dies [était] de 60 pour cent par an », troupes résidant en Angleterre ». telle commission, mais Florence influa
c'est-à-dire un taux supérieur à celui de Cette comparaison indiquait que les fortement sur ses travaux, car elle lui
la Grande Peste de 1665 à Londres, et soldats restés dans les casernes anglaises fournit la plupart des informations. Elle
même supérieur à « la mortalité par le vivaient dans des conditions sanitaires développa son point de vue dans un
choléra » (c'est-à-dire le taux de morta- insuffisantes. Aussi, Florence eut l'idée livre de 800 pages qu'elle fit imprimer à
lité de personnes atteintes par la mala- de comparer la mortalité des civils à ses frais, sous le titre de Notes relatives
die). Les chiffres de Florence souli- celle des militaires. Elle s'aperçut que à la santé, à l'efficacité et à l'adminis-
gnaient l'importance des maladies et les dans les casernes anglaises, la mortalité tration hospitalière de l'armée britan-
effets de l'amélioration des conditions des soldats de 20 à 35 ans était, en temps nique, qui comportait un chapitre de sta-
tistiques illustrées de diagrammes et que
Farr qualifia de « la meilleure [chose]
qu'on ait jamais écrites, que ce soit sur
les « diagrammes [statistiques] ou sur
l'armée ». Florence Nightingale fit
oeuvre de pionnier dans la présentation
graphique des statistiques : elle inventa
les diagrammes « polaires », où la sur-
face des différents secteurs d'un dia-
gramme circulaire est proportionnelle
au chiffre représenté. Impressionné par
les Notes, Farr reprit une grande partie
de ce travail qu'il prépara pour le rap-
port final de la commission royale.
Pour contrecarrer les forces s'oppo-
sant aux réformes médicales, Florence
fit imprimer la partie statistique du rap-
port et la distribua comme un pamphlet
au sein du parlement, du gouvernement
et de l'armée. Ses efforts ne restèrent
pas vains, car on créa quatre sous-com-
missions chargées d'accomplir des
réformes recommandées par le rapport
de la commission royale. La première
était chargée des améliorations maté-
rielles à apporter aux casernes et aux
hôpitaux militaires dans les domaines
de la ventilation, du chauffage, des
égouts, des cuisines et de l'approvision-
nement en eau, tandis que les autres éta-
blirent un code sanitaire militaire et
réorganisèrent les procédures de col-
lecte des données statistiques.
Florence s'intéressa ensuite à la
santé des soldats en Inde. En 1859,
2. CE DIAGRAMME POLAIRE a été inventé par Florence Nightingale pour faire ressortir le après deux
ans d'efforts, elle parvint à
nombre de morts évitables dans les hôpitaux militaires britanniques au cours de la guerre faire nommer une deuxième commis-
de Crimée (1854-1856).Elle qualifiait ce type de diagramme de « crête de coq ». La surface sion royale chargée d'étudier la
ques-
de chacun des secteurs coloriés est proportionnelle au chiffre représenté. Les secteurs
tion indienne. Les conditions sanitaires
bleus représentent les morts dues à des « maladies évitables ou des maladies zymotiques
traitables » (c'est-à-dire des maladies contagieuses telles que le choléra et le typhus) étaient responsables d'une mortalité,
; les
secteurs rosesreprésentent les morts dues aux blessures et les secteursgris, les morts dues parmi les troupes stationnées en Inde,
a d'autres causes. Le diagramme est tiré de son livre Notes on Matters Affecting the six fois supérieure à celle des civils en
Health, Efficiency and Hospital Administration of the British Army (1858). Angleterre. La commission acheva son
enquête en 1863 et les premières pour appréhender la vérité. Avec ces cales et opératoires. Le problème était
réformes furent appliquées. En 1873, statistiques hospitalières précises et qu'à cette époque les données statis-
après dix ans de réformes sanitaires, régulières, écrivait-elle, « la valeur rela- tiques relevées dans les hôpitaux
Florence faisait savoir que le taux de tive des différentes méthodes de traite- n'étaient ni régulières ni précises. Elle
mortalité des soldats basés en Inde était ment et de certaines opérations pourrait mit donc au point, avec l'aide de Farr et
tombé de 69 pour mille à 18 pour mille. être vérifiée par un test statistique » ; d'autres médecins, un « modèle de for-
Ces exemples montraient que les autrement dit, les statistiques permet- mulaire de statistiques hospitalières »,
statistiques constituaient un moyen utile traient d'améliorer des techniques médi- qui fut adopté au Congrès international

Representing the Relative Mortality of the Army at Home and of the English Male Population at corresponding Ages.

Representing the Relative Mortality, from different Causes, of the Army in the East in Hospital and of the English Male
Population aged 15-45.

3. CES DIAGRAMMES, extraits du rapport de la commission royale, chiffres du diagramme supérieur sont exprimés en pour cent, ceux du
mettent en parallèle les conditions de vie des militaires et des civils. diagramme inférieur en pour mille. Ce rapport a suscité l'adoption
La mortalité dans l'armée en temps de paix était presque le double ded'un code sanitaire militaire et une série d'améliorations matérielles
ce qu'elle était chez les civils (en haut). Au cours de la guerre de dans les bâtiments de l'armée. Comme d'autres diagrammes, ils sont
Crimée, les maladies zymotiques furent la principale cause de morta- des exemplesde l'approche novatrice de Florence Nightingale pour
lité, laquelle était bien plus élevée qu'en Angleterre (en bas). Les ce qui estde la représentation des données statistiques.
de statistiques réuni à Londres en été
1860. Toutefois la collecte régulière de
données dans les hôpitaux restait diffi-
cile, en raison de la complexité du sys-
tème et de nombreuses résistances.

Chaire de statistiques
et école d'infirmières

Florence Nightingale restait très


attachée à ses convictions religieuses ;
selon elle, les lois gouvernant des phé-
nomènes sociaux étaient des lois
divines, que les statistiques allaient
révéler. La science de Quetelet était,
disait-elle, « indispensable à toute admi-
nistration politique et sociale », mais les
responsables politiques étaient parfaite-
ment ignorants dans ce domaine. C'est
pour cette raison qu'elle introduisit
l'usage de différentes représentations
graphiques compréhensibles par tous et
qu'elle lutta pour qu'on enseigne les
statistiques au niveau supérieur ; son
rêve d'une chaire de statistiques à
l'Université n'est devenu réalité
qu'après sa mort. Même de nos jours, la
société ne s'est pas ralliée à son opi-
nion : la preuve en est que l'enseigne-
ment des statistiques n'est pas encore
obligatoire dans les écoles.
Les statistiques occupaient une place
importante aux yeux de Florence, mais
elle souhaitait retrouver le métier d'infir-
mière, le premier « appelde Dieu » ; cette
joie lui fut refusée, car elle resta invalide
une grande partie de sa vie, après son
retour de Crimée. Ce confinement dans
sa chambre, où elle recevait un flot
continu de visiteurs, ne l'empêcha pas
d'exercer son influence ni d'élaborer le
statut professionnel moderne de la profes-
sion d'infirmière. Avec l'argent du Fonds
Nightingale (près de 50 000 livres réunies
par une souscription publique en l'hon-
neur de l' « héroïne populaire »),elle fonda
enfin, en 1860, l'École d'infirmières
Florence Nightingale. Le règlement,
fondé sur ses principes, stipulait : «(1)
que les infirmières doivent recevoir leur
formation technique dans des hôpitaux
spécialement aménagés à cet effet ; (2)
qu'elles doivent habiter dans un lieu où
l'on pourrait leur inculquer des principes
4. LES PERTESD'EFFECTIFS SUBIES PAR L'ARMÉE BRITANNIQUE du fait du taux de
morta- de vie morale et un esprit de discipline ».
lité et d'invalidité excessifs apparaissent sur ces diagrammes extraits du rapport de la Ces deux principes étaient révolu-
Commissionroyale.On admet danschaque casque 10 000 recruesde20 ans viennentsajou- tionnaires à cette époque, et le fait
ter chaque année à l'ensemble des forces armées, et que la carrière militaire d'un soldat en qu'ils soient
couramment admis de nos
bonne santédure 20 ans. Chaquepetit rectanglereprésente1000hommes.Dans les conditions
jours témoigne des services rendus à la
sanitairesinsuffisantesalors en vigueur (diagrammedu bas), décès (en vert foncé) et invalidité
(en jaune) réduisent l'effectif de l'armée (en vert clair) à 141 764 hommes à partir d'un effectifprofession par Florence Nightingale ; ils
théorique de 200 000, soit une perte de 29 pour cent. Si la mortalité avait été aussifaible que ont contribué, autant que n'importe quel
dans la population civile, et si le rapport entre les taux de mortalité et d'invalidité était progrès scientifique, à l'amélioration de
constant,l'effectif total de l'armée aurait augmentéde 166910 hommes(diagrammedu haut). la qualité générale des soins médicaux.
L'épidémiologiste

traque le hasard

Daniel Schwartz

L'épidémiologiste doit parfaitement cerner nom commencepar une autre lettre ; le


nom dépend, entre autres, des ethnies,
les effets du hasard dans l'étude des maladies. des régions. Dans un amphithéâtre, les
élèves du premier rang (quand il y en
D'un adversaire, il se fait alors un allié. a...) diffèrent des autres : souvent ce
sont les plus consciencieux,les plus tôt
arrivés ou ceux qui entendent ou voient
moins bien. Les souris attrapéesen pre-
Lehasardse manifestesouvent tion d'échantillons permettait d'éviter mier sont... des nigaudes.L'expérience
en médecine,notammentlors desrecensementsd'une lourdeur et d'un montre qu'elles sont plus vulnérables
des découvertes, où il joue prix exorbitants. Toutefois on s'aperçut aux maladies.
alors un rôle positif (voir rapidementque les résultats manquaient Dans ces exemples,l'échantillon dif-
1'article de Jean Jacques,Le d'exactitude. Nous savons maintenant fère systématiquementde la population
hasard trouve bien les choses,dans ce pourquoi : on ne prenait en considéra- par un caractèreau moins (la première
dossier).J'ai choisi d'évoquer ici le cas tion ni la représentativité de l'échan- lettre du nom, la place dans l'amphi-
où le hasard est inhérent au sujet tillon ni les fluctuations d'échantillon- théâtre...) ; commeun caractèreest tou-
d'étude. L'épidémiologiste connaîtcette nage.C'est là que le hasardintervient. jours lié à un écheveau de beaucoup
situation : pour mener à bien son projet, Comment obtenir un échantillon d'autres, l'échantillon risque de différer
il doit comprendreet maîtriser au mieux représentatif d'une population ? On de la populationpar de nombreuxcarac-
le hasardet ses manifestations.Le com- constitue souvent des échantillons par tères,peut-êtreprécisémentceuxque l'on
prendre,pour estimerla fréquenced'une des procédéscommodes,en s'imaginant étudie.Un tel échantillonn'est pas repré-
maladie et en déterminerles facteurs, le qu'ils sont « représentatifs ».
Ainsi, dans sentatif ; on dit qu'il est « biaisé ».
maîtriser, pour guérir ou prévenir. la population française, on choisit les Pour éviter tout biais, on doit intro-
sujets dont le nom commence par A. duire dans l'échantillon des sujetschoisis
La fréquence Dans la population des étudiantssuivant indépendammentde toutes leurs caracté-
d'une maladie un cours,on choisit ceux du premierrang ristiques.La seulefaçon d'y parvenir est
dans l'amphithéâtre. Dans un groupe de de recourirau hasard-n'est-ce paslà une
La fréquence d'une maladie est souris d'une race donnée,quandon sou- de ses définitions? Le hasard est la ren-
généralementchiffrée à l'aide de deux haite faire une expériencesur 20 souris, contre de deux chaînes d'événements
indices : l'incidence, ou fréquence des on choisit les20 premièresattrapéesdans indépendantes: ainsi le croisement, au
cas nouveaux dans une période donnée, la cage.Cesméthodessontmauvaises. même instant, de l'itinéraire choisi par
et la prévalence, ou fréquence des cas Les Français dont le nom com- MonsieurN et de la trajectoired'une tuile
présentsdans une période donnée, ou à mence par A diffèrent de ceux dont le qui glissed'un toit et lui tombe surla tête
un instant donné. Ces fréquences sont est un hasard... Ainsi un échantillon
égalesau rapport du nombredesmalades constituépar tirage au sort sera représen-
au nombredessujets ; toutefois, en règle tatif. Malheureusement,le hasard ne se
générale,on ne peut pasles évaluerainsi, laissepasdompteraussifacilement.
car la population-d'un pays, d'une Même tiré au sort, un échantillon
région-est numériquementtrop impor- n'est pas l'image exacte de la popula-
tante.La solutionconsistealors à estimer tion, en raison des fluctuations d'échan-
le taux cherchéà partir de celui observé tillonnage. Lorsqu'on tire au sort des
sur un échantillonplus petit. échantillonsdans une urne contenant20
L'idée de décrire une population à pour cent de boules blanches,on obtient
partir d'un échantillon réduit, à l'aide des échantillons où la proportion de
d'un « multiplicateur »,n'a été imaginée boules blanches fluctue autour de la
que dans la seconde moitié du XVIIIe valeur 20 pour cent. Ces fluctuations
siècle, notamment par l'école d'arith- 1. UN ÉCHANTILLION est rarement sont imprévisibles ; le hasardpeut pro-
repré-
métique politique anglaise.Elle engen- sentatif. Ainsi les animaux faciles à attra- duire n'importe quel écart à la propor-
dra une véritable révolution : l'observa- per sontengénérallesmoinsvivaces. tion dans l'urne (dans la population).
À l'impossible certitude, la four- L'évaluation
chette apporte le remède (partiel) de des traitements
l'incertitude contrôlée. Le triomphe de
cette solution ne fut pas aisé. Entre le L'évaluation des traitements chez
moment où l'on conçut l'idée révolu- l'homme est une pratique récente. Dans
tionnaire du jugement sur échantillon le cas de la méningite tuberculeuse, un
et celui où l'on proposa le calcul seul succès a suffi à la consécration de
d'intervalles de confiance valables la streptomycine (un antibiotique), car
s'écoulèrent deux siècles parsemés de cette maladie ne guérit jamais spontané-
longs et âpres combats. Le premier ment. De telles situations sont excep-
conflit, qui portait sur le principe tionnelles. Dans la plupart des maladies,
même du jugement sur échantillon, certains patients guérissent, d'autres
dressa les tenants du tout (exact mais non, spontanément ou sous traitement.
onéreux) contre ceux de la partie L'objectif est de savoir si la probabilité
2. UNE FOURCHETTE correspond a un (moins onéreuse mais moins exacte). de guérir est supérieure avec traitement
risque ; a gauche le risque de perdre est
La deuxième querelle, une fois admise ou sans traitement, ou avec un nouveau
plus faible, mais comparez les récom-
la nécessité de l'échantillon, opposa les traitement plutôt qu'avec l'ancien.
penses !
partisans du choix judicieux des sujets C'est ici qu'intervient la démarche
Cependant, on s'en doute, tous les écarts à ceux de leur tirage au sort. C'est seu- statistique. Les agronomes ont adopté
ne sont pas également vraisemblables ; lement en 1934 que le célèbre statisti- les premiers une telle démarche, pour
les très grands écarts sont très peu pro- cien Jerzy Neyman y mit un terme en comparer des engrais. La première
bables. Au moyen du calcul des probabi- montrant la supériorité du tirage au approche statistique en médecine date
lités, le statisticien définit un intervalle sort : son principal argument est que de 1948 : sous la direction de Bradford
autour du taux observé, intervalle qui celui-ci engendre un échantillon com- Hill, une équipe du Medical Research
contient probablement le vrai taux : c'est parable en moyenne à la population Council souhaitait éprouver l'action de
« I'intervalle de confiance » ou, plus cou- pour tous les caractères connus ou la streptomycine, cette fois sur la tuber-
ramment, la « fourchette ». inconnus des sujets, ce que ne peut culose pulmonaire. Depuis cette
Si l'on ne peut connaître le vrai taux faire aucun choix raisonné. innovation, la méthodologie sans cesse
par échantillonnage, peut-on au moins le Ainsi apparaît-il que, pour l'estima- perfectionnée confère à l'évaluation des
situer avec certitude dans la fourchette ? tion d'une fréquence, le statisticien et traitements une rigueur autrefois réser-
Non. Le hasard étant capable de tous les le hasard procèdent à des échanges vée aux expériences de laboratoire.
caprices, on ne peut raisonner qu'en subtils : le hasard règne en maître et La méthode statistique d'évaluation
termes de probabilités, et la fourchette n'a peut tout se permettre, mais le statisti- des traitements consiste à comparer
de signification qu'assortie d'un certain cien restreint son pouvoir, en acceptant deux groupes de malades : un groupe
risque d'erreur. On adopte souvent un de courir un risque d'erreur préalable- « traité »recevant le nouveau traitement à
risque de cinq pour cent : cinq fois sur ment choisi. Pour ce faire, il fait parti- évaluer et un groupe « témoin »recevant
cent, le taux mesuré sur l'échantillon ciper le hasard dans un tirage au sort ; le traitement de référence, en principe le
n'est pas le bon, le vrai taux étant en il emprunte son arme pour le maîtriser ! meilleur connu à l'époque, ou ne rece-
dehors de la fourchette. On peut diminuer Qui fait la loi, qui la subit ? En outre, le vant aucun traitement s'il n'en existe
le risque d'erreur, mais alors la fourchette hasard ne peut pas vraiment « tout se aucun. Supposons que chacun des deux
grandit et perd son intérêt : ainsi quand permettre », car certains résultats ont groupes comporte 200 malades, et que
on dit que le vrai taux est dans la four- une probabilité quasi nulle : ils sont l'on observe 50 pour cent de guéris dans
chette de 0 à 100 pour cent, le risque quasiment impossibles. l'un et 30 pour cent dans l'autre. Ces
d'erreur est nul ! Le seuil pourcentages observes sont
habituel de cinq pour cent n'a certes différents, mais ce
pas une valeur d'obligation ni qui nous importe, c'est de
un sens magique. Il présente savoir si les vrais taux de
simplement quelques avan- guéris, les probabilités de
tages pratiques : c'est d'abord guérison, diffèrent ; souve-
un risque faible, c'est ensuite nons-nous en effet que les
un chiffre « rond » (c'est un taux observés s'écartent
pari à 20 contre 1), enfin la plus ou moins des vrais taux
détermination de la four- en raison des fluctuations
chette correspondante ne d'échantillonnage. On a
nécessite qu'un calcul simple, assez dit que, dans ces fluc-
sansconsultation de tables. tuations, le hasard « peut
Bien entendu, il existe tout faire » ; il peut conduire
3. MESURE DU TAUX de séropositifs pour le SIDA dans une popula- à des
une infinité de fourchettes, taux de guéris très dif-
tion. On a observé25 séropositifssur un échantillon représentatif de
une pour chaque risque férents alors que les chances
5 000 sujets, soit un taux de cinq pour mille. Ce taux observé n'a de
d'erreur adopté. On doit trou- de guérison sont égales, et à
signification qu'assorti d'une fourchette : le risque que le vrai taux
ver un compromis entre le sorte d'une fourchette comprise entre3pour mille et 7 pour mille est
des taux voisins ou même
risque acceptable et le souci acceptable (en haut). On peut diminuerce risque, mais alors lafour- identiques alors que les
de précision (voir lafigure 3). chette est plus large,et devient moins intéressante(en bas). chances de guérisons sont
du hasard est inférieure à cinq pour ment de référence ; ou bien les deux
cent. Elle est d'autant plus significative groupes de malades étaient dans deux
que cette probabilité est plus faible. Une hôpitaux différents. C'était supposer
fois encore, le duel entre le statisticien que les malades de deux époques diffé-
et le hasard apparaît : ce dernier peut rentes, ou de deux hôpitaux différents,
tout faire, la certitude est exclue, mais le sont semblables. Cette hypothèse est
statisticien peut conclure avec un risque généralement fausse, pour la même rai-
d'erreur consenti. son qu'un échantillon composé d'élé-
Cependant, le hasard intervient une ments choisis n'est pas représentatif :
fois encore : si la différence est signifi- les caractéristiques qui déterminent
cative, nous ne l'attribuerons pas au l'appartenance des sujets à l'un ou
hasard, mais résulte-t-elle pour autant l'autre des groupes (année, lieu de trai-
de la différence de traitement ? tement) sont liées à un écheveau de
4. EN L'ABSENCE DE TIRAGE AU SORT, L'exemple suivant invite à la réflexion. beaucoup d'autres. Les groupes ainsi
on risque de sélectionner des individus très Dans un centre anticancéreux, on formés sont vraisemblablement diffé-
particuliers. Ici, le plus facile à attraper. confronta les taux de survie des rents à de nombreux égards. Deux
malades traités, l'un par un médecin A, groupes ne sont comparables que si
différentes. Par quel moyen décide-t-on I'autre par un médecin B, avec le même l'inclusion d'un sujet dans chacun d'eux
qu'une différence de taux entre deux protocole thérapeutique. Les résultats est indépendante de toutes ses caracté-
groupes est « significative » ? En effec- étaient significativement différents : le ristiques. On les obtient de la même
tuant un test statistique. Son principe taux de survie était inférieur dans le manière que dans le cas de l'échantillon
est le suivant. groupe traité par le médecin A. Celui-ci représentatif : par tirage au sort.
On émet l'hypothèse que le vrai était en fonction depuis peu dans le La technique du tirage au sort est
taux de guéris est le même dans les centre ; on peut imaginer son inquié- nommée « randomisation », du mot
deux groupes, et on calcule la probabi- tude s'il avait connu les résultats. anglais random, lui-même emprunté au
lité p d'obtenir, sous cette hypothèse, Cependant avant toute diffusion, on terme du vieux français randon (d'où
une différence au moins aussi grande compara soigneusement les deux vient randonnée). Cette démarche statis-
que celle observée. Si cette probabilité groupes de malades à leur entrée dans tique pose, bien sûr, des problèmes
est faible, on rejette l'hypothèse. Ainsi, le centre. II apparut que le médecin A, éthiques : chaque malade souhaite rece-
dans le cas des deux groupes de 200 de grande renommée, avait attiré les voir le meilleur traitement. Toutefois, les
malades avec 50 et 30 pour cent de gué- cas les plus graves : les groupes divers comités d'éthique, nationaux et
ris, le calcul montre que, si les vrais n'étaient pas comparables. Il est clair internationaux, ont estimé qu'elle est
taux de guérison étaient les mêmes avec que, pour attribuer une différence à un non seulement acceptable mais même
les deux traitements comparés, on aurait facteur, on doit confronter deux indispensable, à condition que soit réali-
moins de I chance sur 10 000 d'obser- groupes comparables à tous égards, sée la « condition d'incertitude », c'est-à-
ver une telle différence de taux. L'hypo- excepté pour ce facteur. dire que l'on ne sache pas lequel des
thèse d'égalité des vrais taux de guéri- Comment obtenir des groupes com- traitements est le meilleur. Cette condi-
son est donc très invraisemblable. parables ? On a longtemps utilisé des tion est réalisée plus souvent qu'on ne
Autrement dit, la différence observée moyens simples et-en apparence- le pense : certes, on espère que le nou-
est significative. satisfaisants. Ainsi le groupe traité était veau traitement sera le meilleur, mais ce
Habituellement, on considère constitué par les patients de l'année en n'est pas prouvé, et on ignore ses éven-
qu'une différence est significative cours, le groupe témoin, par ceux de tuels effets secondaires. Il est alors indi-
quand la probabilité p calculée est infé- l'année passée, traités avec le médica- qué de répartir les sujets au hasard entre
rieure à cinq pour cent. les deux groupes, à la fois
Plus cette probabilité est pour des raisons éthiques et
faible comparée a cinq statistiques.
pour cent, plus le degré de
signification est élevé. Les facteurs
Dans l'exemple présenté de risque
plus haut, oùp = 1/10 000,
il est peu vraisemblable L'étude des facteurs de
que la différence provienne risque d'une maladie (I'étio-
des hasards de l'échan- logie) est un volet important
tillonnage, et très vraisem- de l'épidémiologie. Une défi-
blable qu'elle traduise une nition du risque d'un événe-
différence réelle : la diffé- ment est la probabilité qu'il
rence est hautement signifi- se produise, éventuellement
cative. au cours d'une période don-
5. COMPARAISON DE DEUX TRAITEMENTS. Deux groupes comparables
Résumons-nous : une née. Le risque d'une maladie
reçoivent deux traitementsA et B. La différence de taux de guérison
différence est significative est une façon d'exprimer sa
est significative : en effet, si l'on supposeque les deux groupes ont
si la probabilité d'observer fréquence ; ainsi le risque
le même taux de guérison, la probabilité d'obtenir une différence au
une différence de cette moins aussi grande que celle observée (50 %-30 %) est inférieure à annuel d'une maladie s'iden-
importance par le seul fait 1 pour 10 000 ; cettehypothèseest donc très improbable. tifie à son incidence annuelle.
la fréquence concerne la Les risques ainsi calcu-
population, tandis que le lés sont très disparates
risque s'attache surtout à puisque, entre les deux cas
l'individu. C'est pourquoi extrêmes des sujets présen-
l'on recherche une person- tés, le risque varie de 1 pour
nalisation maximale du mille à 100 pour mille.
risque, en tenant compte Jusqu'où peut nous mener
desfacteurs de risque. cette voie ? La connaissance
Est facteur de risque de nouveaux facteurs per-
tout élément corrélé à mettra-t-elle de diviser une
l'apparition de l'événement. population où le risque est
Le taux annuel d'infarctus de quatre pour mille en
dans une population aug- deux groupes de sujets,
mente avec l'âge : l'âge est dont l'un comporte les
un facteur de risque. quatre individus qui feront
Supposons que, dans un sûrement un infarctus dans
groupe de sujets, la fré- l'année, et l'autre les 996
quence annuelle de l'infarc- 5. LA DFTERMINATION DES FACTEURS DE RISQUE permet de pla-qui n'en feront sûrement
tus atteigne quatre pour cer des individus dans des catégories. On personnalise ainsi le calcul pas ? La réponse à une telle
mille ; pour un sujet dont on de risque, ici le risque de décès par crise cardiaque. question est négative, et ce
ignore tout, le risque annuel pour deux raisons. La pre-
d'infarctus est quatre pour mière est qu'on n'arrivera
mille. Si, dans ce groupe, on sait qu'un fumer d'un individu, mais aussi le probablement jamais à connaître tous
sujet a 80 ans, on tiendra compte de nombre de cigarettes qu'il fume. Le test les facteurs de risque. La seconde est
cette information en évaluant son risque sera quelque peu modifié dans sa forme, que, même si on les connaissait, on ne
dans le sous-groupe des sujets de 80 mais pas dans son principe. parviendrait pas à exclure l'imprévisi-
ans. On trouvera ainsi une nouvelle La deuxième étape consiste à définir bilité d'une maladie.
valeur, supérieure à quatre pour mille, des cellules de facteurs de risque : Un autre exemple illustre les
mieux adaptée au sujet. l'ensemble des sujets qui sont fumeurs limites de la prévision : le conducteur
Cette nouvelle valeur semble plus et qui ont une cholestérolémie et une au volant de sa voiture encourt un
réaliste, mais elle n'est pas pleinement tension artérielle élevées forme une cel- risque d'accident qu'on estime au
satisfaisante ; on a supposé que le lule ; la proportion de sujets faisant un mieux en fonction de son âge, de son
risque est le même pour tous les sujets infarctus dans cette cellule sera une esti- type de voiture, de l'alcool absorbé...,
de 80 ans. Précédemment, on ignorait mation du risque annuel de ces sujets, et mais sans pouvoir jamais tenir compte
tout facteur de risque, maintenant on le hasard interviendra dans la nécessité des imprévus du parcours.
ignore tout facteur de risque autre que d'établir une fourchette, comme on l'a Ainsi il apparaît que le risque résulte
l'âge : la frontière de l'inconnu a seule- vu dans l'étude de la fréquence d'une à la fois de l'ignorance et du hasard.
ment reculé d'un pas. En prenant en maladie. Quand on considère plus fine- Pour personnaliser un risque de maladie,
compte de nouveaux facteurs, la cho- ment le nombre de cigarettes fumées et l'épidémiologiste réduit la part d'igno-
lestérolémie, puis la tension artérielle, les valeurs de la cholestérolémie et de la rance pour se rapprocher aussi près que
puis l'usage du tabac, on pourra placer tension, le nombre des cellules devient possible de la situation où la seule
le sujet dans des sous-groupes de plus infini (les facteurs sont des variables composante du risque est le hasard pur,
en plus réduits. D'étape en étape, le continues) ; on doit alors utiliser une semblable à l'issue d'un lancer de
risque changera au gré des informa- méthode différente, mais le principe de pièce ou d'un jeu de loterie. Ce hasard
tions, cernant de plus en plus près une l'intervention du hasard par une four- là est irréductible, quel que soit le
probabilité personnalisée. chette reste le même. niveau de l'information ; on ne saurait
Le travail de l'épidémiologiste Ces deux étapes de l'épidémiologie le confondre avec l'ignorance au sens
comporte ainsi deux étapes. Dans la limitent-elles le rôle du hasard à ce que habituel du mot.
première, il détermine le plus grand nous avons vu précédemment, c'est-à- Cette distinction entre l'ignorance
nombre possible de facteurs de risque. dire à l'utilisation du test statistique et à et le hasard a été parfois contestée.
Dans la deuxième, qui en est l'aboutis- la détermination d'une fourchette ? Non. Pour Laplace, le hasard représente
sement-nous dirions presque la Il semble que l'établissement du risque seulement l'expression de notre igno-
récompense-, il utilise ces facteurs pose un problème particulier, qui rance. « Tout phénomène, si minime
pour établir un risque personnalisé. conduit à réfléchir sur la définition soit-il, a une cause, et un esprit infini-
La première étape vise à comparer, même du hasard. Considérons ment puissant, infiniment bien informé
par exemple, les pourcentages d'infarc- l'exemple suivant : dans une étude des lois de la nature, aurait pu le pré-
tus chez les fumeurs et chez les non- menée il y a quelques années dans une voir dès le commencement des
fumeurs ; elle utilise les mêmes population d'hommes de 50 ans, le siècles. » Cette vue théorique n'est
méthodes que pour la comparaison des risque annuel de l'événement infarctus guère féconde ; l'épidémiologiste pré-
pourcentages de guéris avec deux traite- ou mort subite était de quatre pour fère considérer, d'une part les facteurs
ments A et B, à savoir le test statistique. mille. Le tableau de la figure 5 donne le de risque, qu'il cherche à identifier et,
Sans doute peut-on aller plus loin, en risque estimé pour deux sujets ayant des d'autre part, le hasard, insaisissable
considérant non seulement l'habitude de facteurs de risque extrêmes. autrement que par une fourchette.
L'évaluation

et la gestion des risques

Granger Morgan

Une mauvaise évaluation des risques conduit rent du plomb dans l'environnement, et
comment ce métal s'accumule dans
à des décisions parfois désastreuses. l'organisme des enfantsqui inhalent ou
ingèrent des poussières.Puis on analyse
Les ingénieurs ont récemment mis au point les effets des expositions au plomb :
l'augmentation des quantités de plomb
des techniques rationnelles d'évaluation des risques. dans le sang réduit-elle les perfor-
mancesintellectuelles?
L'exposition à un polluant ou à
d'autres dangers est suivie d'une cas-
Nousvivons bien plus long- l'ensemble des citoyens ; ainsi seule- cade d'événements complexes, aux
tempset en bien meilleure ment accepteront-ils les conséquences effets variés. Cependant on peut repré-
restons préoccupés
santé qu'autrefois, mais parfois désagréablesdesdécisions. senter ces effets par des fonctions qui
par Nos sociétés ont de nombreux pro- associentun seul nombreà chaquedegré
notre santé, notre sécurité blèmes à résoudre : le SIDA, I'alcoo- d'exposition. Par exemple, le risque
et notre environnement.Les industriels lisme, l'amiante, la contamination de la moyen de cancer est proportionnel à la
qui prônent des techniques impopu- nourriture et de l'eau potable... Par consommation de cigarettes : une
laires, ainsi que les membres des orga- ailleurs, les progrès scientifiques et consommation quotidienne de 10 ciga-
nismes de protection de l'environne- sociaux apportent leur lot de difficul- rettes multiplie généralementpar 25 la
ment, pensentque le public évalue mal tés, tels le réchauffement du Globe, la probabilité de cancerdu poumon, et une
les risques de maladies,d'accidents ou surpopulation ou les risques liés au consommation quotidienne de 20 ciga-
de catastrophes : les citoyens deman- génie génétique. Pour limiter ces rettesmultiplie cette probabilité par 50.
dent au gouvernement de faire des risques, les responsables politiques L'étude de l'exposition aux risques
efforts considérables pour limiter des doivent non seulement évaluer leur et de leurs effets est souvent pleine
risques mineurs qui les angoissent,mais importance, mais aussi adopter de nou- d'incertitudes ; cette incertitude est au
ignorent presqueentièrementdesrisques velles règles de communication et être coeur de la définition du risque. Les
bien plus graveset plus répandus. à l'écoute du public, au lieu de le gaver risques sont généralement connus en
Toutefois l'expérience semblemon- d'informations. termes de probabilités, mais la survenue
trer que le public est conscient des Paradoxalement l'évaluation des d'événements particuliers est souvent
risques qui le menacent. Au cours des risques s'est affinée, alors que la très imprévisible : les compagnies
dernières décennies, il a accepté de confiance publique à l'égard des ges- d'assurancessaventestimer précisément
nombreusesmesuresvisant à limiter ces tionnaires du risque diminuait. On sait le nombre annueld'accidents de la route
risques : le tabagisme,qui a considéra- aujourd'hui analyser rationnellement et en France, mais elles ne peuvent évi-
blement diminué, est de moins en moins quantifier les dangerspotentiels, afin de demment pas prédire quel automobiliste
bien supportépar la société ; l'alimenta- fournir au public, à ses élus et aux seratué ou blessédansun accident.
tion s'est allégéeet enrichie en fibres ; administrations des faits précis sur les- Pour d'autres risques, comme ceux
des efforts de sécurité routière ont été quelsils peuventfonder leurs décisions. liés à des techniquesnouvelles ou à des
faits (réduction des vitesseset port obli- Analyser les risques consiste
gatoire de la ceinture de sécurité). d'abord à distinguer l'exposition au
Les spécialistes du risque ont danger et ses conséquences. On exa- 1. LA CATASTROPHE AFRIEYNE de Madrid
observé que le public est très sensible mine les phénomènes susceptibles de en novembre1983,a tué183 personnes. Le
aux risques lorsque les gouvernements nuire aux personnes, aux écosystèmes risque (faible) de décès par accident
d'avion est un prix que la sociétéaccepte
et des institutions l'en informent. La ou aux oeuvresd'art exposées; puis on
définition populaire du risque est plus depayerpour un transport rapide et pra-
chercheles effets possiblesde ces expo-
tique dans le monde.Certains systèmes,
large et, peut-être, plus rationnelle que sitions. Ainsi, pour étudier les risques telles les centrales nucléaires, font peu de
celle des spécialistes. La gestion des d'intoxication au plomb des enfantsqui morts mais sont très réglementés,tandis
risques requiert des choix politiques, vivent dans des bâtiments vétustes, on que d'autres,commela circulation auto-
économiques et sociaux qui, dans une commence par observer comment les mobile, sont très meurtriers mais mobili-
démocratie, doivent être faits par peintures anciennesqui s'écaillent libè- sent peu le public.
événements ayant rarement des effets système doit être décrit de plusieurs corrigé de nombreux risques, tels ceux
néfastes, l'incertitude est plus générale : façons avant que les analystes en saisis- qui sont liés à l'acheminement de mul-
on ne peut ni prédire les événements sent toute la complexité et, même alors, tiples circuits de commande dans une
individuels, ni même calculer les proba- ils ne sont jamais certains d'avoir iden- même zone. De même, les ingénieurs de
bilités de l'exposition. En l'absence de tifié tous ses modes de défaillance. la Société Alcoa ont utilisé les arbres de
données actuarielles fiables, les ana- défaillances pour étudier la sécurité de
lystes recherchent d'autres méthodes Les arbres de défaillance leurs fours de grande capacité. Sur la
pour estimer la probabilité d'exposition base de leurs résultats, la société a
et les effets associés. Les progrès réali- Après avoir recensé les différents révisé ses normes de sécurité et imposé
sés dans l'évaluation des risques, au modes de défaillance d'un système, on l'utilisation de commandes program-
cours des 20 dernières années, provien- estime la probabilité de chaque mode à mables dans les zones dangereuses ;
nent surtout de la découverte de l'aide d'un arbre qui décrit les compo- pour prévenir les fuites, elle a égale-
méthodes d'analyse des risques rares. sants du système et qui montre com- ment instauré des systèmes de contrôle
Dans une de ces méthodes couram- ment le dysfonctionnement de chaque rigoureux des vannes de fermeture auto-
ment utilisées, nommée analyse du composant perturbe le fonctionnement matiques, pour prévenir les fuites, et
mode de défaillance et des effets, on général. Grâce à cet arbre, on détermine ajouté des alarmes signalant aux opéra-
recherche tous les événements suscep- le risque de panne du système entier, teurs de fermer les vannes manuelles
tibles de mettre un système hors d'état, dans des conditions données, à partir de lors des pannes. Ces modifications
puis on étudie, aussi exhaustivement la probabilité de panne de chaque com- auraient divisé par 20 le risque d'explo-
que possible, les différentes successions posant. En 1975, Norman Rasmussen, sion. Des sociétés chimiques comme Du
de causes (« modes »)par lesquelles ces du Massachusetts Institute of Pont de Nemours, Rhône Poulenc et
événements peuvent produire la Technology, fut l'un des premiers à uti- Monsanto emploient aussi cette
défaillance du système (par exemple, un liser cette méthode pour estimer la sécu- méthode pour concevoir les processus de
réservoir de produit chimique peut fuir rité des réacteurs nucléaires. Les arbres fabrication, choisir les sites d'implanta-
parce qu'une soudure lâche ou qu'un de défaillance sont aujourd'hui couram- tion de leurs usines et évaluer les risques
court-circuit, dans le système de refroi- ment utilisés dans l'industrie nucléaire liés au transport des produits chimiques.
dissement, provoque sa surchauffe, puis et dans d'autres domaines. L'analyse du risque consiste non
son explosion). Dresser la liste exhaus- La Société Boeing utilise les arbres seulement à évaluer la probabilité des
tive des modes de défaillance est moins de défaillance pour concevoir ses gros événements nuisibles, telle l'avarie d'un
simple qu'il n'y paraît. En général, un porteurs. Ses ingénieurs ont identifié et équipement crucial, mais aussi à estimer
2. LAGESTlON DES RISQUES commence par l'étude des popula- Finalement on évalue les coûts et les bénéfices de ce risque. Pour
tions et de l'environnement exposés à une nuisance, comme les gérer correctement les risques, on doit également définir les
émissions d'une centrale électrique au charbon (à gauche). règles sur lesquelles se fonde la prise de décision, et s'assurer
Après avoir quantifié les effets de l'exposition (deuxième illustra- que tous les effets possibles ont été pris en compte-ce que l'on
tion), on analyse les réactions du public face au risque. néglige souvent de faire.

d'autres inconnues : en cas de fuite d'un mettent à des analystes entraînés de réali- dait de classer différentes activités par
réservoir de produit chimique, estimer ser des projets qui, il y a seulement une ordre de risque croissant, donnait un
la quantité exacte de polluant déversé, dizaine d'années, semblaient réservés aux classement qui ne correspondait pas à
la forme de la courbe dose-réponse chez organisations les plus puissantes. Une l'ordre du nombre des décès liés à ces
les personnes exposées, et la vitesse des formation reste nécessaire, mais l'évalua- activités : on en avait déduit qu'il éva-
réactions qui transforment le contenu du tion rigoureuse des risques devrait deve- luait mal les risques et que son avis ne
réservoir en composés plus ou moins nir plus facile, donc plus fréquente. méritait pas d'être pris en compte.
toxiques. Ces incertitudes sont souvent Toutefois les psychologues ont étu-
représentées par des histogrammes La perception dié en détail la perception publique des
décrivant les probabilités qu'une sociale des risques risques et découvert qu'elle était bien
variable prenne une valeur donnée, à plus subtile. Quand on demande au
l'intérieur d'un intervalle de valeurs. Les spécialistes du risque ne s'arrê- public de classer des risques bien identi-
Pour estimer la probabilité de panne tent pas à la détermination de la proba- fiés selon le nombre de décès et d'acci-
d'une pièce ou assigner un intervalle bilité des événements nocifs et à la des- dents qu'ils occasionnent chaque année,
d'incertitude à une variable essentielle cription de leurs effets : ils étudient on obtient d'assez bons résultats ; en
d'un système, on utilise parfois des don- ensuite les mécanismes psychologiques revanche, le classement par ordre de
nées recueillies dans d'autres systèmes et sociaux de perception et d'évaluation. risque est très différent. Pour le public, le
similaires : même dans une usine chi- La façon de percevoir et d'évaluer les risque n'est pas uniquement le nombre
mique de conception nouvelle, par risques détermine le choix, parmi tous prévu de décès ou de blessures par unité
exemple, les diverses pièces des turbines les événements nuisibles susceptibles de de temps : les individus classent les
à vapeur sous haute pression sont iden- se produire, de ceux que l'on juge risques selon leur compréhension des
tiques à celles des usines préexistantes. importants et contre lesquels on veut se événements, la répartition du danger,
Malheureusement on ne dispose pas prémunir ; chacun de nous a des règles leur capacité à se soustraire à ce danger
toujours de données concernant des sys- pour évaluer les différents risques, choi- et leur volonté d'assumer le risque.
tèmes analogues. Les analystes élabo- sir le risque à traiter et décider des Le public évalue les risques selon
rent alors des modèles prédictifs qui se moyens de lutte à mettre en oeuvre. La trois types de critères. Le premier dépend
fondent sur les éléments connus de sys- gestion des risques oblige les sociétés à du degré d'atrocité d'un événement
tèmes aussi semblables que possible, et, identifier les problèmes qu'elles jugent (selon les effets produits ou le degré
souvent, ils s'en remettent aux juge- prioritaires et à déléguer à des personnes d'innocence des victimes, par exemple) ;
ments subjectifs des spécialistes. Une le pouvoir de décider, une fois les le deuxième est lié à la compréhension
telle approche est généralement biaisée, risques définis, ceux qui seront traités. du risque, et le troisième est fonction du
mais l'analyse quantitative des risques Longtemps les économistes et les nombre d'individus exposés. Ces trois
conserve l'avantage de révéler explicite- experts industriels ont perçu les risques types de critères définissent un «espace
ment les hypothèses et les biais. en termes de valeurs moyennes. Par de risque ». Les réactions du public face
Il y a quelques années, l'analyse exemple, travailler quelques heures à un danger dépendent de la position de
détaillée des risques nécessitait des dans une mine de charbon, manger des ce danger dans un tel espace : il réclame
mois de programmation spécifique, et sandwichs au beurre de cacahuète tous plus de protection contre les risques qui
plusieurs semaines de calcul sur de gros les jours pendant des mois et vivre cinq présentent un degré élevé d'atrocité que
ordinateurs. Aujourd'hui des pro- ans près d'une centrale nucléaire sont contre les risques quotidiens, qui provo-
grammes puissants et polyvalents calcu- trois situations qui augmentent le risque quent pourtant davantage d'accidents.
lent les probabilités. Ces programmes, de décès d'environ un millionième ; elles Pour évaluer les risques, le public uti-
exécutables sur des ordinateurs person- semblaient correspondre à trois risques lise inconsciemment des critères empi-
nels, révolutionnent la discipline : ils per- équivalents. Le public, à qui l'on deman- riques qui sont généralement assez
Le calcul des bénéfices nets des dif-
férentes stratégies est parfois complexe.
Par exemple, les coûts et bénéfices ne
sont pas toujours proportionnels à la
quantité de polluant émis ou à l'argent
dépensé pour combattre le risque. En
outre, les bénéfices et les coûts d'une
même stratégie ne sont pas toujours
mesurés avec les mêmes unités.
Toutefois, même quand on ne peut pas
estimer la valeur absolue des bénéfices
et des coûts, on peut faciliter la prise de
décision en utilisant des critères relatifs
comme le rapport bénéfices/coûts.
Le deuxième type de règles est
fiables, mais qui introduisent parfois des règles : les règles d'usage, les règles de fondé sur le droit : la notion de justice
biais : par exemple, il sous-estime d'un droit et les règles technologiques. Pour remplace alors celle d'efficacité. Dans
facteur 10 la fréquence des causes de établir le premier type de règles, on la plupart des règles fondées sur
décès les plus fréquentes, comme les recherche la stratégie qui produit le plus l'usage, toute évaluation demeure sub-
attaques vasculaires, les cancers ou les de bénéfices nets : on dresse le bilan des jective ; en revanche, les règles juri-
accidents, alors qu'il surestime de plu- bénéfices et des coûts de chaque straté- diques définissent des actions qu'une
sieurs ordres de grandeur la fréquence de gie, on compare les bilans et on retient partie ne peut mener sans le consente-
causes de décès exceptionnelles, comme la stratégie la plus efficace. ment de l'autre, indépendamment des
le botulisme (une intoxication due à la Pour établir ce premier type de coûts et des bénéfices.
contamination des aliments par la bacté- règles, on utilisait auparavant des esti- Le troisième type de règles dépend
rie Clostridium botulinum). mations fixes de la valeur des bénéfices de l'état des techniques dont on dispose
Ces biais semblent dus à la « heuris- et des coûts. Aujourd'hui l'on utilise pour limiter le risque. Ces règles pres-
tique de la familiarité ». Les gens évaluent plutôt des estimations probabilistes, afin crivent généralement « les meilleures
souvent la probabilité d'un événement de tenir compte de l'incertitude des pré- techniques disponibles » ou des rejets
selon la facilité avec laquelle ils se remé- visions. Les décisions finales sont « aussi faibles que le permettent les
morent ou s'imaginent un tel événement. exprimées en termes d'espérance techniques actuelles ». Leur application
Bien que l'attaque vasculaire cérébrale mathématique, mais on utilise parfois est parfois difficile, car les différentes
soit une causede décès très commune, les d'autres critères. Par exemple, pour évi- parties concernées s'accordent rarement
gens n'en ont connaissanceque lorsqu'un ter un désastre, on adopte une stratégie sur les définitions des termes « dispo-
ami, un parent ou une célébrité en meurt ; « minimax » : on minimise les dégâts nibles » et « permis par les techniques
en revanche, presque toutes les intoxica- produits par l'événement le plus délé- actuelles ». En outre, les progrès tech-
tions botuliques sont signalées par les tère, même si c'est au détriment de la niques modifient parfois les objectifs
médias. Ce biais, et d'autres, n'est pas moyenne des résultats de cette stratégie. fixés aux législateurs et aux industriels.
l'apanage du public : les spécialistes en
sont eux-mêmes parfois victimes
lorsqu'ils évaluent des probabilités.

Les moyens de lutte

Contre les risques identifiés et jugés


suffisamment graves, de quels moyens
de lutte dispose-t-on ? Comment fixer le
budget consacré à cette lutte, et à qui
confier la lutte ? Plusieurs stratégies sont
possibles : prévenir l'origine du risque,
diminuer les expositions, modifier leurs
effets, changer la perception et l'évalua-
tion publiques du risque par des cam-
pagnes d'information, indemniser les
victimes. La pertinence de chaque stra-
tégie dépend du risque considéré.
Avant de décider d'un mode d'inter-
vention, les gestionnaires des risques
doivent définir les règles qui leur per-
mettront de juger de la gravité des pro-
blèmes, de l'attention, des efforts et du 3. UN MODÈLE INFORMATIQUE des concentrations en (les concentrations maximales
ozone
budget éventuellement consacrés à un sont en rose, et les concentrations minimales en jaune), dans la région de Los Angeles, faci-
problème. On distingue trois types de lite l'étude des risques associés aux polluants atmosphériques.
message qui ne tient pas compte de ce
GÉRER LES RISQUES, filtrage est ignore ou mal interprété.
UNE RECHERCHE EN CRISE ? Pour connaître les préjugés du public
sur les risques du radon, nous avons réa-
Gérer les risques de façon cohé- logie sociale, mais aussi sciences de lisé un sondage en demandant : « Que
rente nécessite une représentation l'ingénieur ou biologie. savez-vous du radon ?, puis en posant
globale des choses. Certaines diffi- Le séminaire Sciences de la déci- des questions de plus en plus précises.
cultés de cette gestion sont présen- sion, organisé depuis plusieurs années Après l'interrogation d'une vingtaine de
tées ici notamment l'identification par le Groupe de recherche sur le
des chaines de causalité et l'évalua- risque, l'information et la décision personnes, nous n'avons plus enregistré
tion des dommages. (GRID), à l'École normale supérieure d'idées nouvelles ; en nous fondant sur
de
Une autre difficulté est la mise au Cachan, confronte chercheurs améri- ces résultats, nous avons conçu un ques-
point d'une méthode de selection des cains et européens sur ces thèmes. tionnaire à choix multiple, que nous
stratégiesà adopter vis-à-visdes divers Quelques sessions plus appliquées, avons distribué à un échantillon de per-
types de risques ; Maurice Allais, prix comme celle sur les risques liés aux sonnes beaucoup plus vaste. Nous
Nobel d'économie, a contribué de transports, en mars 1993, associent avons montré que le public se faisait des
façon illustre à la résolution de ce pro- gestionnaireset chercheurs. idées fausses qui limitaient l'efficacité
blème. Par ailleurs, la perception des En France, hélas, la gestion de des messages de l'Agence.
risques est contingente : ainsi, dans nombreux risques est négligée, ou Un pourcentage notable de la
l'espacedes risques, les Françaiset les abusivement assimilée à la gestion des
population pense, à tort, que la conta-
Américains situent différemment les crises. En témoignent les inondations
risques liés à la santé(68 pour cent des mination par le radon ne disparaît pas.
catastrophiquesde Vaison-la-Romaine,
Français font confiance aux experts ainsi que la détressedes pêcheurs bre- Cette erreur résulte sans doute d'une
dans ce domaine, contre seulement tons face aux fluctuations des cours du confusion avec le comportement des
23 pour cent des Américains),ainsi que poisson; de tels malheurs ne sauraient polluants chimiques ou des éléments
les risques nucléaires (pour lesquels être réglés par une simple solidarité radioactifs à période longue. La pre-
79 pour cent des Français s'en remet- financière nationale ou européenne. mière version du Guide du radon, édité
tent aux jugements des experts, contre Les imprécisions de la loi de 1982-
par l'Agence, ne mentionnait pas ce
34 pour cent des Américains) ; en 1990 sur les catastrophes naturelles, problème, mais sa réédition, fondée
revanche, les risques de SIDA, et dans le premier cas, et l'absence de
d'autres risques,sont jugés de la même sur nos résultats, le signalait explicite-
toute institution permettant aux
façon en Franceet aux États-Unis. pêcheursde gérer leurs risques,dans le ment.
Gérer les risques nécessite donc second,traduisent bien la relative indif- La communication, en matière de
risques, sert à fournir au public les
une interaction des spécialistes de férence à l'égard de la recherche sur la
nombreuses disciplines : économie, gestiondes risques. bases qui lui permettront de décider en
gestion, sciencescognitives et psycho- Bertrand MUNIER, GRID, Cachan connaissance de cause. Nous avons
utilisé notre méthode pour mettre au
point deux brochures d'information
sur le radon, et nous avons comparé
II n'existe malheureusement aucun L'industrie chimique a fait des efforts leur efficacité à celle du premier guide
critère idéal pour orienter la prise de considérables pour enseigner aux direc- de l'Agence. Lorsque nous avons
décisions concernant les risques. Celle- teurs d'usines à montrer au public com- demandé à des personnes de se rappe-
ci dépend finalement des valeurs ment classer les risques. Toutefois nous ler des informations simples sur le
éthiques individuelles et sociales. On avons montré que ces conseils étaient radon, nous avons reçu des réponses
doit toutefois choisir et définir précisé- inadéquats : pour communiquer au public d'une même qualité, quelle que soit la
ment les critères de la prise de décisions une information fiable sur les risques, on brochure. Toutefois, lorsque nous
et veiller à ce que ces choix restent doit d'abord déterminer ce que le public avons testé leurs capacités déductives
cohérents, notamment lors des situa- sait et ce qu'il doit connaître ; puis on -par exemple, l'aptitude à conseiller
tions complexes, sous peine de traiter doit concevoir les messages, les tester et un voisin lors d'une forte contamina-
un même risque de façon contradictoire. les perfectionner jusqu'à ce que les tion au radon-, les personnes ayant
La communication joue un rôle clé enquêtes démontrent qu'ils ont transmis reçu l'une de nos brochures surpas-
dans l'analyse et la gestion des risques. l'information souhaitée. saient nettement celles qui avaient
II ne suffit pas que les pouvoirs publics En 1989, nous avons étudié l'impact reçu le guide de l'Agence.
prennent les bonnes décisions pour limi- d'une brochure émise par l'Agence Nous avons également détecté des
ter les risques : encore faut-il que la américaine de protection de l'environ- préjugés erronés du public dans
population en soit correctement infor- nement pour informer le public des d'autres domaines, comme ceux liés
mée. Confier la prise de décisions à des risques liés à la présence de radon dans aux changements climatiques. Peu de
comités d'experts isolés s'est révélé un les habitations. Pour préparer cette bro- gens associent la consommation
échec, parce que les spécialistes igno- chure, I'Agence avait demandé aux spé- d'énergie et les rejets de dioxyde de
rent parfois des considérations sociales cialistes quelle devait être l'information carbone au réchauffement du Globe.
importantes : leurs décisions se heurtent à transmettre à la population, puis elle Nombreux sont ceux qui croient, à
alors à une résistance de la population. avait rédigé cette information sous une tort, que le trou dans la couche
Jusqu'en 1985, les pouvoirs publics et forme attrayante. Or les gens sont rare- d'ozone est la cause essentielle du
les industries se sont peu préoccupés ment dans l'ignorance totale des réchauffement, et certains pensent
d'informer la population des risques, risques, et ils filtrent les messages selon qu'il résulte essentiellement du lance-
mais depuis les choses ont évolué. leurs connaissances antérieures ; un ment des navettes spatiales.
Des messages efficaces ne présentent pas les détails techniques des décisions absurdes ou inefficaces.
des problèmes et privilégient le sensa- Toutefois, lorsqu'on fournit au public
Le principe d'une communication tionnel. Ceux qui essaient de trans- des informations pertinentes et qu'on lui
efficace en matière de risques est simple : mettre un message ont souvent un pro- laisse le temps d'y réfléchir, il est
on doit explorer les croyances du public, gramme à défendre, ou ce sont des capable de discerner les problèmes
adapter le message aux croyances et aux législateurs qui remplissent mal leurs importants et de concevoir des décisions
réactions du public, puis tester soigneu- devoirs ou qui traitent les risques dans efficaces pour limiter les risques.
sement l'efficacité du message. Or cette une perspective trop étroite. Ainsi nous avons demandé à divers
méthode n'a presque jamais été utilisée : Il n'est donc guère étonnant que chefs de groupe d'opinion-un profes-
le public reçoit des informations frag- l'opinion publique à l'égard des risques seur, un agent fédéral de la sécurité rou-
mentaires par les médias qui, souvent, soit parfois incohérente ou conduise à tière, un directeur de banque, etc.-de

LES MÉTHODES D'ANALYSE DES RISQUES

L'incertitude caractérise la plupart des risques. Les ana- valeur la plus probable du coût social net serait minimale
lystes disposent aujourd'hui de plusieurs logiciels pour étudier pour une réduction de 55 pour cent des émissions de TXC.
les effets de l'incertitude. Ces outils informatiques, qui indi- Avec une valeur de la vie humaine estimée à 15 misions de
quent tes conséquenceslogiques des hypothèses et des régies francs ta réduction optimale serait d'environ 88 pour cent.
pour un risque donne, facilitent la prise de décision. L'un de Le programme Demos calcule également les corrélations
ces systèmesest le programme Demos, mis au point par Max entre chaque variable d'entrée et le coût total. Des corréla-
Henrion, de la société Lumina Decision Systems. tions étroites correspondent aux variables qui augmentent
Supposons qu'une population de 30 millions de per- l'incertitude de l'estimation du coût final. Ainsi, lorsque la lutte
sonnes soit uniformément exposée a un polluant chimique antipollution est peu intensive, l'incertitude résulte essentielle-
fictif, nommé « TXC ».Dans une première étape, on définit la ment des variations de la pente de la courbe des dommages,
fonction qui décrit le risque associé aux divers du
degrés
seuild'expo-
de toxidté et de la concentration de base en polluant.
sition (par exemple, une fonction dose-réponse linéaire, avec En revanche, lorsque la lutte antipollution est très intensive,
un seuil au-dessousduquel il n'y a aucun danger). l'incertitude résulte presque entièrement des inconnues
Le programme Demos estime le nombre de décès concernant te coût de ta réduction des émissions nocives.
annuels résultant de l'exposition au TXC. La distribution des Enfin le programme Demos calcule la différence du coût
probabilités montre estime entre ! a déci-
que dans 30 pour sion optimale fondée
cent des cas, per- sur les informations
sonne ne meurt ; disponibles et la déci-
dans 50 pour cent sion optimale fondée
des cas, la mortalité sur des informations
annuelle est inférieure parfaites-c'est-à-dire
à 100 ; et dans 10 le bénéfice obtenu en
pour cent des cas, éliminant toutes les
elle est supérieure incertitudes des cal-
à 1 000. culs. Cette différence
A condition d'y est nommée, en
mettre le prix, on dis- analyse de la déci-
pose de méthodes sion, valeur espérée
antipollution qui de l'information par-
réduisent ! a concen- faite ; elle correspond
tration en TXC le coût à la limite supérieure
d'une réduction don- de la valeur de
née, ainsi que les la recherche. Par
risques de l'exposition exemple, si une vie
sont déterminés par épargnée a un coût
des spécialistes. Pour social de 1,5 million
choisir l'intensité de la Chaque bloc du diagromme ci-dessus, quand clique dessus, de francs, cette valeur
4. on
lutte antipollution qui est de 190 millions
montre une fenêtre avec des courbes et des tableaux sur les hypo-
minimisera le coût thèses, les équations et les lois de probabilités. de francs par an ; si
social global, on doit une vie épargnée
d'abord déterminer le vaut 15 millions de
pnx que la société est prête a payer pour diminuer la morta- francs, cette valeur atteint 355 millions de francs par an.
lite. Dans cet exemple, ce prix varierait de 1,5 à 15 millions de Avec des outils comme le programme Demos, qui-
francs par décès évite (la fixation de ces valeurs est un juge- conque possède un ordinateur personnel peut pratiquer une
ment de valeur ; en pratique, la phase cruciale de l'analyse analyse quantitative des risques, mais l'utilisation correcte de
consiste à déterminer comment les résultats dépendent du ces outils exige une formation sérieuse. Mes collègues et
prix attribué à la vie et santé).
à la moi-même avons constaté que, lors de la première utilisation
Dans notre modèle, le coût social net est égal à la somme de Demos, des étudiants en première année de thèse igno-
du coût de la lutte antipollution et de la mortalité. Avec une raient généralement les éventuelles corrélations entre les
valeur de la vie humaine estimée à 1, 5 million de francs, la variables, surestimant ainsi lincertitude de leurs résultats.
4. DANS L'ESPACEDU RISQUE, l'abscisse
représente l'« atrocité » d'un danger et
l'ordonnée le degré de compréhension de
ce danger dans la population. Les risques
situés dans le cadran supérieur droit sont
ceux qui suscitent la plus forte demande
de réglementation.

constituer un comité de résidents fictif, tains risques (la combustion des pyja- tion globale unique pour limiter un
chargé de conseiller l'administration sur mas pour enfants, par exemple), elle en risque. Il serait pourtant bien plus effi-
le site d'implantation de lignes élec- a parfois créé d'autres (un risque accru cace de tester plusieurs stratégies pour
triques à haute tension. Nous avons de cancer par exposition à des produits déterminer la meilleure, ce qui est rare-
demandé aux membres de ce comité de chimiques ignifuges). Les décideurs ont ment pratiqué. Enfin les gestionnaires
réfléchir aux risques, controversés pour parfois ignoré des risques importants, des risques n'ont pas su faire participer le
la santé, des champs électriques et alors qu'ils combattaient ardemment public aux prises de décisions, auprès
magnétiques produits par ces lignes à des risques mineurs. Ainsi ils ont investi d'experts qui lui auraient fourni les infor-
haute tension. Nous leur avons fourni des des sommes considérables pour limiter mations nécessaires. Malgré l'existence
informations détaillées sur ce problème les risques liés à des cancérogènes arti- de lois instituant des enquêtes d'utilité
et une liste de questions précises. Après ficiels, tandis qu'ils ignoraient totale- publique pour la délivrance des permis
une journée et demie de réflexion, le ment des cancérogènes naturels, pour- d'installation des réacteurs nucléaires ou
comité a défini les problèmes politiques tant bien plus nocifs. des décharges à risques, le public parti-
et proposé des solutions que n'aurait pas Par ailleurs, les gouvernements ont cipe rarement au débat, et il est souvent
reniées une société de conseil. fondé peu d'institutions pour tirer des informé trop tard pour intervenir dans la
Le public n'est pas responsable de leçons du passé. On confond trop sou- prise de décisions.
la médiocrité de ses réactions face aux vent les analyses des accidents et les Dans une démocratie, le bon fonc-
risques ; la faute en est aux gestion- enquêtes judiciaires, et l'on ignore ou tionnement de la société nécessite
naires des risques qui privilégient le l'on cache au public des informations l'information des citoyens. Pour mieux
court terme, préférant les actions efficaces pour sa sécurité. Pourtant gérer les risques, les gouvernements
immédiates aux investissements qui l'exemple de l'aviation civile est ins- devront améliorer leurs méthodes de
permettraient d'accroître nos connais- tructif : la sécurité aérienne a largement communication et créer des institutions
sances sur les risques. En témoignent bénéficié des enquêtes sur les catas- permettant au public et à ses représen-
les lois qui régissent la préservation de trophes aériennes, car les enquêteurs ont tants d'intervenir dans la gestion des
l'environnement, la sécurité des lieux su écarter les problèmes de responsabi- risques. La participation du public
de travail et l'innocuité des produits de lité pour déterminer les causes de ces n'empêchera sansdoute pas les décisions
consommation. catastrophes, et diffuser leurs conclu- absurdes-que nulle autre procédure ne
En outre, l'administration a souvent sions aux personnes concernées. peut éviter-, mais elle devrait limiter les
traité les risques dans une perspective De nombreux décideurs sont proba- affrontements trop fréquents dans les
trop étroite : en essayant de réduire cer- blement trop pressés de trouver une solu- débats sur la gestion des risques.
LE ASSURÉ tiques. II observe, par exemple, que la
HASARD
pièce tombe autant de fois sur pile que
sur face. Puis, si un autre joueur lui pro-
pose un jeu où il gagne deux francs
Jean-Jacques Duby quand ta pièce indique pile et où il perd
trois francs quand la pièce tombe sur
dent aitriser le risque, c'est éviter l'acci- une branche d'hyperbole : les risques les face, il calcule le gain moyen, encore
et, quand l'accident survient, plus graves sont les plus rares (on les nommé espérance mathématique ; dans
en limiter les conséquences. Maitrisant nomme risques de catastrophes), les cet exemple, l'espérance mathématique
mieux les risques, les hommes vivent risques les plus fréquents sont les plus est-1 franc, de sorte que le joueur doit
plus longtemps : dans les pays industria- bénins (risques de fréquence). refuser de jouer.
lisés, la durée moyenne de vie augmente Ainsi le risque d'accident automobile Comment calculer l'espérance
d'un an tous les cinq ou six ans. Quelles est un risque de fréquence : les accidents mathématique dans des situations plus
techniques permettent ce remarquable sont fréquents, mais leur coût unitaire est complexes ? Les cindyniciens utilisent
résultat ? Quelles sont leurs limites ? généralement faible. En revanche, les deux méthodes différentes. Pour prévoir
Nos sociétés affrontent le risque à cyclones sont des risques de catastrophe : les risques de fréquence, ils emploient
l'aide de techniques de prévision et de Andrews, en 1992, a causé plus de cent surtout la méthode ex post, une statis-
prévention, d'assurance et de précaution. milliards de francs de dégâts ; de telles tique à partir des événements ayant été
La science du risque, ou cindynique, se catastrophessont heureusement rares. observés. C'est ainsi que Edmund Halley
développe afin de pallier l'impossibilité établit la première table de mortalité, à la
de la parfaite maitrise du risque. C'est La prévision fin du XVIIe
siecle, à partir de l'étude de la
parce que cette dernière est impossible population de Breslau. Aujourd'hui les
que l'on recourt à a prévention ; c'est Pour maitriser les risques, on cherche méthodes ex post sont devenues très éla-
parce que la prévention totale est impos- d'abord à les prévoir et, plus précisément borées : pour les risques automobiles, on
sible que l'on recourt à l'assurance, et, à en calculer les probabilités de survenue sait calculer les probabilités d'accidents
pour les cas ou l'assurance est impos- et de coût. Chaque fois que nous selon le conducteur, le lieu de circulation,
sible, on recourt a la précaution. sommes confrontés à une situation ris- le véhicule... On découvre parfois des
Qu'est-ce qu'un risque ? C'est un quée, nous sommes dans la situation du facteurs inattendus : le risque automobile
danger éventuel, plus ou moins prévi- joueur qui lance une pièce de monnaie et dépend de la couleur du véhicule (il est
sible. Certains risques sont naturels : aimerait savoir le résultat du lancer. Pour maximal pour les véhicules rouges) !
c'est le cas des tsunamis, des cyclones, envisager de prendre des paris sur le côté Toutefois, aussi fine que soit l'analyse
des volcans, des inondations, des glisse- qu'affiche la pièce, le joueur avisé étudie des risques automobiles, on ne pourra
ments de terrains, des chutes d'astéroïde, des séries de lancers et dresse des statis- jamais prévoir qui sera touché, où et
mais aussi des épidémies. D'autres risques
sont artificiels, créés par l'homme : acci-
dents du travail, risques automobiles,
explosions, vols, dommages a autrui,
pertes financières, pollutions...
Enfin les risques « stochastiques »
n'occasionnent pas de dégâts directs,
mais accroissent la probabilité d'autres
risques : le tabac, par exemple, accroit
indirectement la probabilité d'avoir un
cancer du poumon.

L imposable énumération
des risques

La liste des risques s'allongeen perma-


nence, parfois en raison du progrès tech-
nique : il n'y avait pas d'accident d'avion
avant Clément Ader. Parfoisaussi, la société,
qui a horreur du risque, n'accepte plus la
fatalite de certains événements, qui s'ajou-
tent à la liste : certains risquestels que ceux
d'effets secondairesdes médicamentsou de
sécheresse, pour les agriculteurs, sont de
moins en moins acceptés.
On caractérise généralement les
risques par deux paramètres : la probabi-
lité et la gravité. L'observation des acci-
dents montre que, dans cet espace àdeux
dimensions, les risques se répartissent sur 1. Le perfectionnement des appareils de navigation a réduit les risques de naufrage.
quand : on sait avec certitude que 20 à prévention : quand on observe qu'une de Tchernobyl a des causes sociales : les
30 personnes seront tuées, en France, succession d'événements mène à une autorités soviétiques n'avaient manifeste-
dans les prochaines 24 heures, mais on catastrophe, on s'attache à en prévenir le ment pas choisi de mettre autant l'accent
est incapable de dire qui le sera. déroulement selon ce chemin. sur la sécurité que ne le fait EDF, par
Pour les risques de catastrophe, ou Toutefois les système techniques exemple. L'accident de la navette spatiale
grands risques, les statistiques manquent, modernes sont devenus si complexes Challenger n'est pas indépendant des
puisqu'ils sont rares. Un premier palliatif qu'on ne peut envisager toutes les objectifs que s'était imposée la NASA,
consiste a extrapoler des courbes statis- séquences possibles d'événements. De poussée alors par le Congrès américain,
tiques. C'est la méthode qui fut suivieen surcroit, le facteur humain, encore plus qui exigeait des résultats rapides.
1975 par Norman Rasmussen, imprévisible, est apparu de plus en plus Ces exemples démontrent que les
qui a travaillé a l'Institut de technologie important : l'accident de Tchernobyl, par sciencesexactesne suffiront pas a maitriser
du Massachusetts. exemple, résulte de plusieurs erreurs les risques: la dimension humaine doit être
Ce dernier avait ainsi calcule que la humaines, que personne n'aurait prévu : prise en compte. Peut-on intégrer les résul-
probabilite d'une catastrophe naturelle imaginerait-on un conducteur de train qui, tats des scienceshumaines et socialesdans
causant 1 000 morts était d'un dixième dans une gare importante, grillerait les ta modélisation ? Les cindyniciens se sont
par an, et d'un centième pour 20 000 signaux d'arrêt? attaqués au problème : I'hyperespacecin-
morts ; pour les accidents technologiques, Pour prévenir même ces erreurs, les dynique de Georges Yves Kervern, de
les probabilités étaient inférieures. cindyniciens ont commencé par étudier les l'U. A. P,comporte, à côté des dimensions
Quelques décennies d'études ont montré facteurs liés à l'individu, notamment l'ergo- statistiqueet épistémique (qui expriment la
que ces probabilités étaient sous-estimées, nomie : l'accident de l'Airbus, sur le mont modélisation mathématique du risque), les
mais on a également observé que la fré- Saint-Odile, est vraisemblablement dû a dimensions déontologique (qui représente
quence des catastrophes a augmenté une mauvaise interprétation par le pilote les règles suivies par la société), téléolo-
depuis les années 1980, notamment parce des indications du tableau de bord. gique (les finalités communes) et axiolo-
que la population s'est densifiée. Cependant les seuls efforts ergono- gique (l'échelle des valeurs partagées).
Les méthodes ex ante sont un autre miques ne suffisent pas à prévenir les Toutefois la prévention doit encore
palliatif aux insuffisances des observa- risques : on a progressivement découvert progresser. Dans le cas du risque de pol-
tions statistiques. Largement développées qu'il fallait faire intervenir des considéra- lution, par exemple, on commence seule-
dans les industries comme l'aérospatiale tions non plus individuelles, mais ment à comprendre que les risques ne
ou le nucléaire, ces méthodes partent du sociales, comme les notions d'éthique, sont parfois que remplacés, et non élimi-
principe qu'un accident est l'événement d'échelle de valeurs. Le dilemme du chef nés : I'ammoniac qui servait de fluide
ultime d'une séquence déclenchée par d'entreprise qui doit trouver un compro- caloporteur dans les réfrigérateurs, a l'ori-
un incident initial ; en conséquence, on mis entre profitabilité et sécurité est un gine de nombreux accidents, a été rem-
recherche toutes les causes initiales pos- problème éthique. De même, I'accident placé par les chlorofluorocarbures, accusés
sibles, on dresse les arbres d'événements
et l'on calcule la probabilité de tous ces
enchainements.

La prévention

Les techniques de prévention décou-


lent directement des efforts de prévision :
si l'on parvient à prévoir un accident, on
cherche naturellement à l'éviter. La pré-
vention des risques est aussi ancienne
que la vie : les animaux survivent, parce
qu'ils évitent d'être dévorés par leurs
prédateurs ou tués par les phénomènes
naturels. La tortue est un magnifique
exemple de prévention innée : adulte,
elle est protégée par sa carapace ; à la
naissance, les petites tortues sont déci-
mées, mais leur grand nombre assure la
survie de l'espèce.
L'homme a considérablement amé-
lioré les techniques de prévention : il pré-
vient les risques de maladie par ta méde-
cine, l'hygiène, la vaccination. Dans
l'industrie, les systèmesde surveillance évi-
tent la transformadon d'incidents en acci-
dents ; les systèmesde gestion des crises
évitent la transformation des accidents en
catastrophes.Les mêmes calculs de prévi- 2. Les risques se répartissent sur une branche d'hyperbole dans un espace
sion des cindyniciens servent aussi à la gravité-fréquence.
aujourd'hui de détruire l'ozone atmosphé- Pourtant il existe des risques encore
rique. Quelles sont les limites des progrès plus graves : si les chlorofluorocarbures
en prévention ? Tout d'abord, les investis- détruisaient la couche d'ozone et rendaient
sements et les études de prévention sont la Terre inhabitable, I'assurance serait
nécessairement limités. impuissante. C'est pour de telles êventuafi-
En outre, si la maitrise des risques prin- tés que s'impose le principe de précaution.
cipaux est simple, la prévention des risques
les moins fréquents impose des dépenses La précaution
considérables pour des résultats asymptoti-
quement faibles. Enfin la prévention n'est On invoque le principe de précaution
pas toujours acceptée socialement : par quand on connait trop mal un risque,
exemple, les accidents automobiles seraient voire quand on ignore même s'il existe
sans gravité si on limitait la vitesse a 20 vraiment, mais que l'on sait que, si le
kilomètres par heure, mais accepterions- risque existait et s'il se matérialisait, le
nous une telle contrainte ? dommage serait irréparable et irréversible.
La précaution est apparue récemment a

L'assurance propos du DDT, des chlorofluorocarbures,


du plomb tétraéthyle, etc.
Parce que la prévention parfaite est Un tel principe pose des problemes
impossible, les risques résiduels sont trai- nouveaux : pour la première fois dans l'his-
tés par les assurances. Les plus anciennes toire de l'humanité, il conduit le législateur
techniques d'assurance connues étaient à imposer des limites à la recherche scienti-
pratiquées par des banquiers sumériens, fique ou technique. Cette nouvelle attitude
qui prêtaient a des caravaniers de l'argent doit être soigneusement pesée, car, comme
qui n'était remboursé que si la caravane dit t'adage, trop de précaution nuit.
arrivait à bon port. Pratiqué par les Par exemple, le législateur français envi-
Babyloniens, les Grecs, les Romains, ce sage de faire porter aux fabricants de nou-
«prêt a la grosse aventure » a été poursuivi veaux produits la responsabilité d'effets
jusqu'au Moyen Age. Puis, au XIVe siècle, à secondaires imprévisibles dans t'état des
Gènes, l'assurance s'est détachée de ta connaissances scientifiques au moment de
banque, de riches familles commençant à la mise sur le marché : c'est ce que l'on
assurer les risques maritimes. nomme le risque de développement. Ce fut
Les primes d'assurance permettent ce le cas, dans le passé, des peintures au
que l'on nomme une mutualisation du plomb, des revêtements à I'amiante et,
risque : les versements de 1'ensemble des même, de certains médicaments, malgré les
assurés a une compagnie servent à procédures très sévères de l'AMM (autorisa-
indemniser ceux à qui il survient un acci- tion de mise sur le marché).
dent, a rémunérer le risque pris par Une telle réglementation aurait des
l'assureur et à couvrir les frais de gestion. effets secondaires-sûrs et certains, eux...
Peut-on tout assurer ? Une première -sur le progrès scientifique et technique, et
limite résulte du mécanisme même de risquerait de nuire a la population qu'elle
l'assurance, la mutualisation, qui suppose est censée protéger : déjà des sociétés
une volonte individuelle : le citadin qui comme Du Pont de Nemours, producteur
habite le demier étage d'un gratte-ciel ne de matières plastiques « biocompatibles »,
voit guère l'utilité de s'assurer contre les refusent de livrer leurs matériaux aux
inondations. La volonté publique peut assembleurs de stimulateurs cardiaques,
alors décider de socialiser le risque, parce qu'elles craignent d'être tenues pour
comme on l'a fait, en France, pour les responsables si ces matériaux provoquent
catastrophes naturelles ou la maladie, for- des rejets. Si l'on cesse de fabriquer ces sti-
çant ainsi une solidarité entre régions ou mulateurs, les malades mourront a coup
entre générations. sûr, au lieu de souffrir, dans certains cas
D'autre part, I'assurance n'est pas tou- seulement, de complications dues au rejet.
jours possible, techniquement et financière- Jusqu'à ces demières années, le risque
ment : les compagnies d'assurance, même de développement était considéré comme
les plus importantes, ne pourraient rem- un cas de force majeure, dont il a toutes les
bourser les dégâts de certaines catastrophes caractéristiques juridiques : il est extérieur,
exceptionnelles. Comment définir le mon- imprévisibie et irrésistible. Mais aujourd'hui
tant des primes quand on ne sait pas a le public demande que ce risque soit cou-
combien s'élèveront les dommages ? On vert. C'est malheureusement impossible : il
estime ainsi que le prochain grand tremble- y a danger de mort a vivre.
ment de terre a Tokyo coûtera sans doute
plus de 1 000 milliards de francs. Jean-Jacques Duby
Comment l'assurer ? est directeurscientifique de IUA. P.
AUTEURS
ET BIBLIOGRAPHIES

La vision probabiliste de Laplace Le hasard trouve... bien les choses Les marchés aléatoires
Bernard BRU est professeur à l'Université JeanJACQUES, directeur de rechercheémérite Jean-Philippe BOUCHAUDest chercheur au
René Descartes. au CNRS(Collège de France), a longtemps tra- CEA. Christian WALTER, actuaire au Crédit
P.-S : LAPLACE, Théorie analytique des pro- vaillé en chimie des hormoneset en stéréochimie. Lyonnais et membre agrégé de l'Institut des
habilités, Paris, 1812. René TATON,Causalité et accidents de la actuaires français, enseigne à l'École supérieure
P.-S. LAPLACE,Essai philosophique sur les découverte scientifique, 1955. des scienceséconomiqueset commerciales.
probabilités, Paris, Christian Bourgeois, 1986. G. SHAPIRO, TheSkeleton in the Darkroom, H. M. MARKOWITZ, Portfolio Selection,
Stories and Serendipity in Science, 1989. Efficient Diversification of Investments, New
Du hasard bénin au hasard sauvage R. M. ROBERTS,Serendipity : Accidental York, J. Wiley and Sons, 1959.
Discoveries in Science, 1989. B. MANDELBROT, « Sur certains prix spécula-
Benoît MANDELBROT, ancien élève de
l'École polytechnique et professeurde mathéma- A. KOHN, Fortune and Failure ; Missed tifs : faits empiriques et modèle base sur les pro-
Opportunities and Chance Discoveries in cessus stables additifs non gaussiens de Paul
tiques à Yale, nous a autorisésà extraire ce texte Science, 1989. Lévy »,Compte-rendu à l'Académie des sciences,
de son ouvrage, Fractals, hasards et tourbillons,
Jean JACQUES, L'imprevu ou la science des séance du 4 juin 1962, pp 3968-3970. C'est la
dont la parution chez Flammarion est imminente. objets trouvés, 1990. première suggestionde l'application des lois de
Lauréat du prix Wolf de physique en 1993,il est Lévy à la modélisation desvariations de marché.
surtout connu pour la découverte de l'Ensemble La loi normale, J.-P. BOUCHAUD& D. SORNETTE,The «
qui porte son nom et pour son rôle de « pèredes reine des statistiques Black-Scholes Option Pricing Problem in
fractals »; il est l'auteur desObjets fractals (la 4e
Aime FUCHSest professeur à l'Université Mathématical Finance : generalisation and
édition a paru chez Flammarion dans la collec-
de Strasbourg 1. extention for a large class of stochastic pro-
tion de poche, Champs) et du livre The Fractal
A. de MOIVRE,The Doctrine of Chances or cesses., Journal de Physique France 4, juin
Geometry of Nature (New York, W. H. Freeman, 1994, pp 863-88 1.
1982). La nouvelle abondancedes données et la a Method of Calculating the Probability of
Events in Play, London, Millar, 1756 ; réim- C. WALTER, « L'utilisation des lois Lévy-
puissancedes ordinateurs donnent à ses travaux
pression par Chelsea,New York, 1967. stables en finance : une solution possible au pro-
sur la finance et le risque une acuité nouvelle ; ils blème posé par les discontinuités des trajectoires
Y. V. LINNIK, An Information-theoretic
vont être réimprimés sous le titre Fractals in boursières », Bulletin de l'IAF, n° 349 (octobre
Finance : Discontinuity and Concentration. Proof of the Central Limit Theorem with the
Lindeberg Condition, in Theory 1990) et 350 (janvier 1991). pp 3-32 et 4-23.
La répartition des étoiles and its Applications, tome 4, 1959.
Le paradoxe de Stein
A. FUCHSet G. LETTA,Sur certaines équa-
et des galaxies
tions fonctionnelles liées à la loi normale, Bradley EFRON est directeur du
Joseph SILK est professeur d'astronomie à L'Enseignement Mathématique, 2e série, tome Département de statistiques de l'Université de
l'Université de Californie, à Berkeley. Alexander 25, 1979. Stanford. Carl MORRISest maître statisticien à
SZALAYest professeurde physique à l'Université la Rand Corporation, à SantaMonica.
de Budapest. Yakov ZEL'DOVICHest professeur Le mouvement brownien Grace M. CARTER et John E. ROLPH,
d'astrophysiqueà l'Université de Moscou. et la théorie du potentiel Empirical Bayes Methods Applied to
Joseph SILK, The Big Bang : The Creation Estimating Fire Alarm Probabilities, in Journal
Reuben HERSHet Richard GRIEGOsont pro-
and Evolution of the Universe, W.H. Freeman fesseurs au Département de mathématiques et of the American Statistical Association, vol. 69,
and Company, 1980. n° 348, pp. 880-885, décembre 1974.
statistiques,à t'Université du Nouveau-Mexique.
J.R. GOTT,The Growth of Structure in the Anthony W. KNAPP, Connection between B. EFRON et C. MORRIS,Data Analysis using
Universe, in Physical Cosmology, sous la direc- Brownian Motion and Potential Theory, in Stein's Estimator and its Generalizations, in
tion de Roger Balian, Jean Audouze et David N. Journal of the American Statistical Association,
Journal of Mathematical Analysis and
Schramm,Elsevier-North Holland, Inc., 1980. Applications, vol. 12, n° 2, pp. 328-349, vol. 70, n° 350, pp. 311-319, juin 1975.
Y. B. ZEL' DOVICH, Modern Cosmology in octobre 1965.
Highlights of Astronomy, vol. 6, sousla direction M. KAC, Wiener and Integration in Florence Nightingale,
de R. West, D. Reidel Publishing Co., 1983. infirmière et statisticienne
Function Spaces, in Bulletin of the American
Mathematical Society, vol. 72, n° 1, partie II, Bernard COHENest professeurd'histoire des
L'évolution de la vie sur Terre pp. 52-68, janvier 1966. sciencesà l'Université Harvard.
Stephen JAY GOULDest professeur de bio- Florence NIGHTINGALE, Notes on Nursing :
logie, de géologie et d'histoire des sciences, à Les suites aléatoires What It Is, and Whate It Is Not, Harrison and
l'Université de Harvard. Gregory CHAITIN est programmeur chez Sons, 1859.
L'évolution, collection Science d'avenir, IBM et enseigne l'informatique et les mathéma- Sir Edward COOK, The Life of Florence
Pour la Science, 1989. tiques à l'Université de Buenos Aires. Nightingale, Macmillan and Co., 1913.
S.J. GOULD, La vie est belle : les surprises Gregory J. CHAITIN,Information-Theoretic John M. EYLER, Victorian Social Medicine
de l'évolution, Collection Science ouverte, édi- Limitations of Formal Systems, in Journal of The Ideas and Methods of William Farr, The
tions du Seuil, 1991. the Associationfor Computing Machinery, vol. JohnsHopkins University Press, 1979.
Les fossiles, témoins de l'évolution, 21, pp. 403-424, juillet 1974.
Bibliothèque Pour la Science, 1991. Jean-Paul DELAHAYE, Information, com- L'épidémiologiste traque le hasard
Les origines de l'homme, Bibliothèque plexité et hasard, éditions Hermès, 1994. Daniel SCHWARTZ, professeur de statistique
Pour la Science, 1992. médicale et biologique à la faculté de médecine
David RAUP, De l'extinction des espèces. L'espérance mathématique de Paris-Sud, directeur de l'unité de recherches
Sur les causes de la disparition des dinosaures Jean-PaulDELAHAYEest professeur d'infor- statistiquesdel'INSERM(U21), est le fondateur de
et de quelques milliards d'autres, éditions matique à l'Université de Lille. l'École françaisede statistiquemédicale.
Gallimard, Les Essais 1993. D. KAHNEMANet A. TVERSKY,La psycho- D. SCHWARTZ,P. LAZAR et L. PAPOZ,
logie des préférences, in Pour La Science, mars Statistique médicale et biologie, Flammarion
Le hasard matrimonial 1982. médecine sciences,Paris 1985.
Hervé Le BRASest directeur du Laboratoire D. DENNETT,La stratégie de l'interprète, D. SCHWARTZ, Le jeu de la science et du
de démographie historique, à l'École des hautes NRFEssais, éditions Gallimard, 1990. hasard, Flammarion, 1994.
étudesen sciencessociales. M. GARDNER,La magie des paradoxes,
Bibliothèque Pour La Science, 1993. L'évaluation et la gestion
A. GIRARD,Le choix du conjoint, PUF, 1971.
P. LASLETT, Family Life and Illicit Love in des risques
Les probabilités géométriques
Eatlier Generations : Essays in Historical Granger MORGANdirige le département de
Sociology,Cambridge University Press, 1977. Roger CUCULIÈREenseigne les mathéma- politique industrielle à l'Université Camegie
K. WACHTER,E. HAMMEL,P. LASLETTet H. tiques en classede mathémathiquessupérieures. Mellon.
LE BRAS,Statistical Studies of Historical Social M. KENDALL et P. MORAN, Geometrical Readings in risk, sous la direction de
Structures, Academic Press,New York, 1978. Probability, Charles Griffin &
Co., Ltd., Theodore S. Glickman et Michael Gough,
H. LE BRAS, Les jeux du hasard et du Londres 1963. Resourcesfor the Future, 1990.
mariage, in Demographie et Sociologie, SEDEIS- L. SANTALO, Integral Geometry and Risk analysis, publication trimestrielle de la
La Sorbonne, 1988. Geometric Probability, Addison Wesley, 1976. Societyfor Risk Analysis, PlenumPublishing.

Vous aimerez peut-être aussi